[go: up one dir, main page]

JP4310909B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4310909B2
JP4310909B2 JP2000269076A JP2000269076A JP4310909B2 JP 4310909 B2 JP4310909 B2 JP 4310909B2 JP 2000269076 A JP2000269076 A JP 2000269076A JP 2000269076 A JP2000269076 A JP 2000269076A JP 4310909 B2 JP4310909 B2 JP 4310909B2
Authority
JP
Japan
Prior art keywords
processing unit
display
objects
list
dimensional model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000269076A
Other languages
Japanese (ja)
Other versions
JP2002074398A (en
Inventor
照二 宮永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2000269076A priority Critical patent/JP4310909B2/en
Publication of JP2002074398A publication Critical patent/JP2002074398A/en
Application granted granted Critical
Publication of JP4310909B2 publication Critical patent/JP4310909B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、画像処理装置に関し、より詳細には、画像処理装置によって画面表示された三次元モデルから任意のオブジェクトを操作者に選択させる技術に関する。
【0002】
【従来の技術】
CAD(Computer Aided Design) やCAE(Computer Aided Engineering)等の画像処理装置では、複数のオブジェクトからなる複雑な三次元モデルを、二次元的に画面表示させる場合がある。また、これらの複数のオブジェクトの中から、任意の1個のオブジェクトを操作者に選択させたい場合がある。この指定方法の一つとして、選択したいオブジェクト上の任意の点を、操作者に画面上で指定させる方法がある。しかし、三次元モデルを画面に表示する場合には、画面上の1個の点が複数のオブジェクトに対応することが多い。
【0003】
指定された1個の点が複数のオブジェクトに対応する場合、従来は、例えば、指定された点に対応するオブジェクトを画面にリストアップし、そのリストの中から、改めて操作者にオブジェクトを指定させていた。この場合、表示画面には、三次元モデルとリストの両方が表示される。したがって、操作性を向上させるためには、三次元モデル内の各オブジェクトとリストアップされた各オブジェクトとの対応関係を操作者に認識しやすくするための工夫が望まれる。
【0004】
このため、従来の画像処理装置では、例えば、操作者によってリスト上で指定されたオブジェクトを、三次元モデル内で強調表示することにより、操作性の向上を図っていた。
【0005】
【発明が解決しようとする課題】
しかしながら、リスト上で指定されたオブジェクトを三次元モデル内で強調表示する方法では、操作者は、選択したいオブジェクトを特定できるまで、リスト上での指定を繰り返さなければならない。
【0006】
したがって、このような方法では、十分な操作性を得ることができなかった。特に、三次元モデルに含まれるオブジェクトの数が多い場合には、オブジェクトの指定に要する操作負担は、非常に大きかった。
【0007】
このため、三次元モデル内の各オブジェクトとリスト内の各オブジェクトとの対応関係をさらに認識しやすくする技術が望まれていた。
【0008】
【課題を解決するための手段】
この発明に係る画像処理装置は、複数のオブジェクトを有する三次元モデルを出力装置の画面に二次元的に表示させるモデル表示処理部と、外部から指定された画面上の位置に対応する1または複数のオブジェクトを、三次元モデルから選択するオブジェクト選択処理部と、このオブジェクト選択処理部によって選択されたオブジェクトのリストを、これらのオブジェクトの三次元モデル上の遠近に応じて文字サイズが相違するように、出力装置の画面に表示させるリスト表示処理部とを備える。
【0009】
かかる構成によれば、モデル表示処理部に表示された三次元モデルに含まれるオブジェクトのうち、オブジェクト選択部で選択されたオブジェクトを、三次元モデル上の遠近に応じて文字サイズが相違するように表示することができる。したがって、この発明によれば、三次元モデル内の各オブジェクトとリスト内の各オブジェクトとの対応関係を認識しやすくすることができる。
【0010】
【発明の実施の形態】
以下、この発明の実施の形態について、図面を用いて説明する。なお、図中、各構成成分の大きさ、形状および配置関係は、本発明が理解できる程度に概略的に示してあるにすぎず、また、以下に説明する数値的条件は単なる例示にすぎない。
【0011】
第1の実施の形態
以下、この発明の第1の実施の形態に係る画像処理装置について、図1〜図7を用いて説明する。
【0012】
図1は、この実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。
【0013】
図1に示したように、この装置は、入力装置110、出力装置120、CPU(Central Processing Unit) 130、記憶部140および処理部150を備えている。
【0014】
入力装置110は、画像処理装置に対する操作やデータ入力等を行うための装置であり、例えばキーボードやマウスなどを有している。入力装置110は、CPU130に接続されている。
【0015】
出力装置120は、画像を表示するための装置である。出力装置120は、例えば、三次元モデルや、操作者によって選択されたオブジェクトのリスト等を、画面に表示する。この出力装置120も、CPU130に接続されている。
【0016】
CPU130は、入力装置110から入力された操作信号などに基づいて、出力装置120、記憶部140および処理部150等を制御する。
【0017】
記憶部140は、オブジェクト記憶部141を備える。このオブジェクト記憶部141は、三次元モデルに関するデータを記憶する。処理部150は、モデル表示処理部151と、オブジェクト選択処理部152と、リスト表示処理部153を備える。モデル表示処理部151は、出力装置120に三次元モデルを表示させるための画像処理等を行う。オブジェクト選択処理部152は、操作者によって指定された画面位置に対応するオブジェクトを三次元モデルから抽出する処理や、この画面位置に対応する座標をオブジェクト毎に算出する処理(後述)等を行う。また、リスト表示処理部153は、オブジェクト選択処理部152によって抽出されたオブジェクトのリストを出力装置120に表示するための処理等を行う。後述するように、このリスト表示処理部153は、オブジェクトのリストを、操作者の視点(実際には三次元空間内に仮想的に設定された視点)に近いオブジェクトから順に出力装置120に表示させ、且つ、視点座標に近いオブジェクトほど大きい文字サイズで表示させる。
【0018】
次に、図1に示した画像処理装置の動作について、図2〜図7を用いて説明する。
【0019】
図2は、この実施の形態に係る三次元モデルの表示例を示す概念図である。図2に示したように、出力装置120の表示画面には、三次元モデル201と、座標軸x,y,zを有する座標表示202とが表示される。図2の例では、三次元モデル201は、オブジェクトとして、4個の正三角形O1,I1,I2,A1を有している。これらのオブジェクトは、三次元空間的には、操作者に近い側からO1,I1,I2,A1の順で、配置されている。また、これらのオブジェクトO1,I1,I2,A1は、正三角形の中心点がそれぞれ直線x=y=z上に位置するように、配列されている。
【0020】
図3は、図2の三次元モデルに対応する座標データの一例を示している。図3の例では、それぞれのオブジェクトの頂点座標(x,y,z)は、オブジェクトO1 が(10,0,0),(0,10,0),(0,0,10)であり、オブジェクトI1 が(5,0,0),(0,5,0),(0,0,5)であり、オブジェクトI2 が(3,0,0),(0,3,0),(0,0,3)であり、オブジェクトA1 が(1,0,0),(0,1,0),(0,0,1)である。これらの座標データは、オブジェクト記憶部141内に記憶されている。図2に示したような画像を出力装置120に表示させる際には、まず、モデル表示処理部151が、オブジェクト記憶部141から読み出された座標データに基づいて表示画像情報を生成し、次に、CPU130が、この表示画像情報を用いて出力装置120に画像を表示させる。
【0021】
続いて、操作者にオブジェクトを選択させる手順を、図4を用いて説明する。
【0022】
まず、操作者が、入力装置110を用いて、出力装置120の表示画面上の任意の位置を指定すると、この指定情報がCPU130に受け付けられる(S401参照)。CPU130は、処理部150を制御して、後述の処理S402〜S404を行わせる。以下の説明では、図5に示したような位置P0 が、操作者によって指定された場合について説明する。この場合には、指定された位置には、すべてのオブジェクトO1,I1,I2,A1が対応していることになる。
【0023】
次に、オブジェクト選択処理部152が、操作者によって指定された画面位置に対応するオブジェクトを三次元モデルから抽出し、さらに、この画面位置に対応する座標をオブジェクト毎に算出する(S402参照)。座標の計算では、まず、仮想的な三次元空間における、表示画面上の指定点と座標原点(0,0,0)とを結ぶ直線を求め、そして、この直線と各オブジェクトO1,I1,I2,A1との交点の座標をそれぞれ求める。これらの交点座標が、求める座標である。図6に、座標の計算結果の一例を示す。
【0024】
続いて、オブジェクト選択処理部152は、抽出したオブジェクトO1,I1,I2,A1の並べ替えを行う(S403参照)。この実施の形態では、対応するオブジェクトO1,I1,I2,A1を、視点から近い順に並べる。なお、視点の座標は、三次元モデルの表示方向に応じてCPU130が算出する。
【0025】
次に、リスト表示処理部153が、オブジェクトのリストを出力装置120に表示させるための処理を行う(S404参照)。図7に、出力装置120に表示されるリストの一例を示す。図7に示したように、この実施の形態では、視点から近いオブジェクトから順に出力装置120に表示させ、且つ、視点から近いものほど大きい文字サイズで表示させる。
【0026】
その後、操作者が、出力装置120に表示されたリストから、いずれかのオブジェクトのいずれかを指定する(S405)。このとき、この実施の形態では、このリストを、操作者の視点から近いオブジェクトから順に表示し且つ視点から近いものほど大きい文字サイズで表示することにしたので、三次元モデル内の各オブジェクトとリストアップされた各オブジェクト名との対応関係が、操作者にとって認識しやすい。したがって、オブジェクトの選択が容易である。
【0027】
以上説明したように、この実施の形態によれば、三次元モデル内の各オブジェクトとリスト内の各オブジェクトとの対応関係を認識しやすくすることができ、したがって、三次元モデルに含まれるオブジェクトの数が多い場合でもオブジェクトの指定に要する操作負担が小さくなる。
【0028】
第2の実施の形態
以下、この発明の第1の実施の形態に係る画像処理装置について、図8〜図13を用いて説明する。
【0029】
図8は、この実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。
【0030】
図8に示したように、この装置は、入力装置810、出力装置820、CPU830、記憶部840および処理部850を備えている。
【0031】
入力装置810は、画像処理装置に対する操作やデータ入力等を行うための装置であり、例えばキーボードやマウスなどを有している。入力装置810は、CPU830に接続されている。
【0032】
出力装置820は、表示画面に画像を表示するための装置である。出力装置820は、例えば、三次元モデルや、操作者によって選択されたオブジェクトのリスト等を、画面に表示する。この出力装置820も、CPU830に接続されている。
【0033】
CPU830は、入力装置810から入力された操作信号などに基づいて、出力装置820、記憶部840および処理部850等を制御する。
【0034】
記憶部840は、オブジェクト記憶部841と、視界記憶部842と、抽出オブジェクト記憶部843とを備える。オブジェクト記憶部841には、三次元モデルの構成に関するデータが格納される。視界記憶部842には、三次元モデルを出力装置820に表示する際の視界情報(後述)が格納される。リスト表示処理部853には、オブジェクト選択処理部852(後述)による座標の計算結果(第1の実施の形態の図6参照)が、格納される。
【0035】
処理部850は、モデル表示処理部851と、オブジェクト選択処理部852と、リスト表示処理部853とを備える。モデル表示処理部851は、出力装置820に三次元モデルを表示させるための画像処理等を行う。オブジェクト選択処理部852は、操作者によって指定された画面位置に対応するオブジェクトを三次元モデルから抽出する処理や、この画面位置に対応する座標をオブジェクト毎に算出する処理(後述)等を行う。また、リスト表示処理部853は、オブジェクト選択処理部852によって抽出されたオブジェクトのリストを出力装置820に表示するための処理等を行う。
【0036】
次に、図8に示した画像処理装置の動作について、図9〜図13を用いて説明する。
【0037】
図9(A)は、この実施の形態に係る三次元モデルの表示例を示す概念図である。図9(A)に示したように、出力装置820の表示画面には、三次元モデル901と、座標軸x,y,zを有する座標表示902とが表示される。図9(A)の三次元モデル901は、第1の実施の形態の場合(図2参照)と同様、オブジェクトとして、4個の正三角形O1,I1,I2,A1を有している。これらのオブジェクトは、三次元空間的には、操作者に近い側からO1,I1,I2,A1の順で、配置されている。また、これらのオブジェクトO1,I1,I2,A1は、正三角形の中心点がそれぞれ直線x=y=z上に位置するように、配列されている。
【0038】
それぞれのオブジェクトの頂点座標(x,y,z)は、第1の実施の形態の場合(図3参照)と同様である。これらの座標データは、オブジェクト記憶部841内に記憶されている。図9(A)に示したような画像を出力装置820に表示させる際には、まず、モデル表示処理部851が、オブジェクト記憶部841から読み出された座標データに基づいて表示画像情報を生成し、次に、CPU830が、この表示画像情報を用いて出力装置820に画像を表示させる。
【0039】
また、オブジェクト記憶部841には、図10(A)に示したような、視界情報が格納されている。視界情報とは、操作者の視点と視線とを表す座標情報であり、三次元空間内に仮想的に設定されたものである。
【0040】
ここで、操作者が、オブジェクトを選択するために、出力装置120の表示画面上の任意の位置を指定すると、第1の実施の形態と同様の手順により(図4のS401〜S404参照)、指定された画面位置に対応する座標がオブジェクト毎に算出されるとともに、リストが画面表示される。このときの、座標の演算結果の一例を図11(A)に示し、リストの一例を図12(A)に示す。
【0041】
続いて、オブジェクトの表示方向を回転させるときの手順を説明する。図13は、この手順を説明するためのフローチャートである。
【0042】
まず、操作者が、入力装置810を用いて、オブジェクト表示方向の回転を指定する(S1301参照)。この指定では、回転の方向や回転角なども入力される。この指定の内容は、CPU830に送られる。CPU830は、モデル表示処理部851に、出力装置820の画面表示を変更するための画像処理と視界情報を変更するための処理とを実行させる。変更後の画面表示の例および視界情報の例を、図9(B)および図10(B)に示す。
【0043】
続いて、オブジェクト選択処理部852が、操作者によって指定された画面位置に対応するオブジェクトを三次元モデルから再抽出し、さらに、この画面位置に対応する座標をオブジェクト毎に再算出する(S1302参照)。座標の計算方法は、第1の実施の形態の場合と同様である。
【0044】
続いて、オブジェクト選択処理部852は、抽出したオブジェクトO1,I1,I2,A1の並べ替えを行う。この並べ替えにより、対応するオブジェクトO1,I1,I2,A1が、視点座標から近い順に並べ替えられる。図11(B)に、並べ替え後の状態の一例を示す(S1303参照)。
【0045】
次に、リスト表示処理部853が、オブジェクトのリストを出力装置820に表示させるための処理を行う(S1304参照)。図12に、出力装置820に表示されるリストの一例を示す。図12に示したように、ここでも、視点座標に近いオブジェクトから順に出力装置120に表示させ、且つ、視点座標に近いものほど大きい文字サイズで表示させる。
【0046】
その後、操作者が、出力装置820に表示されたリストから、いずれかのオブジェクトのいずれかを指定する(S1305)。この実施の形態でも、第1の実施の形態と同様、このリストを、操作者の視点から近いオブジェクトから順に表示し且つ操作者の視点に近いものほど大きい文字サイズで表示することにしたので、三次元モデル内の各オブジェクトとリストアップされた各オブジェクト名との対応関係が、操作者にとって認識しやすい。したがって、オブジェクトの選択が容易である。
【0047】
以上説明したように、この実施の形態によれば、三次元モデルを画面上で回転させた場合に、これに併せてリストの表示順序および文字サイズを変更することとした。したがって、三次元モデルを画面上で回転させた場合の、オブジェクトの指定に要する操作負担が小さくなる。
【0048】
【発明の効果】
以上詳細に説明したように、本発明によれば、三次元モデル内の各オブジェクトとリスト内の各オブジェクトとの対応関係をさらに認識しやすくすることができるので、オブジェクトの指定に要する操作負担を低減することができる。
【図面の簡単な説明】
【図1】第1の実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。
【図2】第1の実施の形態に係る画像処理装置の、三次元モデルの表示例を示す概念図である。
【図3】第1の実施の形態に係る画像処理装置の、座標データの一例を示す表である。
【図4】第1の実施の形態に係る画像処理装置の動作を説明するためのフローチャートである。
【図5】第1の実施の形態に係る画像処理装置の動作を説明するための概念図である。
【図6】第1の実施の形態に係る画像処理装置の、座標データの一例を示す表である。
【図7】第1の実施の形態に係る画像処理装置の、リスト表示の一例を示す表である。
【図8】第2の実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。
【図9】第2の実施の形態に係る画像処理装置の、三次元モデルの表示例を示す概念図である。
【図10】第2の実施の形態に係る画像処理装置の、視界情報の一例を示す表である。
【図11】第2の実施の形態に係る画像処理装置の、座標データの一例を示す表である。
【図12】第2の実施の形態に係る画像処理装置の、リスト表示の一例を示す表である。
【図13】第2の実施の形態に係る画像処理装置の動作を説明するためのフローチャートである。
【符号の説明】
110,810 入力装置
120,820 出力装置
130,830 CPU
140,840 記憶部
141,841 オブジェクト記憶部
150,850 処理部
151,851 モデル表示処理部
152,852 オブジェクト選択処理部
153,853 リスト表示処理部
842 視界記憶部
843 抽出オブジェクト記憶部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, and more particularly to a technique for allowing an operator to select an arbitrary object from a three-dimensional model displayed on the screen by the image processing apparatus.
[0002]
[Prior art]
In an image processing apparatus such as CAD (Computer Aided Design) or CAE (Computer Aided Engineering), a complicated three-dimensional model composed of a plurality of objects may be displayed on a two-dimensional screen. In some cases, the operator may want to select any one object from the plurality of objects. As one of the designation methods, there is a method in which an operator designates an arbitrary point on an object to be selected on the screen. However, when a three-dimensional model is displayed on the screen, one point on the screen often corresponds to a plurality of objects.
[0003]
When one specified point corresponds to a plurality of objects, conventionally, for example, an object corresponding to the specified point is listed on the screen, and the operator is made to specify the object again from the list. It was. In this case, both the three-dimensional model and the list are displayed on the display screen. Therefore, in order to improve the operability, it is desired to devise a technique for making the operator easily recognize the correspondence between each object in the three-dimensional model and each listed object.
[0004]
For this reason, in the conventional image processing apparatus, for example, an object designated on the list by the operator is highlighted in the three-dimensional model to improve operability.
[0005]
[Problems to be solved by the invention]
However, in the method of highlighting the object specified on the list in the three-dimensional model, the operator must repeat the specification on the list until the object to be selected can be identified.
[0006]
Therefore, with such a method, sufficient operability cannot be obtained. In particular, when the number of objects included in the three-dimensional model is large, the operation burden required for specifying the objects is very large.
[0007]
For this reason, a technique that makes it easier to recognize the correspondence between each object in the three-dimensional model and each object in the list has been desired.
[0008]
[Means for Solving the Problems]
The image processing apparatus according to the present invention includes a model display processing unit that two-dimensionally displays a three-dimensional model having a plurality of objects on the screen of the output device, and one or more corresponding to positions on the screen designated from the outside. Select an object from the 3D model, and select a list of objects selected by the object selection processor so that the text size differs depending on the perspective of these objects on the 3D model. And a list display processing unit to be displayed on the screen of the output device.
[0009]
According to this configuration, among the objects included in the three-dimensional model displayed in the model display processing unit, the object selected by the object selection unit is set so that the character size differs according to the perspective on the three-dimensional model. Can be displayed. Therefore, according to the present invention, it is possible to easily recognize the correspondence between each object in the three-dimensional model and each object in the list.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the size, shape, and arrangement relationship of each component are only shown schematically to the extent that the present invention can be understood, and the numerical conditions described below are merely examples. .
[0011]
First Embodiment Hereinafter, an image processing apparatus according to a first embodiment of the present invention will be described with reference to FIGS.
[0012]
FIG. 1 is a block diagram schematically showing the configuration of the image processing apparatus according to this embodiment.
[0013]
As shown in FIG. 1, this apparatus includes an input device 110, an output device 120, a CPU (Central Processing Unit) 130, a storage unit 140, and a processing unit 150.
[0014]
The input device 110 is a device for performing operations, data input, and the like on the image processing device, and includes, for example, a keyboard and a mouse. The input device 110 is connected to the CPU 130.
[0015]
The output device 120 is a device for displaying an image. The output device 120 displays, for example, a three-dimensional model or a list of objects selected by the operator on the screen. This output device 120 is also connected to the CPU 130.
[0016]
The CPU 130 controls the output device 120, the storage unit 140, the processing unit 150, and the like based on an operation signal input from the input device 110.
[0017]
The storage unit 140 includes an object storage unit 141. The object storage unit 141 stores data related to the three-dimensional model. The processing unit 150 includes a model display processing unit 151, an object selection processing unit 152, and a list display processing unit 153. The model display processing unit 151 performs image processing for causing the output device 120 to display a three-dimensional model. The object selection processing unit 152 performs processing for extracting an object corresponding to the screen position designated by the operator from the three-dimensional model, processing for calculating coordinates corresponding to the screen position for each object (described later), and the like. The list display processing unit 153 performs a process for displaying the list of objects extracted by the object selection processing unit 152 on the output device 120. As will be described later, the list display processing unit 153 causes the output device 120 to display a list of objects in order from an object close to the operator's viewpoint (actually a viewpoint virtually set in the three-dimensional space). An object closer to the viewpoint coordinates is displayed with a larger character size.
[0018]
Next, the operation of the image processing apparatus shown in FIG. 1 will be described with reference to FIGS.
[0019]
FIG. 2 is a conceptual diagram showing a display example of the three-dimensional model according to this embodiment. As shown in FIG. 2, a three-dimensional model 201 and a coordinate display 202 having coordinate axes x, y, and z are displayed on the display screen of the output device 120. In the example of FIG. 2, the three-dimensional model 201 has four regular triangles O1, I1, I2, and A1 as objects. These objects are arranged in the order of O1, I1, I2, and A1 from the side closer to the operator in a three-dimensional space. Further, these objects O1, I1, I2, and A1 are arranged so that the center points of the equilateral triangle are located on the straight line x = y = z.
[0020]
FIG. 3 shows an example of coordinate data corresponding to the three-dimensional model of FIG. In the example of FIG. 3, the vertex coordinates (x, y, z) of the respective objects are such that the object O 1 is (10, 0, 0), (0, 10, 0), (0, 0, 10). , Object I 1 is (5, 0, 0), (0, 5, 0), (0, 0, 5), and object I 2 is (3, 0, 0), (0, 3, 0). , (0, 0, 3) and the object A 1 is (1, 0, 0), (0, 1, 0), (0, 0, 1). These coordinate data are stored in the object storage unit 141. When displaying the image as shown in FIG. 2 on the output device 120, first, the model display processing unit 151 generates display image information based on the coordinate data read from the object storage unit 141, and then The CPU 130 causes the output device 120 to display an image using the display image information.
[0021]
Next, a procedure for causing the operator to select an object will be described with reference to FIG.
[0022]
First, when the operator designates an arbitrary position on the display screen of the output device 120 using the input device 110, this designation information is accepted by the CPU 130 (see S401). The CPU 130 controls the processing unit 150 to perform processes S402 to S404 described later. In the following description, a case where the position P 0 as shown in FIG. 5 is designated by the operator will be described. In this case, all the objects O1, I1, I2, and A1 correspond to the designated position.
[0023]
Next, the object selection processing unit 152 extracts an object corresponding to the screen position designated by the operator from the three-dimensional model, and further calculates coordinates corresponding to the screen position for each object (see S402). In the calculation of coordinates, first, a straight line connecting a designated point on the display screen and the coordinate origin (0, 0, 0) in a virtual three-dimensional space is obtained, and this straight line and each object O1, I1, I2 are obtained. , A1 and the coordinates of the intersection point are obtained. These intersection coordinates are obtained coordinates. FIG. 6 shows an example of coordinate calculation results.
[0024]
Subsequently, the object selection processing unit 152 rearranges the extracted objects O1, I1, I2, and A1 (see S403). In this embodiment, the corresponding objects O1, I1, I2, and A1 are arranged in order from the viewpoint. The viewpoint coordinates are calculated by the CPU 130 in accordance with the display direction of the three-dimensional model.
[0025]
Next, the list display processing unit 153 performs processing for causing the output device 120 to display a list of objects (see S404). FIG. 7 shows an example of a list displayed on the output device 120. As shown in FIG. 7, in this embodiment, objects closer to the viewpoint are displayed on the output device 120 in order, and the closer to the viewpoint, the larger the character size is displayed.
[0026]
Thereafter, the operator designates one of the objects from the list displayed on the output device 120 (S405). At this time, in this embodiment, the list is displayed in order from the object closer to the operator's viewpoint, and the object closer to the viewpoint is displayed with a larger character size. The correspondence between each uploaded object name is easy for the operator to recognize. Therefore, selection of an object is easy.
[0027]
As described above, according to this embodiment, it is possible to easily recognize the correspondence between each object in the 3D model and each object in the list, and accordingly, the objects included in the 3D model can be recognized. Even when the number is large, the operation burden required for specifying an object is reduced.
[0028]
Second Embodiment Hereinafter, an image processing apparatus according to a first embodiment of the present invention will be described with reference to FIGS. 8 to 13.
[0029]
FIG. 8 is a block diagram schematically showing the configuration of the image processing apparatus according to this embodiment.
[0030]
As illustrated in FIG. 8, this apparatus includes an input device 810, an output device 820, a CPU 830, a storage unit 840, and a processing unit 850.
[0031]
The input device 810 is a device for performing operations, data input, and the like for the image processing device, and includes, for example, a keyboard and a mouse. The input device 810 is connected to the CPU 830.
[0032]
The output device 820 is a device for displaying an image on the display screen. The output device 820 displays, for example, a three-dimensional model or a list of objects selected by the operator on the screen. This output device 820 is also connected to the CPU 830.
[0033]
The CPU 830 controls the output device 820, the storage unit 840, the processing unit 850, and the like based on an operation signal input from the input device 810.
[0034]
The storage unit 840 includes an object storage unit 841, a field of view storage unit 842, and an extracted object storage unit 843. The object storage unit 841 stores data regarding the configuration of the three-dimensional model. The view storage unit 842 stores view information (described later) when displaying the three-dimensional model on the output device 820. The list display processing unit 853 stores a coordinate calculation result (see FIG. 6 of the first embodiment) by an object selection processing unit 852 (described later).
[0035]
The processing unit 850 includes a model display processing unit 851, an object selection processing unit 852, and a list display processing unit 853. The model display processing unit 851 performs image processing for causing the output device 820 to display a three-dimensional model. The object selection processing unit 852 performs processing for extracting an object corresponding to the screen position designated by the operator from the three-dimensional model, processing for calculating coordinates corresponding to the screen position for each object (described later), and the like. The list display processing unit 853 performs processing for displaying the list of objects extracted by the object selection processing unit 852 on the output device 820 and the like.
[0036]
Next, the operation of the image processing apparatus shown in FIG. 8 will be described with reference to FIGS.
[0037]
FIG. 9A is a conceptual diagram showing a display example of the three-dimensional model according to this embodiment. As shown in FIG. 9A, a three-dimensional model 901 and a coordinate display 902 having coordinate axes x, y, and z are displayed on the display screen of the output device 820. The three-dimensional model 901 in FIG. 9A has four regular triangles O1, I1, I2, and A1 as objects, as in the case of the first embodiment (see FIG. 2). These objects are arranged in the order of O1, I1, I2, and A1 from the side closer to the operator in a three-dimensional space. Further, these objects O1, I1, I2, and A1 are arranged so that the center points of the equilateral triangle are located on the straight line x = y = z.
[0038]
The vertex coordinates (x, y, z) of each object are the same as in the case of the first embodiment (see FIG. 3). These coordinate data are stored in the object storage unit 841. When the image as shown in FIG. 9A is displayed on the output device 820, first, the model display processing unit 851 generates display image information based on the coordinate data read from the object storage unit 841. Next, the CPU 830 causes the output device 820 to display an image using the display image information.
[0039]
Further, the object storage unit 841 stores view information as shown in FIG. The view information is coordinate information representing the operator's viewpoint and line of sight, and is virtually set in a three-dimensional space.
[0040]
Here, when the operator designates an arbitrary position on the display screen of the output device 120 in order to select an object, the same procedure as in the first embodiment (see S401 to S404 in FIG. 4), The coordinates corresponding to the designated screen position are calculated for each object, and a list is displayed on the screen. An example of the coordinate calculation result at this time is shown in FIG. 11A, and an example of the list is shown in FIG.
[0041]
Next, a procedure for rotating the display direction of the object will be described. FIG. 13 is a flowchart for explaining this procedure.
[0042]
First, the operator designates rotation in the object display direction using the input device 810 (see S1301). In this specification, the direction of rotation and the rotation angle are also input. The contents of this designation are sent to the CPU 830. The CPU 830 causes the model display processing unit 851 to perform image processing for changing the screen display of the output device 820 and processing for changing the view information. An example of the screen display after the change and an example of the view information are shown in FIGS. 9B and 10B.
[0043]
Subsequently, the object selection processing unit 852 re-extracts the object corresponding to the screen position designated by the operator from the three-dimensional model, and further recalculates the coordinates corresponding to the screen position for each object (see S1302). ). The coordinate calculation method is the same as that in the first embodiment.
[0044]
Subsequently, the object selection processing unit 852 rearranges the extracted objects O1, I1, I2, and A1. By this rearrangement, the corresponding objects O1, I1, I2, and A1 are rearranged in order from the viewpoint coordinates. FIG. 11B shows an example of the rearranged state (see S1303).
[0045]
Next, the list display processing unit 853 performs processing for displaying the list of objects on the output device 820 (see S1304). FIG. 12 shows an example of a list displayed on the output device 820. As shown in FIG. 12, also in this case, the objects closer to the viewpoint coordinates are displayed on the output device 120 in order, and the closer to the viewpoint coordinates, the larger the character size is displayed.
[0046]
Thereafter, the operator designates one of the objects from the list displayed on the output device 820 (S1305). Even in this embodiment, as in the first embodiment, this list is displayed in order from an object closer to the operator's viewpoint, and the closer to the operator's viewpoint, the larger the character size is displayed. The correspondence between each object in the 3D model and each object name listed is easy for the operator to recognize. Therefore, selection of an object is easy.
[0047]
As described above, according to this embodiment, when the 3D model is rotated on the screen, the list display order and the character size are changed accordingly. Therefore, the operation burden required for specifying the object when the three-dimensional model is rotated on the screen is reduced.
[0048]
【The invention's effect】
As described above in detail, according to the present invention, the correspondence between each object in the three-dimensional model and each object in the list can be more easily recognized. Can be reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a configuration of an image processing apparatus according to a first embodiment.
FIG. 2 is a conceptual diagram illustrating a display example of a three-dimensional model of the image processing apparatus according to the first embodiment.
FIG. 3 is a table showing an example of coordinate data of the image processing apparatus according to the first embodiment.
FIG. 4 is a flowchart for explaining the operation of the image processing apparatus according to the first embodiment;
FIG. 5 is a conceptual diagram for explaining the operation of the image processing apparatus according to the first embodiment;
FIG. 6 is a table showing an example of coordinate data of the image processing apparatus according to the first embodiment.
FIG. 7 is a table showing an example of a list display of the image processing apparatus according to the first embodiment.
FIG. 8 is a block diagram schematically showing a configuration of an image processing apparatus according to a second embodiment.
FIG. 9 is a conceptual diagram illustrating a display example of a three-dimensional model of the image processing apparatus according to the second embodiment.
FIG. 10 is a table showing an example of visual field information in the image processing apparatus according to the second embodiment.
FIG. 11 is a table showing an example of coordinate data of the image processing apparatus according to the second embodiment.
FIG. 12 is a table showing an example of a list display of the image processing apparatus according to the second embodiment.
FIG. 13 is a flowchart for explaining the operation of the image processing apparatus according to the second embodiment;
[Explanation of symbols]
110,810 Input device 120,820 Output device 130,830 CPU
140,840 Storage unit 141,841 Object storage unit 150,850 Processing unit 151,851 Model display processing unit 152,852 Object selection processing unit 153,853 List display processing unit 842 Visibility storage unit 843 Extracted object storage unit

Claims (4)

複数のオブジェクトを有する三次元モデルを、出力装置の画面に二次元的に表示させるモデル表示処理部と、
外部から指定された前記画面上の位置に対応する1または複数の前記オブジェクトを、前記三次元モデルから選択するオブジェクト選択処理部と、
このオブジェクト選択処理部によって選択された前記オブジェクトのリストを、これらのオブジェクトの三次元モデル上の遠近に応じて文字サイズが相違するように、前記出力装置の画面に表示させるリスト表示処理部と、
を備えることを特徴とする画像処理装置。
A model display processing unit for two-dimensionally displaying a three-dimensional model having a plurality of objects on the screen of the output device;
An object selection processing unit that selects, from the three-dimensional model, one or more objects corresponding to positions on the screen designated from outside;
A list display processing unit that displays the list of the objects selected by the object selection processing unit on the screen of the output device so that the character size differs according to the perspective on the three-dimensional model of these objects;
An image processing apparatus comprising:
前記リスト表示処理部が、前記オブジェクト選択処理部によって選択された前記オブジェクトのリストを、これらのオブジェクトの三次元モデル上の遠近に応じた表示順序で、前記出力装置の画面に表示させることを特徴とする請求項1に記載の画像処理装置。The list display processing unit causes the list of the objects selected by the object selection processing unit to be displayed on the screen of the output device in a display order according to the perspective on the three-dimensional model of these objects. The image processing apparatus according to claim 1. 前記モデル表示処理部による前記三次元モデルの表示方向が変更された場合に、前記リスト表示処理部が、前記オブジェクト選択処理部によって選択された前記オブジェクトの遠近の変化に対応させて、前記リストの文字サイズを変更することを特徴とする請求項1に記載の画像処理装置。When the display direction of the three-dimensional model by the model display processing unit is changed, the list display processing unit responds to a change in perspective of the object selected by the object selection processing unit, The image processing apparatus according to claim 1, wherein the character size is changed. 前記モデル表示処理部による前記三次元モデルの表示方向が変更された場合に、前記リスト表示処理部が、前記オブジェクト選択処理部によって選択された前記オブジェクトの遠近の変化に対応させて、前記リストの表示順序を変更することを特徴とする請求項2に記載の画像処理装置。When the display direction of the three-dimensional model by the model display processing unit is changed, the list display processing unit responds to a change in perspective of the object selected by the object selection processing unit, The image processing apparatus according to claim 2, wherein the display order is changed.
JP2000269076A 2000-09-05 2000-09-05 Image processing device Expired - Fee Related JP4310909B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000269076A JP4310909B2 (en) 2000-09-05 2000-09-05 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000269076A JP4310909B2 (en) 2000-09-05 2000-09-05 Image processing device

Publications (2)

Publication Number Publication Date
JP2002074398A JP2002074398A (en) 2002-03-15
JP4310909B2 true JP4310909B2 (en) 2009-08-12

Family

ID=18755752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000269076A Expired - Fee Related JP4310909B2 (en) 2000-09-05 2000-09-05 Image processing device

Country Status (1)

Country Link
JP (1) JP4310909B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013050970A (en) * 2012-10-22 2013-03-14 Ricoh Co Ltd Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP2002074398A (en) 2002-03-15

Similar Documents

Publication Publication Date Title
JP2892423B2 (en) Image display device and image display method
JPH10283158A (en) Window stereoscopic display apparatus and method
JPH07111721B2 (en) Line element data three-dimensional conversion device and method
JP4274377B2 (en) 3D graphics data display device
EP0649103B1 (en) Method for blending edges of a geometric object in a computer-aided design system
US5712965A (en) Three-dimensional solid arranging/editing method in a computer graphic system and system
JP3245336B2 (en) Modeling method and modeling system
JP3437223B2 (en) Shape display device and shape display method
JP2006039872A (en) Information processing method and information processing apparatus
JP4310909B2 (en) Image processing device
CN109542302B (en) Computer-implemented method of displaying a subset of digitally modeled components of an object
JP2001273515A (en) Display device
JP3672352B2 (en) Three-dimensional configuration editing method and three-dimensional configuration editing apparatus
JP3361652B2 (en) 3D figure arrangement input method and graphic system
JP2981516B2 (en) 3D shape editing device
JPH08249500A (en) How to display 3D graphics
JP3983707B2 (en) 3D space graphic processing apparatus and 3D space graphic processing method
JP2924750B2 (en) Three-dimensional shape modeling method and apparatus
US7046241B2 (en) Oriented three-dimensional editing glyphs
JP3732174B2 (en) Three-dimensional configuration editing method and three-dimensional configuration editing apparatus
JP2007213437A (en) Information processing method and information processing apparatus
JP3640790B2 (en) 3D CAD system and computer readable storage medium storing 3D CAD program
JPH08297750A (en) Method for changing display state of three-dimensional figure and three-dimensional figure display device
JP2006134251A (en) 3D graphic layout input device
JP2004094466A (en) Simplified model creation support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090421

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090504

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130522

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140522

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees