[go: up one dir, main page]

JP2001229408A - 3D virtual image experience system - Google Patents

3D virtual image experience system

Info

Publication number
JP2001229408A
JP2001229408A JP2000040374A JP2000040374A JP2001229408A JP 2001229408 A JP2001229408 A JP 2001229408A JP 2000040374 A JP2000040374 A JP 2000040374A JP 2000040374 A JP2000040374 A JP 2000040374A JP 2001229408 A JP2001229408 A JP 2001229408A
Authority
JP
Japan
Prior art keywords
virtual image
space
contact state
stereoscopic
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000040374A
Other languages
Japanese (ja)
Inventor
Kenji Ogawa
謙二 小河
Toshiro Saeki
敏朗 佐伯
Haruyo Tamura
晴代 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanadevia Corp
Original Assignee
Hitachi Zosen Corp
Hitachi Shipbuilding and Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Zosen Corp, Hitachi Shipbuilding and Engineering Co Ltd filed Critical Hitachi Zosen Corp
Priority to JP2000040374A priority Critical patent/JP2001229408A/en
Publication of JP2001229408A publication Critical patent/JP2001229408A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【課題】仮想実現の世界において、より高い実体感が得
られる立体虚像体感システムを提供する。 【解決手段】映像用空間に立体虚像を表示する立体虚像
表示装置1と、仮想物体に対する力覚を体感し得る力覚
体感装置2と、これら両装置を制御する制御演算装置3
とから構成し、かつこの制御演算装置3に、映像用空間
座標と力覚体感装置側の力覚用空間座標とを一致させる
座標変換部12と、仮想物体と立体虚像との接触状態を
求める接触状態演算部13と、この接触状態を入力して
仮想物体に対する反力を演算する反力演算部14と、立
体虚像の映像データおよび接触状態を入力して立体虚像
の変形量を演算する変形量演算部15とを具備させると
ともに、この変形量を映像データに反映させるようにし
たものである。
(57) [Summary] [PROBLEMS] To provide a three-dimensional virtual image sensation system capable of obtaining a higher real sensation in a world of virtual realization. A three-dimensional virtual image display device (1) for displaying a three-dimensional virtual image in an image space, a force sense bodily sensation device (2) capable of experiencing a sense of force with respect to a virtual object, and a control operation device (3) for controlling these two devices
And a coordinate conversion unit 12 that matches the spatial coordinates for the image with the spatial coordinates for the haptic device on the haptic device side, and obtains a contact state between the virtual object and the three-dimensional virtual image. A contact state calculation unit 13; a reaction force calculation unit 14 that calculates the reaction force to the virtual object by inputting the contact state; and a deformation that calculates the amount of deformation of the stereoscopic virtual image by inputting the video data of the stereoscopic virtual image and the contact state. In addition to the provision of the amount calculation unit 15, the amount of deformation is reflected in the video data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、空間に映し出され
た立体虚像に対する反力などの力覚を、その映像に重畳
させて体感し得る立体虚像体感システムに関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional virtual image sensation system in which a force sense such as a reaction force to a three-dimensional virtual image projected in a space can be sensed by superimposing it on an image.

【0002】[0002]

【従来の技術】近年のマイクプロセッサの目覚しい発展
に伴い、ロボット装置のハンド部を操作することによ
り、三次元物体の触感を体験し得る力覚体感システムが
開発されている。この力覚体感システムは、空間に仮想
物体を創り出すとともに、ハンド部を操作してその先端
を仮想物体に仮想的に接触させ、互いの位置関係によ
り、ハンド部の先端にその反力を伝えるものであり、デ
ィスプレイ装置にその操作対象が表示されて、その操作
が目視できるようにされている。
2. Description of the Related Art Along with the remarkable development of a microprocessor in recent years, a haptic sensation system capable of experiencing a tactile sensation of a three-dimensional object by operating a hand unit of a robot apparatus has been developed. This force sensation system creates a virtual object in space, operates the hand part to make the tip virtually touch the virtual object, and transmits the reaction force to the tip of the hand part according to the mutual positional relationship. The operation target is displayed on the display device so that the operation can be visually checked.

【0003】[0003]

【発明が解決しようとする課題】ところで、この力覚体
感システムにおいては、操作対象が仮想物体であり、視
覚的には、操作箇所から離れたディスプレイ装置に表示
されるため、例えばこの力覚体感システムを使用して技
術を習得しようとする場合には、その習得する技術の種
類によっては、十分に、習得することができないという
問題がある。すなわち、仮想実現の世界において、より
高い実体感が望まれている。
In the haptic system, the operation target is a virtual object, which is visually displayed on a display device distant from the operation location. When trying to acquire a technique using the system, there is a problem that the technique cannot be sufficiently acquired depending on the type of technique to be acquired. That is, in the world of virtual realization, a higher physical feeling is desired.

【0004】そこで、本発明は、力覚を体感する操作対
象である仮想物体の位置に、その仮想物体の立体虚像を
映し出すことにより、非常に高い実体感が得られるよう
にした立体虚像体感システムを提供することを目的とす
る。
Accordingly, the present invention provides a three-dimensional virtual image sensation system in which an extremely high physical sensation is obtained by projecting a three-dimensional virtual image of the virtual object at the position of a virtual object which is an operation object for experiencing a force sensation. The purpose is to provide.

【0005】[0005]

【課題を解決するための手段】上記課題を解決するた
め、本発明の第1の手段は、空間に立体虚像を表示する
立体虚像表示装置と、仮想物体に対して所定の操作を行
い得る操作部材を有するとともにこの操作部材の操作に
応じて仮想物体に対する力覚を体感し得る力覚体感装置
と、これら両装置を制御する制御演算装置とから構成さ
れ、かつ上記制御演算装置に、立体虚像の位置および外
形データを入力して映像用空間内に立体虚像を表示する
ための映像データを作成する映像データ作成部と、力覚
体感装置の操作部材の位置を入力するとともにこの力覚
体感装置側における力覚用空間座標を映像用空間座標に
変換する座標変換部と、この映像用空間に表示される力
覚対象である仮想物体と立体虚像との接触状態を演算に
て求める接触状態演算部と、この接触状態演算部で得ら
れた接触状態を入力して仮想物体に対する反力を演算す
る反力演算部と、上記映像データ作成部で得られた映像
データおよび上記接触状態演算部で得られた接触状態を
入力して立体虚像の変形量を演算する変形量演算部とを
具備させるとともに、上記変形量演算部にて演算された
変形量を上記映像データ作成部に出力して変形後の立体
虚像を表示させるように構成した立体虚像体感システム
である。
According to a first aspect of the present invention, there is provided a three-dimensional virtual image display device for displaying a three-dimensional virtual image in a space, and an operation capable of performing a predetermined operation on a virtual object. A force sensation sensation device having a member and capable of experiencing a haptic sensation on a virtual object in accordance with the operation of the operation member, and a control operation device for controlling both of these devices. Data generating unit for inputting the position and external shape data to generate video data for displaying a stereoscopic virtual image in the video space, and inputting the position of the operation member of the haptic device and the haptic device A coordinate conversion unit that converts the spatial coordinates for haptics on the side to spatial coordinates for video, and a contact state performance that calculates the contact state between the virtual object, which is the haptic object displayed in the video space, and the three-dimensional virtual image A reaction force calculation unit that inputs a contact state obtained by the contact state calculation unit and calculates a reaction force against the virtual object; and a video data obtained by the video data creation unit and the contact state calculation unit. A deformation amount calculation unit that calculates the deformation amount of the stereoscopic virtual image by inputting the obtained contact state, and outputs the deformation amount calculated by the deformation amount calculation unit to the video data creation unit to perform the deformation. This is a three-dimensional virtual image sensation system configured to display a later three-dimensional virtual image.

【0006】また、本発明の第2の手段は、空間に立体
虚像を表示する立体虚像表示装置と、仮想物体に対して
所定の操作を行い得る操作部材を有するとともにこの操
作部材の操作に応じて力覚を体感し得る力覚体感装置
と、これら両装置を制御する制御演算装置と、上記立体
虚像表示装置による映像用空間の座標と力覚体感装置に
よる力覚用空間の座標との位置合わせを行う位置整合手
段とから構成され、かつ上記制御演算装置に、立体虚像
の位置および外形データを入力して映像用空間内に立体
虚像を表示するための映像データを作成する映像データ
作成部と、力覚体感装置の操作部材の位置を入力すると
ともにこの力覚体感装置側における力覚用空間座標を映
像用空間座標に変換する座標変換部と、この映像用空間
に表示される力覚対象である仮想物体と立体虚像との接
触状態を演算にて求める接触状態演算部と、この接触状
態演算部で得られた接触状態を入力して仮想物体に対す
る反力を演算する反力演算部と、上記映像データ作成部
で得られた映像データおよび上記接触状態演算部で得ら
れた接触状態を入力して立体虚像の変形量を演算する変
形量演算部とを具備させるとともに、上記変形量演算部
にて演算された変形量を上記映像データ作成部に出力し
て変形後の立体虚像を表示させるように構成し、さらに
上記位置整合手段として、映像用空間内の所定位置に配
置される基準外形寸法を有する基準物体または所定位置
に表示される基準立体虚像を用いた立体虚像体感システ
ムである。
A second means of the present invention has a three-dimensional virtual image display device for displaying a three-dimensional virtual image in a space, an operating member capable of performing a predetermined operation on a virtual object, and responding to the operation of the operating member. Haptic device that can sense the haptic sensation, a control operation device that controls these two devices, and the position of the coordinates of the image space by the stereoscopic virtual image display device and the coordinates of the haptic space by the haptic device. And a position matching means for performing alignment, and to the control arithmetic unit, inputting the position and outline data of the three-dimensional virtual image to create image data for displaying the three-dimensional virtual image in the space for images. A coordinate conversion unit for inputting the position of the operation member of the haptic device and converting the spatial coordinates for haptics on the haptic device side into spatial coordinates for video; and a haptic sense displayed in the video space. versus A contact state calculation unit for calculating the contact state between the virtual object and the stereoscopic virtual image, and a reaction force calculation unit for inputting the contact state obtained by the contact state calculation unit and calculating a reaction force on the virtual object A deformation amount calculation unit configured to calculate the deformation amount of the stereoscopic virtual image by inputting the video data obtained by the video data creation unit and the contact state obtained by the contact state calculation unit; The deformation amount calculated by the section is output to the video data creation section to display the stereoscopic virtual image after the deformation, and further, as the position matching means, a reference arranged at a predetermined position in the video space. This is a three-dimensional virtual image sensation system using a reference object having external dimensions or a reference three-dimensional virtual image displayed at a predetermined position.

【0007】上記各立体虚像体感システムによると、力
覚を体感し得る力覚用空間と立体虚像を映し出す映像用
空間とを同一の空間にして、操作部材の座標系と被操作
部位である立体虚像の座標系とを一致させるとともに、
その操作部材の操作による被操作部位の変形を立体虚像
に反映するようにしているため、その実体感が極めて良
好なものとなり、仮想現実の世界において、高い没入感
を得ることができる。
According to each of the three-dimensional virtual image sensation systems described above, the space for force sensation that can sense haptics and the space for video that displays a three-dimensional virtual image are made the same space, and the coordinate system of the operation member and the three-dimensional object that is the operated part are formed. While matching the virtual image coordinate system,
Since the deformation of the operated portion caused by the operation of the operation member is reflected in the three-dimensional virtual image, the real feeling is extremely good, and a high immersion feeling can be obtained in the virtual reality world.

【0008】[0008]

【発明の実施の形態】以下、本発明の実施の形態におけ
る立体虚像体感システムを、図1〜図3に基づき説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A stereoscopic virtual image sensation system according to an embodiment of the present invention will be described below with reference to FIGS.

【0009】本実施の形態に係る立体虚像体感システム
は、図1および図2に示すように、三次元の空間に立体
虚像を映し出し表示を行う立体虚像表示装置1と、仮想
物体に対する反力(接触抵抗力も含む)すなわち力覚を
体感(体験)し得る力覚体感装置2と、これら両装置
1,2を制御するための制御演算装置3と、上記立体虚
像表示装置1により映し出された立体虚像と力覚体感装
置2にて仮想的に創られる仮想物体との位置合わせを行
うための位置整合手段4とから構成されており、勿論、
これら各装置同士および制御演算装置3と位置整合手段
4とが、それぞれ信号線5を介して互いに接続されてい
る。
As shown in FIGS. 1 and 2, a three-dimensional virtual image sensation system according to the present embodiment displays a three-dimensional virtual image in a three-dimensional space and displays the three-dimensional virtual image, and a reaction force ( (Including contact resistance), that is, a haptic sensation device 2 capable of experiencing (experiencing) a haptic sensation, a control operation device 3 for controlling both of these devices 1 and 2, and a three-dimensional image displayed by the three-dimensional virtual image display device 1. And a position matching means 4 for performing position matching between the virtual image and the virtual object virtually created by the haptic device 2.
These devices, the control operation device 3 and the position matching means 4 are connected to each other via a signal line 5.

【0010】上記立体虚像表示装置1は、モニターなど
の映像表示部1aと、この映像表示部1aにて出力され
る映像を三次元の空間に立体的に映し出すための映像反
射部(例えば、曲面特殊ミラーが用いられる)1bとか
ら構成されている。
The stereoscopic virtual image display device 1 includes an image display unit 1a such as a monitor and an image reflection unit (for example, a curved surface) for projecting an image output from the image display unit 1a in a three-dimensional space. 1b) (a special mirror is used).

【0011】上記力覚体感装置2としては、所定の自由
度を持つアームを有するロボット装置が用いられるとと
もにそのアーム部2aの先端に操作部材2bが取り付け
られており、仮想物体に対して操作(処理)を施した際
に、その操作量に対応して仮想物体に発生する反力(後
述する)が入力されると、その反力が操作部材2bに伝
えられて、操作している者が反力を感じることができる
ようにされている。すなわち、ロボット装置には、反力
を発生し得る機能が具備されている。
As the haptic device 2, a robot device having an arm having a predetermined degree of freedom is used, and an operating member 2b is attached to the tip of the arm 2a. When the processing) is performed, when a reaction force (described later) generated in the virtual object corresponding to the operation amount is input, the reaction force is transmitted to the operation member 2b, and the person who is operating is operated. You can feel the reaction force. That is, the robot device is provided with a function capable of generating a reaction force.

【0012】また、上記制御演算装置3は、表示させる
立体虚像の位置データ、外形データ、反力を演算するた
めに必要な仮想物体の材料特性データおよび色などの種
々のデータが記憶されているデータ記憶部例えば外部記
憶装置(内部の記憶部であってもよい)10から必要な
データを入力して所定の条件に応じた加工を施し空間
(以下、映像用空間ともいう)内に所定の立体虚像を映
し出すための映像データを作成するグラフィック表示用
のプログラムが具備された映像データ作成部11と、力
覚体感装置2の力覚を表現する部分すなわちロボットの
アーム部2aの先端に設けられた操作部材(以下、操作
部位ともいう)2bの位置を入力するとともに、この力
覚体感装置2上での仮想物体を表す空間(以下、力覚用
空間ともいう)の座標を、立体虚像表示装置1における
映像用空間側の座標に変換する座標変換部12と、この
座標変換部12で座標変換が行われた仮想物体と映像用
空間内に表示される立体虚像との接触状態を求める接触
状態演算部13と、この接触状態演算部13で得られた
接触状態および上記外部記憶装置10から材料特性デー
タを入力して仮想物体に発生する反力を内蔵されたプロ
グラムにより演算する反力演算部14と、上記映像デー
タ作成部11で得られた映像データおよび上記接触状態
演算部13で得られた接触状態を入力して立体虚像の変
形量を演算するとともにこの演算された変形量を上記映
像データ作成部11に出力する変形量演算部15とが具
備されている。
Further, the control arithmetic unit 3 stores various data such as position data of the three-dimensional virtual image to be displayed, outer shape data, material characteristic data of the virtual object necessary for calculating the reaction force, and colors. Necessary data is input from a data storage unit, for example, an external storage device (which may be an internal storage unit) 10, processed according to predetermined conditions, and stored in a predetermined space (hereinafter also referred to as a video space). A video data generating unit 11 provided with a graphic display program for generating video data for displaying a stereoscopic virtual image, and a portion expressing the sense of force of the haptic device 2, that is, provided at the tip of the arm 2a of the robot. The user inputs the position of the operating member (hereinafter, also referred to as an operation part) 2b, and sits in a space (hereinafter, also referred to as a force sense space) representing a virtual object on the force sense device 2. Is converted into coordinates on the image space side in the stereoscopic virtual image display device 1, and the virtual object subjected to coordinate conversion by the coordinate conversion unit 12 and the stereoscopic virtual image displayed in the image space. A contact state calculating unit 13 for obtaining a contact state, and a built-in program for inputting the contact state obtained by the contact state calculating unit 13 and the material characteristic data from the external storage device 10 to generate a reaction force generated in the virtual object. A reaction force calculator 14 for calculating, and the video data obtained by the video data generator 11 and the contact state obtained by the contact state calculator 13 are input to calculate the amount of deformation of the three-dimensional virtual image and to calculate the calculated amount. And a deformation calculating unit 15 for outputting the deformation amount to the video data creating unit 11.

【0013】上記位置整合手段4は、映像用空間内の所
定位置に配置される目盛板21と、この目盛板21上に
載置される所定形状および所定寸法の基準物体(例え
ば、一辺が一定長さの立方体が用いられる)22とから
構成され、さらに上記制御演算装置3には、この基準物
体22の座標および力覚体感装置2における操作部位の
座標位置を入力して、映像用空間での座標と力覚用空間
での座標とのずれである補正量を演算する補正量演算部
16が具備されている。なお、位置整合手段4には、位
置合わせを行う際の位置決定ボタン、または配置位置を
入力し得るキーボード(図示せず)などの指示具23が
具備されている。但し、映像用空間内での基準物体22
の配置位置が決まっている場合には、予め、補正量演算
部16にその位置を入力しておけば、上述したような指
示具を設ける必要はない。
The position aligning means 4 includes a scale plate 21 disposed at a predetermined position in the image space, and a reference object having a predetermined shape and a predetermined size mounted on the scale plate 21 (for example, one side is fixed). The coordinate of the reference object 22 and the coordinate position of the operation part in the haptic device 2 are input to the control arithmetic unit 3 in the image space. And a correction amount calculation unit 16 that calculates a correction amount that is a difference between the coordinates of the force sense space and the coordinates of the force sense space. The position matching means 4 is provided with a position determination button for performing position alignment, or an instruction tool 23 such as a keyboard (not shown) for inputting an arrangement position. However, the reference object 22 in the image space
If the arrangement position is determined, if the position is input to the correction amount calculation unit 16 in advance, it is not necessary to provide the above-described pointing tool.

【0014】次に、この立体虚像体感システムを使用し
て、歯科治療の訓練を行う場合について説明する。ま
ず、最初に、力覚体感装置2側における力覚用空間の座
標を、立体虚像表示装置1側の映像用空間の座標に一致
させる。すなわち、映像用空間内の所定位置に、目盛板
21を配置するとともに、この目盛板21の所定位置に
基準物体22を載置し、その後、力覚体感装置2のアー
ム部2aの先端に設けられた操作部材2bである歯科治
療器具(勿論、擬似治療器具でもよい)Pの先端を、基
準物体22の基準位置、例えば基準物体22の各頂点に
順番に移動させ、例えば位置決定ボタンなどの指示具2
3を用いて、それぞれ所定の頂点であることを認識させ
る。
Next, a description will be given of a case where training of dental treatment is performed using the stereoscopic virtual image sensation system. First, the coordinates of the force sense space on the force sense feeling device 2 side are made to match the coordinates of the image space on the stereoscopic virtual image display device 1 side. That is, the scale plate 21 is arranged at a predetermined position in the image space, and the reference object 22 is placed at a predetermined position of the scale plate 21, and then provided at the tip of the arm portion 2 a of the haptic device 2. The distal end of the dental treatment instrument (of course, a pseudo treatment instrument) P, which is the operation member 2b, is sequentially moved to a reference position of the reference object 22, for example, each vertex of the reference object 22, and a position determination button or the like is moved. Pointer 2
3 is used to make the user recognize that each is a predetermined vertex.

【0015】そして、この認識された基準物体22の基
準位置の座標データが補正量演算部16に入力されて映
像用空間における座標とのずれが演算される。この演算
されたずれが補正量として座標変換部12に入力され、
以降の処理における力覚体感装置2からのアーム部2a
の操作部材2bを表す座標が、力覚用空間座標から映像
用空間座標に変換(一致)され、したがって両者が同一
座標空間にて表されることになる。
Then, the coordinate data of the recognized reference position of the reference object 22 is input to the correction amount calculation unit 16 and the deviation from the coordinates in the video space is calculated. The calculated shift is input to the coordinate conversion unit 12 as a correction amount,
Arm 2a from haptic device 2 in subsequent processing
Are converted (coincided) from the spatial coordinates for force sense to the spatial coordinates for video, so that both are represented in the same coordinate space.

【0016】ところで、上記制御演算装置3における映
像データ作成部11には、被験者(患者)の歯部の映像
データが入力されており、例えば表示スイッチの操作に
より、図3に示すように、立体虚像表示装置1にて、歯
部の立体的な映像すなわち立体虚像Qが映像用空間内に
映し出される。
By the way, video data of the teeth of the subject (patient) is input to the video data creating unit 11 of the control arithmetic unit 3 and, for example, by operating a display switch, as shown in FIG. In the virtual image display device 1, a three-dimensional image of the tooth part, that is, a three-dimensional virtual image Q is displayed in the image space.

【0017】そして、訓練者が、力覚体感装置2のアー
ム部2aの操作部材2bである歯科治療器具Pを掴み、
立体虚像としての歯部Qに対して治療(処置)を行う。
このとき、歯科治療器具Pが歯部Qに接触すると、その
アーム部2aの操作部位(歯科治療器具の先端位置でも
ある)の座標データが、常に、接触状態演算部13に入
力され、しかも同時に、接触状態演算部13に映像デー
タ作成部11から歯部Qの映像データが入力されて、そ
の差が、すなわち接触の有無およびその接触の度合い
が、変形量として出力される。
Then, the trainee grasps the dental treatment instrument P, which is the operation member 2b of the arm 2a of the haptic device 2,
The treatment (treatment) is performed on the tooth portion Q as a stereoscopic virtual image.
At this time, when the dental treatment tool P comes into contact with the tooth Q, the coordinate data of the operating portion of the arm 2a (which is also the tip position of the dental treatment tool) is always input to the contact state calculation unit 13 and at the same time. The image data of the tooth portion Q is input from the image data creation unit 11 to the contact state calculation unit 13, and the difference, that is, the presence or absence of the contact and the degree of the contact are output as the deformation amount.

【0018】この接触状態演算部13で演算された変形
量および外部記憶装置10からの材料特性データが反力
演算部14に入力されて、その反力を表す反力データが
力覚体感装置2側に入力(フィードバック)される。
The amount of deformation calculated by the contact state calculation unit 13 and the material property data from the external storage device 10 are input to the reaction force calculation unit 14, and the reaction force data representing the reaction force is input to the force sensation device 2. Input (feedback).

【0019】この反力データが力覚体感装置2側に入力
されると、ここで、この反力データに基づき、アーム部
2aに力が加えられて、その操作部位に、所定の反力が
発生させられ、またこれと同時に、変形量演算部15に
て、接触状態から操作部位の変形量が演算され、この変
形量が映像データ作成部11に送られ、変形した状態の
歯部Qの映像が、立体虚像表示装置1にて、映像用空間
内に映し出される。
When the reaction force data is input to the haptic device 2, a force is applied to the arm 2a based on the reaction force data, and a predetermined reaction force is applied to the operation portion. At the same time, the deformation amount calculating unit 15 calculates the deformation amount of the operation part from the contact state, and sends the deformation amount to the video data creating unit 11 to generate the deformed tooth portion Q. An image is projected in the image space by the stereoscopic virtual image display device 1.

【0020】すなわち、訓練者は、歯科治療時に生じる
力覚を感じるとともに、その手元にて、治療に応じた歯
部の立体虚像を見ることができ、したがって、非常に、
特殊で且つ高度な歯科治療の技術を、費用がかかる歯部
の模型を使用することなく、習得することができる。ま
た、被験者の突発的な動作に起因する事故、例えばつば
を飲み込んだ際に舌が動くような事態を想定したプログ
ラムを入力しておくことにより、事故回避のための訓練
を行うこともできる。
That is, the trainee can feel the force sense generated during the dental treatment, and at the same time, can see a stereoscopic virtual image of the tooth portion corresponding to the treatment at hand.
Special and advanced dental treatment techniques can be mastered without the use of costly tooth models. Further, by inputting a program that assumes an accident caused by a sudden movement of the subject, for example, a situation in which the tongue moves when swallowing the brim, training for avoiding the accident can be performed.

【0021】このように、力覚を体感し得る力覚用空間
と立体虚像を映し出す映像用空間とを同一の座標空間に
するとともに、その操作部材(操作部位)の操作による
被操作部材(被操作部位)の変形が立体虚像にも反映さ
れるため、その実体感が極めて良好なものとなる。
As described above, the space for force sensation capable of experiencing a force sensation and the space for video for displaying a three-dimensional virtual image are formed in the same coordinate space, and the operated member (operated portion) is operated by operating the operating member (operating portion). Since the deformation of the operation part) is also reflected on the three-dimensional virtual image, the real feeling is extremely good.

【0022】ところで、上記実施の形態において、仮想
物体の各種データを外部記憶装置に記憶させておき、こ
の外部記憶装置から必要なデータを映像データ作成部お
よび反力演算部に入力するようにしたが、例えばキーボ
ードなどの入力手段にて、直接、手入力することもで
き、またこの外部記憶装置には、ネットワーク上で接続
し得るコンピュータ装置若しくは記憶装置も含まれる。
In the above embodiment, various data of the virtual object are stored in the external storage device, and necessary data is input from the external storage device to the video data creating section and the reaction force calculating section. However, for example, it is also possible to directly input manually with input means such as a keyboard, and the external storage device includes a computer device or a storage device that can be connected on a network.

【0023】また、上記実施の形態においては、映像用
空間と力覚用空間との座標の位置合わせを行うのに、目
盛板および基準物体を使用したが、例えば位置合わせ用
の立体虚像を用いることもできる。
In the above embodiment, the scale plate and the reference object are used for positioning the coordinates of the image space and the force sense space. For example, a stereoscopic virtual image for positioning is used. You can also.

【0024】この場合、位置合わせ用の立体虚像とし
て、例えば上記実施の形態で説明したような立方体の映
像が、基準立体虚像として使用されるとともに、この映
像を作成するためのデータが映像データ作成部11に入
力される。勿論、この基準立体虚像が映像用空間内に映
し出される位置は、予め、決められており、したがって
力覚体感装置2のアーム部2aの操作部材2bを、基準
立体虚像の所定位置、例えば各頂点に移動させて、その
位置を補正量演算部16に入力させるようにすればよ
い。なお、この基準立体虚像の大きさを、例えば数段階
に変化させるようにしてもよく、この場合には、例えば
指示具により、その変化させた段階が、制御演算装置の
補正量演算部に入力される。
In this case, for example, a cubic image as described in the above embodiment is used as a reference three-dimensional virtual image as a three-dimensional virtual image for positioning, and data for creating this image is video data creation. Input to the unit 11. Of course, the position where the reference stereoscopic virtual image is projected in the space for video is predetermined, and therefore, the operating member 2b of the arm 2a of the haptic device 2 is moved to a predetermined position of the reference stereoscopic virtual image, for example, each vertex. , And the position may be input to the correction amount calculation unit 16. Note that the size of the reference stereoscopic virtual image may be changed in, for example, several steps. In this case, the changed step is input to the correction amount calculation unit of the control calculation device using, for example, an indicator. Is done.

【0025】さらに、上記実施の形態においては、立体
虚像表示装置1および力覚体感装置2の他に、位置整合
手段4を具備させたが、例えば位置整合手段を設けず
に、映像用空間の座標に、力覚用空間の座標を一致させ
る補正機能を、制御演算装置側に具備させるようにして
もよい。
Further, in the above-described embodiment, the position matching means 4 is provided in addition to the stereoscopic virtual image display device 1 and the force sensation device 2, but, for example, the position matching means is not provided. The control operation device may be provided with a correction function for matching the coordinates of the force sense space with the coordinates.

【0026】すなわち、制御演算装置側に、補正量を直
接入力し得る入力手段を具備させるか、または立体虚像
表示装置により映し出される立体虚像そのものに対し
て、操作部位の位置合わせを行い得る機能を持たせても
よい。
That is, the control arithmetic unit is provided with an input means for directly inputting a correction amount, or a function capable of aligning an operation portion with a stereoscopic virtual image itself displayed by the stereoscopic virtual image display device. You may have it.

【0027】ところで、上記実施の形態においては、歯
科治療の訓練を行う場合について説明したが、この訓練
に限定されるものではなく、例えば立体物に、操作、処
理を加えるような訓練、または遊戯装置にも適用でき、
具体的には、工芸品の製作、例えば粘土を使用して陶器
などの製作を体験する場合にも適用でき、趣味として行
う場合には、その没入感(実体感)が極めて高いものと
なる。
In the above-described embodiment, the case of performing training for dental treatment has been described. However, the present invention is not limited to this training. For example, training for adding operations and processing to three-dimensional objects, or playing games Applicable to equipment,
More specifically, the present invention can be applied to the production of crafts, for example, when experiencing the production of pottery and the like using clay, and when performing as a hobby, the immersion (substantial feeling) is extremely high.

【0028】[0028]

【発明の効果】以上のように本発明の立体虚像体感シス
テムによると、力覚を体感し得る力覚用空間と立体虚像
を映し出す映像用空間とを同一の空間にして、操作部材
の座標系と被操作部位である立体虚像の座標系とを一致
させるとともに、その操作部材の操作による被操作部位
の変形を立体虚像に反映するようにしているため、その
実体感が極めて良好なものとなる。すなわち、仮想現実
の世界において、今までにない高い没入感を得ることが
でき、したがって現実世界と同等の環境下で、各種の高
度な特殊技能を短時間に習得することが可能となる。
As described above, according to the three-dimensional virtual image sensation system of the present invention, the space for force sensation that can sense haptics and the space for video for displaying a three-dimensional virtual image are made the same space, and the coordinate system of the operating member is set. And the coordinate system of the three-dimensional virtual image that is the operated part, and the deformation of the operated part caused by the operation of the operating member is reflected on the three-dimensional virtual image, so that the real feeling is very good. That is, in the virtual reality world, an unprecedentedly high immersion feeling can be obtained, and therefore, it is possible to learn various advanced special skills in a short time in an environment equivalent to the real world.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態における立体虚像体感シス
テムの概略構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a stereoscopic virtual image sensation system according to an embodiment of the present invention.

【図2】同立体虚像体感システムにおける位置整合作業
を説明する斜視図である。
FIG. 2 is a perspective view illustrating a position alignment operation in the stereoscopic virtual image sensation system.

【図3】同立体虚像体感システムにおける歯科治療の訓
練を説明する斜視図である。
FIG. 3 is a perspective view illustrating training of dental treatment in the stereoscopic virtual image sensation system.

【符号の説明】[Explanation of symbols]

1 立体虚像体感システム 2 力覚体感装置 2a アーム部 2b 操作部材 3 制御演算装置 4 位置整合手段 11 映像データ作成部 12 座標変換部 13 接触状態演算部 14 反力演算部 15 変形量演算部 16 補正量演算部 P 歯科治療器具 Q 歯部 REFERENCE SIGNS LIST 1 stereoscopic virtual image sensation system 2 haptic sensation device 2a arm unit 2b operation member 3 control operation unit 4 position matching unit 11 video data creation unit 12 coordinate conversion unit 13 contact state operation unit 14 reaction force operation unit 15 deformation amount operation unit 16 correction Quantity calculation part P Dental treatment instrument Q Tooth part

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成12年3月22日(2000.3.2
2)
[Submission date] March 22, 2000 (200.3.2)
2)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】符号の説明[Correction target item name] Explanation of sign

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【符号の説明】 1 立体虚像表示装置 2 力覚体感装置 2a アーム部 2b 操作部材 3 制御演算装置 4 位置整合手段 11 映像データ作成部 12 座標変換部 13 接触状態演算部 14 反力演算部 15 変形量演算部 16 補正量演算部 P 歯科治療器具 Q 歯部[Description of Signs ] 1 stereoscopic virtual image display device 2 haptic sensory device 2a arm unit 2b operation member 3 control operation device 4 position matching means 11 video data creation unit 12 coordinate conversion unit 13 contact state operation unit 14 reaction force operation unit 15 deformation Amount calculation unit 16 Correction amount calculation unit P Dental treatment instrument Q Tooth

【手続補正2】[Procedure amendment 2]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図2[Correction target item name] Figure 2

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図2】 FIG. 2

───────────────────────────────────────────────────── フロントページの続き (72)発明者 田村 晴代 大阪府大阪市住之江区南港北1丁目7番89 号 日立造船株式会社内 Fターム(参考) 3F059 AA10 BA07 BC07 BC09 BC10 CA05 CA08 DA02 DA05 DA08 DB04 DB09 DC01 DC04 DD06 DE03 EA07 FA03 FA05 FA10 FB12 FB17 FB29 FC02 FC03 FC04 FC06 FC07 FC13 FC14 5B050 BA07 BA08 BA09 CA07 FA02 FA08 9A001 BB04 DD12 HH19 HH29 HH30 HH32 HH34  ────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Haruyo Tamura 1-7-89 Minami Kohoku, Suminoe-ku, Osaka-shi, Osaka F-term in Hitachi Zosen Corporation (reference) 3F059 AA10 BA07 BC07 BC09 BC10 CA05 CA08 DA02 DA05 DA08 DB04 DB09 DC01 DC04 DD06 DE03 EA07 FA03 FA05 FA10 FB12 FB17 FB29 FC02 FC03 FC04 FC06 FC07 FC13 FC14 5B050 BA07 BA08 BA09 CA07 FA02 FA08 9A001 BB04 DD12 HH19 HH29 HH30 HH32 HH34

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】空間に立体虚像を表示する立体虚像表示装
置と、仮想物体に対して所定の操作を行い得る操作部材
を有するとともにこの操作部材の操作に応じて仮想物体
に対する力覚を体感し得る力覚体感装置と、これら両装
置を制御する制御演算装置とから構成され、 上記制御演算装置に、立体虚像の位置および外形データ
を入力して映像用空間内に立体虚像を表示するための映
像データを作成する映像データ作成部と、力覚体感装置
の操作部材の位置を入力するとともにこの力覚体感装置
側における力覚用空間座標を映像用空間座標に変換する
座標変換部と、この映像用空間に表示される力覚対象で
ある仮想物体と立体虚像との接触状態を演算にて求める
接触状態演算部と、この接触状態演算部で得られた接触
状態を入力して仮想物体に対する反力を演算する反力演
算部と、上記映像データ作成部で得られた映像データお
よび上記接触状態演算部で得られた接触状態を入力して
立体虚像の変形量を演算する変形量演算部とを具備させ
るとともに、 上記変形量演算部にて演算された変形量を上記映像デー
タ作成部に出力して変形後の立体虚像を表示させるよう
に構成したことを特徴とする立体虚像体感システム。
1. A stereoscopic virtual image display device for displaying a stereoscopic virtual image in a space, an operation member capable of performing a predetermined operation on a virtual object, and a sense of force on the virtual object in response to the operation of the operation member. And a control operation device for controlling both of these devices. The control operation device inputs the position and outline data of the three-dimensional virtual image to display the three-dimensional virtual image in the video space. A video data creation unit that creates video data, a coordinate conversion unit that inputs the position of the operation member of the haptic device and converts the haptic space coordinates on the haptic device side into image space coordinates, A contact state calculation unit for calculating a contact state between the virtual object which is a haptic object displayed in the image space and the three-dimensional virtual image, and a contact state obtained by the contact state calculation unit being input to the virtual object versus A reaction force calculation unit for calculating a reaction force to be applied, and a deformation amount calculation for calculating a deformation amount of a stereoscopic virtual image by inputting the video data obtained by the video data creation unit and the contact state obtained by the contact state calculation unit. A stereoscopic virtual image sensation system, wherein the stereoscopic virtual image after deformation is displayed by outputting the deformation amount calculated by the deformation amount calculation unit to the video data creating unit. .
【請求項2】空間に立体虚像を表示する立体虚像表示装
置と、仮想物体に対して所定の操作を行い得る操作部材
を有するとともにこの操作部材の操作に応じて力覚を体
感し得る力覚体感装置と、これら両装置を制御する制御
演算装置と、上記立体虚像表示装置による映像用空間の
座標と力覚体感装置による力覚用空間の座標との位置合
わせを行う位置整合手段とから構成され、 上記制御演算装置に、立体虚像の位置および外形データ
を入力して映像用空間内に立体虚像を表示するための映
像データを作成する映像データ作成部と、力覚体感装置
の操作部材の位置を入力するとともにこの力覚体感装置
側における力覚用空間座標を映像用空間座標に変換する
座標変換部と、この映像用空間に表示される力覚対象で
ある仮想物体と立体虚像との接触状態を演算にて求める
接触状態演算部と、この接触状態演算部で得られた接触
状態を入力して仮想物体に対する反力を演算する反力演
算部と、上記映像データ作成部で得られた映像データお
よび上記接触状態演算部で得られた接触状態を入力して
立体虚像の変形量を演算する変形量演算部とを具備させ
るとともに、 上記変形量演算部にて演算された変形量を上記映像デー
タ作成部に出力して変形後の立体虚像を表示させるよう
に構成し、 かつ上記位置整合手段として、映像用空間内の所定位置
に配置される基準外形寸法を有する基準物体を用いたこ
とを特徴とする立体虚像体感システム。
2. A three-dimensional virtual image display device for displaying a three-dimensional virtual image in a space, a force member having an operation member capable of performing a predetermined operation on a virtual object, and capable of experiencing a force sense in response to the operation of the operation member. It comprises a sensation device, a control operation device for controlling both of these devices, and a position matching unit for aligning the coordinates of the image space by the stereoscopic virtual image display device with the coordinates of the haptic space by the haptic device. A video data creation unit for inputting the position and outline data of the stereoscopic virtual image to the control arithmetic unit and generating video data for displaying the stereoscopic virtual image in the video space; and an operation member of the haptic device. A coordinate conversion unit for inputting a position and converting the spatial coordinates for haptics on the side of the haptic device to spatial coordinates for a video, and a virtual object which is a haptic object displayed in the video space and a three-dimensional virtual image. Contact A contact state calculator for calculating a touch state, a reaction force calculator for inputting the contact state obtained by the contact state calculator and calculating a reaction force on the virtual object, And a deformation amount calculation unit for calculating the deformation amount of the stereoscopic virtual image by inputting the video data and the contact state obtained by the contact state calculation unit, and calculating the deformation amount calculated by the deformation amount calculation unit. A configuration is used in which the stereoscopic virtual image after the transformation is displayed by outputting to the video data creating unit, and a reference object having a standard external dimension arranged at a predetermined position in the video space is used as the position matching means. A stereoscopic virtual image sensation system characterized by the following.
【請求項3】位置整合手段として、映像用空間内の所定
位置に配置される基準物体の替わりに、所定の基準外形
寸法を有する基準立体虚像を用いたことを特徴とする請
求項2に記載の立体虚像体感システム。
3. The position matching means according to claim 2, wherein a reference stereoscopic virtual image having a predetermined reference outer dimension is used instead of the reference object placed at a predetermined position in the video space. 3D virtual image experience system.
JP2000040374A 2000-02-18 2000-02-18 3D virtual image experience system Pending JP2001229408A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000040374A JP2001229408A (en) 2000-02-18 2000-02-18 3D virtual image experience system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000040374A JP2001229408A (en) 2000-02-18 2000-02-18 3D virtual image experience system

Publications (1)

Publication Number Publication Date
JP2001229408A true JP2001229408A (en) 2001-08-24

Family

ID=18563759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000040374A Pending JP2001229408A (en) 2000-02-18 2000-02-18 3D virtual image experience system

Country Status (1)

Country Link
JP (1) JP2001229408A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009069918A (en) * 2007-09-10 2009-04-02 Canon Inc Information processing apparatus and information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009069918A (en) * 2007-09-10 2009-04-02 Canon Inc Information processing apparatus and information processing method
US8553049B2 (en) 2007-09-10 2013-10-08 Canon Kabushiki Kaisha Information-processing apparatus and information-processing method

Similar Documents

Publication Publication Date Title
US8378997B2 (en) Information processing method and device for presenting haptics received from a virtual object
Iwata et al. Project FEELEX: adding haptic surface to graphics
US5973678A (en) Method and system for manipulating a three-dimensional object utilizing a force feedback interface
JP5548285B2 (en) 3D human computer interface
JP3558104B2 (en) Three-dimensional virtual object display apparatus and method
JP2011008350A (en) Image processing method and image processing apparatus
Satava et al. Human interface technology: an essential tool for the modern surgeon
JP2010257081A (en) Image processing method and image processing apparatus
JPH11513157A (en) Interactive navigation device for virtual environment
Walairacht et al. Two-handed multi-fingers string-based haptic interface device
JP2001216015A (en) Operation teaching device for robot
Akahane et al. Two-handed multi-finger string-based haptic interface SPIDAR-8
JP2001229408A (en) 3D virtual image experience system
JP2782428B2 (en) Virtual object operation device
JP5005585B2 (en) Operating device and method
JP5660971B2 (en) CAD system
Alhalabi et al. Haptic interaction rendering technique for HIRO: An opposite human hand haptic interface robot
US10692401B2 (en) Devices and methods for interactive augmented reality
JP2007293412A (en) Information processing method and apparatus
JP3198303B2 (en) Three-dimensional structure manufacturing system
JP2000047565A (en) Contact feeling simulation device for objects
JP6933850B1 (en) Virtual space experience system
Takase et al. A demonstration-based instruction system for handling manipulation of deformable objects with overlaying hand postures and contact forces
CN219302988U (en) Augmented reality device
WO2024030641A1 (en) Robot avatar