JP2009087161A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2009087161A JP2009087161A JP2007258036A JP2007258036A JP2009087161A JP 2009087161 A JP2009087161 A JP 2009087161A JP 2007258036 A JP2007258036 A JP 2007258036A JP 2007258036 A JP2007258036 A JP 2007258036A JP 2009087161 A JP2009087161 A JP 2009087161A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- orientation
- gripping tool
- image
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
【課題】 手の状態に応じて、手を模した仮想物体を仮想空間中に配置する為の技術を提供すること。
【解決手段】 属性設定部306は、手の位置姿勢と把持具の位置姿勢との位置姿勢関係を求める。記憶部308にハンドモデルとして予め保持している複数種の手の状態のそれぞれを表すハンドモデルのうち、求めた位置姿勢関係に対応するハンドモデルを、仮想空間中に配置する対象としてモデルデータ属性設定部306、画像生成部307が選択する。
【選択図】 図3PROBLEM TO BE SOLVED: To provide a technique for arranging a virtual object imitating a hand in a virtual space according to the state of the hand.
An attribute setting unit obtains a position / posture relationship between a hand position / posture and a gripper position / posture. Of the hand models representing each of a plurality of types of hand states that are stored in advance as hand models in the storage unit 308, model data attributes that are used as targets to be placed in the virtual space are hand models corresponding to the obtained position and orientation relationship The setting unit 306 and the image generation unit 307 select.
[Selection] Figure 3
Description
本発明は、複合現実感を提供するための技術に関するものである。 The present invention relates to a technique for providing mixed reality.
従来から、仮想空間と現実空間とを融合させた複合現実空間(Mixed Reality;MR)を利用したシステム(MRシステム)がある。MRとは、計算機によって生成した仮想空間を、現実空間に3次元的に位置合わせした状態で重畳して観察者に提示することにより、両空間の情報を相互に補完・増強する技術である。なお、複合現実感技術については、例えば、非特許文献1に開示されている。 Conventionally, there is a system (MR system) using a mixed reality space (MR) in which a virtual space and a real space are fused. MR is a technique that complements and enhances information in both spaces by superimposing a virtual space generated by a computer in a three-dimensionally aligned state and presenting it to an observer. The mixed reality technology is disclosed in Non-Patent Document 1, for example.
複合現実空間をユーザに提示する方法には様々なものがあるが、その一つがユーザの頭部にHMD(Head Mount Display)を装着させて提示する方法である。 There are various methods for presenting the mixed reality space to the user. One of them is a method of presenting the head mounted on the user's head with an HMD (Head Mount Display).
現在、HMDを利用したMRシステムが、デザイン評価や組み立て性検証、ユーザビリティ検証などに使用されている。 Currently, MR systems using HMD are used for design evaluation, assemblyability verification, usability verification, and so on.
ユーザによる評価および検証作業を行う際、ユーザの手がどのような状態かを把握できれば、作業をスムーズに行うことができる。例えば、ユーザビリティ検証を行う場合において、検証者は、CGで表示された仮想の製品のボタンに対して手が届くか、アクセスしやすいか等を確認したい。また、手で把持しているドライバが、CGで表示された仮想の製品の隙間に入るか、ドライバによるメンテナンスが可能か等も確認したい。そこで、現実の手や道具に対応したCGを仮想空間および複合現実空間内に表示することがなされている。
しかし、従来の仮想空間および複合現実空間の画像を表示する方法では、現実の手の動作状態が変化した場合に、その手の動作に対応して手のCGの形状を変化させることが簡単ではなかった。例えば、はじめはパーの状態の手がなんらかの道具を持つと、グーなどの状態に変化する。従って、この現実の手の動作に対応して、仮想空間および複合現実空間内の手のCGの形状もパーからグーなどに変化させたいが、手のCGの形状はパーのままになってしまう。 However, in the conventional method of displaying images in the virtual space and the mixed reality space, it is not easy to change the shape of the hand CG corresponding to the movement of the hand when the movement state of the actual hand changes. There wasn't. For example, if the hand in the par state initially has any tool, it will change to a state such as goo. Accordingly, in response to the movement of the actual hand, the shape of the hand CG in the virtual space and the mixed reality space is also desired to be changed from par to goo, but the shape of the hand CG remains par. .
係る課題を解決するために、オペレータが手のCGの切り替え入力操作を行う、という方法があるが、この方法の場合、HMDを装着しているユーザ以外にオペレータを必要とするし、現実の手の動作に応じて自動的に手のCGを切替えることができない。 In order to solve such a problem, there is a method in which an operator performs a hand CG switching input operation. In this method, an operator is required in addition to the user wearing the HMD, and the actual hand The hand CG cannot be switched automatically according to the movement of the camera.
また、手の動きを入力することが可能なグローブ型の入力デバイスを手に装着し、その入力に対応して手のCGを切替える方法がある。しかし、係る入力デバイスは高価であるし、係る入力デバイスの重量は重いので、係る入力デバイスを装着するユーザに負担を与えることになる。 In addition, there is a method in which a glove-type input device capable of inputting hand movement is attached to the hand, and the hand CG is switched according to the input. However, such an input device is expensive and the weight of the input device is heavy, which places a burden on the user who wears the input device.
このように、オペレータによる入力や、手の動作の入力デバイスを用いることなく、現実の手の動作に対応した手のCGを表示する方法は現在存在していない。 Thus, there is currently no method for displaying a hand CG corresponding to an actual hand motion without using an input by an operator or a hand motion input device.
また、従来の仮想空間および複合現実空間の画像を表示する方法では、ユーザが把持している道具のCGを切替えて表示するためにはキーボードやマウスなどによる入力操作が必要であった。例えば、手でドライバーを把持している状態のCGから、手でペンチを把持している状態のCGに切替えたい場合に、HMDを装着しているユーザは、現実の手で道具を操作しながら道具のCGを切替えることができない。 In addition, in the conventional method of displaying images in the virtual space and the mixed reality space, an input operation using a keyboard, a mouse, or the like is necessary to switch and display the CG of the tool held by the user. For example, if you want to switch from a CG holding a driver with your hand to a CG holding a pliers with your hand, the user wearing the HMD will operate the tool with his / her hands. The CG of the tool cannot be switched.
本発明は以上の問題に鑑みてなされたものであり、手の状態に応じて、手を模した仮想物体を仮想空間中に配置する為の技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide a technique for arranging a virtual object imitating a hand in a virtual space according to the state of the hand.
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.
即ち、ユーザの視点の位置姿勢を取得する手段と、
前記ユーザの手の位置姿勢を取得する手段と、
前記手が把持する対象としての把持具の位置姿勢を取得する手段と、
前記手を模した仮想物体を、前記手の位置姿勢で仮想空間中に配置する第1の配置手段と、
前記把持具を模した仮想物体を、前記把持具の位置姿勢で前記仮想空間中に配置する第2の配置手段と、
前記第1の配置手段、前記第2の配置手段により仮想物体が配置された前記仮想空間の画像を、前記視点の位置姿勢に基づいて生成する手段と、
前記仮想空間の画像を出力する出力手段とを備え、
前記第1の配置手段は、
前記手の位置姿勢と前記把持具の位置姿勢との位置姿勢関係を求める計算手段と、
前記手を模した仮想物体として予め保持している、複数種の手の状態のそれぞれを表す仮想物体のうち、前記位置姿勢関係に対応する仮想物体を、前記仮想空間中に配置する対象として選択する選択手段と
を備えることを特徴とする。
That is, means for acquiring the position and orientation of the user's viewpoint,
Means for acquiring the position and orientation of the user's hand;
Means for acquiring a position and orientation of a gripping tool as a target to be gripped by the hand;
A first placement means for placing a virtual object imitating the hand in a virtual space at the position and orientation of the hand;
A second placement means for placing a virtual object imitating the gripping tool in the virtual space at the position and orientation of the gripping tool;
Means for generating an image of the virtual space in which a virtual object is arranged by the first arrangement means and the second arrangement means based on the position and orientation of the viewpoint;
Output means for outputting an image of the virtual space,
The first arrangement means includes
Calculating means for obtaining a position and orientation relationship between the position and orientation of the hand and the position and orientation of the gripping tool;
A virtual object corresponding to the position and orientation relationship is selected as a target to be placed in the virtual space from among virtual objects representing each of a plurality of types of hand states that are held in advance as virtual objects that imitate the hand. And a selection means.
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.
即ち、ユーザの視点の位置姿勢を取得する工程と、
前記ユーザの手の位置姿勢を取得する工程と、
前記手が把持する対象としての把持具の位置姿勢を取得する工程と、
前記手を模した仮想物体を、前記手の位置姿勢で仮想空間中に配置する第1の配置工程と、
前記把持具を模した仮想物体を、前記把持具の位置姿勢で前記仮想空間中に配置する第2の配置工程と、
前記第1の配置工程、前記第2の配置工程で仮想物体が配置された前記仮想空間の画像を、前記視点の位置姿勢に基づいて生成する工程と、
前記仮想空間の画像を出力する出力工程とを備え、
前記第1の配置工程は、
前記手の位置姿勢と前記把持具の位置姿勢との位置姿勢関係を求める計算工程と、
前記手を模した仮想物体として予め保持している、複数種の手の状態のそれぞれを表す仮想物体のうち、前記位置姿勢関係に対応する仮想物体を、前記仮想空間中に配置する対象として選択する選択工程と
を備えることを特徴とする。
That is, obtaining the position and orientation of the user's viewpoint,
Obtaining a position and orientation of the user's hand;
Obtaining a position and orientation of a gripping tool as a target to be gripped by the hand;
A first placement step of placing a virtual object imitating the hand in a virtual space at the position and orientation of the hand;
A second arrangement step of arranging a virtual object imitating the gripping tool in the virtual space at the position and orientation of the gripping tool;
Generating an image of the virtual space in which a virtual object is arranged in the first arrangement step and the second arrangement step based on the position and orientation of the viewpoint;
An output step of outputting an image of the virtual space,
The first arrangement step includes
A calculation step for obtaining a position and orientation relationship between the position and orientation of the hand and the position and orientation of the gripping tool;
A virtual object corresponding to the position and orientation relationship is selected as a target to be placed in the virtual space from among virtual objects representing each of a plurality of types of hand states that are held in advance as virtual objects that imitate the hand. And a selection step.
本発明の構成により、手の状態に応じて、手を模した仮想物体を仮想空間中に配置することができる。 According to the configuration of the present invention, it is possible to arrange a virtual object imitating a hand in the virtual space according to the state of the hand.
以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[第1の実施形態]
先ず、本実施形態の概要について説明する。
[First Embodiment]
First, an outline of the present embodiment will be described.
図1Aは、現実空間に仮想空間を重畳させた複合現実空間を観察するユーザの手と、この手が把持する対象となる把持具と、を示す図である。図1Bは、上記ユーザの手に重畳表示させる仮想物体と、把持具に重畳表示させる仮想物体とを示す図である。 FIG. 1A is a diagram illustrating a user's hand observing a mixed reality space obtained by superimposing a virtual space on the real space, and a gripping tool to be gripped by the hand. FIG. 1B is a diagram illustrating a virtual object to be superimposed on the user's hand and a virtual object to be superimposed on the gripping tool.
図1Aにおいて、101は、ユーザの手(現実物体)で、104は、把持具としてのワンドである。手101には治具103が取り付けられており、更にその治具103には、再帰反射マーカ102a〜102cが取り付けられている。即ち、治具103は、複数個の再帰反射マーカ(図1Aの場合、再帰反射マーカ102a〜102c)を1つの群として固定するための治具として機能する。これにより、複数個の再帰反射マーカ同士の位置姿勢関係が不変となる。治具103は手101に装着されているので、手101に連動して動くことになる。
In FIG. 1A, 101 is a user's hand (real object), and 104 is a wand as a gripping tool. A
一方、ワンド104にも、同様の再帰反射マーカ102d〜102gが取り付けられている。105は、ワンド104を把持している手を示している。
On the other hand, similar
図1Bにおいて、106は、ユーザの手を模した仮想物体であり、より詳しくは、開いた手、即ち、図1Aに示した手101を模した仮想物体である。係る仮想物体106は、ユーザの手の位置姿勢で仮想空間中に配されるものである。
In FIG. 1B,
107は、ワンド104の位置姿勢で仮想空間中に配される仮想物体で、図1Bではドライバを模した仮想物体である。
108は、仮想物体107を把持している手を模した仮想物体である。本実施形態では、ユーザの手が、手101から手105に変化した場合には、それに追従して、手を模した仮想物体も仮想物体106から仮想物体108に変化させることを目的としている。即ち、ユーザの手の状態の変化に応じて、手を模した仮想物体も変化させる。もちろん、実際の手の状態と、手を模した仮想物体が表す手の状態とは略同じである。
ここで、従来では、ユーザの手の位置姿勢で配置する仮想物体は、手の状態の変化とは何等関係していない。従って、ユーザの手が手101となっている場合には、仮想物体106を手101の位置姿勢で配置しても構わないが、ユーザの手が手105となった場合でも、同じ仮想物体106が手105の位置姿勢で配置される事になる。従って、図2に示す如く、開いた手を示す仮想物体106でドライバを模した仮想物体107を把持するという、不自然な構図となり、係る構図の仮想空間の画像がユーザに提示されてしまう。図2は、ユーザの手に重畳表示させる仮想物体と、把持具に重畳表示させる仮想物体とを示す図である。
Here, conventionally, the virtual object arranged in the position and orientation of the user's hand has nothing to do with the change in the hand state. Therefore, when the user's hand is the
本実施形態では、ユーザの手の位置姿勢で配置する仮想物体を、手の状態の変化に応じて選択的に切り替えることで、実際の手の状態と略一致する手の仮想物体をユーザに提示する。 In this embodiment, a virtual object to be arranged in the position and orientation of the user's hand is selectively switched according to a change in the hand state, thereby presenting the user with a hand virtual object that substantially matches the actual hand state. To do.
図3は、本実施形態に係るシステムの機能構成を示すブロック図である。 FIG. 3 is a block diagram showing a functional configuration of the system according to the present embodiment.
図3に示す如く、本実施形態に係るシステムは、頭部装着型表示装置の一例としてのHMD350と、位置姿勢センサ304と、画像処理装置300と、で構成されている。
As shown in FIG. 3, the system according to this embodiment includes an
先ず、HMD350について説明する。HMD350は、撮像部301と、表示部309とを備える。
First, the
撮像部301は、自身の位置姿勢に応じて見える現実空間の動画像を撮像するものであり、撮像した各フレームの画像(現実空間の画像)は順次、画像処理装置300に入力される。
The
表示部309は、液晶画面などにより構成されており、HMD350を頭部に装着したユーザの眼前に位置するようにHMD350に取り付けられたものである。係る表示部309には、画像処理装置300から送出された画像が表示される。なお、撮像部301、表示部309のそれぞれが有する光学系の焦点は一致している。
The
また、HMD350には、図1A、1Bに示したような、再帰反射マーカが複数配されているものとする。これは、位置姿勢センサ304により、HMD350の位置姿勢を計測するために取り付けたものであって、他の方法でHMD350の位置姿勢を求めるのであれば、再帰反射マーカをHMD350に取り付ける必要はない。
Further, it is assumed that a plurality of retroreflective markers as shown in FIGS. 1A and 1B are arranged in the
次に、位置姿勢センサ304について説明する。
Next, the position /
位置姿勢センサ304は、例えば光学反射式のリアルタイム3次元動作解析システムである。光学反射式のリアルタイム3次元動作解析システムは、現実空間内にある再帰性反射マーカの群を複数のカメラから撮影することで再帰性反射マーカの群からなるオブジェクトの位置姿勢を計算し、オブジェクトの3次元位置姿勢データとして出力する。本実施形態では、再帰反射マーカは、ユーザの手、ユーザが手で把持する把持具、HMD350に取り付けるので、位置姿勢センサ304は、それぞれの位置姿勢を計測することになる。そして計測した結果を、画像処理装置300に対して送出する。なお、再帰反射マーカと、光学反射式のリアルタイム3次元動作解析システムとを用いて、再帰反射マーカを取り付けた対象の位置姿勢を求めるための技術については周知であるので、ここでは係る技術についての説明は省略する。
The position /
次に、画像処理装置300について説明する。画像処理装置300は、撮影画像取込部302、画像合成部303、画像生成部307、状態判定部305、モデルデータ属性設定部306、記憶部308、を備える。
Next, the
撮影画像取込部302は、撮像部301から送出された各フレームの画像を順次、画像合成部303に対して送出する。なお、撮影画像取込部302は、撮像部301から画像を受けると、係る画像の形式を、画像合成部303が取り扱えるような形式に変換してから、画像合成部303に対して送出する。
The captured
画像合成部303は、撮影画像取込部302から受けた現実空間の画像上に、画像生成部307が生成した仮想空間の画像を重畳させることで、合成画像を生成する。そして生成した合成画像を、上記表示部309に対して送出する。現実空間の画像上に仮想空間の画像を重畳させる技術については様々なものがあり、本実施形態では如何なる技術を用いても良い。
The
状態判定部305は、位置姿勢センサ304が計測した、ユーザの手の位置姿勢を示す位置姿勢情報、把持具の位置姿勢を示す位置姿勢情報を取得し、取得したこれらの位置姿勢情報を用いて、手の状態を判定する。判定した結果を示す情報は、後段のモデルデータ属性設定部306に対して送出する。
The
モデルデータ属性設定部306は、状態判定部305から受けた情報に基づいて、手の状態に対応する手の属性を特定し、特定した属性を、後段の画像生成部307に対して通知する。
Based on the information received from the
記憶部308には、仮想空間を構成する各仮想物体についてのデータが登録されている。係るデータには、ユーザの手を模した仮想物体、把持具を模した仮想物体が登録れている。ユーザの手を模した仮想物体には、様々な手の状態のそれぞれに対応する手の仮想物体が含まれてる。例えば、開いた手を模した仮想物体、グーの状態の手を模した仮想物体、人差し指で方向を指し示す手を模した仮想物体、等、複数種の手の状態のそれぞれを表す仮想物体(複数種の属性のそれぞれに対応する仮想物体)が、記憶部308に登録されている。
In the
以降の説明では、ユーザの手を模した仮想物体を「ハンドモデル」、把持具を模した仮想物体を「把持具モデル」と呼称する。 In the following description, a virtual object that imitates a user's hand is referred to as a “hand model”, and a virtual object that imitates a gripping tool is referred to as a “gripping tool model”.
画像生成部307は、モデルデータ属性設定部306から通知された属性に対応するハンドモデルのデータを、記憶部308から読み出す。そして、係るハンドモデルのデータに基づいたハンドモデルを、位置姿勢センサ304が計測した「ユーザの手の位置姿勢」で、仮想空間中に配置する(第1の配置)。
The
一方、画像生成部307は、記憶部308に登録されている把持具モデルのデータを読み出し、読み出したデータに基づいた把持具モデルを、位置姿勢センサ304が計測した「把持具の位置姿勢」で、仮想空間中に配置する(第2の配置)。このようにして、仮想空間を構築する。もちろん、更に仮想物体を仮想空間中に配置するようにしても良い。
On the other hand, the
そして、画像生成部307は、位置姿勢センサ304が計測した「HMD350の位置姿勢」(視点の位置姿勢)から見える仮想空間の画像を生成する。所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための技術については周知の技術であるので、これについての説明は省略する。
Then, the
そして、画像生成部307は、生成した仮想空間の画像を、画像合成部303に対して送出する。画像合成部303は上述の通り、係る仮想空間の画像を、撮像部301から受けた現実空間の画像上に合成する。
Then, the
次に、ユーザの手の状態に応じたハンドモデルをユーザの手の位置姿勢で配置した仮想空間の画像を、現実空間の画像に対して重畳させた合成画像を生成するための処理について、同処理のフローチャートを示す図4を用いて、以下説明する。 Next, the processing for generating a composite image in which an image in a virtual space in which a hand model corresponding to the state of the user's hand is arranged in the position and orientation of the user's hand is superimposed on an image in the real space will be described. This will be described below with reference to FIG. 4 showing a flowchart of processing.
先ず、ステップS401では、画像生成部307は、以降の処理で用いるデータを、記憶部308から読み出す。
First, in step S <b> 401, the
次にステップS402では、画像生成部307は、位置姿勢センサ304が計測した、「HMD350の位置姿勢情報」、「ユーザの手の位置姿勢情報」、「把持具の位置姿勢情報」を、センサ情報として取得する。
In step S <b> 402, the
次に、ステップS403では、状態判定部305は、位置姿勢センサ304が計測した、「ユーザの手の位置姿勢情報」、「把持具の位置姿勢情報」を取得し、これらの位置姿勢情報を用いて、ユーザの手の状態を判定する。ステップS403における処理の詳細については後述する。
Next, in step S <b> 403, the
次にステップS404では、モデルデータ属性設定部306は、ステップS403で判定した手の状態に応じて、ユーザの手の位置姿勢で仮想空間中に配置するハンドモデルの属性を決定する。ステップS404における処理の詳細については後述する。
Next, in step S404, the model data attribute setting
次にステップS405では、画像生成部307は、モデルデータ属性設定部306が決定した属性に対応するハンドモデルのデータを、記憶部308から読み出す。そして、係るハンドモデルのデータに基づいたハンドモデルを、位置姿勢センサ304が計測した「ユーザの手の位置姿勢」で、仮想空間中に配置する。
In step S <b> 405, the
更に画像生成部307は、記憶部308に登録されている把持具モデルのデータを読み出し、読み出したデータに基づいた把持具モデルを、位置姿勢センサ304が計測した「把持具の位置姿勢」で、仮想空間中に配置する。
Further, the
そして画像生成部307は、このようにして構築した仮想空間を、位置姿勢センサ304が計測した「HMD350の位置姿勢」から見た画像を生成する。
Then, the
ステップS406では、画像合成部303は、撮影画像取込部302から受けた現実空間の画像上に、ステップS405で画像生成部307が生成した仮想空間の画像を重畳させることで、合成画像を生成する。そして生成した合成画像を、上記表示部309に対して送出する。もちろん、他の表示装置が画像処理装置300に接続されている場合には、係る表示装置に対しても、この合成画像を出力するようにしても良い。
In step S406, the
なお、HMD350が光学シースルー型のHMDである等、仮想空間の画像のみを必要とするデバイスが画像処理装置300に接続されている場合、係るデバイスに対して画像合成部303は、画像生成部307から受けた仮想空間の画像のみを送出する。
Note that when a device that requires only an image in the virtual space is connected to the
次に、本処理を終了させるための指示が、画像処理装置300に対して入力されたことを検知した、若しくは本処理を終了する条件が満たされたことを検知した場合には、ステップS407を介して、本処理を終了させる。一方、何れも検知していない場合には、ステップS407を介してステップS402に処理を戻し、次のフレームの合成画像を生成すべく、ステップS402以降の処理を行う。
Next, when it is detected that an instruction for ending this process is input to the
次に、上記ステップS403における処理について、図5のフローチャートを用いて詳細に説明する。図5は、ステップS403における処理の詳細を示すフローチャートである。なお、図5のフローチャートに従った処理は、状態判定部305によって行われる。
Next, the process in step S403 will be described in detail with reference to the flowchart of FIG. FIG. 5 is a flowchart showing details of the process in step S403. Note that the process according to the flowchart of FIG. 5 is performed by the
先ずステップS501では、状態判定部305は、位置姿勢センサ304が計測した、「ユーザの手の位置姿勢情報」のうちの位置情報と、「把持具の位置姿勢情報」のうちの位置情報と、を用いて、それぞれの位置情報が示す位置間の距離情報を求める。
First, in step S501, the
係る計算は、例えば以下の式に基づいて行われる。 Such calculation is performed based on the following equation, for example.
距離情報=Pos(H−W) = |PosH −PosW|
PosHは「ユーザの手の位置情報」、PosWは「把持具の位置情報」である。ここで、「位置情報」とは、3次元仮想空間内におけるx座標値、y座標値、z座標値から構成される。なお、距離情報を求める為の式については、係る式に限定するものではなく、他の方法で求めても良い。
Distance information = Pos (H−W) = | PosH −PosW |
PosH is “position information of the user's hand”, and PosW is “position information of the gripper”. Here, “position information” is composed of an x-coordinate value, a y-coordinate value, and a z-coordinate value in the three-dimensional virtual space. In addition, about the formula for calculating | requiring distance information, it is not limited to the type | formula which concerns, You may obtain | require by another method.
次にステップS502では、状態判定部305は、ステップS501で求めた距離情報が示す距離が、予め定めた閾値以下(距離以下)であるか否かを判断する。例えば、距離情報が示す距離が、30cm以下であるか否かを判断する。
Next, in step S502, the
係る判断の結果、ステップS501で求めた距離情報が示す距離が閾値以下である場合には処理をステップS503に進める。一方、閾値よりも大きい場合には、処理をステップS504に進める。 As a result of the determination, if the distance indicated by the distance information obtained in step S501 is equal to or smaller than the threshold value, the process proceeds to step S503. On the other hand, if it is larger than the threshold value, the process proceeds to step S504.
ステップS504では、現在の手の状態がデフォルトの状態であることを示す情報、例えば、開いた手であることを示す情報を、モデルデータ属性設定部306に対して通知する。そして、図5のフローチャートに従った処理を終了し、図4のステップS404にリターンする。
In step S504, the model data attribute setting
一方、ステップS503では、状態判定部305は、位置姿勢センサ304が計測した「ユーザの手の位置姿勢情報」、「把持具の位置姿勢情報」を用いて、把持具に対するユーザの手の相対的な位置姿勢を求める。即ち、ユーザの手と把持具との位置姿勢関係を示し位置姿勢関係情報を求める。係る計算は、例えば以下の式に基づいて行われる。
On the other hand, in step S <b> 503, the
相対的な位置姿勢=Mat(H−W) = MatH-1 ・ MatW
MatHは「ユーザの手の位置姿勢情報」を含む行列データ、MatWは「把持具の位置姿勢情報」を含む行列データである。ここで、位置姿勢情報は周知の通り、位置情報と姿勢情報とで構成されており、位置情報については上述の通り、x、y、zのそれぞれの座標値で構成されており、姿勢情報は、x軸、y軸、z軸のそれぞれの軸周りの回転角度で構成されている。
Relative position and orientation = Mat (H−W) = MatH −1・ MatW
MatH is matrix data including “position / posture information of user's hand”, and MatW is matrix data including “position / posture information of gripper”. Here, as is well known, the position and orientation information is composed of position information and orientation information, and the position information is composed of coordinate values of x, y, and z as described above. , X-axis, y-axis, and z-axis.
次に、ステップS505では、状態判定部305は、ステップS503で求めた位置姿勢関係情報が、予め定められた範囲内の位置姿勢関係を示しているか否かを判断する。例えば、ステップS503で求めた位置姿勢関係情報中の姿勢成分のうちのロール角が「40度から50度の範囲内」という規定範囲に収まっているか否かを判断する。係る規定範囲を示すデータは、記憶部308に予め登録されている。
In step S505, the
なお、ロール角の他にも、x、y、zの各座標値、ピッチ角、ヨー角のそれぞれの要素に対しても同様の規定範囲を定めても良い。その場合、ステップS505では、ステップS503で求めた位置姿勢関係情報を構成する全ての要素(x、y、z座標値と各軸周りの回転角度)が、各要素に対する規定範囲内に収まっていない場合には、「NO」と判断する。一方、ステップS503で求めた位置姿勢関係情報を構成する全ての要素(x、y、z座標値と各軸周りの回転角度)が、各要素に対して規定された範囲内に収まっている場合には、「YES」と判断する。 In addition to the roll angle, the same specified ranges may be defined for each of the x, y, and z coordinate values, the pitch angle, and the yaw angle. In this case, in step S505, all elements (x, y, z coordinate values and rotation angles around each axis) constituting the position / orientation relationship information obtained in step S503 are not within the specified range for each element. In this case, it is determined as “NO”. On the other hand, when all elements (x, y, z coordinate values and rotation angles around each axis) constituting the position / orientation relationship information obtained in step S503 are within the range defined for each element. Is determined as “YES”.
「YES」と判断した場合には処理をステップS506に進め、「NO」と判断した場合には、ステップS504に処理を進める。 If "YES" is determined, the process proceeds to step S506. If "NO" is determined, the process proceeds to step S504.
ここで、ステップS505における処理では次のような関数を用いても良い。 Here, the following function may be used in the processing in step S505.
Determination(Mat(H−W))
ここで、Determination(x)は状態判定関数であり、引数xを構成する各要素が、各要素について規定された範囲内であるかを判定し、その判定結果を返す機能を有する。
Determination (Mat (H-W))
Here, Determination (x) is a state determination function, and has a function of determining whether each element constituting the argument x is within a range defined for each element and returning the determination result.
なお、以上の説明では、ステップS503で求めた位置姿勢関係情報を構成する全ての要素が、各要素に対して規定された範囲内に収まっているか否かの判断処理をステップS504で行うものとして説明した。しかし、ただ単に1回の判断処理の結果を用いるのではなく、連続してn回の判断処理で「収まっている」と判断した場合に初めて、「収まっている」という判定結果を最終的な判定結果としても良い。なお、連続してm(m<n−1)回の判断処理で収まっていると判断されても、(m+1)回目の判断処理で収まっていないと判断されれば、その時点で「収まっていない」との最終判定結果を出力する。 In the above description, it is assumed that in step S504, it is determined whether all elements constituting the position / orientation relationship information obtained in step S503 are within the range defined for each element. explained. However, it is not only the result of the single determination process that is used, but the determination result “contained” is the final result only when it is determined “contained” in n consecutive determination processes. It is good also as a determination result. In addition, even if it is determined that it is continuously included in the m (m <n−1) determination processes, if it is determined that it is not included in the (m + 1) th determination process, “at that time” The final decision result “No” is output.
その場合における判断処理に用いる関数は次のように定めても良い。 The function used for the determination process in that case may be determined as follows.
Determination(Mat(n)(H−W))
ここで、Mat(n)(H−W)は、ステップS503で連続して求められる位置姿勢情報である。
Determination (Mat (n) (H−W))
Here, Mat (n) (H−W) is the position and orientation information obtained continuously in step S503.
例えば、ユーザの手がグーの状態で把持具を把持している状態における、ユーザの手と把持具との位置姿勢関係に±αを加えた範囲が規定範囲として、記憶部308に登録されているとする。更に、上記回数を示す変数nがn=3と定められているとする(変数nの値についても記憶部308に登録されている)。この場合、把持具に対するユーザの手の相対的な位置姿勢が、規定範囲が定める範囲内に収まっていると、連続して3回判断された場合に、初めて、ステップS505で「YES」と判断する。
For example, a range in which ± α is added to the position and orientation relationship between the user's hand and the gripping tool when the user's hand is gripping the gripping tool is registered in the
ステップS506では、例えば、上記ステップS505で用いた規定範囲のデータが「グーの状態であるか否か」を判定する為のものである場合、手の状態を示す情報として「グーの状態であることを示す情報」を、モデルデータ属性設定部306に通知する。また、上記ステップS505で用いた規定範囲のデータが「人差し指で指している状態であるか否か」を判定する為のものである場合、手の状態を示す情報として「人差し指で指している状態であることを示す情報」を、モデルデータ属性設定部306に通知する。このように、ステップS506では、規定範囲のデータを用いて判定する手の状態を示す情報を、モデルデータ属性設定部306に対して通知する。
In step S506, for example, when the data of the specified range used in step S505 is for determining whether or not the state is a goo state, the information indicating the hand state is “a goo state”. To the model data attribute setting
次に、上記ステップS404における処理について、同処理のフローチャートを示す図6を用いて説明する。図6は、ステップS404における処理の詳細を示すフローチャートである。なお、図6のフローチャートに従った処理は、モデルデータ属性設定部306によって行われる。
Next, the process in step S404 will be described with reference to FIG. 6 showing a flowchart of the process. FIG. 6 is a flowchart showing details of the process in step S404. 6 is performed by the model data attribute setting
先ず、ステップS601においてモデルデータ属性設定部306は、状態判定部305から受けた「手の状態を示す情報」に対応する、ハンドモデルの属性を特定する。記憶部308には、様々な手の状態を示す情報のそれぞれが、属性が関連付けられた状態で登録されている。即ち、手の状態を示す情報と、係る手を模したハンドモデルの属性とは1対1の関係で、手の状態毎に記憶部308に登録されている。例えば、グーの状態を示す情報と、グーの状態の手を模したハンドモデルの属性と、がセットになって記憶部308に登録されている。
First, in step S <b> 601, the model data attribute setting
従って、例えば、モデルデータ属性設定部306が状態判定部305から「グーの状態を示す情報」を受けると、グーの状態の手を模したハンドモデルの属性を特定する。
Therefore, for example, when the model data attribute setting
そして、ステップS602では、ステップS601で特定した属性を、画像生成部307に対して通知する。
In step S602, the
以上の説明により、本実施形態によれば、オペレータが介在した操作や、グローブ型入力デバイスによる入力等の煩わしい入力操作なしに、現実の手の状態に応じた手の仮想物体を手の位置姿勢に配置させた仮想空間の画像を生成することができる。 As described above, according to the present embodiment, the position and orientation of the virtual object of the hand according to the state of the actual hand can be obtained without any complicated operation such as an operator-mediated operation or an input using a glove-type input device. It is possible to generate an image of the virtual space arranged on the screen.
[第2の実施形態]
本実施形態では、上記ステップS505で用いた、規定範囲のデータを、様々な手の状態毎に記憶部308に登録しておき、ステップS503で求めた位置姿勢関係情報が示す手の状態の判定を、より細かく行う。即ち、判定される状態は複数種類あってもよい。なお、本実施形態では、第1の実施形態と同様のシステムを用いる。
[Second Embodiment]
In the present embodiment, the data of the specified range used in step S505 is registered in the
図7Aは、現実空間に仮想空間を重畳させた複合現実空間を観察するユーザの手と、この手が把持する対象となる把持具と、を示す図である。図7Bは、上記ユーザの手に重畳表示させる仮想物体と、把持具に重畳表示させる仮想物体とを示す図である。図7A、7Bにおいて、図1A、1Bと同じ部分については同じ参照番号を付けており、その説明は省略する。 FIG. 7A is a diagram illustrating a user's hand observing a mixed reality space in which a virtual space is superimposed on the real space, and a gripping tool to be gripped by the hand. FIG. 7B is a diagram illustrating a virtual object to be superimposed and displayed on the user's hand and a virtual object to be superimposed and displayed on the gripping tool. 7A and 7B, the same parts as those in FIGS. 1A and 1B are denoted by the same reference numerals, and the description thereof is omitted.
図7Aに示す如く、手701は、ワンド104を把持しているが、図1Aに示した手105とは異なる握り型となっている。この場合、手105とワンド104との位置姿勢関係と、手701とワンド104との位置姿勢関係とは異なったものとなっている。本実施形態では、手701とワンド104との位置姿勢関係が、図7Aに示したような位置姿勢関係になった場合には、図7Bに示す如く、手701を模したハンドモデル702を、手701の位置姿勢で配置する。
As shown in FIG. 7A, the
即ち、本実施形態では、第1の実施形態よりも、より細かく手の状態を判定し、その判定結果に応じたハンドモデルを配置する。なお、ハンドモデルを選択的に切り替える際には、把持具モデルについても適宜切り替えるようにしても良い。 That is, in the present embodiment, the hand state is determined more finely than in the first embodiment, and a hand model corresponding to the determination result is arranged. Note that when the hand model is selectively switched, the gripper model may be switched as appropriate.
図8Aは、現実空間に仮想空間を重畳させた複合現実空間を観察するユーザの手と、この手が把持する対象となる把持具と、を示す図である。図8Bは、上記ユーザの手に重畳表示させる仮想物体と、把持具に重畳表示させる仮想物体とを示す図である。図8A、8Bにおいて、図1A、1Bと同じ部分については同じ参照番号を付けており、その説明は省略する。 FIG. 8A is a diagram illustrating a user's hand observing a mixed reality space in which a virtual space is superimposed on the real space, and a gripping tool that is a target to be gripped by the hand. FIG. 8B is a diagram illustrating a virtual object to be superimposed and displayed on the user's hand and a virtual object to be superimposed and displayed on the gripping tool. 8A and 8B, the same parts as those in FIGS. 1A and 1B are denoted by the same reference numerals, and the description thereof is omitted.
図8Aに示す如く、手と把持具との位置姿勢関係が、手801とワンド104との位置姿勢関係となった場合には、図8Bに示す如く、ハンドモデル802に切り替えるだけでなく、把持具モデルを従前の仮想物体107から仮想物体850に切り替える。
As shown in FIG. 8A, when the position / posture relationship between the hand and the gripping tool becomes the position / posture relationship between the
次に、ユーザの手の状態に応じたハンドモデルをユーザの手の位置姿勢で配置した仮想空間の画像を、現実空間の画像に対して重畳させた合成画像を生成するための、本実施形態に係る処理について説明する。本実施形態に係る処理は、上記ステップS505における処理を除き、第1の実施形態と同じである。即ち、ステップS505を除く図4から〜図6に示した上記処理を、第1の実施形態と同様にして行う。 Next, this embodiment for generating a composite image in which a virtual space image in which a hand model corresponding to the state of the user's hand is arranged in the position and orientation of the user's hand is superimposed on an image in the real space The process which concerns on is demonstrated. The processing according to the present embodiment is the same as that of the first embodiment except for the processing at step S505. That is, the processes shown in FIGS. 4 to 6 except for step S505 are performed in the same manner as in the first embodiment.
従って、ここでは本実施形態に係るステップS505における処理について説明する。 Therefore, the process in step S505 according to the present embodiment will be described here.
「規定範囲のデータ」は、手の状態に応じて異なる。例えば、現在の手の状態が開いた状態であると判定するために位置姿勢関係情報が満たす規定範囲と、現在の手の状態がグーの状態であると判定するために位置姿勢関係情報が満たす規定範囲と、は異なる。本実施形態では、規定範囲のデータには、それがどのような状態を判定するためのものであるのかを示す情報(状態情報)が関連付けられているものとして説明する。例えば、現在の手の状態が開いた状態であると判定するために位置姿勢関係情報が満たす規定範囲を示すデータには、「開いた手」を示す状態情報が関連付けられている。このような規定範囲のデータと状態情報のセットは、状態毎に記憶部308に登録されている。
The “specified range data” varies depending on the state of the hand. For example, a specified range that the position / posture relationship information satisfies to determine that the current hand state is an open state, and a position / posture relationship information that satisfies the current hand state to be a goo state It is different from the specified range. In the present embodiment, description will be made on the assumption that data (state information) indicating what kind of state it is for determining is associated with the data in the specified range. For example, the state information indicating “open hand” is associated with the data indicating the specified range that the position and orientation relation information satisfies in order to determine that the current hand state is the open state. A set of data and state information in such a prescribed range is registered in the
従って、本実施形態では、ステップS505では、各状態情報に対応する規定範囲のデータ毎に、第1の実施形態で説明したステップS505における処理を行う。例えば、先ず、ステップS503で求めた位置姿勢関係情報と、現在の手の状態が開いた状態であると判定するために位置姿勢関係情報が満たす規定範囲を示すデータとを用いて判定処理を行う。係る判定処理の結果、ステップS503で求めた位置姿勢関係情報が、係る規定範囲内の位置姿勢関係を示している場合には、「手の状態が開いている」と判断する。一方、ステップS503で求めた位置姿勢関係情報が、係る規定範囲内の位置姿勢関係を示していない場合には、次の規定範囲のデータを用いた判定処理を行う。例えば、ステップS503で求めた位置姿勢関係情報と、現在の手の状態がグーの状態であると判定するために位置姿勢関係情報が満たす規定範囲を示すデータとを用いて判定処理を行う。 Therefore, in this embodiment, in step S505, the processing in step S505 described in the first embodiment is performed for each data in the specified range corresponding to each state information. For example, first, determination processing is performed using the position / orientation relationship information obtained in step S503 and data indicating a specified range satisfied by the position / orientation relationship information in order to determine that the current hand state is an open state. . As a result of the determination process, if the position / orientation relationship information obtained in step S503 indicates a position / orientation relationship within the specified range, it is determined that the hand state is open. On the other hand, when the position / orientation relationship information obtained in step S503 does not indicate the position / orientation relationship within the specified range, a determination process using data of the next specified range is performed. For example, the determination processing is performed using the position / orientation relationship information obtained in step S503 and data indicating a specified range satisfied by the position / orientation relationship information in order to determine that the current hand state is a goo state.
このようにして、各規定範囲のデータを用いて、ステップS503で求めた位置姿勢関係が、如何なる手の状態を示しているのかを判断する。 In this way, using the data of each specified range, it is determined what hand state the position and orientation relationship obtained in step S503 indicates.
[第3の実施形態]
第1,2の実施形態では、把持具は1種類のみを用いていたが、複数種類の把持具を用意しておき、任意の把持具を把持しても良い。そして、把持具毎に、対応する把持具モデルを用意しておく。従って、ユーザは、把持具を持ち替える毎に、異なる把持具モデルを観察することができる。
[Third Embodiment]
In the first and second embodiments, only one type of gripping tool is used. However, a plurality of types of gripping tools may be prepared and arbitrary gripping tools may be gripped. A corresponding gripping tool model is prepared for each gripping tool. Therefore, the user can observe different gripping tool models each time the gripping tool is changed.
この場合、それぞれの把持具には、第1の実施形態と同様に、複数個の再帰反射マーカを取り付けるのであるが、把持具毎に、再帰反射マーカの配置関係を異ならせておく。これは、位置姿勢センサ304が把持具に取り付けられた再帰反射マーカ群を検知した場合に、再帰反射マーカ間の位置姿勢関係に基づいて、その把持具が何であるのかを識別するためである。そして把持している把持具を識別すると、この把持具に関連付けられている把持具モデルを、この把持具の位置姿勢に配置する。
In this case, a plurality of retroreflective markers are attached to each gripping tool as in the first embodiment, but the arrangement relationship of the retroreflective markers is different for each gripping tool. This is because, when the position /
なお、本実施形態では、第1の実施形態と同様のシステムを用いる。 In the present embodiment, the same system as in the first embodiment is used.
図9Aは、現実空間に仮想空間を重畳させた複合現実空間を観察するユーザの手と、この手が把持する対象となる把持具と、を示す図である。図9Bは、上記ユーザの手に重畳表示させる仮想物体と、把持具に重畳表示させる仮想物体とを示す図である。図9A、9Bにおいて、図1A、1Bと同じ部分については同じ参照番号を付けており、その説明は省略する。 FIG. 9A is a diagram illustrating a user's hand observing a mixed reality space in which a virtual space is superimposed on the real space, and a gripping tool to be gripped by the hand. FIG. 9B is a diagram illustrating a virtual object to be superimposed on the user's hand and a virtual object to be superimposed on the gripping tool. 9A and 9B, the same portions as those in FIGS. 1A and 1B are denoted by the same reference numerals, and the description thereof is omitted.
図9Aに示す如く、手902には第1の実施形態と同様に、治具103が取り付けられており、係る治具103には、再帰反射マーカ102a〜102cが取り付けられている。係る手902は、把持具901を把持している。また、把持具901には、第1の実施形態と同様に、再帰反射マーカ901a〜901eが取り付けられている。把持具901は、図1Aに示したワンド104とは異なるもので、更に、配されている再帰反射マーカの配置関係も異なる。これについては上述の通りである。
As shown in FIG. 9A, a
ここで、手902と把持具901との位置姿勢関係と、手101とワンド104との位置姿勢関係は略同じであるとする。
Here, it is assumed that the position and orientation relationship between the
図9Bにおいて、903は、手902の位置姿勢で配置されるハンドモデルで、950は、把持具901の位置姿勢で配置される把持具モデルである。ここで、手902と把持具901との位置姿勢関係が、手101とワンド104との位置姿勢関係と略同じであるにもかかわらず、把持具901の位置姿勢には仮想物体107ではなく、把持具モデル950が配置されている。
In FIG. 9B, 903 is a hand model arranged with the position and orientation of the
本実施形態において、ユーザの手の状態に応じたハンドモデルをユーザの手の位置姿勢で配置した仮想空間の画像を、現実空間の画像に重畳させた合成画像を生成する処理は、図4〜図6のフローチャートに従った処理を、以下のように変形させた処理となる。 In the present embodiment, a process for generating a composite image in which an image in a virtual space in which a hand model corresponding to the state of a user's hand is arranged in the position and orientation of the user's hand is superimposed on an image in the real space is shown in FIGS. The processing according to the flowchart of FIG. 6 is modified as follows.
先ず図4のフローチャートにおいて、ステップS402では、把持具の位置姿勢情報を取得すると共に、把持具に取り付けられているそれぞれの再帰反射マーカの位置関係に基づいて、この把持具を識別する。 First, in the flowchart of FIG. 4, in step S402, the position / posture information of the gripping tool is acquired, and the gripping tool is identified based on the positional relationship of each retroreflective marker attached to the gripping tool.
そして、ステップS403,S404では、識別した把持具に固有の「規定範囲のデータ」、識別した把持具に固有の「手の状態と属性との対応関係」に基づいて処理を行う。即ち、記憶部308には、把持具の種類の毎に規定範囲のデータが登録されており、図5のステップS505では、ステップS402で識別した把持具に対応する規定範囲のデータを用いて判定処理を行う。従って、手と把持具との位置姿勢関係が同じでも、把持具の種類によっては、手の状態の判定結果は異なる場合がある。
In steps S403 and S404, processing is performed based on “specified range data” unique to the identified gripping tool and “correspondence between hand state and attributes” unique to the identified gripping tool. That is, the
そして図6のフローチャートにおいて、ステップS601では、判定した手の状態に対応する属性を決定するのであるが、判定した手の状態に対応する属性もまた、把持具の種類毎に異なる場合がある。即ち、記憶部308には、様々な手の状態を示す情報のそれぞれについて、属性が関連付けられて登録されているのであるが、係る関連付けは、把持具の種類の毎に異なる。
In the flowchart of FIG. 6, in step S601, an attribute corresponding to the determined hand state is determined, but the attribute corresponding to the determined hand state may also be different for each type of gripping tool. That is, in the
図10は、把持具としてのワンドの種類毎の、判別可能な手の状態の種類、手の状態に応じた属性、モデルデータの機能、を示す図である。 FIG. 10 is a diagram showing types of hand states that can be identified, attributes according to hand states, and functions of model data for each type of wand as a gripping tool.
例えば、上記ステップS402で識別された把持具の種類が「ワンド1」である場合、上記ステップS505では、手の状態が状態1〜3の何れであるのか、何れでもないのか、を判別することになる。例えば、「手の状態が状態1である」とは、状態1に対応する規定範囲のデータが示す規定範囲に、ステップS503で求めた位置姿勢関係が収まっているということである。また、「手の状態が状態2である」とは、状態2に対応する規定範囲のデータが示す規定範囲に、ステップS503で求めた位置姿勢関係が収まっているということである。 For example, when the type of the gripping tool identified in step S402 is “wand 1”, in step S505, it is determined whether the hand is in any one of states 1 to 3. become. For example, “the hand state is state 1” means that the position and orientation relationship obtained in step S503 is within the specified range indicated by the specified range data corresponding to state 1. Further, “the hand state is state 2” means that the position and orientation relationship obtained in step S503 is within the specified range indicated by the specified range data corresponding to state 2.
上記ステップS402で識別された把持具の種類が「ワンド3」である場合、上記ステップS505では、手の状態が状態1、2の何れであるのか、何れでもないのか、を判別することになる。このように、識別された把持具の種類に応じて、判別する手の状態の種類やその数が異なりうる。 When the type of the gripping tool identified in step S402 is “wand 3”, in step S505, it is determined whether the hand is in the state 1 or 2 and is neither. . As described above, the types of hand states to be identified and the number thereof may be different depending on the types of gripping tools identified.
そして、上記ステップS402で識別された把持具の種類が「ワンド1」であり、上記ステップS505で手の状態が「状態1」であると判別された場合、手の位置姿勢に配置するハンドモデルとして「ハンドモデルB」が選択される。また、把持具の位置姿勢に配置する把持具モデルとしては「ツールモデルA」が選択される。また、モデルデータの機能として、「ねじをピックする」が選択される。 If the type of the gripping tool identified in step S402 is “wand 1” and the hand state is determined to be “state 1” in step S505, the hand model to be placed in the hand position / posture. “Hand model B” is selected. Further, “tool model A” is selected as the gripping tool model to be arranged at the position and orientation of the gripping tool. Further, “pick a screw” is selected as the function of the model data.
「モデルデータの機能」とは、把持具を持って所定の動作を行った場合に画像処理装置300に行わせる処理の種別を示す。例えば、ステップS402で識別された把持具の種類が「ワンド1」であり、ステップS505で手の状態が「状態2」であると判別された場合、把持具を持って所定の動作を行うと、画像処理装置300に「干渉をチェックさせる」という処理を行わせる。
The “model data function” indicates the type of processing to be performed by the
なお、ハンドモデル、把持具モデルの両方を常に配置しなくても良く、状況によっては、一方のみを配置するようにしても良い。例えば、手の状態がグーの状態である場合には、把持具モデルの配置はキャンセルするようにしても良い。 Note that both the hand model and the gripper model need not always be arranged, and depending on the situation, only one of them may be arranged. For example, when the hand is in a goo state, the arrangement of the gripper model may be canceled.
なお、上記各実施形態では、HMD350や手、把持具などの位置姿勢計測に、光学反射式のリアルタイム3次元動作解析システムを用いた。しかし、位置姿勢計測の方法はこれに限定するものではなく、上記各実施形態は、何れの方法を用いて位置姿勢の取得を行っても良い。
In each of the above-described embodiments, an optical reflection type real-time three-dimensional motion analysis system is used for position and orientation measurement of the
また、上記各実施形態では、1つのセンサシステムにより、HMD350、手、把持具の位置姿勢を計測しているが、様々な方法を組み合わせてそれぞれの位置姿勢を計測しても良い。例えば、光学反射式のリアルタイム3次元動作解析システムに加えてジャイロセンサを用いる、というように、複数のセンサシステムを用いてもよい。
In each of the above embodiments, the position and orientation of the
また、上記各実施形態では、手の状態を判断するために、HMD350と手との位置姿勢関係を利用したが、他の要素を用いて手の状態を求めても良い。例えば、手の動作状態と、手と把持具との位置姿勢関係とを、把持具に取り付けた圧力センサにより求めるようにしても良い。
In each of the above embodiments, the position and orientation relationship between the
また、HMD350と手との位置姿勢関係以外にも、例えば、手とモックとの位置姿勢関係、およびモックとモックとの位置姿勢関係、を用いても良い。
In addition to the position and orientation relationship between the
また、第1乃至3の実施形態は適宜組み合わせて用いても良い。 The first to third embodiments may be used in appropriate combination.
[第4の実施形態]
図3に示した、画像処理装置300を構成する各部については、第1乃至3の実施形態ではハードウェアで構成されているものとして説明した。しかし、その一部をソフトウェアによって実現させても良い。この場合、画像処理装置300として、一般のPC(パーソナルコンピュータ)を用い、係るコンピュータが係るソフトウェアを実行するようにしても良い。
[Fourth Embodiment]
Each unit configuring the
図11は、画像処理装置300に適用可能なコンピュータのハードウェア構成を示す図である。なお、コンピュータのハードウェア構成についてはこれに限定するものではなく、様々な変形例が考え得る。
FIG. 11 is a diagram illustrating a hardware configuration of a computer applicable to the
CPU1101は、RAM1102やROM1103に格納されているプログラムやデータを用いてコンピュータ全体の制御を行うと共に、画像処理装置300が行う上述の各処理を実行する。
The
RAM1102は、外部記憶装置1106からロードされたプログラムやデータ、I/F(インターフェース)1107を介してHMD350や位置姿勢センサ304から受信したデータを一時的に記憶するためのエリアを有する。更に、RAM1102は、CPU1101が各処理を実行する際に用いるワークエリアも有する。即ち、RAM1102は、各種のエリアを適宜提供することができる。
The
ROM1103には、コンピュータの設定データやブートプログラムなどが格納されている。
The
操作部1104は、キーボードやマウスなどにより構成されており、コンピュータの操作者が操作することで、各種の指示をCPU1101に対して入力することができる。
The
表示部1105は、CRTや液晶画面等により構成されており、CPU1101による処理結果を画像や文字などを用いて表示することができる。
The display unit 1105 is configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the
外部記憶装置1106は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置1106には、OS(オペレーティングシステム)や、画像処理装置300が行う上述の各処理をCPU1101に実行させるためのプログラムやデータなどが保存されている。
The external storage device 1106 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 1106 stores an OS (operating system) and programs and data for causing the
係るプログラムには、画像合成部303、画像生成部307、モデルデータ属性設定部306、状態判定部305が行うものとして説明した上述の各処理をCPU1101に実行させるためのプログラムが含まれている。また、係るデータには、記憶部308が保持しているものとして説明したデータ群が含まれている。即ち、外部記憶装置1106は、記憶部308としても機能している。なお、記憶部308は、RAM1102の機能としても良い。
The program includes a program for causing the
I/F1107は、HMD350や位置姿勢センサ304を本コンピュータに接続するためのものである。係るI/F1107を介して画像処理装置300は、撮像部301が撮像した現実空間の画像を受信したり、表示部309に対して合成画像を送信したりする。即ち、I/F1107は、撮影画像取込部302としても機能している。また、画像処理装置300は、I/F1107を介して、位置姿勢センサ304から出力された位置姿勢情報を受信している。I/F1107を介して受信した情報は、RAM1102や外部記憶装置1106に送出される。
An I /
1108は、上述の各部を繋ぐバスである。
A
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (8)
前記ユーザの手の位置姿勢を取得する手段と、
前記手が把持する対象としての把持具の位置姿勢を取得する手段と、
前記手を模した仮想物体を、前記手の位置姿勢で仮想空間中に配置する第1の配置手段と、
前記把持具を模した仮想物体を、前記把持具の位置姿勢で前記仮想空間中に配置する第2の配置手段と、
前記第1の配置手段、前記第2の配置手段により仮想物体が配置された前記仮想空間の画像を、前記視点の位置姿勢に基づいて生成する手段と、
前記仮想空間の画像を出力する出力手段とを備え、
前記第1の配置手段は、
前記手の位置姿勢と前記把持具の位置姿勢との位置姿勢関係を求める計算手段と、
前記手を模した仮想物体として予め保持している、複数種の手の状態のそれぞれを表す仮想物体のうち、前記位置姿勢関係に対応する仮想物体を、前記仮想空間中に配置する対象として選択する選択手段と
を備えることを特徴とする画像処理装置。 Means for obtaining the position and orientation of the user's viewpoint;
Means for acquiring the position and orientation of the user's hand;
Means for acquiring a position and orientation of a gripping tool as a target to be gripped by the hand;
A first placement means for placing a virtual object imitating the hand in a virtual space at the position and orientation of the hand;
A second placement means for placing a virtual object imitating the gripping tool in the virtual space at the position and orientation of the gripping tool;
Means for generating an image of the virtual space in which a virtual object is arranged by the first arrangement means and the second arrangement means based on the position and orientation of the viewpoint;
Output means for outputting an image of the virtual space,
The first arrangement means includes
Calculating means for obtaining a position and orientation relationship between the position and orientation of the hand and the position and orientation of the gripping tool;
A virtual object corresponding to the position and orientation relationship is selected as a target to be placed in the virtual space from among virtual objects representing each of a plurality of types of hand states that are held in advance as virtual objects that imitate the hand. An image processing apparatus comprising: selection means for performing
前記出力手段は、前記仮想空間の画像を、前記現実空間の画像に合成した状態で出力することを特徴とする請求項1に記載の画像処理装置。 Furthermore, it comprises means for acquiring an image of the real space that can be seen from the viewpoint,
The image processing apparatus according to claim 1, wherein the output unit outputs the virtual space image in a state of being combined with the real space image.
前記選択手段は、前記手が把持する対象としての把持具の種類に基づいて、前記位置姿勢関係に対応する仮想物体を選択することを特徴とする請求項1に記載の画像処理装置。 The virtual object corresponding to the position and orientation relationship differs for each type of gripping tool,
The image processing apparatus according to claim 1, wherein the selection unit selects a virtual object corresponding to the position and orientation relationship based on a type of a gripping tool as a target to be gripped by the hand.
前記ユーザの手の位置姿勢を取得する工程と、
前記手が把持する対象としての把持具の位置姿勢を取得する工程と、
前記手を模した仮想物体を、前記手の位置姿勢で仮想空間中に配置する第1の配置工程と、
前記把持具を模した仮想物体を、前記把持具の位置姿勢で前記仮想空間中に配置する第2の配置工程と、
前記第1の配置工程、前記第2の配置工程で仮想物体が配置された前記仮想空間の画像を、前記視点の位置姿勢に基づいて生成する工程と、
前記仮想空間の画像を出力する出力工程とを備え、
前記第1の配置工程は、
前記手の位置姿勢と前記把持具の位置姿勢との位置姿勢関係を求める計算工程と、
前記手を模した仮想物体として予め保持している、複数種の手の状態のそれぞれを表す仮想物体のうち、前記位置姿勢関係に対応する仮想物体を、前記仮想空間中に配置する対象として選択する選択工程と
を備えることを特徴とする画像処理方法。 Obtaining the position and orientation of the user's viewpoint;
Obtaining a position and orientation of the user's hand;
Obtaining a position and orientation of a gripping tool as a target to be gripped by the hand;
A first placement step of placing a virtual object imitating the hand in a virtual space at the position and orientation of the hand;
A second arrangement step of arranging a virtual object imitating the gripping tool in the virtual space at the position and orientation of the gripping tool;
Generating an image of the virtual space in which a virtual object is arranged in the first arrangement step and the second arrangement step based on the position and orientation of the viewpoint;
An output step of outputting an image of the virtual space,
The first arrangement step includes
A calculation step for obtaining a position and orientation relationship between the position and orientation of the hand and the position and orientation of the gripping tool;
A virtual object corresponding to the position and orientation relationship is selected as a target to be placed in the virtual space from among virtual objects representing each of a plurality of types of hand states that are held in advance as virtual objects that imitate the hand. An image processing method comprising: a selection step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007258036A JP2009087161A (en) | 2007-10-01 | 2007-10-01 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007258036A JP2009087161A (en) | 2007-10-01 | 2007-10-01 | Image processing apparatus and image processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009087161A true JP2009087161A (en) | 2009-04-23 |
Family
ID=40660482
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007258036A Withdrawn JP2009087161A (en) | 2007-10-01 | 2007-10-01 | Image processing apparatus and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009087161A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011008350A (en) * | 2009-06-23 | 2011-01-13 | Canon Inc | Image processing method and image processing apparatus |
| JP2011198150A (en) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | Head-mounted augmented reality video presentation device and virtual display object operation method |
| US8749554B2 (en) * | 2011-10-28 | 2014-06-10 | International Business Machines Corporation | Visualization of virtual image relationships and attributes |
| WO2014156706A1 (en) * | 2013-03-28 | 2014-10-02 | ソニー株式会社 | Image processing device and method, and program |
| JP2017059062A (en) * | 2015-09-17 | 2017-03-23 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| JP2018077732A (en) * | 2016-11-10 | 2018-05-17 | キヤノン株式会社 | Image processing apparatus and image processing method |
| JP2018088240A (en) * | 2016-11-24 | 2018-06-07 | 株式会社齋藤創造研究所 | Input device and image display system |
-
2007
- 2007-10-01 JP JP2007258036A patent/JP2009087161A/en not_active Withdrawn
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8994729B2 (en) | 2009-06-23 | 2015-03-31 | Canon Kabushiki Kaisha | Method for simulating operation of object and apparatus for the same |
| JP2011008350A (en) * | 2009-06-23 | 2011-01-13 | Canon Inc | Image processing method and image processing apparatus |
| JP2011198150A (en) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | Head-mounted augmented reality video presentation device and virtual display object operation method |
| US8749554B2 (en) * | 2011-10-28 | 2014-06-10 | International Business Machines Corporation | Visualization of virtual image relationships and attributes |
| US8754892B2 (en) | 2011-10-28 | 2014-06-17 | International Business Machines Corporation | Visualization of virtual image relationships and attributes |
| CN105075254A (en) * | 2013-03-28 | 2015-11-18 | 索尼公司 | Image processing device and method, and program |
| WO2014156706A1 (en) * | 2013-03-28 | 2014-10-02 | ソニー株式会社 | Image processing device and method, and program |
| JPWO2014156706A1 (en) * | 2013-03-28 | 2017-02-16 | ソニー株式会社 | Image processing apparatus and method, and program |
| TWI649675B (en) * | 2013-03-28 | 2019-02-01 | 新力股份有限公司 | Display device |
| US10365767B2 (en) | 2013-03-28 | 2019-07-30 | Sony Corporation | Augmented reality image processing apparatus and method, and program |
| JP2017059062A (en) * | 2015-09-17 | 2017-03-23 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| JP2018077732A (en) * | 2016-11-10 | 2018-05-17 | キヤノン株式会社 | Image processing apparatus and image processing method |
| JP2018088240A (en) * | 2016-11-24 | 2018-06-07 | 株式会社齋藤創造研究所 | Input device and image display system |
| JP2021180019A (en) * | 2016-11-24 | 2021-11-18 | 株式会社齋藤創造研究所 | Input device and image display system |
| JP7209310B2 (en) | 2016-11-24 | 2023-01-20 | 株式会社齋藤創造研究所 | Input device and image display system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4533087B2 (en) | Image processing method and image processing apparatus | |
| US8994729B2 (en) | Method for simulating operation of object and apparatus for the same | |
| JP5709440B2 (en) | Information processing apparatus and information processing method | |
| KR102598116B1 (en) | Technique for recording augmented reality data | |
| JP4757115B2 (en) | Image processing apparatus and image processing method | |
| US8055061B2 (en) | Method and apparatus for generating three-dimensional model information | |
| JP5769392B2 (en) | Information processing apparatus and method | |
| JP3944019B2 (en) | Information processing apparatus and method | |
| JP4739002B2 (en) | Image processing method and image processing apparatus | |
| JP2009123018A (en) | Image processing apparatus and image processing method | |
| JP2009025918A (en) | Image processing apparatus and image processing method | |
| JP2005227876A (en) | Image processing method and image processing apparatus | |
| JP2009087161A (en) | Image processing apparatus and image processing method | |
| JP2010257081A (en) | Image processing method and image processing apparatus | |
| JP4677281B2 (en) | Image processing method and image processing apparatus | |
| JP2017134771A (en) | Information processing apparatus, information processing method, and program | |
| JP2008146497A (en) | Image processing apparatus and image processing method | |
| JP2005107972A (en) | Mixed reality presentation method and mixed reality presentation device | |
| JP2012048463A (en) | Information processor and information processing method | |
| JP2009048237A (en) | Image processing apparatus and image processing method | |
| JP2007004713A (en) | Image processing method and image processing apparatus | |
| JP2006085375A (en) | Image processing method and image processing apparatus | |
| JP6581348B2 (en) | Information processing apparatus, information processing method, and program | |
| JP2007004714A (en) | Information processing method and information processing apparatus | |
| JP4689344B2 (en) | Information processing method and information processing apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20101207 |