JP2002032742A - System and method for three-dimensional image generation and program providing medium - Google Patents
System and method for three-dimensional image generation and program providing mediumInfo
- Publication number
- JP2002032742A JP2002032742A JP2000212541A JP2000212541A JP2002032742A JP 2002032742 A JP2002032742 A JP 2002032742A JP 2000212541 A JP2000212541 A JP 2000212541A JP 2000212541 A JP2000212541 A JP 2000212541A JP 2002032742 A JP2002032742 A JP 2002032742A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- dimensional
- image
- dimensional model
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 238000012545 processing Methods 0.000 claims abstract description 88
- 238000000605 extraction Methods 0.000 claims description 23
- 238000013507 mapping Methods 0.000 claims description 16
- 238000012937 correction Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 7
- 238000009877 rendering Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 16
- 230000033001 locomotion Effects 0.000 description 12
- 238000003702 image correction Methods 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 239000002131 composite material Substances 0.000 description 5
- 238000000354 decomposition reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 102100022005 B-lymphocyte antigen CD20 Human genes 0.000 description 1
- 102100033041 Carbonic anhydrase 13 Human genes 0.000 description 1
- 101100321669 Fagopyrum esculentum FA02 gene Proteins 0.000 description 1
- 101000897405 Homo sapiens B-lymphocyte antigen CD20 Proteins 0.000 description 1
- 101000867860 Homo sapiens Carbonic anhydrase 13 Proteins 0.000 description 1
- 101100402621 Homo sapiens MSANTD4 gene Proteins 0.000 description 1
- 101000680262 Homo sapiens Transmembrane protein 60 Proteins 0.000 description 1
- 102100031642 Myb/SANT-like DNA-binding domain-containing protein 4 Human genes 0.000 description 1
- 102100022076 Transmembrane protein 60 Human genes 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、単眼カメラで撮影
した複数枚の2次元画像から、その画像内に映されてい
る注目対象の特徴点を追跡することによって、対象の3
次元形状を生成する3Dモデリングにおいて、知識ベー
ス、または対象モデルベースでの特徴点の自動抽出、追
跡と修正及び三角パッチの自動作成手法を実現する3次
元画像生成システムおよび3次元画像生成方法に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for tracking a feature point of an object of interest in a plurality of two-dimensional images taken by a single-lens camera.
The present invention relates to a three-dimensional image generation system and a three-dimensional image generation method for realizing a technique for automatically extracting, tracking and correcting feature points and automatically creating a triangular patch based on a knowledge base or a target model in 3D modeling for generating a three-dimensional shape.
【0002】[0002]
【従来の技術】野外で歩きながらデジタルカメラやビデ
オカメラで撮影し記録された景色、建築物等や、人物の
顔写真などの複数枚画像(または時系列画像)におい
て、その撮影視点と対象との間に相対的な動きがあれ
ば、それらの複数枚の画像や時系列画像から撮影対象の
3次元形状を復元することが原理的に可能である。実際
に、このような複数枚の画像を用いてカメラの相対運動
と対象形状とを同時に求める手法の研究は、様々な応用
分野に期待される重要なテーマである。その一つの代表
的な手法としては、画像における対象の特徴(物体の角
やエッジ部などの点、線等)を抽出し、時系列画像にお
ける同一対象の特徴を追跡し、線形的なカメラ射影モデ
ルを用いる因子分解法(Factorization)によって、対
象の3D形状を復元する手法が金出らにより提案された
[例えば、(1)Carlo Tomasi: Shape andMotion from Im
age Streams: a Factorization Method. CMU-CS-91-17
2, Sep.1991,(2)Conrad J. Poelman: A Paraperspecti
ve and Projective Factorization Methods for Recove
ring Shape and Motion. CMU-CS-95-173, (1995),(3)J
oao Costeira and Takeo Kanade: A Multi-body Factor
ization Method for Motion Analysis. CMU-CS-TR-94-2
20, (1994),(4)Toshihiko Morita and Takeo Kanade:
A Sequential Factorization Method for Recovering S
hape and Motion from Image Streams. CMU-CS-94-158,
(1994),(5)Naoki Chiba and Takeo Kanade: A Tracke
r for Broken and Closely-Spaced Lines. CMU-CS-97-1
82, Oct. (1997)]。この方法による3次元形状とカメ
ラ動き復元の概念図を図1に示す。2. Description of the Related Art In a plurality of images (or time-series images) such as landscapes, buildings, and portraits of people, which are taken and recorded by a digital camera or a video camera while walking outdoors, the photographing viewpoint and the object are determined. If there is a relative movement between them, it is possible in principle to restore the three-dimensional shape of the photographing target from the plurality of images and the time-series images. Actually, research on a method for simultaneously obtaining the relative motion of the camera and the target shape using a plurality of images is an important theme expected in various application fields. One typical technique is to extract the features of the target (points and lines such as corners and edges of the object) in the image, track the features of the same target in the time-series image, and perform linear camera projection. A method of reconstructing the 3D shape of an object by a factorization method (Factorization) using a model was proposed by Kanade [for example, (1) Carlo Tomasi: Shape and Motion from Im
age Streams: a Factorization Method. CMU-CS-91-17
2, Sep. 1991, (2) Conrad J. Poelman: A Paraperspecti
ve and Projective Factorization Methods for Recove
ring Shape and Motion. CMU-CS-95-173, (1995), (3) J
oao Costeira and Takeo Kanade: A Multi-body Factor
ization Method for Motion Analysis. CMU-CS-TR-94-2
20, (1994), (4) Toshihiko Morita and Takeo Kanade:
A Sequential Factorization Method for Recovering S
hape and Motion from Image Streams. CMU-CS-94-158,
(1994), (5) Naoki Chiba and Takeo Kanade: A Tracke
r for Broken and Closely-Spaced Lines. CMU-CS-97-1
82, Oct. (1997)]. FIG. 1 shows a conceptual diagram of the three-dimensional shape and camera motion restoration by this method.
【0003】まず、カメラの視点を変えながら、対象を
撮影する。撮影したF枚の画像を{ft(x,y)|t
=1,....,F}と記し、その一枚目の画像f1
(x,y)からP個の特徴点をウィンドウ内の分散評価
値などによって抽出し、F枚の画像にわたって追跡す
る。特徴点追跡によって得られた各フレーム上の特徴点
座標(Xfp,Yfp)を行列W(ここで計測行列と呼
ぶ)で表現することができる。そして、線形的な射影モ
デルを適用し、特異値分解法(SVD)によって計測行
列Wを2つの直行行列U,V’と対角行列Σに分解する
ことができる。そこで、直行行列U,V’では、それぞ
れカメラの動き情報Mと対象の3次元情報Sが含まれて
いる。また、カメラの姿勢を表現する単位ベクトル
(i,j,k)の拘束条件を用いると、MとSを一意に
決めるための行列Aが求められる。従って、カメラ動き
Mと対象の3次元形状Sが一意に決まることになる。First, an object is photographed while changing the viewpoint of the camera. F ft (x, y) | t
= 1,. . . . , F} and the first image f1
P feature points are extracted from (x, y) by the variance evaluation value in the window and the like, and are traced over F images. The feature point coordinates (Xfp, Yfp) on each frame obtained by the feature point tracking can be represented by a matrix W (herein referred to as a measurement matrix). Then, by applying a linear projection model, the measurement matrix W can be decomposed into two orthogonal matrices U and V ′ and a diagonal matrix に よ っ て by singular value decomposition (SVD). Therefore, the orthogonal matrices U and V ′ include the camera motion information M and the target three-dimensional information S, respectively. Further, by using the constraint condition of the unit vector (i, j, k) representing the posture of the camera, a matrix A for uniquely determining M and S is obtained. Therefore, the camera movement M and the three-dimensional shape S of the object are uniquely determined.
【0004】一般的に、この方法は、対象の3次元形状
を高速に復元すると同時に、撮影カメラの3次元情報
(位置・姿勢・画角など)も復元することが可能である。In general, this method restores a three-dimensional shape of an object at a high speed and simultaneously obtains three-dimensional information of a photographing camera.
(Position, posture, angle of view, etc.) can also be restored.
【0005】[0005]
【発明が解決しようとする課題】この手法では、必要と
なる特徴点を確実に抽出し、追跡することが最も重要で
ある。しかしながら、実際には、対象の3次元形状を作
成するために、どんな特徴点が必要であるかといった基
準が明確ではない。また、それらの必要となる特徴点に
対して、複数枚の画像において、特徴点の対応付け(特
徴点追跡)を確実に行うことが必ずしも容易ではない。
さらに、対象の3次元形状を表現するために、特徴点の
間に三角パッチを作成し、それらのパッチにテクスチャ
画像をマッピングする必要があるが、このような三角パ
ッチが対象の3次元形状に依存するので、三角パッチの
自動作成が容易ではない。In this method, it is most important to reliably extract and track required feature points. However, in practice, the criterion as to what feature points are required to create a target three-dimensional shape is not clear. In addition, it is not always easy to reliably associate feature points (feature point tracking) in a plurality of images with respect to those required feature points.
Furthermore, in order to represent the target three-dimensional shape, it is necessary to create triangular patches between feature points and map texture images to those patches. Automatic creation of triangular patches is not easy.
【0006】本発明は、これらの課題を検討し、対象に
関する先見的な知識による特徴点決定方法を示し、それ
らの特徴点追跡法及び誤追跡の修正方法を提案する。ま
た、同じ知識モデルに基づいて、特徴点間の三角パッチ
を自動的に作成することが可能となる手法を提供するこ
とを目的とする。The present invention examines these problems, shows a feature point determination method based on a priori knowledge of an object, and proposes a feature point tracking method and an erroneous tracking correction method. It is another object of the present invention to provide a method capable of automatically creating a triangular patch between feature points based on the same knowledge model.
【0007】[0007]
【課題を解決するための手段】本発明は、上記課題を参
酌してなされたものであり、その第1の側面は、複数の
入力画像に関する特徴点追跡処理により3次元画像を生
成する3次元画像生成システムにおいて、データベース
に格納された形状モデルに基づいて、入力画像上に3次
元モデル生成領域を設定する3次元モデル生成領域抽出
処理手段と、データベースに格納された特徴点位置デー
タに基づいて、入力画像の3次元モデル生成領域に特徴
点を設定する3次元モデル特徴点選択処理手段と、デー
タベースに格納されたパッチ領域設定データに基づい
て、入力画像の3次元モデル生成領域にパッチ領域を設
定する3次元モデルパッチ領域設定処理手段と、を有す
ることを特徴とする3次元画像生成システムにある。SUMMARY OF THE INVENTION The present invention has been made in consideration of the above problems, and a first aspect of the present invention is a three-dimensional image generating method for generating a three-dimensional image by performing feature point tracking processing on a plurality of input images. In the image generation system, a three-dimensional model generation region extraction processing means for setting a three-dimensional model generation region on an input image based on a shape model stored in a database, and feature point position data stored in the database A three-dimensional model feature point selection processing means for setting feature points in the three-dimensional model generation area of the input image; and a patch area in the three-dimensional model generation area of the input image based on the patch area setting data stored in the database. And a three-dimensional model patch area setting processing means for setting.
【0008】さらに、本発明の3次元画像生成システム
の一実施態様において、前記3次元モデル生成領域抽出
処理手段は、入力画像上の色相等の特性を判別し、判別
によって得られる領域形状と、前記データベースに格納
された形状モデルとの比較によって、入力画像上に3次
元モデル生成領域を設定する構成であることを特徴とす
る。Further, in one embodiment of the three-dimensional image generation system according to the present invention, the three-dimensional model generation region extraction processing means determines characteristics such as hue on the input image, and determines a region shape obtained by the determination; It is characterized in that a three-dimensional model generation area is set on an input image by comparison with a shape model stored in the database.
【0009】さらに、本発明の3次元画像生成システム
の一実施態様において、前記3次元モデル特徴点選択処
理手段は、前記特徴点選択処理において、特定モデルに
対して適用可能なウィンドウ設定テンプレートを適用し
て、複数のフレーム画像に対して特徴点追跡用ウィンド
ウの設定処理を実行する構成を有することを特徴とす
る。Further, in one embodiment of the three-dimensional image generation system of the present invention, the three-dimensional model feature point selection processing means applies a window setting template applicable to a specific model in the feature point selection processing. In addition, the present invention is characterized in that a feature point tracking window setting process is performed on a plurality of frame images.
【0010】さらに、本発明の3次元画像生成システム
の一実施態様において、テンプレートマッチングによる
特徴点追跡処理において取得された特徴点追跡結果座標
値と特徴点マップを用いた初期追跡結果座標値との差分
と、予め定めた閾値とを比較して、該差分が閾値より大
である場合に、テンプレートマッチングによる特徴点追
跡結果をエラーと判定して、該エラーと判定された特徴
点を周囲の特徴点に基づいて補正する補正処理を実行す
る構成を有することを特徴とする。Further, in one embodiment of the three-dimensional image generation system of the present invention, the coordinate values of the feature point tracking result obtained in the feature point tracking processing by template matching and the initial tracking result coordinate values using the feature point map are used. The difference is compared with a predetermined threshold value. If the difference is larger than the threshold value, the feature point tracking result by the template matching is determined as an error, and the feature point determined as the error is determined as a surrounding feature. It is characterized by having a configuration for executing a correction process for correcting based on points.
【0011】さらに、本発明の3次元画像生成システム
の一実施態様において、前記3次元モデルパッチ領域設
定処理手段は、データベースに格納されたパッチ領域設
定データに基づいて、入力画像の3次元モデル生成領域
に設定された特徴点を頂点とする三角パッチ領域を設定
する構成を有することを特徴とする。Further, in one embodiment of the three-dimensional image generation system of the present invention, the three-dimensional model patch area setting processing means generates a three-dimensional model of an input image based on patch area setting data stored in a database. It is characterized in that it has a configuration for setting a triangular patch area having the feature point set in the area as a vertex.
【0012】さらに、本発明の3次元画像生成システム
の一実施態様において、前記3次元画像生成システム
は、3次元画像を構成するパッチ面毎に最も解像度の高
い画像を選択して、選択画像を各パッチ面に適用するテ
クスチャ画像としてテクスチャマッピングを実行するテ
クスチャマッピング手段を有することを特徴とする。Further, in one embodiment of the three-dimensional image generation system of the present invention, the three-dimensional image generation system selects an image having the highest resolution for each patch plane constituting the three-dimensional image, and converts the selected image. It is characterized by having a texture mapping means for executing texture mapping as a texture image applied to each patch surface.
【0013】さらに、本発明の第2の側面は、複数の入
力画像に関する特徴点追跡処理により3次元画像を生成
する3次元画像生成方法において、データベースに格納
された形状モデルに基づいて、入力画像上に3次元モデ
ル生成領域を設定する3次元モデル生成領域抽出処理ス
テップと、データベースに格納された特徴点位置データ
に基づいて、入力画像の3次元モデル生成領域に特徴点
を設定する3次元モデル特徴点選択処理ステップと、デ
ータベースに格納されたパッチ領域設定データに基づい
て、入力画像の3次元モデル生成領域にパッチ領域を設
定する3次元モデルパッチ領域設定処理ステップと、を
有することを特徴とする3次元画像生成方法にある。Further, a second aspect of the present invention is a three-dimensional image generating method for generating a three-dimensional image by feature point tracking processing on a plurality of input images, the input image being based on a shape model stored in a database. A three-dimensional model generation region extraction processing step of setting a three-dimensional model generation region thereon; and a three-dimensional model for setting a feature point in a three-dimensional model generation region of an input image based on feature point position data stored in a database. A feature point selection processing step; and a three-dimensional model patch area setting processing step of setting a patch area in a three-dimensional model generation area of the input image based on the patch area setting data stored in the database. 3D image generation method.
【0014】さらに、本発明の3次元画像生成方法の一
実施態様において、前記3次元モデル生成領域抽出処理
ステップは、入力画像上の色相等の特性を判別し、判別
によって得られる領域形状と、前記データベースに格納
された形状モデルとの比較によって、入力画像上に3次
元モデル生成領域を設定することを特徴とする。Further, in one embodiment of the three-dimensional image generation method of the present invention, the three-dimensional model generation region extraction processing step includes the steps of: determining characteristics such as hue on the input image; A three-dimensional model generation area is set on the input image by comparison with a shape model stored in the database.
【0015】さらに、本発明の3次元画像生成方法の一
実施態様において、前記3次元モデル特徴点選択処理ス
テップは、前記特徴点選択処理において、特定モデルに
対して適用可能なウィンドウ設定テンプレートを適用し
て、複数のフレーム画像に対して特徴点追跡用ウィンド
ウの設定処理を実行することを特徴とする。Further, in one embodiment of the three-dimensional image generating method according to the present invention, in the three-dimensional model feature point selecting step, a window setting template applicable to a specific model is applied in the feature point selecting process. Then, a feature point tracking window setting process is performed on a plurality of frame images.
【0016】さらに、本発明の3次元画像生成方法の一
実施態様において、テンプレートマッチングによる特徴
点追跡処理において取得された特徴点追跡結果座標値と
特徴点マップを用いた初期追跡結果座標値との差分と、
予め定めた閾値とを比較して、該差分が閾値より大であ
る場合に、テンプレートマッチングによる特徴点追跡結
果をエラーと判定して、該エラーと判定された特徴点を
周囲の特徴点に基づいて補正する補正処理を実行するこ
とを特徴とする。Further, in one embodiment of the three-dimensional image generation method of the present invention, the coordinate values of the feature point tracking result obtained in the feature point tracking processing by template matching and the initial tracking result coordinate values using the feature point map are used. Difference and
By comparing with a predetermined threshold value, if the difference is larger than the threshold value, the feature point tracking result by template matching is determined as an error, and the feature point determined as the error is determined based on surrounding feature points. And performing a correction process for performing correction.
【0017】さらに、本発明の3次元画像生成方法の一
実施態様において、前記3次元モデルパッチ領域設定処
理ステップは、データベースに格納されたパッチ領域設
定データに基づいて、入力画像の3次元モデル生成領域
に設定された特徴点を頂点とする三角パッチ領域を設定
することを特徴とする。Further, in one embodiment of the three-dimensional image generating method according to the present invention, the step of setting a three-dimensional model patch area includes generating a three-dimensional model of an input image based on patch area setting data stored in a database. It is characterized in that a triangular patch area having a vertex at a feature point set in the area is set.
【0018】さらに、本発明の3次元画像生成方法の一
実施態様において、前記3次元画像生成方法は、3次元
画像を構成するパッチ面毎に最も解像度の高い画像を選
択して、選択画像を各パッチ面に適用するテクスチャ画
像としてテクスチャマッピングを実行するテクスチャマ
ッピング・ステップを有することを特徴とする。Further, in one embodiment of the three-dimensional image generation method according to the present invention, the three-dimensional image generation method selects an image having the highest resolution for each patch plane constituting the three-dimensional image, and selects the selected image. A texture mapping step of executing texture mapping as a texture image to be applied to each patch surface.
【0019】さらに、本発明の第3の側面は、複数の入
力画像に関する特徴点追跡処理により3次元画像を生成
する3次元画像生成処理をコンピュータ・システム上で
実行せしめるコンピュータ・プログラムを有形的に提供
するプログラム提供媒体であって、前記コンピュータ・
プログラムは、データベースに格納された形状モデルに
基づいて、入力画像上に3次元モデル生成領域を設定す
る3次元モデル生成領域抽出処理ステップと、データベ
ースに格納された特徴点位置データに基づいて、入力画
像の3次元モデル生成領域に特徴点を設定する3次元モ
デル特徴点選択処理ステップと、データベースに格納さ
れたパッチ領域設定データに基づいて、入力画像の3次
元モデル生成領域にパッチ領域を設定する3次元モデル
パッチ領域設定処理ステップと、を有することを特徴と
するプログラム提供媒体にある。Further, a third aspect of the present invention tangibly embodies a computer program for causing a computer system to execute a three-dimensional image generation process for generating a three-dimensional image by a feature point tracking process for a plurality of input images. A program providing medium to be provided, wherein the computer
The program includes a three-dimensional model generation region extraction processing step of setting a three-dimensional model generation region on an input image based on the shape model stored in the database, and an input based on feature point position data stored in the database. A three-dimensional model feature point selection processing step of setting feature points in the three-dimensional model generation area of the image, and setting a patch area in the three-dimensional model generation area of the input image based on the patch area setting data stored in the database And a three-dimensional model patch area setting processing step.
【0020】本発明の第3の側面に係るプログラム提供
媒体は、例えば、様々なプログラム・コードを実行可能
な汎用コンピュータ・システムに対して、コンピュータ
・プログラムをコンピュータ可読な形式で提供する媒体
である。媒体は、CDやFD、MOなどの記憶媒体、あ
るいは、ネットワークなどの伝送媒体など、その形態は
特に限定されない。A program providing medium according to a third aspect of the present invention is a medium for providing a computer program in a computer-readable format to a general-purpose computer system capable of executing various program codes. . The form of the medium is not particularly limited, such as a storage medium such as a CD, an FD, and an MO, and a transmission medium such as a network.
【0021】このようなプログラム提供媒体は、コンピ
ュータ・システム上で所定のコンピュータ・プログラム
の機能を実現するための、コンピュータ・プログラムと
提供媒体との構造上又は機能上の協働的関係を定義した
ものである。換言すれば、該提供媒体を介してコンピュ
ータ・プログラムをコンピュータ・システムにインスト
ールすることによって、コンピュータ・システム上では
協働的作用が発揮され、本発明の他の側面と同様の作用
効果を得ることができるのである。Such a program providing medium defines a structural or functional cooperative relationship between the computer program and the providing medium in order to realize a predetermined computer program function on a computer system. Things. In other words, by installing the computer program into the computer system via the providing medium, a cooperative operation is exerted on the computer system, and the same operation and effect as the other aspects of the present invention can be obtained. You can do it.
【0022】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づく詳細な
説明によって明らかになるであろう。Still other objects, features and advantages of the present invention are:
This will become apparent from the following detailed description based on the embodiments of the present invention and the accompanying drawings.
【0023】[0023]
【発明の実施の形態】本発明の3次元画像生成システム
および3次元画像生成方法について、以下詳細に説明す
る。まず、図2に、本発明の3次元画像生成システムの
構成を示す。本発明の3次元画像生成システムは、市販
のデジタルカメラ、DVカム、カメラ付きパソコン上の
デジタルカメラ、3D形状撮影(処理)モード付きのカ
メラ等によって注目対象を撮影する画像撮影ユニット2
01、撮影手段に対応して、撮影された複数枚画像をパ
ソコンの内部メモリまたはカメラに付属する記録媒体
(市販のメモリカード、磁気テープ、レーザー記録ディ
スクなど)に保存する画像保存ユニット202、撮影手
段によって、カメラ側の記録媒体に保存されていた画像
をUSB、i.Link、メモリカードアダプタなどのような標
準インターフェースを装備するパソコンや専用装置など
に転送できる画像転送ユニット203、予めに用意され
ていた画像パターン(例えば、チェッカーパターンな
ど)を用いて、カメラの内部パラメータを求めて、それ
らのパラメータを用いて、入力画像の幾何学的歪みなど
を取り除く画像補正ユニット204、パソコンや専用装
置によって、前述の画像補正処理後の入力画像から注目
対象の3次元形状を推定する3次元処理ユニット20
5、同一対象に対して、異なる視点で撮影した画像列か
ら推定された幾つかの3次元形状を貼あわせて、その対
象の全周3次元形状を作成したり、違う対象の複数個の
3次元形状を貼り合わせて、3次元パノラマ形状を作成
する3次元形状貼り合わせユニット206、推定された
3次元形状データ(三角パッチ)に高画質のテクスチャ
画像をマッピングするテクスチャマッピングユニット2
07、テクスチャ画像付きの3次元形状データを標準的
なVRMLファイルフォーマットで保存され、それをローカ
ル、またはネットワークを通して表示する処理を実行す
る3D画像表示ユニット208から構成されるものであ
る。以下、各ユニットの詳細について述べる。DESCRIPTION OF THE PREFERRED EMBODIMENTS A three-dimensional image generation system and a three-dimensional image generation method according to the present invention will be described in detail below. First, FIG. 2 shows the configuration of the three-dimensional image generation system of the present invention. The three-dimensional image generation system according to the present invention includes an image photographing unit 2 for photographing an object of interest using a commercially available digital camera, DV cam, digital camera on a personal computer with a camera, camera with a 3D shape photographing (processing) mode, or the like.
01, an image storage unit 202 for storing a plurality of captured images in an internal memory of a personal computer or a recording medium (commercially available memory card, magnetic tape, laser recording disk, etc.) attached to the camera, By means, an image transfer unit 203 capable of transferring an image stored in a recording medium on the camera side to a personal computer equipped with a standard interface such as USB, i.Link, a memory card adapter, or a dedicated device is prepared in advance. The internal parameters of the camera are determined using the image pattern (for example, a checker pattern, etc.), and the image correction unit 204 that removes the geometric distortion of the input image using the parameters, Estimating the three-dimensional shape of the target of interest from the input image after the above-described image correction processing 3D processing unit 20
5. Paste several three-dimensional shapes estimated from image sequences taken from different viewpoints to the same target to create a three-dimensional shape around the target, A three-dimensional shape bonding unit 206 for bonding a three-dimensional shape to create a three-dimensional panoramic shape, a texture mapping unit 2 for mapping a high-quality texture image to estimated three-dimensional shape data (triangular patches)
07, a 3D image display unit 208 that stores 3D shape data with a texture image in a standard VRML file format and executes processing for displaying the data locally or through a network. Hereinafter, details of each unit will be described.
【0024】画像撮影ユニット201は、市販のデジタ
ルカメラ、DVカム、カメラ付きパソコン上のデジタル
カメラ、3D形状撮影(処理)モード付きのカメラ等の
センシングデバイスで対象を撮影するものである。The image capturing unit 201 captures an object with a sensing device such as a commercially available digital camera, a DV cam, a digital camera on a personal computer with a camera, and a camera with a 3D shape capturing (processing) mode.
【0025】画像保存ユニット202は、カメラで撮影
した画像をメモリカード、磁気テープ、レーザーディス
ク(登録商標)などの記録媒体に保存するものである。
カメラ付きパソコンに対しては、撮影した画像を直接に
内部メモリまたはハードディスクなどの記録媒体に保存
することも可能である。The image storage unit 202 stores images captured by a camera on a recording medium such as a memory card, a magnetic tape, or a laser disk (registered trademark).
For a personal computer with a camera, it is also possible to directly store the captured image in a recording medium such as an internal memory or a hard disk.
【0026】画像転送ユニット203は、カメラ側の記
録媒体に保存されていた画像をUSB、i.Link、メモリカ
ードアダプタなどの標準インターフェースを通して、パ
ソコンや専用3次元処理装置などに転送するものであ
る。画像補正ユニット204は、予めに用意されていた
既知の画像パターン(例えば、チェッカーパターンな
ど)を同一のカメラで撮影し、カメラの内部パラメータ
を求める。そして、撮影した複数枚の画像(入力画像)
に対して、カメラの内部パラメータによる画像補正処理
を行い、入力画像の幾何学的歪みなどを取り除く処理を
実行する。The image transfer unit 203 transfers an image stored in a recording medium on the camera side to a personal computer or a dedicated three-dimensional processing device through a standard interface such as USB, i.Link, or a memory card adapter. The image correction unit 204 captures a known image pattern (for example, a checker pattern or the like) prepared in advance with the same camera, and obtains internal parameters of the camera. And a plurality of captured images (input images)
, An image correction process is performed using the internal parameters of the camera, and a process of removing geometric distortion and the like of the input image is executed.
【0027】画像補正ユニット204で実行されるカメ
ラ内部パラメータのキャリブレーション手法について図
3のフローを用いて説明する。A method of calibrating the internal parameters of the camera executed by the image correction unit 204 will be described with reference to the flowchart of FIG.
【0028】まずステップS301で、特定の形状パタ
ーンが設定されている特徴パターン(例えば、図3右下
に示すようなチェッカパターン)を撮影し、それをIm
(x,y)とする。次に、ステップS302で、撮影画
像Im(x,y)から理想的な合成画像Im2(u,
v)を作成する。なお、撮影画像と合成画像との関係:
合成画像を射影変換行列Hにより変換した画像をカメラ
内部の歪パラメータによって変形したものが撮影画像と
なる。さらに、ステップS303で、撮影画像と合成画
像との誤差を評価し、その誤差が最小となるように、カ
メラ内部の歪パラメータを推定する。なお、撮影画像と
合成画像との誤差は、以下に示す式によって求められ
る。First, in step S301, a characteristic pattern in which a specific shape pattern is set (for example, a checker pattern as shown in the lower right of FIG. 3) is photographed, and is photographed.
(X, y). Next, in step S302, an ideal composite image Im2 (u, u) is obtained from the captured image Im (x, y).
Create v). The relationship between the captured image and the composite image:
An image obtained by transforming the composite image using the projective transformation matrix H and transforming the image by a distortion parameter inside the camera is a captured image. Further, in step S303, an error between the captured image and the composite image is evaluated, and a distortion parameter inside the camera is estimated so that the error is minimized. Note that the error between the captured image and the composite image is obtained by the following equation.
【0029】[0029]
【数1】 E=Σ{Im1(x,y)−Im2(u,v)}2 E = {Im1 (x, y) −Im2 (u, v)} 2
【0030】ここで、推定されるカメラ内部パラメータ
とは、歪中心cp,cq(distortion center)、アス
ペクト比sv(aspect ratio)、カッパκ(distortion c
oefficient)である。画像補正ユニット204は、これ
らのカメラ内部パラメータを用いて、撮影画像の補正を
実行する。Here, the camera internal parameters to be estimated include distortion centers cp, cq (distortion center), aspect ratio sv (aspect ratio), and kappa κ (distortion c).
oefficient). The image correction unit 204 performs correction of a captured image using these camera internal parameters.
【0031】3次元処理ユニット205は、複枚数の画
像から注目対象の3次元形状を生成する処理としての特
徴点抽出、追跡、パッチ設定処理を主に実行するもので
ある。その詳細は、次の図4を参照しながら説明する。The three-dimensional processing unit 205 mainly executes feature point extraction, tracking, and patch setting as processing for generating a three-dimensional shape of a target from a plurality of images. The details will be described with reference to FIG.
【0032】図4に示すように、3次元処理ユニット2
05は、3次元モデル生成領域抽出処理手段2051、
3次元モデル特徴点選択、追跡処理手段2052、3次
元モデルパッチ領域設定処理手段2053、形状モデル
(知識モデル)データベース2054を有する。As shown in FIG. 4, the three-dimensional processing unit 2
05 is a three-dimensional model generation area extraction processing means 2051,
It has three-dimensional model feature point selection and tracking processing means 2052, three-dimensional model patch area setting processing means 2053, and a shape model (knowledge model) database 2054.
【0033】3次元モデル生成領域抽出処理手段205
1は、画像転送ユニットから複数の画像を受領し、例え
ばその中から1フレーム目の入力画像を基準画像とし
て、基準画像中から、3次元モデルの生成領域を抽出す
る。領域抽出処理は、形状モデル(知識モデル)データ
ベース2054中のデータに基づいて実行される。3次
元モデル生成領域抽出処理手段2051は、入力画像上
の色相特性を判別し、判別によって得られる領域形状
と、形状モデル(知識モデル)データベース2054に
格納された形状モデルとの比較によって、入力画像上に
3次元モデル生成領域を設定する。Three-dimensional model generation area extraction processing means 205
1 receives a plurality of images from the image transfer unit, and extracts a generation region of a three-dimensional model from the reference image, for example, using the input image of the first frame from the plurality of images as the reference image. The region extraction processing is executed based on data in the shape model (knowledge model) database 2054. The three-dimensional model generation region extraction processing means 2051 discriminates the hue characteristics on the input image, and compares the region shape obtained by the discrimination with the shape model stored in the shape model (knowledge model) database 2054 to determine the input image. A three-dimensional model generation area is set above.
【0034】3次元モデル生成領域抽出処理手段205
1により、3次元モデル生成領域が選択されると、3次
元モデル特徴点選択、追跡処理手段2052が、選択領
域内において、特徴点を設定し、さらに、基準画像以外
の画像における特徴点の対応点を探索、すなわち特徴点
追跡を実行する。この処理も、形状モデル(知識モデ
ル)データベース2054中のデータに基づいて実行さ
れる。Three-dimensional model generation area extraction processing means 205
When the three-dimensional model generation region is selected by step 1, the three-dimensional model feature point selection and tracking processing means 2052 sets feature points in the selected region, and furthermore, the correspondence of the feature points in images other than the reference image. Search for points, that is, perform feature point tracking. This processing is also executed based on the data in the shape model (knowledge model) database 2054.
【0035】3次元モデル生成領域抽出処理手段205
1による3次元モデル生成領域の選択処理、および3次
元モデル特徴点選択、追跡処理手段2052による特徴
点選択処理の具体例を図5,6を用いて説明する。3D model generation area extraction processing means 205
A specific example of the three-dimensional model generation region selection processing and the three-dimensional model feature point selection and tracking processing means 2052 by the tracking point processing unit 2052 will be described with reference to FIGS.
【0036】図5は、1フレーム目の入力画像から顔の
部分を3次元モデル生成領域として領域抽出し、特徴点
を抽出する処理の実例を示した図である。図5(a)は入
力画像であり、図5(b)は、形状モデル(知識モデル)
データベース2054に格納された顔の形状モデルを表
す。本発明のシステムでは、形状モデル(知識モデル)
データベース2054に格納された顔の形状モデル及び
顔の色相特性などを用いて、3次元モデル生成領域抽出
処理手段2051が入力画像と、モデルとの対比を実行
して、図5(d)のような顔の領域を3次元モデル生成領
域として検出する。FIG. 5 is a diagram showing a practical example of a process of extracting a face portion from a first frame input image as a three-dimensional model generation region and extracting feature points. FIG. 5A shows an input image, and FIG. 5B shows a shape model (knowledge model).
A face shape model stored in the database 2054 is shown. In the system of the present invention, a shape model (knowledge model)
Using the face shape model and the face hue characteristics stored in the database 2054, the three-dimensional model generation area extraction processing means 2051 compares the input image with the model, and as shown in FIG. A region of a natural face is detected as a three-dimensional model generation region.
【0037】さらに、3次元モデル特徴点選択、追跡処
理手段2052は、形状モデル(知識モデル)データベ
ース2054に格納された顔の特徴点位置モデル(図5
(e))を用いて、実際の入力画像における顔位置とのマ
ッチング処理を実行して、顔の特徴点の位置を決める
(図5(f))。Further, the three-dimensional model feature point selection / tracking processing means 2052 includes a face feature point position model (FIG. 5) stored in the shape model (knowledge model) database 2054.
Using (e)), a matching process with the face position in the actual input image is executed to determine the position of the feature point of the face (FIG. 5 (f)).
【0038】本発明のシステムでは、ほぼ楕円形状とし
た顔のモデル(図5(b))により、3次元モデル生成
領域である顔領域を検出し、さらに、その楕円形状に対
応して設定されている特徴点一を設定した特徴点位置モ
デルにより、入力画像に設定された3次元モデル生成領
域内に特徴点を自動的に設定する。In the system according to the present invention, a face area, which is a three-dimensional model generation area, is detected from a substantially elliptical face model (FIG. 5B), and the face area is set corresponding to the elliptical shape. The feature points are automatically set in the three-dimensional model generation area set in the input image by the feature point position model in which the one feature point is set.
【0039】図6は、顔領域抽出のもう一つの手法を示
す。3次元モデル生成領域抽出処理手段2051は、図
6(a)の入力画像に対して、色分布を解析し、色相特性
によって顔の領域(首の部分を含む)を検出する(図6
(b))。そこで、両目の色相特性と顔部分の色相特性が
違うので、両目の位置(目の中心)及び両面間の中心位
置も同時に検出される。そして、予め形状モデル(知識
モデル)データベース2054に用意されていた顔の幾
何学形状モデル(例えば、図6(d)のx0/y0等)を用い
て、画像内の顔領域を検出する(図6(e))。FIG. 6 shows another method of extracting a face area. The three-dimensional model generation region extraction processing means 2051 analyzes the color distribution of the input image of FIG. 6A and detects the region of the face (including the neck) based on the hue characteristics (FIG. 6).
(b)). Therefore, since the hue characteristics of the eyes are different from the hue characteristics of the face portion, the positions of the eyes (centers of the eyes) and the center position between the two surfaces are simultaneously detected. Then, a face region in the image is detected using a face geometric shape model (for example, x0 / y0 in FIG. 6D) prepared in the shape model (knowledge model) database 2054 in advance (FIG. 6D). 6 (e)).
【0040】このように、本発明のシステムでは、入力
画像の持つ例えば色相特性から、撮影された被写体を分
析し、形状モデル(知識モデル)データベース2054
に格納された形状モデルとの相関をとり、適当なモデル
をあてはめて3次元モデル生成領域の抽出を実行し、さ
らに、モデルに対応して特徴点位置を設定した特徴点位
置モデルにより、基準画像に自動的に特徴点を設定す
る。As described above, in the system according to the present invention, the photographed subject is analyzed based on, for example, the hue characteristics of the input image, and the shape model (knowledge model) database 2054 is obtained.
The three-dimensional model generation area is extracted by applying a suitable model to the correlation with the shape model stored in the reference image. Automatically set the feature points.
【0041】以上の処理をフローに示すと、図7のよう
になる。まずステップS701で、画像を入力し、ステ
ップS702において、注目対象、すなわち3次元モデ
ルを生成する対象に対応する形状モデルを、データベー
スに格納されたモデル中から選択する。さらに、ステッ
プS703において、入力画像の色相特性等と選択モデ
ルとを対比しながら、3次元モデルを生成する領域を抽
出する。さらに、ステップS704において、データベ
ースに格納されたモデルに対応して特徴点位置を設定し
た特徴点位置モデルに基づいて入力画像中に特徴点を設
定する。FIG. 7 is a flowchart showing the above processing. First, in step S701, an image is input, and in step S702, a target model, that is, a shape model corresponding to a target for generating a three-dimensional model is selected from the models stored in the database. Further, in step S703, a region for generating a three-dimensional model is extracted while comparing the hue characteristics and the like of the input image with the selected model. Further, in step S704, feature points are set in the input image based on a feature point position model in which feature point positions have been set corresponding to models stored in the database.
【0042】特徴点抽出後、3次元モデル特徴点選択、
追跡処理手段2052は、設定した特徴点に対して特徴
点追跡処理を実行する。After extracting the feature points, selecting the three-dimensional model feature points,
The tracking processing unit 2052 performs a feature point tracking process on the set feature points.
【0043】図8は、特徴点追跡の一手法を示した。ス
テップS801に示すように、F枚の入力画像に対し
て、前述の方法で抽出したn個の特徴点位置の追跡処理
を行う。例えば、i番目の画像fi(x,y)における特徴点Pj
に対して、次の(i+1)番目画像fi+1(x,y)上の対応点を見
つけるには、まず画像fi+1(x,y)上の探索領域を設定
(ステップS804)して、ステップS805におい
て、その探索領域内で特徴点Pjと最も相似するものをあ
る評価値(相似性評価値)に基づいて検出する。ここで
の相似性評価値が、正規化相関や最小二乗法などによっ
て求められる。また、探索される領域内のパターンは回
転処理されたものでもよい。評価値の最も高いものを選
択(ステップS806)して追跡された特徴点とする。FIG. 8 shows one method of tracking feature points. As shown in step S801, tracking processing of n feature point positions extracted by the above-described method is performed on the F input images. For example, the feature point Pj in the i-th image fi (x, y)
In order to find a corresponding point on the next (i + 1) -th image fi + 1 (x, y), first, a search area on the image fi + 1 (x, y) is set (step S804). Then, in step S805, the most similar to the feature point Pj in the search area is detected based on a certain evaluation value (similarity evaluation value). The similarity evaluation value here is obtained by a normalized correlation, a least squares method, or the like. Further, the pattern in the area to be searched may have been subjected to a rotation process. The one with the highest evaluation value is selected (step S806) and set as a tracked feature point.
【0044】このような処理で全ての画像を渡って追跡
し、その結果を保存して追跡処理を完了(S810)す
る。そして、保存された結果に対して、特徴点追跡エラ
ーの有無をチェック(S811)し、誤追跡がある時、
特徴点エラー修正モード(S812)によって、それら
のエラー追跡点の座標値を修正(S815)する。全て
の誤追跡点が修正されたら、それらの特徴点座標を計測
行列に格納し特徴点追跡を完了(S817)する。With such processing, tracking is performed across all images, and the results are stored and the tracking processing is completed (S810). The stored result is checked for a feature point tracking error (S811).
In the feature point error correction mode (S812), the coordinate values of those error tracking points are corrected (S815). When all the erroneous tracking points are corrected, the feature point coordinates are stored in the measurement matrix, and the feature point tracking is completed (S817).
【0045】これらの特徴点追跡の結果得られた複数画
像の対応に基づいて、図1に示された因子分解法によっ
て、カメラ射影モデルを用いて対象の形状とカメラ動き
を一意的に求める。Based on the correspondence between a plurality of images obtained as a result of tracking these feature points, the shape of the target and the camera motion are uniquely obtained using the camera projection model by the factor decomposition method shown in FIG.
【0046】顔を3次元画像生成モデルとした場合の特
徴点選択、追跡処理について、図9、10を用いて説明
する。図9の上段(a)に示すように、複数の画像とし
てフレーム1〜12が入力され、この中から基準画像を
1つ、例えばフレーム1を選択して、基準フレーム上の
画像において、形状モデル(知識モデル)データベース
2054に格納された形状モデルとの相関をとり、適当
なモデルをあてはめて3次元モデル生成領域の抽出を実
行し、さらに、モデルに対応して特徴点位置を設定した
特徴点位置モデルにより、基準画像に自動的に特徴点を
設定する。The feature point selection and tracking processing when a face is used as a three-dimensional image generation model will be described with reference to FIGS. As shown in the upper part (a) of FIG. 9, frames 1 to 12 are input as a plurality of images, and one of the reference images, for example, frame 1 is selected from the frames and a shape model is selected in the image on the reference frame. (Knowledge model) Correlate with the shape model stored in the database 2054, apply an appropriate model, extract a three-dimensional model generation region, and further set a feature point position corresponding to the model. A feature point is automatically set in the reference image according to the position model.
【0047】さらに、基準画像に設定したテンプレート
に対応する画像が撮り込まれている他のフレーム画像領
域に同様の枠を設定する(図9(b))。さらに、基準
画像のテンプレートに矩形領域ウィンドウによって構成
される特徴点マップを設定し、他のフレーム画像におい
て、基準画像の特徴点に対する相似パターンを探索して
相似性評価値を算出し、これを予め定めた閾値と比較し
て、基準を満たすもののみを特徴点として識別して保存
する。このように複数画像を特徴点マップによって対応
付けて特徴点の初期追跡を行ない、各画像間のおおよそ
の特徴点位置を判別する。Further, a similar frame is set in another frame image area where an image corresponding to the template set as the reference image is captured (FIG. 9B). Further, a feature point map constituted by a rectangular area window is set in the template of the reference image, a similarity pattern with respect to the feature point of the reference image is searched in another frame image, and a similarity evaluation value is calculated. Compared with the determined threshold, only those satisfying the criteria are identified and stored as feature points. As described above, the initial tracking of the feature points is performed by associating a plurality of images with the feature point map, and an approximate feature point position between the images is determined.
【0048】特徴点追跡について、オクルージョンなど
の原因で誤ってしまった特徴点追跡エラー処理を含めた
詳細処理フローを図10に示す。図10のステップS1
001では、F枚の画像を入力し、ステップS1002
では、1枚の画像を基準画像として選択して、例えばP
個の特徴点マップを作成する。ステップS1003で
は、特徴点の領域を識別可能とするテンプレートを設定
する。FIG. 10 shows a detailed processing flow of the feature point tracking including a feature point tracking error process which is erroneous due to occlusion or the like. Step S1 in FIG.
In step 001, F images are input, and step S1002
Then, one image is selected as a reference image and, for example, P
Create feature point maps. In step S <b> 1003, a template is set so that the region of the feature point can be identified.
【0049】次に、各特徴点、各フレーム画像につい
て、基準画像に設定したテンプレートを用いた特徴点追
跡処理(S1006)を実行する。追跡結果の評価は、
ステップS1007に示すように、E=|追跡結果(座
標値)−初期追跡結果(座標値)|により、座標値の誤
差を算出し、これを予め定めた閾値と比較(S100
8)し、基準を満たすもののみを正当な特徴点追跡結果
であるとして保存(S1009)する。Next, a feature point tracking process (S1006) is performed for each feature point and each frame image using the template set as the reference image. Evaluation of tracking results
As shown in step S1007, an error of the coordinate value is calculated from E = | tracking result (coordinate value) −initial tracking result (coordinate value) | and compared with a predetermined threshold value (S100).
8) Then, only those satisfying the criteria are stored as valid feature point tracking results (S1009).
【0050】具体的には、テンプレートマッチングを用
い、例えば正規化相関によってマッチングした点を追跡
結果(座標値)とし、前述の特徴点マップによる追跡結
果を初期追跡結果(座標値)として、その差分を算出
し、算出した差分と閾値とを比較する。その比較におい
て基準を満たさない場合は、ステップS1013におい
て、エラーとして識別された特徴点であることを示すラ
ベルを追跡結果に対して設定する。これらの処理をすべ
ての特徴点と画像フレームに対して実行すると、エラー
のラベルの付与された追跡点が抽出され、これをステッ
プS1011において、エラー追跡点の周囲の特徴点と
の関連によってエラーの付加された追跡結果を補正す
る。図10(c)に示すように、追跡結果の周囲に正し
く追跡された特徴点があるので、これらを用いて、エラ
ーのラベルづけのなされた追跡点の補正を行なう。Specifically, a point matched by, for example, normalized correlation using template matching is set as a tracking result (coordinate value), a tracking result based on the above-described feature point map is set as an initial tracking result (coordinate value), and the difference is calculated. Is calculated, and the calculated difference is compared with a threshold. If the comparison does not satisfy the criterion, in step S1013, a label indicating a feature point identified as an error is set for the tracking result. When these processes are performed on all feature points and image frames, tracking points to which an error label has been added are extracted. In step S1011, the error tracking points are associated with the feature points around the error tracking points. Correct the added tracking result. As shown in FIG. 10 (c), there are feature points that are correctly tracked around the tracking result, and correction of the tracking points with error labels is performed using these.
【0051】3次元モデル特徴点選択、追跡処理手段2
052による特徴点選択処理、追跡処理が終了すると、
図4に示す3次元モデルパッチ領域設定手段2053に
よるパッチ領域設定が実行される。3D model feature point selection and tracking processing means 2
When the feature point selection processing and the tracking processing according to 052 are completed,
The patch area setting is executed by the three-dimensional model patch area setting means 2053 shown in FIG.
【0052】図11は、顔を対象とした場合、予め用意
されていた顔モデルの特徴点(数と位置)と実際に検出
された顔の特徴点との対応付けを行い、顔モデルに定義
された特徴点の間の関係によって、顔の三角パッチを作
成する例を示した。3次元モデルパッチ領域設定手段2
053によるパッチ領域設定は、予め形状モデル(知識
モデル)データベース2054に格納されているモデル
に対応するパッチ領域データに基づいて実行される。形
状モデル(知識モデル)データベース2054には、例
えばモデルが顔である場合には、パッチ領域データ11
01が抽出され、このパッチ領域データに基づいて画像
にパッチ領域が設定される。パッチは特徴点を頂点とす
る三角領域によって設定される。例えばパッチ領域デー
タ1101には特徴点1,2,5を3頂点とする三角領
域、1,5,3を3頂点とする三角領域等がパッチ領域
として設定されている。FIG. 11 shows that, when the face is targeted, the feature points (number and position) of the face model prepared in advance are associated with the feature points of the actually detected face, and the face model is defined. An example is shown in which a triangular patch of a face is created based on the relationship between the obtained feature points. 3D model patch area setting means 2
The patch area setting according to 053 is executed based on the patch area data corresponding to the model stored in the shape model (knowledge model) database 2054 in advance. If the model is a face, for example, the patch area data 11 is stored in the shape model (knowledge model) database 2054.
01 is extracted, and a patch area is set in the image based on the patch area data. A patch is set by a triangular area having feature points as vertices. For example, in the patch area data 1101, a triangular area having three vertices of feature points 1, 2, and 5 and a triangular area having three vertices of 1, 5, and 3 are set as patch areas.
【0053】図12は、設定されたパッチ面にテクスチ
ャ画像をマッピングする実施例を示す。前述の方法で求
められたカメラ動きと位置情報を用いて、各三角パッチ
面の法線ベクトルと最も正対するカメラの位置で撮影し
た画像(解像度が最も高い画像)を選択し、画像濃淡値
の正規化処理及び各パッチ面間のスムージング処理によ
って得られた一枚のテクスチャ画像を用いてマッピング
する。FIG. 12 shows an embodiment in which a texture image is mapped on the set patch surface. Using the camera motion and position information obtained by the above-described method, an image (the image with the highest resolution) photographed at the position of the camera most directly opposed to the normal vector of each triangular patch surface is selected, and the image density value Mapping is performed using one texture image obtained by the normalization process and the smoothing process between each patch surface.
【0054】図13は、本発明の3次元画像生成システ
ムにおける3次元画像生成処理全体の処理手順を示すフ
ローである。FIG. 13 is a flowchart showing the overall processing procedure of the three-dimensional image generation process in the three-dimensional image generation system of the present invention.
【0055】ステップS1301は、画像撮影ユニット
201、画像保存ユニット202、画像転送ユニット2
03による画像撮影、転送処理であり、ステップS13
02は、上述した画像補正ユニット204で実行される
画像補正処理ステップである。In step S1301, the image photographing unit 201, the image storage unit 202, and the image transfer unit 2
03 is an image shooting and transfer process, which is performed in step S13.
02 is an image correction processing step executed by the image correction unit 204 described above.
【0056】ステップS1303の知識ベースの特徴点
自動選択は、前述したように、図4に示す3次元モデル
特徴点選択、追跡処理手段2052によって、形状モデ
ル(知識モデル)データベースに格納されたデータに基
づいて実行される特徴点自動選択処理である。ステップ
S1304の特徴ウィンドウの追跡処理および結果保存
は、やはり図4に示す3次元モデル特徴点選択、追跡処
理手段2052によって実行される処理であり、選択さ
れた特徴ウィンドウに対して、複数枚の画像に渡って、
各画像における同一の特徴ウィンドウ(特徴ウィンドウ
の対応付け)を探索する。すなわち、図8、図9を用い
て説明した処理である。As described above, the feature point automatic selection of the knowledge base in step S1303 is performed by the three-dimensional model feature point selection and tracking processing means 2052 shown in FIG. 4 on the data stored in the shape model (knowledge model) database. This is a feature point automatic selection process executed based on the above. The tracking processing of the feature window and the saving of the result in step S1304 are also executed by the three-dimensional model feature point selection and tracking processing means 2052 shown in FIG. 4, and a plurality of images are added to the selected feature window. Over to
The same feature window (correspondence of feature windows) in each image is searched. That is, the processing described with reference to FIGS.
【0057】さらに、ステップS1305では、特徴点
追跡におけるエラーの有無を判定し、エラーがある場合
は、ステップS1306において、追跡エラーの修正処
理を行なう。この処理は、先に図10を用いて説明した
処理である。Further, in step S1305, it is determined whether or not there is an error in the tracking of the feature point. If there is an error, in step S1306, the tracking error is corrected. This process is the process described above with reference to FIG.
【0058】ところで、前述の追跡処理を用いても、完
全に正確な特徴点位置を得ることが困難である場合に
は、特徴点位置修正モードにおいて、手動によって、そ
のエラー追跡点の位置(座標値)を修正する構成として
もよい。これは、ビジュアルインタフェースにより、デ
ィスプレイに基準画像、特徴点設定対象画像のそれぞれ
にテンプレートに対応するウィンドウを表示し、正確な
特徴点位置をユーザが設定可能とするものである。ユー
ザによる画面の確認により、正確な特徴点の入力、修正
が可能となる。If it is difficult to obtain a completely accurate feature point position even by using the above-described tracking processing, the position (coordinates) of the error tracking point is manually set in the feature point position correction mode. Value) may be modified. In this method, a window corresponding to a template is displayed on a display for each of a reference image and a feature point setting target image by a visual interface, and a user can set an accurate feature point position. By confirming the screen by the user, it is possible to input and correct accurate feature points.
【0059】入力画像上の特徴点をチェックし、全ての
特徴点位置が正しく修正されたら、3次元形状推定処理
(S1307)を行い、注目対象の3次元形状と撮影時
のカメラ動き(位置、姿勢)を推定し、それらの結果を
出力(S1308)する。ここで、3次元形状データと
は、2次元画像上の注目対象における特徴点を3次元空
間へ逆射影する時の特徴点位置(3次元座標値)であ
る。次に、ステップS1309,S1310において、
三角パッチの生成、およびテクスチャマッピング、3次
元形状の貼り合わせ処理を実行して3次元画像を生成す
る。The feature points on the input image are checked, and if all the feature point positions are correctly corrected, a three-dimensional shape estimation process (S1307) is performed, and the three-dimensional shape of the object of interest and the camera movement (position, Posture) and outputs the results (S1308). Here, the three-dimensional shape data is a feature point position (three-dimensional coordinate value) when the feature point of the target of interest on the two-dimensional image is projected back to the three-dimensional space. Next, in steps S1309 and S1310,
A three-dimensional image is generated by executing a triangular patch generation, a texture mapping, and a three-dimensional shape bonding process.
【0060】図14は、上述した本発明の3次元画像生
成システムにより、対象モデルベースの特徴点選択&三
角パッチ作成処理の具体的例を示した図である。図14
(a)は、1フレーム目の入力画像を示す。図14(b)は、
顔の色相特性と幾何学的形状モデルに基づいて検出した
顔の領域、及び特徴点位置である。ここで、特徴点の数
と位置は、顔のモデルによって予め作成している。図1
4(c)は、顔の形状モデルに基づいて、抽出された特徴
点を用いて、作成した三角パッチを示し、図14(d)
は、それらの三角パッチ面に最も解像度の高い画像を用
いてテクスチャマッピングを行った結果、及びその三角
パッチ(ワイヤーフレーム)を示した図である。FIG. 14 is a diagram showing a specific example of the target model-based feature point selection and triangular patch creation processing by the above-described three-dimensional image generation system of the present invention. FIG.
(a) shows the input image of the first frame. FIG. 14 (b)
The area of the face detected based on the hue characteristic of the face and the geometric shape model, and the feature point position. Here, the number and position of the feature points are created in advance by a face model. Figure 1
4 (c) shows a triangular patch created using the extracted feature points based on the face shape model.
FIG. 4 is a diagram showing a result of performing texture mapping using the image with the highest resolution on the triangular patch surface and the triangular patch (wire frame).
【0061】以上、特定の実施例を参照しながら、本発
明について詳解してきた。しかしながら、本発明の要旨
を逸脱しない範囲で当業者が該実施例の修正や代用を成
し得ることは自明である。すなわち、例示という形態で
本発明を開示してきたのであり、限定的に解釈されるべ
きではない。本発明の要旨を判断するためには、冒頭に
記載した特許請求の範囲の欄を参酌すべきである。The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the scope of the present invention. That is, the present invention has been disclosed by way of example, and should not be construed as limiting. In order to determine the gist of the present invention, the claims described at the beginning should be considered.
【0062】[0062]
【発明の効果】以上、説明したように、本発明の3次元
画像生成システムおよび3次元画像生成方法によれば、
以下のような様々な効果がもたらされる。(1)対象の特
性と形状モデルに基づく領域抽出法によって、例えば、
顔の領域などを自動的に検出することが可能となり、顔
検出と顔認識などにも適用できる。また、(2)抽出され
た対象領域に対して、対象の知識モデルによって特徴点
を自動的に決めることが可能となり、一般的な特徴量評
価値による特徴ウィンドウの決め方と比較して、より正
確で確実となる。(3)抽出された特徴点に対して、複数
枚の画像間の対応付け(特徴点追跡)及び誤対応の修正
を行うことによって、より精度の高い3次元形状復元が
可能となる。(4)抽出された対象の特徴点に対して、知
識モデルによる三角パッチを自動的に作成することによ
って、実際の対象形状と一致するワイヤーフレーム表現
が可能となる。(5)作成された各三角パッチに対して、
それらの三角パッチの法線方向に最も正対するテクスチ
ャ画像を自動的に選択し、濃淡値正規化処理などを含ん
だ高解像度テクスチャマッピングが可能となる。As described above, according to the three-dimensional image generation system and the three-dimensional image generation method of the present invention,
Various effects are provided as follows. (1) By the region extraction method based on the characteristics and the shape model of the target, for example,
It is possible to automatically detect a face area and the like, and the present invention can be applied to face detection and face recognition. In addition, (2) the feature points can be automatically determined for the extracted target region by the target knowledge model, which is more accurate than the general method of determining the feature window based on the feature value evaluation value. It is sure. (3) Correspondence (feature point tracking) between a plurality of images and correction of erroneous correspondence are performed on the extracted feature points, thereby enabling more accurate three-dimensional shape restoration. (4) By automatically creating a triangular patch based on the knowledge model for the extracted feature points of the target, it is possible to represent a wire frame that matches the actual target shape. (5) For each created triangular patch,
The texture image most directly facing the normal direction of these triangular patches is automatically selected, and high-resolution texture mapping including gray-scale value normalization processing and the like can be performed.
【図1】3次元画像処理における因子分解法を説明する
図である。FIG. 1 is a diagram illustrating a factor decomposition method in three-dimensional image processing.
【図2】本発明の3次元画像生成システムのシステム構
成を示す図である。FIG. 2 is a diagram showing a system configuration of a three-dimensional image generation system according to the present invention.
【図3】本発明の3次元画像生成システムにおけるカメ
ラパラメータのキャリブレーション処理について説明す
る図である。FIG. 3 is a diagram illustrating camera parameter calibration processing in the three-dimensional image generation system of the present invention.
【図4】本発明の3次元画像生成システムの3次元処理
ユニットの詳細構成を示すブロック図である。FIG. 4 is a block diagram showing a detailed configuration of a three-dimensional processing unit of the three-dimensional image generation system of the present invention.
【図5】本発明の3次元画像生成システムの3次元モデ
ル生成領域抽出処理の具体例を示す図である。FIG. 5 is a diagram showing a specific example of a three-dimensional model generation region extraction process of the three-dimensional image generation system of the present invention.
【図6】本発明の3次元画像生成システムの3次元モデ
ル生成領域抽出処理の具体例を示す図である。FIG. 6 is a diagram showing a specific example of a three-dimensional model generation region extraction process of the three-dimensional image generation system of the present invention.
【図7】本発明の3次元画像生成システムの3次元処理
ユニットの処理フローを示す図である。FIG. 7 is a diagram showing a processing flow of a three-dimensional processing unit of the three-dimensional image generation system of the present invention.
【図8】本発明の3次元画像生成システムにおける特徴
点追跡処理について説明するフロー図である。FIG. 8 is a flowchart illustrating a feature point tracking process in the three-dimensional image generation system of the present invention.
【図9】本発明の3次元画像生成システムにおける特徴
点追跡処理について説明する図である。FIG. 9 is a diagram illustrating a feature point tracking process in the three-dimensional image generation system of the present invention.
【図10】本発明の3次元画像生成システムにおける特
徴点追跡処理について説明するフロー図である。FIG. 10 is a flowchart illustrating a feature point tracking process in the three-dimensional image generation system of the present invention.
【図11】本発明の3次元画像生成システムの3次元モ
デルパッチ領域設定処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of a three-dimensional model patch area setting process of the three-dimensional image generation system of the present invention.
【図12】本発明の3次元画像生成システムにおけるテ
クスチャマッピング処理について説明する図である。FIG. 12 is a diagram illustrating a texture mapping process in the three-dimensional image generation system of the present invention.
【図13】本発明の3次元画像生成システムにおける3
次元モデル生成処理について説明するフロー図である。FIG. 13 shows a diagram of a 3D image generation system according to the present invention;
It is a flowchart explaining a dimension model generation process.
【図14】本発明の3次元画像生成システムにおける特
徴点選択、三角パッチ生成処理の処理具体例について説
明する図である。FIG. 14 is a diagram illustrating a specific example of a feature point selection and a triangular patch generation process in the three-dimensional image generation system of the present invention.
201 画像撮影ユニット 202 画像保存ユニット 203 画像転送ユニット 204 画像補正ユニット 205 3次元処理ユニット 206 3次元形状貼り合わせユニット 207 テクスチャマッピングユニット 208 3D画像表示ユニット 2051 3次元モデル生成領域抽出処理手段 2052 3次元モデル特徴点選択、追跡処理手段 2053 3次元モデルパッチ利用域設定処理手段 2054 3次元モデル(知識モデル)データベース Reference Signs List 201 Image photographing unit 202 Image storage unit 203 Image transfer unit 204 Image correction unit 205 3D processing unit 206 3D shape bonding unit 207 Texture mapping unit 208 3D image display unit 2051 3D model generation area extraction processing means 2052 3D model Feature point selection and tracking processing means 2053 3D model patch use area setting processing means 2054 3D model (knowledge model) database
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 CA01 CA13 CB01 CB13 CD20 DA07 DB03 DB06 DC05 DC09 DC25 DC32 5B080 AA14 AA18 BA07 FA02 GA22 5C061 AA21 AB03 AB08 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B057 CA01 CA13 CB01 CB13 CD20 DA07 DB03 DB06 DC05 DC09 DC25 DC32 5B080 AA14 AA18 BA07 FA02 GA22 5C061 AA21 AB03 AB08
Claims (13)
より3次元画像を生成する3次元画像生成システムにお
いて、 データベースに格納された形状モデルに基づいて、入力
画像上に3次元モデル生成領域を設定する3次元モデル
生成領域抽出処理手段と、 データベースに格納された特徴点位置データに基づい
て、入力画像の3次元モデル生成領域に特徴点を設定す
る3次元モデル特徴点選択処理手段と、 データベースに格納されたパッチ領域設定データに基づ
いて、入力画像の3次元モデル生成領域にパッチ領域を
設定する3次元モデルパッチ領域設定処理手段と、 を有することを特徴とする3次元画像生成システム。1. A three-dimensional image generation system for generating a three-dimensional image by feature point tracking processing for a plurality of input images, wherein a three-dimensional model generation area is set on the input image based on a shape model stored in a database. Three-dimensional model generation region extraction processing means for performing the following processing; three-dimensional model characteristic point selection processing means for setting a characteristic point in the three-dimensional model generation area of the input image based on the characteristic point position data stored in the database; A three-dimensional model patch area setting processing means for setting a patch area in a three-dimensional model generation area of an input image based on stored patch area setting data.
は、 入力画像上の色相等の特性を判別し、判別によって得ら
れる領域形状と、前記データベースに格納された形状モ
デルとの比較によって、入力画像上に3次元モデル生成
領域を設定する構成であることを特徴とする請求項1に
記載の3次元画像生成システム。2. The three-dimensional model generation region extraction processing means determines characteristics such as hue on an input image, and compares an area shape obtained by the determination with a shape model stored in the database. The three-dimensional image generation system according to claim 1, wherein a three-dimensional model generation area is set on the image.
可能なウィンドウ設定テンプレートを適用して、複数の
フレーム画像に対して特徴点追跡用ウィンドウの設定処
理を実行する構成を有することを特徴とする請求項1に
記載の3次元画像生成システム。3. The feature point selection processing means according to claim 2, wherein said feature point selection processing includes applying a window setting template applicable to a specific model to a feature point tracking process for a plurality of frame images. The three-dimensional image generation system according to claim 1, further comprising a configuration for executing a window setting process.
取得された特徴点追跡結果座標値と特徴点マップを用い
た初期追跡結果座標値との差分と、予め定めた閾値とを
比較して、該差分が閾値より大である場合に、テンプレ
ートマッチングによる特徴点追跡結果をエラーと判定し
て、該エラーと判定された特徴点を周囲の特徴点に基づ
いて補正する補正処理を実行する構成を有することを特
徴とする請求項1に記載の3次元画像生成システム。4. The three-dimensional image generating system according to claim 1, wherein a difference between a coordinate value of a feature point tracking result obtained in a feature point tracking process by template matching and an initial tracking result coordinate value using a feature point map is determined in advance. If the difference is larger than the threshold value, the feature point tracking result by template matching is determined to be an error, and the feature point determined to be the error is corrected based on surrounding feature points. The three-dimensional image generation system according to claim 1, further comprising a configuration for executing a correction process.
は、 データベースに格納されたパッチ領域設定データに基づ
いて、入力画像の3次元モデル生成領域に設定された特
徴点を頂点とする三角パッチ領域を設定する構成を有す
ることを特徴とする請求項1に記載の3次元画像生成シ
ステム。5. A three-dimensional model patch area setting processing means, based on patch area setting data stored in a database, a triangular patch area having feature points set in a three-dimensional model generation area of an input image as vertices. The three-dimensional image generation system according to claim 1, further comprising:
像を選択して、選択画像を各パッチ面に適用するテクス
チャ画像としてテクスチャマッピングを実行するテクス
チャマッピング手段を有することを特徴とする請求項1
に記載の3次元画像生成システム。6. The three-dimensional image generating system selects an image having the highest resolution for each patch plane constituting the three-dimensional image, and executes texture mapping as a texture image to be applied to each patch plane. 2. The apparatus according to claim 1, further comprising texture mapping means.
3. The three-dimensional image generation system according to 1.
より3次元画像を生成する3次元画像生成方法におい
て、 データベースに格納された形状モデルに基づいて、入力
画像上に3次元モデル生成領域を設定する3次元モデル
生成領域抽出処理ステップと、 データベースに格納された特徴点位置データに基づい
て、入力画像の3次元モデル生成領域に特徴点を設定す
る3次元モデル特徴点選択処理ステップと、 データベースに格納されたパッチ領域設定データに基づ
いて、入力画像の3次元モデル生成領域にパッチ領域を
設定する3次元モデルパッチ領域設定処理ステップと、 を有することを特徴とする3次元画像生成方法。7. A three-dimensional image generation method for generating a three-dimensional image by feature point tracking processing for a plurality of input images, wherein a three-dimensional model generation area is set on the input image based on a shape model stored in a database. A three-dimensional model generation area extraction processing step of setting a feature point in a three-dimensional model generation area of an input image based on feature point position data stored in a database; A three-dimensional model patch area setting processing step of setting a patch area in a three-dimensional model generation area of the input image based on the stored patch area setting data.
プは、 入力画像上の色相等の特性を判別し、判別によって得ら
れる領域形状と、前記データベースに格納された形状モ
デルとの比較によって、入力画像上に3次元モデル生成
領域を設定することを特徴とする請求項7に記載の3次
元画像生成方法。8. The three-dimensional model generation region extraction processing step includes determining characteristics such as hue on an input image, and comparing the region shape obtained by the determination with a shape model stored in the database. The three-dimensional image generation method according to claim 7, wherein a three-dimensional model generation area is set on the image.
は、 前記特徴点選択処理において、特定モデルに対して適用
可能なウィンドウ設定テンプレートを適用して、複数の
フレーム画像に対して特徴点追跡用ウィンドウの設定処
理を実行することを特徴とする請求項7に記載の3次元
画像生成方法。9. The three-dimensional model feature point selecting step includes: in the feature point selecting process, applying a window setting template applicable to a specific model to a feature point tracking process for a plurality of frame images. The three-dimensional image generation method according to claim 7, wherein a window setting process is performed.
取得された特徴点追跡結果座標値と特徴点マップを用い
た初期追跡結果座標値との差分と、予め定めた閾値とを
比較して、該差分が閾値より大である場合に、テンプレ
ートマッチングによる特徴点追跡結果をエラーと判定し
て、該エラーと判定された特徴点を周囲の特徴点に基づ
いて補正する補正処理を実行することを特徴とする請求
項7に記載の3次元画像生成方法。10. The three-dimensional image generation method according to claim 1, wherein a difference between a coordinate value of a feature point tracking result obtained in a feature point tracking process by template matching and an initial tracking result coordinate value using a feature point map is determined in advance. If the difference is larger than the threshold value, the feature point tracking result by template matching is determined to be an error, and the feature point determined to be the error is corrected based on surrounding feature points. The three-dimensional image generation method according to claim 7, wherein a correction process is performed.
テップは、 データベースに格納されたパッチ領域設定データに基づ
いて、入力画像の3次元モデル生成領域に設定された特
徴点を頂点とする三角パッチ領域を設定することを特徴
とする請求項7に記載の3次元画像生成方法。11. The three-dimensional model patch area setting processing step comprises the steps of: based on patch area setting data stored in a database, a triangular patch area having a feature point set in a three-dimensional model generation area of an input image as a vertex The three-dimensional image generation method according to claim 7, wherein
像を選択して、選択画像を各パッチ面に適用するテクス
チャ画像としてテクスチャマッピングを実行するテクス
チャマッピング・ステップを有することを特徴とする請
求項7に記載の3次元画像生成方法。12. The three-dimensional image generating method according to claim 1, wherein an image having the highest resolution is selected for each patch surface forming the three-dimensional image, and texture mapping is executed as a texture image applied to each patch surface. The method according to claim 7, further comprising a texture mapping step.
により3次元画像を生成する3次元画像生成処理をコン
ピュータ・システム上で実行せしめるコンピュータ・プ
ログラムを有形的に提供するプログラム提供媒体であっ
て、前記コンピュータ・プログラムは、 データベースに格納された形状モデルに基づいて、入力
画像上に3次元モデル生成領域を設定する3次元モデル
生成領域抽出処理ステップと、データベースに格納され
た特徴点位置データに基づいて、入力画像の3次元モデ
ル生成領域に特徴点を設定する3次元モデル特徴点選択
処理ステップと、 データベースに格納されたパッチ領域設定データに基づ
いて、入力画像の3次元モデル生成領域にパッチ領域を
設定する3次元モデルパッチ領域設定処理ステップと、 を有することを特徴とするプログラム提供媒体。13. A program providing medium tangibly providing a computer program for causing a computer system to execute a three-dimensional image generation process for generating a three-dimensional image by a feature point tracking process for a plurality of input images, The computer program includes: a three-dimensional model generation region extraction processing step of setting a three-dimensional model generation region on an input image based on a shape model stored in a database; and a feature point position data stored in the database. A three-dimensional model feature point selecting step of setting feature points in the three-dimensional model generation area of the input image; and a patch area in the three-dimensional model generation area of the input image based on the patch area setting data stored in the database. 3D model patch area setting processing step of setting Program providing medium characterized.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000212541A JP4568967B2 (en) | 2000-07-13 | 2000-07-13 | 3D image generation system, 3D image generation method, and program recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000212541A JP4568967B2 (en) | 2000-07-13 | 2000-07-13 | 3D image generation system, 3D image generation method, and program recording medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002032742A true JP2002032742A (en) | 2002-01-31 |
| JP4568967B2 JP4568967B2 (en) | 2010-10-27 |
Family
ID=18708456
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000212541A Expired - Fee Related JP4568967B2 (en) | 2000-07-13 | 2000-07-13 | 3D image generation system, 3D image generation method, and program recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4568967B2 (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006215685A (en) * | 2005-02-02 | 2006-08-17 | Funai Electric Co Ltd | Photo printer |
| WO2007053740A1 (en) * | 2005-11-01 | 2007-05-10 | Microsoft Corporation | Sketching reality |
| US20080002856A1 (en) * | 2006-06-14 | 2008-01-03 | Honeywell International Inc. | Tracking system with fused motion and object detection |
| JP2010107495A (en) * | 2008-11-03 | 2010-05-13 | Samsung Electronics Co Ltd | Apparatus and method for extracting characteristic information of object and apparatus and method for producing characteristic map using the same |
| JP2011095975A (en) * | 2009-10-29 | 2011-05-12 | Konica Minolta Holdings Inc | Corresponding point search device, corresponding point search method, and program |
| CN102542601A (en) * | 2010-12-10 | 2012-07-04 | 三星电子株式会社 | Equipment and method for modeling three-dimensional (3D) object |
| US10410072B2 (en) | 2015-11-20 | 2019-09-10 | Mitsubishi Electric Corporation | Driving support apparatus, driving support system, driving support method, and computer readable recording medium |
| JP2020053840A (en) * | 2018-09-27 | 2020-04-02 | 株式会社デンソーウェーブ | Surveillance system and camera |
| CN114091148A (en) * | 2021-11-12 | 2022-02-25 | 中铁一局集团建筑安装工程有限公司 | Method for realizing area calculation of Revit template based on Dynamo, and rapid modeling method and system |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH085333A (en) * | 1994-06-21 | 1996-01-12 | Kobe Steel Ltd | Three-dimensional position-attitude recognizing apparatus |
| JP2532985B2 (en) * | 1990-09-20 | 1996-09-11 | 工業技術院長 | Three-dimensional image evaluation device |
| JPH09257414A (en) * | 1996-03-25 | 1997-10-03 | Kobe Steel Ltd | Object position detector |
| JP2000146546A (en) * | 1998-11-09 | 2000-05-26 | Hitachi Ltd | Method and apparatus for generating three-dimensional model |
-
2000
- 2000-07-13 JP JP2000212541A patent/JP4568967B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2532985B2 (en) * | 1990-09-20 | 1996-09-11 | 工業技術院長 | Three-dimensional image evaluation device |
| JPH085333A (en) * | 1994-06-21 | 1996-01-12 | Kobe Steel Ltd | Three-dimensional position-attitude recognizing apparatus |
| JPH09257414A (en) * | 1996-03-25 | 1997-10-03 | Kobe Steel Ltd | Object position detector |
| JP2000146546A (en) * | 1998-11-09 | 2000-05-26 | Hitachi Ltd | Method and apparatus for generating three-dimensional model |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006215685A (en) * | 2005-02-02 | 2006-08-17 | Funai Electric Co Ltd | Photo printer |
| WO2007053740A1 (en) * | 2005-11-01 | 2007-05-10 | Microsoft Corporation | Sketching reality |
| US7639250B2 (en) | 2005-11-01 | 2009-12-29 | Microsoft Corporation | Sketching reality |
| US20080002856A1 (en) * | 2006-06-14 | 2008-01-03 | Honeywell International Inc. | Tracking system with fused motion and object detection |
| US8467570B2 (en) * | 2006-06-14 | 2013-06-18 | Honeywell International Inc. | Tracking system with fused motion and object detection |
| JP2010107495A (en) * | 2008-11-03 | 2010-05-13 | Samsung Electronics Co Ltd | Apparatus and method for extracting characteristic information of object and apparatus and method for producing characteristic map using the same |
| JP2011095975A (en) * | 2009-10-29 | 2011-05-12 | Konica Minolta Holdings Inc | Corresponding point search device, corresponding point search method, and program |
| CN102542601A (en) * | 2010-12-10 | 2012-07-04 | 三星电子株式会社 | Equipment and method for modeling three-dimensional (3D) object |
| US10410072B2 (en) | 2015-11-20 | 2019-09-10 | Mitsubishi Electric Corporation | Driving support apparatus, driving support system, driving support method, and computer readable recording medium |
| JP2020053840A (en) * | 2018-09-27 | 2020-04-02 | 株式会社デンソーウェーブ | Surveillance system and camera |
| JP7180243B2 (en) | 2018-09-27 | 2022-11-30 | 株式会社デンソーウェーブ | surveillance systems and cameras |
| CN114091148A (en) * | 2021-11-12 | 2022-02-25 | 中铁一局集团建筑安装工程有限公司 | Method for realizing area calculation of Revit template based on Dynamo, and rapid modeling method and system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4568967B2 (en) | 2010-10-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11348267B2 (en) | Method and apparatus for generating a three-dimensional model | |
| CA2676166C (en) | Method of capturing, processing, and rendering images | |
| KR102097016B1 (en) | Apparatus and methdo for analayzing motion | |
| Wu et al. | On-set performance capture of multiple actors with a stereo camera | |
| JP4474743B2 (en) | 3D image generating apparatus, 3D image generating method, and program recording medium | |
| CN106228507A (en) | A kind of depth image processing method based on light field | |
| KR20170008638A (en) | Three dimensional content producing apparatus and three dimensional content producing method thereof | |
| JP2009525543A (en) | 3D face reconstruction from 2D images | |
| JP2010079453A (en) | Apparatus for generating position-and-orientation estimation model, position and orientation calculation device, image processor, and method for the same | |
| JP2017123087A (en) | Program, apparatus and method for calculating normal vector of planar object reflected in continuous captured images | |
| US9836846B2 (en) | System and method of estimating 3D facial geometry | |
| JP4568967B2 (en) | 3D image generation system, 3D image generation method, and program recording medium | |
| JP6272071B2 (en) | Image processing apparatus, image processing method, and program | |
| US20040165776A1 (en) | Means of matching 2D motion vector fields in a render, match, and refine iterative 3D scene model refinement system so as to attain directed hierarchical convergence and insensitivity to color, lighting, and textures | |
| JP3822482B2 (en) | Face orientation calculation method and apparatus | |
| JP2002032743A (en) | System and method for three-dimensional image generation and program providing medium | |
| EP2237227A1 (en) | Video sequence processing method and system | |
| Kang et al. | Appearance-based structure from motion using linear classes of 3-d models | |
| KR102083293B1 (en) | Object reconstruction apparatus using motion information and object reconstruction method using thereof | |
| Prasad et al. | A robust head pose estimation system for uncalibrated monocular videos | |
| Gupta et al. | 3dfs: Deformable dense depth fusion and segmentation for object reconstruction from a handheld camera | |
| Li et al. | Online estimation of trifocal tensors for augmenting live video | |
| JP2020101922A (en) | Image processing apparatus, image processing method and program | |
| Van Gool et al. | Modeling shapes and textures from images: new frontiers | |
| JP2002170111A (en) | Image synthesizing apparatus and method and recording medium recording image synthesizing program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070130 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091029 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091215 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100205 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100302 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100422 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100518 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100625 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100713 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100726 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130820 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130820 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |