[go: up one dir, main page]

JP3275252B2 - Three-dimensional information input method and three-dimensional information input device using the same - Google Patents

Three-dimensional information input method and three-dimensional information input device using the same

Info

Publication number
JP3275252B2
JP3275252B2 JP13725494A JP13725494A JP3275252B2 JP 3275252 B2 JP3275252 B2 JP 3275252B2 JP 13725494 A JP13725494 A JP 13725494A JP 13725494 A JP13725494 A JP 13725494A JP 3275252 B2 JP3275252 B2 JP 3275252B2
Authority
JP
Japan
Prior art keywords
image
camera
line
feature point
backprojection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13725494A
Other languages
Japanese (ja)
Other versions
JPH0771940A (en
Inventor
偉明 森
智 鈴木
貴之 安野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT Inc filed Critical Nippon Telegraph and Telephone Corp
Priority to JP13725494A priority Critical patent/JP3275252B2/en
Publication of JPH0771940A publication Critical patent/JPH0771940A/en
Application granted granted Critical
Publication of JP3275252B2 publication Critical patent/JP3275252B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は3次元動物体の位置、形
状と動きを計測することに関し、動物体の3次元情報入
力、認識及び表現(CG)などの分野に利用できる3次
元情報入力方法及びそれを使った3次元情報入力装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to measurement of the position, shape and movement of a three-dimensional moving object, and more particularly to inputting, recognizing and expressing (CG) three-dimensional information of a moving object. The present invention relates to a method and a three-dimensional information input device using the same.

【0002】[0002]

【従来の技術】従来の3次元情報入力技術は3つに分類
することが出来る。第1の技術はステレオ視法である。
これは2個のカメラで撮影した左右2枚の画像に対し
て、画像上の点・線の対応付けを行うことで、カメラ位
置と左右画像の対応点・線ペアから該ペアに対応するシ
ーン空間上の点・線の位置を推定する技術である。第2
の手法は、動きからの復元法である。これはまずカメラ
を動かしながら撮影した連続画像に対して、画像上の各
特徴点を追跡することで、各特徴点の対応するシーン空
間上の点の位置を推定する技術である。第3の手法は逆
投影法である。これは画像をシーン空間へ逆投影するこ
とで、シーン空間の3次元構造を復元する技術である。
2. Description of the Related Art Conventional three-dimensional information input technologies can be classified into three types. The first technique is stereo vision.
This is to associate the points and lines on the two images taken by the two cameras with the left and right images, so that the camera position and the corresponding points and lines of the left and right images can be used to determine the scene corresponding to the pair. This is a technique for estimating the positions of points and lines in space. Second
Is a method of restoring from motion. This is a technique for estimating a position of a point in a scene space corresponding to each feature point by tracking each feature point on the image with respect to a continuous image captured while moving a camera. The third technique is a back projection method. This is a technique for restoring the three-dimensional structure of the scene space by back-projecting the image onto the scene space.

【0003】第1の手法は(例: Kanade T.and Okutom
i M.and Nakahara T.:“A multiplebaseline stereo me
thod”,Proc. Image Understanding Workshop,pp. 409-
426,1992、あるいは、米国特許No.4,654,872)、物体の
凹凸によりいずれか一方のカメラの視線に対する遮蔽部
分が多数生じ易いので、左右画像間の特徴点を正確な位
置づけが非常に難しいため、精度のよい3次元情報を得
ることが困難である。第2の手法は(例:Bolles R.C.,
Baker H.H. and Marimont D.H.:“ Epipolar-plane im
age analysis: an apprproach to determining structu
re from motion”, IJCV,Vol.1,No.1,pp.7-55,1987)、
カメラを動かしながら画像を撮る間に物体が動いてはな
らないため、動物体に適用できない。最近、一台のカメ
ラで撮影した連続画像から物体の3次元形状と動きを同
時に抽出できる手法が発表されたが(Tomasi C. and Ka
nade T.:“Shape and motion from image streams unde
rorthography: a factorization method”,IJCV,Vol.9,
No.2,pp. 137-154, 1992)、この手法は基本的には特徴
点を画像間で追跡することで特徴点の3次元情報を求め
ているため、物体の動きによって起こる物体上の部分的
遮蔽に非常に弱い。なぜならこのような遮蔽により、画
像上の着目している特徴点が消えたり、出現したりする
ため、画像間の特徴点の軌跡が途切れて追跡しにくくな
る。従ってこの手法は動物体に適応しにくい。第3の手
法としてシルエット投影法があるが(例: Ahuja N. an
d Veenstra J.:“Generation octree from object silh
ouettes in orthographic views ”,IEEE Trans.PAMI,V
ol. 11,No.2,pp.137-149,1989 )、シルエット画像を生
成するのがきわめて困難かつ不安定であるため、正確な
3次元情報の獲得が難しい。
[0003] The first technique is (for example, Kanade T. and Okutom).
i M. and Nakahara T .: “A multiplebaseline stereo me
thod ”, Proc. Image Understanding Workshop, pp. 409-
426,1992 or US Patent No.4,654,872), because many irregularities of the object tend to obstruct the line of sight of either camera, it is very difficult to accurately locate the feature points between the left and right images. It is difficult to obtain good three-dimensional information. The second method (eg Bolles RC,
Baker HH and Marimont DH: “Epipolar-plane im
age analysis: an apprproach to determining structu
re from motion ”, IJCV, Vol.1, No.1, pp.7-55,1987),
It cannot be applied to moving objects because the object must not move while taking images while moving the camera. Recently, a technique has been announced that can simultaneously extract the three-dimensional shape and motion of an object from a series of images taken by a single camera (Tomasi C. and Ka
nade T .: “Shape and motion from image streams unde
rorthography: a factorization method ”, IJCV, Vol.9,
No.2, pp. 137-154, 1992), since this method basically obtains three-dimensional information of feature points by tracking feature points between images, the method on the object caused by the movement of the object Very vulnerable to partial shielding. Because the feature point of interest on the image disappears or appears due to such occlusion, the locus of the feature point between the images is interrupted and tracking becomes difficult. Therefore, this method is difficult to adapt to the animal body. A third method is silhouette projection (eg, Ahuja N. an
d Veenstra J .: “Generation octree from object silh
ouettes in orthographic views ”, IEEE Trans.PAMI, V
ol. 11, No. 2, pp. 137-149, 1989), since it is extremely difficult and unstable to generate a silhouette image, it is difficult to obtain accurate three-dimensional information.

【0004】[0004]

【発明が解決しようとする課題】一方、第3の手法の他
の例として画像上のエッジを抽出し、それを用いてシー
ン空間に対してボーティングすることで3次元物体のエ
ッジを復元する手法があるが(Hamano T. and Yasuno
T. and Ishii K.:“Direct estimation of structure f
rom non-linear motion by voting algorithm with-out
tracking and matching”, Proc. of ICPR,Vol.1, pp.
505-508,1992、及び S.Kawato:“3D ShapeRecovering
by Octree Voting Technique ”,PROCEEDINGS of SPLE
-The International Society for Optical Engineerin
g, 15-16 Nov. 1992)、このような手法は複数の特徴点
を同時に抽出しようとしているため、各特徴点に対する
処理が互いに干渉し合い、これにより偽の特徴点が抽出
される問題がある。該問題を解決するため、多数枚の画
像が必要とされている。動物体の場合は、1台のカメラ
で多数枚の画像を撮るには時間が掛かるし、多数のカメ
ラで同時撮影システムを構築すると非常に高価なものに
なる。
On the other hand, as another example of the third method, an edge on an image is extracted, and the edge of the three-dimensional object is restored by voting in the scene space using the extracted edge. There is a method (Hamano T. and Yasuno
T. and Ishii K .: “Direct estimation of structure f
rom non-linear motion by voting algorithm with-out
tracking and matching ”, Proc. of ICPR, Vol.1, pp.
505-508,1992, and S. Kawato: “3D ShapeRecovering
by Octree Voting Technique ”, PROCEEDINGS of SPLE
-The International Society for Optical Engineerin
g, 15-16 Nov. 1992), such a method attempts to extract multiple feature points at the same time, and the processing for each feature point interferes with each other, which leads to the problem that false feature points are extracted. is there. To solve the problem, a large number of images are required. In the case of a moving object, it takes time to take a large number of images with one camera, and it is very expensive to construct a simultaneous imaging system with many cameras.

【0005】この発明の目的は上記の問題を解決し、少
数のカメラで撮影した物体画像から物体の3次元情報を
獲得できる3次元物体情報入力方法及びそれを使った3
次元情報入力装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problem and to provide a three-dimensional object information input method capable of acquiring three-dimensional information of an object from an object image taken by a small number of cameras, and a method using the method.
It is to provide a dimension information input device.

【0006】[0006]

【課題を解決するための手段】この発明の第1の観点に
よる3次元情報入力方法は、(a) n個、nは3以上の整
数、のカメラで物体をそれぞれ撮像してnフレームの画
像を得て、それらの画像を画像データとして出力し、
(b) 上記画像データが与えられ、上記nフレームの画像
上における上記物体の特徴点をそれぞれ抽出し、(c) n
個の上記カメラの1つを基準カメラとして選択し、上記
基準カメラによって生成された画像を基準画像とし、他
のカメラを参照カメラとし、それらによって生成された
画像を参照画像とし、上記基準カメラのレンズ中心と、
上記物体上の着目3次元特徴点に対応して選択した上記
基準画像中の特徴点とを通る逆投影線を基準逆投影線と
して規定し、(d) 上記参照カメラによる上記参照画像上
に上記基準逆投影線を射影してエピポーラ線をそれぞれ
規定し、(e) 各上記参照カメラによる上記参照画像上の
上記エピポーラ線上にある上記特徴点と、上記参照カメ
ラのレンズ中心とを通る逆投影線を参照逆投影線として
規定し、(f) 上記基準逆投影線と上記参照逆投影線の交
差点の座標位置をそれぞれ求め、それぞれの交差点にお
ける上記基準逆投影線と上記参照逆投影線との交差数を
計数し、計数値の最大の交差点を上記着目3次元特徴点
の位置と判定し、(g) 一連の上記ステップ(c) 〜(f) を
上記基準画像上のそれぞれの特徴点に付いて繰り返すこ
とにより、上記物体上のそれぞれの3次元特徴点の位置
を上記物体の3次元情報として得る。
According to a first aspect of the present invention, there is provided a three-dimensional information input method comprising the steps of: (a) picking up an object with n cameras, n being an integer of 3 or more; And output those images as image data,
(b) receiving the image data, extracting feature points of the object on the n-frame image, respectively, and (c) n
One of the cameras is selected as a reference camera, an image generated by the reference camera is used as a reference image, the other cameras are used as reference cameras, images generated by the cameras are used as reference images, The center of the lens,
A backprojection line passing through a feature point in the reference image selected corresponding to the three-dimensional feature point of interest on the object is defined as a reference backprojection line, and (d) the backprojection line is defined on the reference image by the reference camera. Projecting a reference backprojection line to define an epipolar line, respectively, and (e) a backprojection line passing through the feature point on the epipolar line on the reference image by the reference camera and the lens center of the reference camera. Is defined as the reference backprojection line, and (f) the coordinate position of the intersection of the reference backprojection line and the reference backprojection line is obtained, and the intersection of the reference backprojection line and the reference backprojection line at each intersection is obtained. Count the number, determine the maximum intersection of the counted value as the position of the noted three-dimensional feature point, and (g) add a series of the above steps (c) to (f) to each feature point on the reference image. By repeating the Obtaining a position of the three-dimensional feature point, respectively as three-dimensional information of the object.

【0007】この発明の第2の観点による3次元情報入
力方法は、(a) n個、nは3以上の整数、のカメラで物
体をそれぞれ撮像してnフレームの画像を得て、それら
の画像を画像データとして出力し、(b) 上記画像データ
が与えられ、上記nフレームの画像上における上記物体
の特徴点をそれぞれ抽出し、(c) n個の上記カメラの1
つを基準カメラとして選択し、上記基準カメラによって
生成された画像を基準画像とし、他のカメラを参照カメ
ラとし、それらによって生成された画像を参照画像と
し、上記基準カメラのレンズ中心と、上記物体上の着目
3次元特徴点に対応して選択した上記基準画像中の特徴
点とを通る逆投影線を基準逆投影線として規定し、(d)
上記参照カメラによる上記参照画像上に上記基準逆投影
線を射影してエピポーラ線をそれぞれ規定し、(e) 各上
記参照カメラによる上記参照画像上の上記エピポーラ線
上にある上記特徴点と、上記参照カメラのレンズ中心と
を通る逆投影線を参照逆投影線として規定し、(f) 上記
基準逆投影線と上記参照逆投影線の交差点の座標位置を
それぞれ求め、上記基準逆投影線に沿った上記交差点の
分布に対し畳み込み処理により上記交差点の分布の密集
度を強調するフィルタ処理を行い、そのフィルタ処理さ
れた交差点の分布が最大となる位置を上記着目3次元特
徴点の位置と判定し、(g) 一連の上記ステップ(c)〜(f)
を上記基準画像上のそれぞれの特徴点に付いて繰り返す
ことにより、上記物体上のそれぞれの3次元特徴点の位
置を上記物体の3次元情報として得る。
[0007] The three-dimensional information input method according to the second aspect of the present invention comprises the steps of: (a) capturing images of an object by n cameras, n being an integer of 3 or more, obtaining images of n frames, Outputting the image as image data, (b) receiving the image data, extracting the feature points of the object on the n-frame image, and (c) extracting one of the n cameras
One as a reference camera, an image generated by the reference camera as a reference image, another camera as a reference camera, an image generated by them as a reference image, a lens center of the reference camera, and the object A back projection line passing through the feature point in the reference image selected corresponding to the above noted three-dimensional feature point is defined as a reference back projection line, and (d)
The reference backprojection line is projected onto the reference image by the reference camera to define an epipolar line, respectively, and (e) the feature points on the epipolar line on the reference image by the reference camera, A backprojection line passing through the lens center of the camera is defined as a reference backprojection line, and (f) a coordinate position of an intersection of the reference backprojection line and the reference backprojection line is obtained, and the coordinate position along the reference backprojection line is determined. The distribution of the intersection is subjected to a filtering process to emphasize the density of the distribution of the intersection by a convolution process, and the position where the distribution of the filtered intersection becomes the maximum is determined as the position of the noted three-dimensional feature point, (g) A series of the above steps (c) to (f)
Is repeated for each feature point on the reference image, thereby obtaining the position of each three-dimensional feature point on the object as three-dimensional information of the object.

【0008】この発明の第3の観点による3次元情報入
力装置は、互いに異なる位置に配置され、物体を撮像し
てそれぞれ得られる画像を画像データとして出力するn
個、nは3以上の整数、のカメラ手段と、n個の上記カ
メラ手段からの画像データが与えられ、それぞれの画像
中の特徴点から上記物体の3次元情報を求める画像情報
処理手段と、を含み、上記画像情報処理手段は:上記画
像中の特徴点を抽出する特徴抽出手段と、n個の上記カ
メラの1つを基準カメラとし、上記基準カメラによって
生成された画像を基準画像とし、他のカメラを参照カメ
ラとし、それらによって生成された画像を参照画像と
し、上記基準カメラのレンズ中心と、上記物体上の着目
3次元特徴点に対応して選択した上記基準画像中の特徴
点とを通る逆投影線を基準逆投影線として求める基準逆
投影線生成手段と、上記参照カメラによる上記参照画像
上に上記基準逆投影線を射影してエピポーラ線をそれぞ
れ求めるエピポーラ線生成手段と、各上記参照カメラに
よる上記参照画像上の上記エピポーラ線上にある上記特
徴点と、上記参照カメラのレンズ中心とを通る逆投影線
を参照逆投影線として求める参照逆投影線生成手段と、
上記基準逆投影線と上記参照逆投影線の交差点の座標位
置をそれぞれ求め、それぞれの交差点における上記基準
逆投影線と上記参照逆投影線との交差数を計数し、計数
値の最大の交差点を上記着目3次元特徴点の位置と判定
する3次元特徴抽出手段と、を含み、上記基準画像上の
それぞれの特徴点に付いて、上記物体上の対応するそれ
ぞれの3次元特徴点の位置を上記物体の3次元情報とし
て得る。
A three-dimensional information input device according to a third aspect of the present invention is arranged at different positions from each other, and outputs images obtained by imaging an object as image data.
Where n is an integer of 3 or more, and image data from the n camera units, and image information processing unit that obtains three-dimensional information of the object from feature points in each image; Wherein the image information processing means includes: a feature extraction means for extracting a feature point in the image; one of the n cameras as a reference camera; an image generated by the reference camera as a reference image; Another camera is used as a reference camera, an image generated by the camera is used as a reference image, and a lens center of the reference camera and a feature point in the reference image selected corresponding to the noted three-dimensional feature point on the object are Reference backprojection line generating means for obtaining a backprojection line passing through as a reference backprojection line, and epipolar lines for projecting the reference backprojection line onto the reference image by the reference camera to obtain epipolar lines, respectively. Generating means, reference backprojection line generating means for obtaining a backprojection line passing through the feature point on the epipolar line on the reference image by the reference camera and the lens center of the reference camera as a reference backprojection line, ,
Determine the coordinate position of the intersection of the reference backprojection line and the reference backprojection line, count the number of intersections of the reference backprojection line and the reference backprojection line at each intersection, and determine the maximum intersection of the count value. Three-dimensional feature extracting means for determining the position of the three-dimensional feature point of interest, and for each feature point on the reference image, determining the position of each corresponding three-dimensional feature point on the object. Obtained as three-dimensional information of the object.

【0009】この発明の第4の観点による3次元情報入
力装置は、互いに異なる位置に配置され、物体を撮像し
てそれぞれ得られる画像を画像データとして出力するn
個、nは3以上の整数、のカメラ手段と、n個の上記カ
メラ手段からの画像データが与えられ、それぞれの画像
中の特徴点から上記物体の3次元情報を求める画像情報
処理手段と、を含み、上記画像情報処理手段は:上記画
像中の特徴点を抽出する特徴抽出手段と、n個の上記カ
メラの1つを基準カメラとし、上記基準カメラによって
生成された画像を基準画像とし、他のカメラを参照カメ
ラとし、それらによって生成された画像を参照画像と
し、上記基準カメラのレンズ中心と、上記物体上の着目
3次元特徴点に対応して選択した上記基準画像中の特徴
点とを通る逆投影線を基準逆投影線として求める基準逆
投影線生成手段と、上記参照カメラによる上記参照画像
上に上記基準逆投影線を射影してエピポーラ線をそれぞ
れ求めるエピポーラ線生成手段と、各上記参照カメラに
よる上記参照画像上の上記エピポーラ線上にある上記特
徴点と、上記参照カメラのレンズ中心とを通る逆投影線
を参照逆投影線として求める参照逆投影線生成手段と、
上記基準逆投影線と上記参照逆投影線の交差点の座標位
置をそれぞれ求め、上記基準逆投影線に沿った上記交差
点の分布に対し畳み込み処理により上記交差点の分布の
密集度を強調するフィルタ処理を行うフィルタ処理手段
と、上記フィルタ処理された交差点の分布が最大となる
位置を上記着目3次元特徴点の位置と判定する3次元特
徴抽出手段と、を含み、上記基準画像上のそれぞれの特
徴点に付いて、上記物体上の対応するそれぞれの3次元
特徴点の位置を上記物体の3次元情報として得る。
A three-dimensional information input device according to a fourth aspect of the present invention is arranged at different positions from each other, and outputs images obtained by imaging an object as image data.
Where n is an integer of 3 or more, and image data from the n camera units, and image information processing unit that obtains three-dimensional information of the object from feature points in each image; Wherein the image information processing means includes: a feature extraction means for extracting a feature point in the image; one of the n cameras as a reference camera; an image generated by the reference camera as a reference image; Another camera is used as a reference camera, an image generated by the camera is used as a reference image, and a lens center of the reference camera and a feature point in the reference image selected corresponding to the noted three-dimensional feature point on the object are Reference backprojection line generating means for obtaining a backprojection line passing through as a reference backprojection line, and epipolar lines for projecting the reference backprojection line onto the reference image by the reference camera to obtain epipolar lines, respectively. Generating means, reference backprojection line generating means for obtaining a backprojection line passing through the feature point on the epipolar line on the reference image by the reference camera and the lens center of the reference camera as a reference backprojection line, ,
A filter process for determining the coordinate position of the intersection of the reference backprojection line and the reference backprojection line, and emphasizing the density of the distribution of the intersection by convolution processing on the distribution of the intersection along the reference backprojection line. Filter processing means, and three-dimensional feature extraction means for determining a position where the distribution of the filtered intersection becomes the maximum as a position of the three-dimensional feature point of interest, and each feature point on the reference image. , The positions of the corresponding three-dimensional feature points on the object are obtained as three-dimensional information of the object.

【0010】[0010]

【作用】この発明の3次元動物体情報入力方法及び装置
では、射影幾何学的拘束を取り入れることにより逆投影
領域を大幅に絞り込むため、逆投影の干渉が最小に減少
され、少数枚の画像での逆投影により3次元情報を獲得
できる。従って、複数のカメラでの同時撮影により動物
体の時々刻々の3次元情報を得る場合、従来に比べて少
数のカメラで実現できる。
In the method and apparatus for inputting three-dimensional moving object information according to the present invention, the backprojection area is greatly narrowed by adopting the projection geometric constraint, so that the interference of backprojection is reduced to a minimum, and a small number of images are used. Can obtain three-dimensional information by back projection. Therefore, when obtaining three-dimensional information of a moving object every moment by simultaneous photographing with a plurality of cameras, it can be realized with a smaller number of cameras as compared with the related art.

【0011】[0011]

【実施例】以下、本発明の実施例に付いて図面を参照し
て詳細に説明する。図1は本発明の3次元情報入力装置
の一実施例の構成ブロック図である。3次元情報入力装
置は、画像入力部10と画像情報処理部20から構成さ
れている。画像入力部10はn個(nは3以上の整数)
の撮像部(例えばTVカメラ、以下単にカメラと呼ぶ)
111 〜11n と、A/D変換器121 〜12n と、フ
レームメモリ131〜13n と、カメラ制御部14と、
可動台15Aと、駆動装置15Bと、駆動制御部16と
から構成されている。カメラ111 〜11n は共通の可
動台15Aに互いに高さが異なるように取り付けられ相
対位置が保持されている。可動台15Aは駆動制御部1
6の制御のもとにロボットアームにより構成された駆動
装置15Bにより3次元移動可能とされている。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a block diagram showing the configuration of an embodiment of the three-dimensional information input device of the present invention. The three-dimensional information input device includes an image input unit 10 and an image information processing unit 20. N image input units 10 (n is an integer of 3 or more)
(For example, a TV camera, hereinafter simply referred to as a camera)
111 to 11n, A / D converters 121 to 12n, frame memories 131 to 13n, a camera control unit 14,
It comprises a movable base 15A, a drive device 15B, and a drive control unit 16. The cameras 111 to 11n are mounted on a common movable base 15A so as to have different heights, and their relative positions are maintained. The movable base 15A is a drive control unit 1.
Under the control of No. 6, three-dimensional movement is possible by a driving device 15B constituted by a robot arm.

【0012】カメラ111 〜11n は一定周期(フレー
ム周期)で同時に物体19を撮像し、アナログ画像信号
をそれぞれ出力する。物体が動いていなければ必ずしも
同時に撮像する必要はない。アナログ画像信号はA/D
変換器121 〜12n でディジタル信号に変換され、フ
レーム毎の画像データとしてフレームメモリ131 〜1
3n に蓄積される。これらカメラ、A/D変換器及びフ
レームメモリの動作はカメラ制御部14により制御され
る。画像情報処理部20はフレームメモリ131 〜13
n から読みだされた画像データが与えられ、以下に図2
を参照して説明する処理を行うことにより物体19の3
次元情報を求める。
The cameras 111 to 11n simultaneously image the object 19 at a fixed period (frame period) and output analog image signals. If the object is not moving, it is not always necessary to capture images at the same time. Analog image signal is A / D
The digital signals are converted into digital signals by the converters 121 to 12n, and are converted into image data for each frame.
3n. The operations of the camera, the A / D converter, and the frame memory are controlled by the camera control unit 14. The image information processing unit 20 includes frame memories 131 to 13
The image data read from n is given.
By performing the processing described with reference to FIG.
Find dimensional information.

【0013】図2はコンピュータで構成された画像情報
処理部20の処理手順を機能ブロックで示す。カメラ1
11 〜11n による物体19の画像入力時のカメラの位
置・姿勢情報が駆動制御部16から画像情報処理部20
のカメラ情報入力部21に入力される。一方、フレーム
メモリ131 〜13n から読みだされた画像データは特
徴抽出部22に供給される。特徴抽出部22は画像入力
部10から入力されたnフレームの画像から特徴点(例
えば、普通画像の等濃度点・領域、熱画像の等温点・領
域など)を抽出する。基準逆投影線生成部23は特徴点
が抽出されたnフレームの画像から任意の1つの画像を
基準画像として選び、その基準画像上の特徴点と、カメ
ラ情報入力部21により入力されたその基準画像を生成
したカメラ(基準カメラと呼ぶ)のレンズ中心を通る基
準逆投影線を求める。エピポーラ線生成部24は基準逆
投影線生成部23により生成された基準逆投影線を基準
カメラ以外のカメラ(参照カメラと呼ぶ)により生成さ
れた画像(参照画像と呼ぶ)面にそれぞれ投影して得ら
れるエピポーラ線をそれぞれ求める。参照逆投影線生成
部25はエピポーラ線生成部24により生成されたそれ
ぞれの参照画像上のエピポーラ線上あるいはそのエピポ
ーラ線から両側のある距離範囲内に存在する各特徴点
と、カメラ情報入力部21により入力されたそれらのエ
ピポーラ線に対応する参照カメラのレンズ中心とを通る
参照逆投影線を全て求める。交差抽出部26は基準逆投
影線生成部23により生成された基準逆投影線と、参照
逆投影線生成部25により生成された参照逆投影線との
全ての交点の座標を求める。交差カウント部27は基準
逆投影線に沿って、交差抽出部26により抽出された各
参照逆投影線とその基準逆投影線との交点または交差領
域における交差数をカウントする。フィルタリング部2
8は交差カウント部27によりカウントされた基準逆投
影線に沿った参照逆投影線との交差カウント分布に対し
て基準逆投影線に沿ってフィルタをかける。3次元特徴
抽出部29はフィルタ処理された交差点分布があるしき
い値を越すピーク位置に最も近い交差点を3次元特徴点
の位置として決定する。3次元動き抽出部2Aは3次元
特徴抽出部29により抽出された各時刻に置ける各3次
元特徴点・領域情報により各3次元特徴点・領域の動き
を求める。
FIG. 2 is a functional block diagram showing a processing procedure of the image information processing section 20 constituted by a computer. Camera 1
The position and orientation information of the camera at the time of image input of the object 19 by 11 to 11n is transmitted from the drive control unit 16 to the image information processing unit 20.
Is input to the camera information input unit 21 of the camera. On the other hand, the image data read from the frame memories 131 to 13n is supplied to the feature extracting unit 22. The feature extraction unit 22 extracts feature points (for example, iso-density points / regions of a normal image, iso-thermal points / regions of a thermal image, etc.) from n-frame images input from the image input unit 10. The reference back-projection line generation unit 23 selects any one of the n-frame images from which the feature points have been extracted as a reference image, and selects the feature points on the reference image and the reference points input by the camera information input unit 21. A reference backprojection line passing through the center of the lens of the camera that generated the image (referred to as a reference camera) is obtained. The epipolar line generation unit 24 projects the reference backprojection line generated by the reference backprojection line generation unit 23 onto an image (referred to as a reference image) surface generated by a camera other than the reference camera (referred to as a reference camera). Obtain the obtained epipolar lines. The reference back-projection line generation unit 25 uses the camera information input unit 21 with each feature point existing on the epipolar line on each reference image generated by the epipolar line generation unit 24 or within a certain distance range on both sides from the epipolar line. All the reference backprojection lines passing through the center of the reference camera corresponding to those input epipolar lines are obtained. The intersection extraction unit 26 calculates the coordinates of all the intersections between the reference backprojection line generated by the reference backprojection line generation unit 23 and the reference backprojection line generated by the reference backprojection line generation unit 25. The intersection counting unit 27 counts the number of intersections at the intersection or intersection area between each reference backprojection line extracted by the intersection extraction unit 26 and the reference backprojection line along the reference backprojection line. Filtering unit 2
8 filters the distribution of the intersection count with the reference backprojection line along the reference backprojection line counted by the intersection counting unit 27 along the reference backprojection line. The three-dimensional feature extraction unit 29 determines an intersection closest to the peak position where the filtered intersection distribution exceeds a certain threshold value as the position of the three-dimensional feature point. The three-dimensional motion extraction unit 2A obtains the motion of each three-dimensional feature point / region based on the three-dimensional feature point / region information at each time extracted by the three-dimensional feature extraction unit 29.

【0014】次にこのように構成されたこの発明の装置
の動作を図1、2、3を参照して説明する。図3にはそ
れぞれのカメラ111 〜11n の配置と、それぞれのカ
メラがそれぞれの焦点面上に形成した倒立像を便宜的に
レンズの前方に逆投影して整立像の画像32として示し
てある。まず、カメラ制御部14は入力時刻tからn個
のカメラ111 〜11n を同時に動作させ、得られたア
ナログ画像信号をn個のA/D変換器121 〜12n で
ディジタル画像信号に変換し、n個のフレームメモリ1
31 〜13n に取り込みそれぞれのメモリに1フレーム
の画像データを得る。カメラ情報入力部21は時刻tに
おけるカメラ情報をキャリブレーションで求める(例え
ばJ.Weng and P.Cohen and M.Herniou:“Calibration o
f stereocameras using a non-linear distortion mode
l ”, Proc.ICCV,pp.246-253, 1990)。
Next, the operation of the thus constructed apparatus of the present invention will be described with reference to FIGS. FIG. 3 shows the arrangement of the respective cameras 111 to 11n and the inverted image formed on each focal plane by the respective cameras as a set image 32 by backprojecting the inverted image to the front of the lens for convenience. First, the camera control unit 14 simultaneously operates the n cameras 111 to 11n from the input time t, and converts the obtained analog image signals into digital image signals by the n A / D converters 121 to 12n. Frame memories 1
The image data is taken into the memories 31 to 13n, and one frame of image data is obtained in each memory. The camera information input unit 21 obtains camera information at the time t by calibration (for example, J. Weng and P. Cohen and M. Herniou: “Calibration o
f stereocameras using a non-linear distortion mode
l ", Proc. ICCV, pp. 246-253, 1990).

【0015】特徴抽出部22により、図3に示す各画像
32上の特徴点(例えば画像の等濃度点・領域、微分画
像の等高線・領域、熱画像の等温点・領域など)が抽出
される。ここで、例えばCanny のフィルタ(Canny J.F.:
“A Computational approachto edge detection ”,IEE
E Trans. PAMI,Vol.8,No.6,pp.679-698,1986) で画像の
エッジを抽出して特徴点とする。次に、基準逆投影線生
成部23により任意の1フレームの画像32を基準画像
32s として選び、基準画像32s 上の着目した1つの
特徴点33s とカメラ情報入力部21により入力される
その画像と対応するカメラ(基準カメラ)のレンズの中
心31s とを通る逆投影線34s を求める。
The feature extraction unit 22 extracts feature points (for example, iso-density points / areas of an image, contour lines / areas of a differential image, isothermal points / areas of a thermal image, etc.) on each image 32 shown in FIG. . Here, for example, Canny's filter (Canny JF:
“A Computational approach to edge detection”, IEE
E Trans. PAMI, Vol. 8, No. 6, pp. 679-698, 1986) to extract image edges and use them as feature points. Next, an arbitrary one-frame image 32 is selected as a reference image 32s by the reference backprojection line generation unit 23, and one focused feature point 33s on the reference image 32s and the image input by the camera information input unit 21 are displayed. A back projection line 34s passing through the center 31s of the lens of the corresponding camera (reference camera) is determined.

【0016】逆投影線34s 上の任意の1点の座標(xb,
yb,zb)は次の方程式
The coordinates (x b ,
y b , z b ) is the following equation

【0017】[0017]

【数1】 を満足する。ここで、(xp,yp,zp)と(xc,yc,zc)はそれぞ
れ画像32s 上の着目特徴点と基準カメラのレンズ中心
31s の座標である。このような逆投影線34sを基準
逆投影線とする。基準逆投影線を参照カメラの画像に射
影して得られるエピポーラ線35上の任意の1点E=(x
e,ye) には次式
(Equation 1) To be satisfied. Here, (x p , y p , z p ) and (x c , y c , z c ) are the coordinates of the feature point of interest on the image 32s and the lens center 31s of the reference camera, respectively. Such a back projection line 34s is set as a reference back projection line. Any one point E = (x on the epipolar line 35 obtained by projecting the reference back projection line onto the image of the reference camera
e , y e )

【0018】[0018]

【数2】 のような関係式がある。ここで、RT'とT' はそれぞれ
座標系に対するカメラ光軸の回転を定義する行列の転置
行列と並行移動を定義するベクトルの2次元表現であ
る。B' =(xb,yb)Tは逆投影線上の任意一点の2次元表
現である。図3から明らかなように、基準逆投影線34
s は各参照カメラのレンズの中心31とその参照カメラ
によるエピポーラ線35を含む平面内に存在する。この
平面をそのカメラによるエピポーラ平面と呼ぶ。各カメ
ラのエピポーラ平面の延長面内に存在する物体19上の
3次元特徴点は全てそのカメラのエピポーラ線35上に
投影される。次に、参照逆投影線生成部25により、前
記求められたエピポーラ線35上の全ての特徴点33e
を捜し出す。エピポーラ線35上のこれらの特徴点33
e の1つは着目特徴点33s に対応している。実際に
は、画像の量子化誤差が存在するため、エピポーラ線3
5上にあるべき特徴点がそのエピポーラ線から外れる場
合がある。従って、エピポーラ線からある距離の範囲内
に存在する特徴点を該エピポーラ線35の特徴点33e
とみなす。次に、各参照カメラによる画像32のエピポ
ーラ線35上の各特徴点33e と、その参照カメラのレ
ンズの中心31とを通る逆投影線34を求め、このよう
な逆投影線34を参照逆投影線とする。次に、交差抽出
部26により、基準逆投影線生成部23により生成され
た基準逆投影線34s と参照逆投影線生成部25により
生成された参照逆投影線34の交点36の座標をそれぞ
れを求める。この際、画像32上の特徴抽出誤差とカメ
ラレンズ中心誤差が存在するため、実際に基準逆投影線
34s と参照逆投影線34が3次元空間において交差し
ない場合が多く生じる。この実施例では基準逆投影線3
4s と各参照逆投影線34間の最短距離を求め、この最
短距離が一定しきい値より小さければ該基準逆投影線3
4s と参照逆投影線34が交差するとみなす。
(Equation 2) There is a relational expression as follows. Here, R T ′ and T ′ are two-dimensional representations of a transpose matrix of a matrix defining rotation of the camera optical axis with respect to the coordinate system and a vector defining translation, respectively. B ′ = (x b , y b ) T is a two-dimensional representation of an arbitrary point on the back projection line. As is apparent from FIG.
s lies in the plane containing the center 31 of the lens of each reference camera and the epipolar line 35 from that reference camera. This plane is called the epipolar plane by the camera. All three-dimensional feature points on the object 19 existing in the extension plane of the epipolar plane of each camera are projected onto the epipolar line 35 of the camera. Next, the reference backprojection line generation unit 25 calculates all feature points 33e on the obtained epipolar line 35.
Find out. These feature points 33 on the epipolar line 35
One of e corresponds to the noted feature point 33s. Actually, since an image quantization error exists, the epipolar line 3
In some cases, a feature point that should be on 5 deviates from the epipolar line. Therefore, the feature points existing within a certain distance from the epipolar line are replaced with the feature points 33e of the epipolar line 35.
Consider Next, a back projection line 34 passing through each feature point 33e on the epipolar line 35 of the image 32 by each reference camera and the center 31 of the lens of the reference camera is obtained, and such a back projection line 34 is referred to as a back projection. A line. Next, the intersection extraction unit 26 calculates the coordinates of the intersection 36 between the reference backprojection line 34 s generated by the reference backprojection line generation unit 23 and the reference backprojection line 34 generated by the reference backprojection line generation unit 25. Ask. At this time, since the feature extraction error and the camera lens center error on the image 32 are present, the reference backprojection line 34s and the reference backprojection line 34 often do not intersect in the three-dimensional space. In this embodiment, the reference back projection line 3
4s and each reference backprojection line 34, and if this shortest distance is smaller than a certain threshold value, the reference backprojection line 3
4s and the reference backprojection line 34 are considered to intersect.

【0019】即ち、もし基準逆投影線34s 上の任意の
2点 Bb1=(xb1,yb1,zb1)T及びBb2=(xb2,yb2,zb2)T と、参照逆投影線上の任意の2点 Br1=(xr1,yr1,zr1)T及びBr2=(xr2,yr2,zr2)T で構成した行列
That is, if any two points B b1 = (x b1 , y b1 , z b1 ) T and B b2 = (x b2 , y b2 , z b2 ) T on the reference back projection line 34 s, Any two points on the projection line: a matrix composed of B r1 = (x r1 , y r1 , z r1 ) T and B r2 = (x r2 , y r2 , z r2 ) T

【0020】[0020]

【数3】 の階数が1であれば、これら2本の線は空間上で並行し
ないことがわかる。この場合は、それぞれ基準逆投影線
と参照逆投影線上にあって、かつ該2線間の最短距離を
あたえる2点(xbs, ybs, zbs)Tと(xrs, yrs, zrs)T
(Equation 3) If the rank of is 1, the two lines are not parallel in space. In this case, two points (x bs , y bs , z bs ) T and (x rs , y rs , z) on the reference back projection line and the reference back projection line, and giving the shortest distance between the two lines, respectively. rs ) T

【0021】[0021]

【数4】 で与えられる。ここで、 Kb=(GrH−Frb)/(Fbr−H2) Kr=(Fbr−GbH)/(Fbr−H2) Fb=(xb2-xb1)2+(yb2-yb1)2+(zb2-zb1)2r=(xr2-xr1)2+(yr2-yr1)2+(zr2-zr1)2b=(xb2-xb1)(xb1-xr1)+(yb2-yb1)(yb1-yr1)+(zb2-z
b1)(zb1-zr1) Gr=(xr2-xr1)(xr1-xb1)+(yr2-yr1)(yr1-yb1)+(zr2-z
r1)(zr1-zb1) H =(xb2-xb1)(xr1-xr2)+(yb2-yb1)(yr1-yr2)+(zb2-z
b1)(zr1-zr2) もしこれら2点間の距離dが次に示すようにしきい値λ
より小である条件 d=[(xbs-xrs)2+(ybs-yrs)2+(zbs-zrs)2]1/2<λ (6) を満足すれば、これら2点のそれぞれ存在する基準逆投
影線34s と参照逆投影線34が交差するとみなし、交
点36の位置の座標はこれら2点間の距離の中点 x=(xbs+xrs)/2 y=(ybs+yrs)/2 z=(zbs+zrs)/2 (7) とする。次に、交差カウント部27により、基準逆投影
線34s 上の各位置における全ての参照カメラからの参
照逆投影線34との交差数をカウントする。
(Equation 4) Given by Here, K b = (G r H -F r G b) / (F b F r -H 2) K r = (F b G r -G b H) / (F b F r -H 2) F b = (x b2 -x b1 ) 2 + (y b2 -y b1 ) 2 + (z b2 -z b1 ) 2 F r = (x r2 -x r1 ) 2 + (y r2 -y r1 ) 2 + ( z r2 -z r1 ) 2 G b = (x b2 -x b1 ) (x b1 -x r1 ) + (y b2 -y b1 ) (y b1 -y r1 ) + (z b2 -z
b1 ) (z b1 -z r1 ) G r = (x r2 -x r1 ) (x r1 -x b1 ) + (y r2 -y r1 ) (y r1 -y b1 ) + (z r2 -z
r1 ) (z r1 -z b1 ) H = (x b2 -x b1 ) (x r1 -x r2 ) + (y b2 -y b1 ) (y r1 -y r2 ) + (z b2 -z
b1) (z r1 -z r2) If, as shown the distance d between these two points then the threshold λ
If the condition d = [(x bs -x rs ) 2 + (y bs -y rs ) 2 + (z bs -z rs ) 2 ] 1/2 <λ (6) is satisfied, these 2 considers each reference backprojection line 34 and the reference backprojection line 34s in the presence of the point cross, the midpoint x = (x bs + x rs ) of the distance between the coordinate position of the intersection 36 of these two points / 2 y = ( y bs + y rs ) / 2 z = (z bs + z rs ) / 2 (7) Next, the intersection counting unit 27 counts the number of intersections with the reference backprojection lines 34 from all the reference cameras at each position on the reference backprojection line 34s.

【0022】ところで、2台(n=2)のカメラで撮影
した画像を用いる場合は、1本の基準逆投影線34s に
対して複数の参照逆投影線34が複数の異なる位置でそ
の基準逆投影線34s と交差することが起こり得る。そ
の場合、その基準逆投影線34s が通る特徴点33s と
対応する3次元特徴点がどの交差点に対応するがをユニ
ークに定めることができない。そこで以下のように考察
を行う。
When images taken by two (n = 2) cameras are used, a plurality of reference backprojection lines 34 are provided at a plurality of different positions with respect to one reference backprojection line 34s. Intersecting with the projection line 34s can occur. In this case, it is not possible to uniquely determine which intersection the three-dimensional feature point corresponding to the feature point 33s through which the reference backprojection line 34s passes corresponds, but which does not. Therefore, the following is considered.

【0023】1つのカメラから着目した特徴点に逆投影
した直線34s により規定される他のそれぞれのカメラ
のエピポーラ線上の特徴点の数を簡単のためそれぞれ等
しくMとする。各カメラによる画像上のエピポーラ線上
のM個の特徴点のうちの1つのみが着目特徴点に対応し
ているか、あるいはいずれも対応していない。ここでは
各エピポーラ線上のM個の特徴点の1つが着目特徴点に
対応しているものとする。従って1つの参照カメラによ
りM本の参照逆投影線が得られ、これらM本の参照逆投
影線と基準逆投影線とのM個の交差点の任意の1つが着
目特徴点である確率βはβ=1/Mである。他の参照カ
メラに付いても同様である。従って、基準逆投影線34
s 上の任意の交差点で全ての参照カメラからのそれぞれ
1本ずつの参照逆投影線が交差する確率αはα=βn-1
となる。参照カメラのエピポーラ線上に特徴点が1つし
かない場合(M=1)は、その特徴点が着目特徴点に対
応しており、その特徴点とカメラレンズ中心とを通る参
照逆投影線は着目特徴点と交差するので問題はない。問
題となるのは各参照カメラからの参照逆投影線の数Mが
2以上ある場合なのでβ=1/Mの値は0から0.5まで
を考慮すればよい。
The number of feature points on the epipolar line of each of the other cameras defined by the straight line 34s back-projected from one camera to the feature point of interest is assumed to be equal to M for simplicity. Only one of the M feature points on the epipolar line on the image from each camera corresponds to the feature point of interest, or none of them. Here, it is assumed that one of the M feature points on each epipolar line corresponds to the feature point of interest. Therefore, M reference backprojection lines are obtained by one reference camera, and the probability β that any one of the M intersections of the M reference backprojection lines and the reference backprojection line is the feature point of interest is β = 1 / M. The same applies to other reference cameras. Therefore, the reference back projection line 34
The probability α that one reference backprojection line from each reference camera intersects at an arbitrary intersection on s is α = β n-1
Becomes When there is only one feature point on the epipolar line of the reference camera (M = 1), the feature point corresponds to the feature point of interest, and the reference back-projection line passing through the feature point and the center of the camera lens is of interest. There is no problem because it intersects with the feature point. A problem arises when the number M of reference backprojection lines from each reference camera is 2 or more, so the value of β = 1 / M may be considered from 0 to 0.5.

【0024】図4は0<β≦0.5の範囲の様々なβの値
に対し(n−1)個の参照カメラからの(n−1)本の
参照逆投影線が基準逆投影線上の1点で交差する確率α
の計算値をグラフで示す。このグラフから明らかなよう
に、β=0.5の場合でも全カメラの数(視点数)nが6
以上であれば、基準逆投影線上の1点で参照カメラから
の5本の参照逆投影線が交差する確率αは(0.5)5=0.03
と無視できる程度に小さくなる。n=5(参照カメラ数
は4)の場合でもα=0.06と非常に小さい。即ち、着目
特徴点においてそれぞれの参照カメラからの複数の参照
逆投影線が偶然に交差する可能性はカメラの数nと共に
急激に減少する。逆に、もし基準逆投影線上のある点に
おいて実際に交差する参照逆投影線の数が複数(例えば
4本以上)あった場合、その交差点が着目特徴点である
可能性が非常に高いことを意味している。そこで、前述
のように交差カウント部27で基準逆投影線34s 上の
各点において交差する参照逆投影線の数(単に交差数と
呼ぶ)を計数し、3次元特徴点抽出部29で最大の交差
数を与えた位置を求めれば着目3次元特徴点の位置をユ
ニークに決めることができる。この様にして物体19上
の任意の3次元特徴点を基準逆投影線上の1つの交差点
と対応させることができる。
FIG. 4 shows that for various values of β in the range 0 <β ≦ 0.5, (n−1) reference backprojection lines from (n−1) reference cameras are on the reference backprojection line. Probability of intersection at one point α
Is shown in a graph. As is clear from this graph, even when β = 0.5, the number of all cameras (the number of viewpoints) n is 6
If this is the case, the probability α that five reference backprojection lines from the reference camera intersect at one point on the reference backprojection line is (0.5) 5 = 0.03
And become negligibly small. Even when n = 5 (the number of reference cameras is 4), α is as small as 0.06. That is, the possibility that a plurality of reference backprojection lines from each reference camera accidentally intersect at the feature point of interest sharply decreases with the number n of cameras. Conversely, if the number of reference backprojection lines that actually intersect at a certain point on the reference backprojection line is plural (for example, four or more), it is very likely that the intersection is the feature point of interest. Means. Therefore, as described above, the number of reference backprojection lines (simply called the number of intersections) intersecting at each point on the reference backprojection line 34 s is counted by the intersection counting unit 27, and the maximum If the position given the number of intersections is obtained, the position of the focused three-dimensional feature point can be uniquely determined. In this way, an arbitrary three-dimensional feature point on the object 19 can be made to correspond to one intersection on the reference back projection line.

【0025】以上のことから、この発明の原理によれば
nの値を3以上に選ぶが、好ましい1実施例では6つの
異なる視点、即ち6台のカメラを用いる。この様に構成
することにより、あるカメラから観察したときに物体1
9自身に遮蔽されて観察されない部分の3次元特徴点
も、他の複数のカメラにより観察できる可能性が高くな
り、従ってそのような3次元特徴点の位置を決定するこ
とが出来る。実際の測定においては、図5A,5Bに示
すように画像32上の特徴点33とカメラレンズ中心3
1の位置誤差によって逆投影線が真の方向からずれるこ
とがある。例えば、各カメラにより得られた画像データ
により構成された画像32は、画像の画素による量子化
処理を受けているので、画像上の各特徴点の位置は画素
による量子化誤差を含んでいる。従って、図5Aに示す
ように、参照カメラによる画像32上の真の特徴点33
の位置Pが量子化誤差によりP' にずれたとすると、参
照逆投影線34はレンズ中心31を中心に回転シフトし
てずれるため、基準逆投影線34s 上の真の特徴点Bは
B' (基準逆投影線上とは限らない)にあるものと判断
される。あるいは図5Bに示すように、真のカメラレン
ズ中心Lに対し測定して決めたレンズ中心がL' にずれ
ていたとすると、基準逆投影線34s 上の真の3次元特
徴点BはB" にあるものと判断される。
From the above, according to the principle of the present invention, the value of n is selected to be 3 or more. In a preferred embodiment, six different viewpoints, that is, six cameras are used. With such a configuration, the object 1 can be viewed from a certain camera.
There is a high possibility that the three-dimensional feature point of the part which is not observed because of being covered by the camera 9 itself will be more likely to be observed by other cameras, and therefore the position of such three-dimensional feature point can be determined. In the actual measurement, as shown in FIGS. 5A and 5B, the feature point 33 on the image 32 and the camera lens center 3
The back projection line may deviate from the true direction due to the position error of 1. For example, since the image 32 composed of the image data obtained by each camera has been subjected to the quantization processing by the pixels of the image, the position of each feature point on the image includes the quantization error by the pixels. Therefore, as shown in FIG. 5A, the true feature points 33 on the image 32 by the reference camera are displayed.
Is shifted to P 'due to a quantization error, the reference backprojection line 34 is shifted by being rotationally shifted about the lens center 31, so that the true feature point B on the reference backprojection line 34s is B' ( (Not necessarily on the reference backprojection line). Alternatively, as shown in FIG. 5B, if the lens center determined by measuring with respect to the true camera lens center L is shifted to L ′, the true three-dimensional feature point B on the reference back projection line 34 s becomes B ″. It is determined that there is.

【0026】この2つ誤差の影響による参照逆投影線3
4のずれのため、物体上の同一3次元特徴点から各画像
に写された特徴点33とそれに対応するカメラレンズ中
心31を通る参照逆投影線34は、この3次元特徴点が
真に存在するところから外れて交差する可能性がある。
その結果、ずれた点B' またはB" が基準逆投影線34
s からしきい値距離内にあれば、交差カウント部27に
より交差数をカウントする際、基準逆投影線34s 上の
真の着目3次元特徴点Bとは異なる交差点位置でカウン
トされる可能性がある。そのような場合、直接3次元特
徴点抽出部29でしきい値処理により所定計数値を越え
た最大の計数値を与えた交差点の位置を3次元特徴点の
位置として抽出すると、着目3次元特徴点以外の3次元
特徴点が疑似3次元特徴点として抽出されてしまう可能
性がある。しかしながら、これらの逆投影線の誤差の方
向と大きさはランダムなので、実際に得られる離散的で
広がりを持つカウントの分布において、交差の集中して
いる中央部のところは、真の着目3次元特徴点の存在す
る可能性が最も高いところであると推定できる。そこ
で、フィルタリング部28により交差を求めた基準逆投
影線34s に沿ってフィルタをかけ、交差カウントの分
布を交差の集中しているところで強調することで、疑似
3次元特徴点の誤抽出を減らすことが出来る。使用する
フィルタの例としては、スクエアフィルタ、トライアン
ギュラフィルタ、ガウシアンフィルタ、ラプラシアン−
ガウシアンフィルタ、等が可能である。
Reference back projection line 3 due to the influence of these two errors
Because of the shift of 4, the reference back projection line 34 that passes through the camera lens center 31 and the corresponding feature point 33 that is projected on each image from the same three-dimensional feature point on the object is such that the three-dimensional feature point truly exists. There is a possibility of crossing out of where you do.
As a result, the displaced point B 'or B "
If the intersection number is within the threshold distance from s, there is a possibility that when the number of intersections is counted by the intersection counting unit 27, the intersection number may be counted at an intersection position different from the true focused three-dimensional feature point B on the reference back projection line 34s. is there. In such a case, if the position of the intersection where the maximum count value exceeding the predetermined count value is given as the position of the three-dimensional feature point is directly extracted by the threshold value processing in the three-dimensional feature point extraction unit 29, the three-dimensional feature point of interest is extracted. There is a possibility that three-dimensional feature points other than points may be extracted as pseudo three-dimensional feature points. However, since the direction and magnitude of the error of these back projection lines are random, in the actually obtained distribution of discrete and widened counts, the central part where the intersections are concentrated is a true three-dimensional target. It can be estimated that the feature points are most likely to be present. Therefore, filtering is performed along the reference backprojection line 34 s at which the intersection is found by the filtering unit 28, and the distribution of the intersection count is emphasized where the intersection is concentrated, thereby reducing false extraction of pseudo three-dimensional feature points. Can be done. Examples of filters used include a square filter, a triangular filter, a Gaussian filter, and a Laplacian filter.
Gaussian filters, etc. are possible.

【0027】図6Aに示すような基準逆投影線34s に
沿った交差カウント51の離散的分布P(s)に対し、関
数f(t)によるフィルタ処理を行うには、次式 P'(s)=∫P(s-t)・f(t)dt (8) による畳み込み演算を行えばよい。ここで、P(s) と
P'(s)はそれぞれフィルタ関数f(t)を畳み込む前と後
の逆投影線交差カウントの分布であり、sは基準逆投影
線34s に沿った位置を表す。フィルタ関数f(t)とし
ては前述のような各種のフィルタの関数を使うことが出
来る。この実施例では図6Bに示すような特性を有する
ラプラシアン−ガウシアンフィルタ( ▽2Gフィルタと
呼ばれる)52を基準逆投影線34sに沿って交差カウ
ント51の分布P(s)に対して畳込みを行う。▽2G フ
ィルタは高周波の離散的なノイズを抑えながら連続して
いる波形のピークを強調する特性を有するので、この畳
み込み処理により離散的な交差カウントが抑えられ、集
中している交差のカウントのピークが図6Cに示すよう
に強調される。このため、次に3次元特徴抽出部29で
基準逆投影線34s 上の交差カウントピーク51p を検
出し、そのピーク位置に最も近い交差点を着目3次元特
徴点の位置であると判定することにより、疑似3次元特
徴点の誤抽出を防ぐことができる。
To filter the discrete distribution P (s) of the cross counts 51 along the reference back projection line 34s as shown in FIG. 6A by the function f (t), the following equation P '(s ) = ∫P (st) · f (t) dt (8) The convolution operation may be performed. Here, P (s) and P ′ (s) are distributions of the backprojection line intersection count before and after convolution of the filter function f (t), respectively, and s represents a position along the reference backprojection line 34s. . Various filter functions as described above can be used as the filter function f (t). In this embodiment, a Laplacian-Gaussian filter (referred to as a ▽ 2 G filter) 52 having a characteristic as shown in FIG. 6B is convolved with the distribution P (s) of the intersection count 51 along the reference backprojection line 34 s. Do. ▽ Since 2 G filter has a characteristic emphasizing peaks of the waveform are continuous while suppressing the high-frequency discrete noise, the convolution discrete intersection counts is suppressed by the processing, concentrate on the intersection of the count are Peaks are highlighted as shown in FIG. 6C. Therefore, the three-dimensional feature extraction unit 29 next detects the intersection count peak 51p on the reference back projection line 34s, and determines that the intersection closest to the peak position is the position of the focused three-dimensional feature point. It is possible to prevent false extraction of pseudo three-dimensional feature points.

【0028】上述のようにして基準逆投影線34s 上に
それぞれの参照カメラからの参照逆投影線34との交点
が規定され、各交点に於ける交差の数をカウントする
が、実際には前述のようにレンズ中心誤差あるいは特徴
点の画素量子化誤差のため、真の着目3次元特徴点に対
応する各参照カメラからの参照逆投影線34の基準逆投
影線34s との交点は厳密には1点とならない。そこ
で、各交差点に於ける交差の数をカウントするには、予
め決めた一定の微小長Δs を単位長として基準逆投影線
34s をその長さ方向に単位長毎に区切って、各単位長
Δs 内の交差数をカウントすればよい。この場合、単位
長Δs を小さく選ぶほど、交差点に対する分解能が高く
なるため、基準逆投影線34s 上の同一位置の単位長Δ
s 内に含まれる交差の数は減少することになる。全ての
交差点が分離される程度まで単位長Δs を小さくした場
合は、各交差点での最大交差数は1となってしまい、ユ
ニークに着目3次元特徴点を同定することができなくな
る。しかしながら、この場合でも例えば図6Aに示した
ように交差点は着目3次元特徴点近傍に密集するので、
交差点の離散的分布に対し前述のようなフィルタによる
畳み込み処理を行えば交差点の密集領域の中央にピーク
が得られ、そのピークの位置に最も近い交差点を真の3
次元特徴点の位置を判定することができる。
As described above, the intersection with the reference backprojection line 34 from each reference camera is defined on the reference backprojection line 34s, and the number of intersections at each intersection is counted. Because of the lens center error or the pixel quantization error of the feature point as shown in the following, the intersection of the reference backprojection line 34 from each reference camera corresponding to the true focused three-dimensional feature point with the reference backprojection line 34 s is strictly Not one point. Therefore, in order to count the number of intersections at each intersection, the reference backprojected line 34s is divided into unit lengths in the length direction using a predetermined small length Δs as a unit length, and each unit length Δs What is necessary is just to count the number of intersections inside. In this case, the smaller the unit length Δs is selected, the higher the resolution with respect to the intersection becomes. Therefore, the unit length Δ at the same position on the reference back projection line 34 s
The number of intersections contained in s will be reduced. If the unit length Δs is reduced to such a degree that all the intersections are separated, the maximum number of intersections at each intersection is 1, and it is not possible to uniquely identify the focused three-dimensional feature point. However, even in this case, for example, as shown in FIG. 6A, the intersections are dense near the focused three-dimensional feature point.
If the convolution processing by the above-described filter is performed on the discrete distribution of intersections, a peak is obtained at the center of the dense area of the intersection, and the intersection closest to the peak position is set to true 3
The position of the dimensional feature point can be determined.

【0029】基準画像32s 上の他の全ての特徴点33
s のそれぞれについて前記処理を繰り返すことにより、
基準画像32s 上の全ての特徴点33s に対応する全て
の3次元特徴点36t の座標を決定することができる。
その際、着目3次元特徴点と対応すると判定した位置に
おいて互いに交差する逆投影線はその着目3次元特徴点
だけと関連するものであることから、他の3次元特徴点
を求める際、直前に座標が決定された3次元特徴点と対
応する画像32、32s 上の特徴点33、33s をそれ
ぞれの画像から除去することで逆投影の干渉と計算量を
削減できる。また、他の画像を基準画像として選び、前
記処理を全ての画像が選ばれるまで繰り返すことによ
り、全ての視点から得られた画像上の特徴点と対応する
3次元特徴点の位置を求めることができる。
All other feature points 33 on the reference image 32s
By repeating the above process for each of s
The coordinates of all three-dimensional feature points 36t corresponding to all feature points 33s on the reference image 32s can be determined.
At this time, since the back projection lines that intersect each other at the position determined to correspond to the target three-dimensional feature point are related only to the target three-dimensional feature point, when the other three-dimensional feature points are obtained, By removing feature points 33 and 33s on the images 32 and 32s corresponding to the three-dimensional feature points whose coordinates have been determined from the respective images, it is possible to reduce the interference of backprojection and the amount of calculation. Further, by selecting another image as a reference image and repeating the above processing until all images are selected, it is possible to obtain the positions of the three-dimensional feature points corresponding to the feature points on the images obtained from all viewpoints. it can.

【0030】最後に3次元動き抽出部2Aは、3次元特
徴抽出部29から得られた3次元特徴点情報の時間的変
化を求めることにより動物体の3次元動き情報を抽出す
る。この具体的な方法として、2次元の動き情報抽出方
法(例えば、R.Agarwal andJ. Sklansky : Optical flo
w estimation by the clustering of constraint sets
in velocity space,Technical Report TP-91-2,Departm
ent of Electrical and Computer Engineering, Patter
n Recognition and Image Modelling Project, Univers
ity of California, Irvine,CA,USA )を3次元に拡張
した方法で実現できる。
Finally, the three-dimensional motion extracting unit 2A extracts three-dimensional motion information of the moving object by obtaining a temporal change of the three-dimensional feature point information obtained from the three-dimensional feature extracting unit 29. As a specific method, a two-dimensional motion information extraction method (for example, R. Agarwal and J. Sklansky: Optical flo
w estimation by the clustering of constraint sets
in velocity space, Technical Report TP-91-2, Departm
ent of Electrical and Computer Engineering, Patter
n Recognition and Image Modeling Project, Univers
ity of California, Irvine, CA, USA) to a three-dimensionally extended method.

【0031】また、3次元動き抽出部2Aにより抽出さ
れた3次元特徴点の動きを画像入力部10の駆動制御部
16に与え、次の視点をプランし、駆動部15を動作さ
せ、複数の撮像部111 〜11n を移動させると同時
に、入力時刻t+wにおける駆動部15の移動量を測定
し、カメラ情報入力部に与える。このような操作を繰り
返すことにより、動物体の追跡も可能である。
The motion of the three-dimensional feature points extracted by the three-dimensional motion extraction unit 2A is given to the drive control unit 16 of the image input unit 10, the next viewpoint is planned, the drive unit 15 is operated, and a plurality of At the same time as the imaging units 111 to 11n are moved, the amount of movement of the driving unit 15 at the input time t + w is measured and given to the camera information input unit. By repeating such an operation, it is possible to track the moving object.

【0032】[0032]

【発明の効果】以上で説明したように、本発明は、射影
幾何学的拘束を採り入れることにより逆投影領域を大幅
に絞り込むため、逆投影の干渉が最小に減少され、少数
枚の画像での逆投影により3次元情報を獲得できる。従
って、少数台のカメラでの同時撮影により動物体の時々
刻々の3次元形状を復元できる。
As described above, the present invention greatly reduces the backprojection area by adopting the projection geometric constraint, so that the interference of the backprojection is reduced to a minimum and the number of images in a small number of images is reduced. Three-dimensional information can be obtained by back projection. Therefore, the three-dimensional shape of the moving object can be restored every moment by simultaneous photographing with a small number of cameras.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明による3次元情報入力装置の実施例の
構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of an embodiment of a three-dimensional information input device according to the present invention.

【図2】図1における画像処理部20の詳細を説明する
ための処理ブロック図。
FIG. 2 is a processing block diagram for explaining details of an image processing unit 20 in FIG. 1;

【図3】この発明の原理を説明するための逆投影線図。FIG. 3 is a back projection diagram for explaining the principle of the present invention.

【図4】同一点で参照逆投影線が交差する確率を説明す
るための立体グラフ。
FIG. 4 is a stereograph for explaining the probability that reference backprojection lines intersect at the same point.

【図5】Aは画像における特徴点の画素量子化誤差を説
明する斜視図、Bはレンズ中心の誤差を説明するための
斜視図。
5A is a perspective view illustrating a pixel quantization error of a feature point in an image, and FIG. 5B is a perspective view illustrating an error of a lens center.

【図6】Aは基準逆投影線上の交差分布を示す図、Bは
フィルタの特性の例を示す図、Cはフィルタ処理を受け
た交差分布の例を示す図。
6A is a diagram illustrating an intersection distribution on a reference backprojection line, FIG. 6B is a diagram illustrating an example of a characteristic of a filter, and FIG. 6C is a diagram illustrating an example of an intersection distribution subjected to a filtering process.

【符号の説明】[Explanation of symbols]

10 画像入力部 111 〜11n カメラ 15A 可動台 15B 駆動装置 19 物体 31 レンズ中心 32 画像 33 特徴点 34 逆投影線 35 エピポーラ線 36 交差点 DESCRIPTION OF SYMBOLS 10 Image input part 111-11n Camera 15A Movable base 15B Drive 19 Object 31 Lens center 32 Image 33 Feature point 34 Back projection line 35 Epipolar line 36 Intersection

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G06T 7/00 G06F 15/68 400A (56)参考文献 特開 昭63−10280(JP,A) 特開 昭61−125686(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 102 G06T 1/00 G06T 5/20 G06T 7/00 G06T 7/60 ──────────────────────────────────────────────────の Continuation of the front page (51) Int.Cl. 7 Identification code FI G06T 7/00 G06F 15/68 400A (56) References JP-A-63-10280 (JP, A) JP-A-61-125686 ( JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G01B 11/00-11/30 102 G06T 1/00 G06T 5/20 G06T 7/00 G06T 7/60

Claims (22)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数のカメラにより物体を撮像して画像
を得て、上記物体上の3次元特徴点をそれぞれの上記画
像中の特徴点と対応させることにより上記物体の3次元
情報を得る3次元情報入力方法であり、以下のステップ
を含む: (a) n個、nは3以上の整数、のカメラで物体をそれぞ
れ撮像してnフレームの画像を得て、それらの画像を画
像データとして出力し、 (b) 上記画像データが与えられ、上記nフレームの画像
上における上記物体の特徴点をそれぞれ抽出し、 (c) n個の上記カメラの1つを基準カメラとして選択
し、上記基準カメラによって生成された画像を基準画像
とし、他のカメラを参照カメラとし、それらによって生
成された画像を参照画像とし、上記基準カメラのレンズ
中心と、上記物体上の着目3次元特徴点に対応して選択
した上記基準画像中の特徴点とを通る逆投影線を基準逆
投影線として規定し、 (d) 上記参照カメラによる上記参照画像上に上記基準逆
投影線を射影してエピポーラ線をそれぞれ規定し、 (e) 各上記参照カメラによる上記参照画像上の上記エピ
ポーラ線上にある上記特徴点と、上記参照カメラのレン
ズ中心とを通る逆投影線を参照逆投影線として規定し、 (f) 上記基準逆投影線と上記参照逆投影線の交差点の座
標位置をそれぞれ求め、それぞれの交差点における上記
基準逆投影線と上記参照逆投影線との交差数を計数し、
計数値の最大の交差点を上記着目3次元特徴点の位置と
判定し、 (g) 一連の上記ステップ(c) 〜(f) を上記基準画像上の
それぞれの特徴点に付いて繰り返すことにより、上記物
体上のそれぞれの3次元特徴点の位置を上記物体の3次
元情報として得る。
An image is obtained by capturing an object with a plurality of cameras, and three-dimensional feature points on the object are made to correspond to feature points in each of the images to obtain three-dimensional information on the object. A method for inputting dimensional information, including the following steps: (a) Obtaining n-frame images by imaging objects with n cameras, where n is an integer of 3 or more, and using those images as image data (B) receiving the image data, extracting feature points of the object on the n-frame image, respectively, and (c) selecting one of the n cameras as a reference camera. The image generated by the camera is used as a reference image, the other cameras are used as reference cameras, and the images generated by the cameras are used as reference images, corresponding to the lens center of the reference camera and the noted three-dimensional feature point on the object. Select A backprojection line passing through the selected feature point in the reference image is defined as a reference backprojection line, and (d) the reference backprojection line is projected onto the reference image by the reference camera to define an epipolar line. (E) defining a backprojection line passing through the feature point on the epipolar line on the reference image by the reference camera and the lens center of the reference camera as a reference backprojection line; Determine the coordinate position of the intersection of the reference backprojection line and the reference backprojection line, count the number of intersections of the reference backprojection line and the reference backprojection line at each intersection,
By determining the maximum intersection of the count value as the position of the three-dimensional feature point of interest, (g) repeating a series of the steps (c) to (f) for each feature point on the reference image, The position of each three-dimensional feature point on the object is obtained as three-dimensional information of the object.
【請求項2】 複数のカメラにより物体を撮像して画像
を得て、上記物体上の3次元特徴点をそれぞれの上記画
像中の特徴点と対応させることにより上記物体の3次元
情報を得る3次元情報入力方法であり、以下のステップ
を含む: (a) n個、nは3以上の整数、のカメラで物体をそれぞ
れ撮像してnフレームの画像を得て、それらの画像を画
像データとして出力し、 (b) 上記画像データが与えられ、上記nフレームの画像
上における上記物体の特徴点をそれぞれ抽出し、 (c) n個の上記カメラの1つを基準カメラとして選択
し、上記基準カメラによって生成された画像を基準画像
とし、他のカメラを参照カメラとし、それらによって生
成された画像を参照画像とし、上記基準カメラのレンズ
中心と、上記物体上の着目3次元特徴点に対応して選択
した上記基準画像中の特徴点とを通る逆投影線を基準逆
投影線として規定し、 (d) 上記参照カメラによる上記参照画像上に上記基準逆
投影線を射影してエピポーラ線をそれぞれ規定し、 (e) 各上記参照カメラによる上記参照画像上の上記エピ
ポーラ線上にある上記特徴点と、上記参照カメラのレン
ズ中心とを通る逆投影線を参照逆投影線として規定し、 (f) 上記基準逆投影線と上記参照逆投影線の交差点の座
標位置をそれぞれ求め、上記基準逆投影線に沿った上記
交差点の分布に対し畳み込み処理により上記交差点の分
布の密集度を強調するフィルタ処理を行い、そのフィル
タ処理された交差点の分布が最大となる位置を上記着目
3次元特徴点の位置と判定し、 (g) 一連の上記ステップ(c) 〜(f) を上記基準画像上の
それぞれの特徴点に付いて繰り返すことにより、上記物
体上のそれぞれの3次元特徴点の位置を上記物体の3次
元情報として得る。
2. Obtaining an image by imaging an object with a plurality of cameras and obtaining three-dimensional information on the object by associating three-dimensional feature points on the object with feature points in each of the images. A method for inputting dimensional information, including the following steps: (a) Obtaining n-frame images by imaging objects with n cameras, where n is an integer of 3 or more, and using those images as image data (B) receiving the image data, extracting feature points of the object on the n-frame image, respectively, and (c) selecting one of the n cameras as a reference camera. The image generated by the camera is used as a reference image, the other cameras are used as reference cameras, and the images generated by the cameras are used as reference images, corresponding to the lens center of the reference camera and the noted three-dimensional feature point on the object. Select A backprojection line passing through the selected feature point in the reference image is defined as a reference backprojection line, and (d) the reference backprojection line is projected onto the reference image by the reference camera to define an epipolar line. (E) defining a backprojection line passing through the feature point on the epipolar line on the reference image by the reference camera and the lens center of the reference camera as a reference backprojection line; The coordinate position of the intersection of the reference backprojection line and the reference backprojection line is obtained, and the distribution of the intersection along the reference backprojection line is subjected to convolution processing to perform filter processing to emphasize the density of the distribution of the intersection. Determining the position where the distribution of the filtered intersection becomes the maximum as the position of the noted three-dimensional feature point, and (g) performing a series of the steps (c) to (f) on the reference image. Repetition By returning, the position of each three-dimensional feature point on the object is obtained as three-dimensional information of the object.
【請求項3】 請求項1または2に記載の3次元情報入
力方法において、上記基準逆投影線上の位置はその長さ
方向に予め決めた単位長毎に区切られて規定されてお
り、上記交差点での交差数は上記参照逆投影線が通る上
記基準逆投影線上の位置の上記単位長内の交差数であ
る。
3. The three-dimensional information input method according to claim 1, wherein the position on the reference backprojection line is defined in units of a predetermined unit length in the length direction, and the intersection is defined. Is the number of intersections within the unit length at the position on the reference backprojection line through which the reference backprojection line passes.
【請求項4】 請求項3に記載の3次元情報入力方法に
おいて、上記基準逆投影線と交差する任意の上記参照逆
投影線は上記基準逆投影線からの距離が予め決めた範囲
内にある参照逆投影線である。
4. The three-dimensional information input method according to claim 3, wherein any reference backprojection line intersecting with the reference backprojection line has a distance from the reference backprojection line within a predetermined range. Reference backprojection line.
【請求項5】 請求項1に記載の3次元情報入力方法に
おいて、上記交差数を計数するステップは上記基準逆投
影線に沿った上記交差の分布に対し畳み込み処理により
上記交差の分布の密集度を強調するフィルタ処理を行
い、そのフィルタ処理された交差の分布が最大となる位
置を上記着目3次元特徴点の位置と判定するステップで
ある。
5. The three-dimensional information input method according to claim 1, wherein the step of counting the number of intersections is performed by convoluting the distribution of the intersections along the reference backprojection line. This is a step of performing a filter process for emphasizing, and determining the position where the distribution of the filtered intersection becomes the maximum as the position of the noted three-dimensional feature point.
【請求項6】 請求項2または5に記載の3次元情報入
力方法において、上記フィルタ処理はラプラシアン−ガ
ウシアンフィルタによる処理である。
6. The three-dimensional information input method according to claim 2, wherein the filter processing is processing by a Laplacian-Gaussian filter.
【請求項7】 請求項2または5に記載の3次元情報入
力方法において、上記フィルタ処理はスクエアフィルタ
による処理である。
7. The three-dimensional information input method according to claim 2, wherein the filter processing is processing using a square filter.
【請求項8】 請求項2または5に記載の3次元情報入
力方法において、上記フィルタ処理はトライアンギュラ
フィルタによる処理である。
8. The three-dimensional information input method according to claim 2, wherein the filtering is performed by a triangular filter.
【請求項9】 請求項2または5に記載の3次元情報入
力方法において、上記フィルタ処理はガウシアンフィル
タによる処理である。
9. The three-dimensional information input method according to claim 2, wherein the filter processing is processing using a Gaussian filter.
【請求項10】 請求項1または2に記載の3次元情報
入力方法において、上記一連のステップを繰り返すステ
ップ(g) は上記一連のステップを実行して着目3次元特
徴点と対応する特徴点を同定する毎に、同定した特徴点
を以下の上記一連のステップの繰り返しにおける処理対
象から除去するステップを含む。
10. The three-dimensional information input method according to claim 1, wherein the step (g) of repeating the series of steps includes executing the series of steps to determine a feature point corresponding to the focused three-dimensional feature point. For each identification, the method includes a step of removing the identified feature point from a processing target in a repetition of the following series of steps.
【請求項11】 請求項1または2に記載の3次元情報
入力方法において、上記カメラの数nは5以上8以内で
ある。
11. The three-dimensional information input method according to claim 1, wherein the number n of the cameras is 5 or more and 8 or less.
【請求項12】 請求項1または2に記載の3次元情報
入力方法において、上記ステップ(g) を完了する毎に上
記参照カメラの1つを新たな基準カメラとし、上記基準
カメラを新たな参照カメラとして、新たにステップ(g)
を実行することを全ての上記カメラに付いて繰り返すス
テップを含む。
12. The three-dimensional information input method according to claim 1, wherein one of the reference cameras is set as a new reference camera each time the step (g) is completed, and the reference camera is set as a new reference camera. New step (g) as a camera
Is repeated for all the cameras.
【請求項13】 請求項1または2に記載の3次元情報
入力方法において、n個の上記カメラによる上記物体の
撮像を同時に行うことを一定周期で繰り返す毎に上記一
連のステップに従って上記物体の3次元情報を得るステ
ップを含む。
13. The three-dimensional information input method according to claim 1, wherein the imaging of the object by the n cameras is simultaneously performed at regular intervals, and the three-dimensional information of the object is determined according to the series of steps. Obtaining dimensional information.
【請求項14】 互いに異なる位置に配置され、物体を
撮像してそれぞれ得られる画像を画像データとして出力
するn個、nは3以上の整数、のカメラ手段と、 n個の上記カメラ手段からの画像データが与えられ、そ
れぞれの画像中の特徴点から上記物体の3次元情報を求
める画像情報処理手段と、を含み、上記画像情報処理手
段は:上記画像中の特徴点を抽出する特徴抽出手段と、 n個の上記カメラの1つを基準カメラとし、上記基準カ
メラによって生成された画像を基準画像とし、他のカメ
ラを参照カメラとし、それらによって生成された画像を
参照画像とし、上記基準カメラのレンズ中心と、上記物
体上の着目3次元特徴点に対応して選択した上記基準画
像中の特徴点とを通る逆投影線を基準逆投影線として求
める基準逆投影線生成手段と、 上記参照カメラによる上記参照画像上に上記基準逆投影
線を射影してエピポーラ線をそれぞれ求めるエピポーラ
線生成手段と、 各上記参照カメラによる上記参照画像上の上記エピポー
ラ線上にある上記特徴点と、上記参照カメラのレンズ中
心とを通る逆投影線を参照逆投影線として求める参照逆
投影線生成手段と、 上記基準逆投影線と上記参照逆投影線の交差点の座標位
置をそれぞれ求め、それぞれの交差点における上記基準
逆投影線と上記参照逆投影線との交差数を計数し、計数
値の最大の交差点を上記着目3次元特徴点の位置と判定
する3次元特徴抽出手段と、 を含み、上記基準画像上のそれぞれの特徴点に付いて、
上記物体上の対応するそれぞれの3次元特徴点の位置を
上記物体の3次元情報として得る3次元情報入力装置。
14. An n-number of camera units which are arranged at mutually different positions and output images obtained by imaging an object as image data, n is an integer of 3 or more, and n camera units Image information processing means for obtaining three-dimensional information of the object from characteristic points in each image, which is provided with image data, wherein the image information processing means includes: feature extracting means for extracting characteristic points in the image And one of the n cameras as a reference camera, an image generated by the reference camera as a reference image, another camera as a reference camera, and an image generated by the cameras as a reference image. A back projection line passing through the center of the lens and a feature point in the reference image selected corresponding to the noted three-dimensional feature point on the object as a reference back projection line. And epipolar line generation means for projecting the reference backprojection line onto the reference image by the reference camera to obtain an epipolar line, respectively, and the feature points on the epipolar line on the reference image by the reference camera. A reference backprojection line generating means for obtaining a backprojection line passing through the lens center of the reference camera as a reference backprojection line; and obtaining coordinate positions of intersections of the reference backprojection line and the reference backprojection line, respectively. 3D feature extraction means for counting the number of intersections between the reference backprojection line and the reference backprojection line at an intersection, and determining the maximum intersection of the counted value as the position of the 3D feature point of interest. For each feature point on the reference image,
A three-dimensional information input device for obtaining a position of each corresponding three-dimensional feature point on the object as three-dimensional information of the object.
【請求項15】 互いに異なる位置に配置され、物体を
撮像してそれぞれ得られる画像を画像データとして出力
するn個、nは3以上の整数、のカメラ手段と、 n個の上記カメラ手段からの画像データが与えられ、そ
れぞれの画像中の特徴点から上記物体の3次元情報を求
める画像情報処理手段と、を含み、上記画像情報処理手
段は:上記画像中の特徴点を抽出する特徴抽出手段と、 n個の上記カメラの1つを基準カメラとし、上記基準カ
メラによって生成された画像を基準画像とし、他のカメ
ラを参照カメラとし、それらによって生成された画像を
参照画像とし、上記基準カメラのレンズ中心と、上記物
体上の着目3次元特徴点に対応して選択した上記基準画
像中の特徴点とを通る逆投影線を基準逆投影線として求
める基準逆投影線生成手段と、 上記参照カメラによる上記参照画像上に上記基準逆投影
線を射影してエピポーラ線をそれぞれ求めるエピポーラ
線生成手段と、 各上記参照カメラによる上記参照画像上の上記エピポー
ラ線上にある上記特徴点と、上記参照カメラのレンズ中
心とを通る逆投影線を参照逆投影線として求める参照逆
投影線生成手段と、 上記基準逆投影線と上記参照逆投影線の交差点の座標位
置をそれぞれ求め、上記基準逆投影線に沿った上記交差
点の分布に対し畳み込み処理により上記交差点の分布の
密集度を強調するフィルタ処理を行うフィルタ処理手段
と、 上記フィルタ処理された交差点の分布が最大となる位置
を上記着目3次元特徴点の位置と判定する3次元特徴抽
出手段と、を含み、上記基準画像上のそれぞれの特徴点
に付いて、上記物体上の対応するそれぞれの3次元特徴
点の位置を上記物体の3次元情報として得る3次元情報
入力装置。
15. An n-number of camera units arranged at mutually different positions and outputting images obtained by imaging an object as image data, where n is an integer of 3 or more, and n number of the camera units Image information processing means for obtaining three-dimensional information of the object from characteristic points in each image, which is provided with image data, wherein the image information processing means includes: feature extracting means for extracting characteristic points in the image And one of the n cameras as a reference camera, an image generated by the reference camera as a reference image, another camera as a reference camera, and an image generated by the cameras as a reference image. A back projection line passing through the center of the lens and a feature point in the reference image selected corresponding to the noted three-dimensional feature point on the object as a reference back projection line. And epipolar line generation means for projecting the reference backprojection line onto the reference image by the reference camera to obtain an epipolar line, respectively, and the feature points on the epipolar line on the reference image by the reference camera. A reference backprojection line generating means for obtaining a backprojection line passing through the lens center of the reference camera as a reference backprojection line; and obtaining a coordinate position of an intersection of the reference backprojection line and the reference backprojection line, respectively. Filter processing means for performing filter processing to emphasize the density of the distribution of the intersection by convolution processing with respect to the distribution of the intersection along the back projection line, and focusing on the position where the distribution of the filtered intersection becomes maximum. Three-dimensional feature extraction means for determining the position of the three-dimensional feature point, and for each feature point on the reference image, The position of each of the three-dimensional feature point to respond inputting device for obtaining a three-dimensional information of the object.
【請求項16】 請求項14に記載の3次元情報入力装
置において、上記3次元特徴抽出手段は上記基準逆投影
線に沿った上記交差の分布に対し畳み込み処理により上
記交差の分布の密集度を強調するフィルタ処理手段を含
み、そのフィルタ処理された交差の分布が最大となる位
置を上記着目3次元特徴点の位置と判定する。
16. The three-dimensional information input device according to claim 14, wherein the three-dimensional feature extracting means determines the density of the distribution of the intersection by convolution processing on the distribution of the intersection along the reference backprojection line. It includes filter processing means for enhancing, and determines the position where the distribution of the filtered intersection becomes the maximum as the position of the noted three-dimensional feature point.
【請求項17】 請求項15または16に記載の3次元
情報入力装置において、上記フィルタ処理手段はラプラ
シアン−ガウシアンフィルタによる処理手段である。
17. The three-dimensional information input device according to claim 15, wherein said filter processing means is a processing means using a Laplacian-Gaussian filter.
【請求項18】 請求項15または16に記載の3次元
情報入力装置において、上記フィルタ処理手段はスクエ
アフィルタによる処理手段である。
18. The three-dimensional information input device according to claim 15, wherein the filter processing means is a processing means using a square filter.
【請求項19】 請求項15または16に記載の3次元
情報入力装置において、上記フィルタ処理手段はトライ
アンギュラフィルタによる処理手段である。
19. The three-dimensional information input device according to claim 15, wherein said filter processing means is a processing means using a triangular filter.
【請求項20】 請求項15または16に記載の3次元
情報入力装置において、上記フィルタ処理手段はガウシ
アンフィルタによる処理手段である。
20. The three-dimensional information input device according to claim 15, wherein the filter processing means is a processing means using a Gaussian filter.
【請求項21】 請求項14または15に記載の3次元
情報入力装置において、上記カメラの数nは5以上8以
内である。
21. The three-dimensional information input device according to claim 14, wherein the number n of the cameras is 5 or more and 8 or less.
【請求項22】 請求項14または15に記載の3次元
情報入力装置において、n個の上記カメラによる上記物
体の撮像を同時に行うことを一定周期で繰り返し、画像
データが得られる毎に画像情報処理手段に供給させるカ
メラ制御手段が設けられている。
22. The three-dimensional information input device according to claim 14, wherein the imaging of the object by the n cameras is simultaneously repeated at a constant cycle, and the image information processing is performed every time image data is obtained. Camera control means for providing the means is provided.
JP13725494A 1993-06-21 1994-06-20 Three-dimensional information input method and three-dimensional information input device using the same Expired - Fee Related JP3275252B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13725494A JP3275252B2 (en) 1993-06-21 1994-06-20 Three-dimensional information input method and three-dimensional information input device using the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-149334 1993-06-21
JP14933493 1993-06-21
JP13725494A JP3275252B2 (en) 1993-06-21 1994-06-20 Three-dimensional information input method and three-dimensional information input device using the same

Publications (2)

Publication Number Publication Date
JPH0771940A JPH0771940A (en) 1995-03-17
JP3275252B2 true JP3275252B2 (en) 2002-04-15

Family

ID=26470629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13725494A Expired - Fee Related JP3275252B2 (en) 1993-06-21 1994-06-20 Three-dimensional information input method and three-dimensional information input device using the same

Country Status (1)

Country Link
JP (1) JP3275252B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19936364A1 (en) * 1999-08-03 2001-02-15 Siemens Ag Identification and localisation of marks in a 3D medical scanning process
JP4565171B2 (en) * 2000-09-20 2010-10-20 国立大学法人静岡大学 Distance measuring apparatus and method
JP4427272B2 (en) * 2003-05-07 2010-03-03 株式会社ミツトヨ Signal processing apparatus, signal processing method, signal processing program, recording medium recording signal processing program, and measuring instrument
KR100729155B1 (en) * 2005-08-16 2007-06-19 구해원 Stereoscopic shooting system for shooting the same subject with multiple cameras at the same time
JP6633140B2 (en) * 2018-06-20 2020-01-22 株式会社フォーディーアイズ Constant calibration system and method

Also Published As

Publication number Publication date
JPH0771940A (en) 1995-03-17

Similar Documents

Publication Publication Date Title
US5475422A (en) Method and apparatus for reconstructing three-dimensional objects
JP6426968B2 (en) INFORMATION PROCESSING APPARATUS AND METHOD THEREOF
US8433157B2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
CA2650557C (en) System and method for three-dimensional object reconstruction from two-dimensional images
US5818959A (en) Method of producing a three-dimensional image from two-dimensional images
US8447099B2 (en) Forming 3D models using two images
Minhas et al. 3D shape from focus and depth map computation using steerable filters
CN115035235B (en) Three-dimensional reconstruction method and device
CN112734652B (en) Near-infrared blood vessel image projection correction method based on binocular vision
CN111489384B (en) Method, device, system and medium for evaluating shielding based on mutual viewing angle
KR100574227B1 (en) Apparatus and method for extracting object motion that compensates for camera movement
Svoboda et al. Matching in catadioptric images with appropriate windows, and outliers removal
GB2244621A (en) Machine vision stereo matching
KR101673144B1 (en) Stereoscopic image registration method based on a partial linear method
JP3275252B2 (en) Three-dimensional information input method and three-dimensional information input device using the same
Salvi et al. A survey addressing the fundamental matrix estimation problem
JP3512919B2 (en) Apparatus and method for restoring object shape / camera viewpoint movement
JPH0875454A (en) Ranging device
JP3548652B2 (en) Apparatus and method for restoring object shape
CN110706334A (en) A three-dimensional reconstruction method of industrial components based on trinocular vision
Takimoto et al. 3D reconstruction of large point clouds with a new point correspondence algorithm
JP2001338279A (en) 3D shape measuring device
Chen et al. An integrated approach to stereo matching, surface reconstruction and depth segmentation using consistent smoothness assumptions
Park et al. New technique for registration and integration of partial 3D models
JPH01311207A (en) Three-dimensional shape measuring method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090208

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees