JPH06109450A - Plural-visual point three-dimensional image input device - Google Patents
Plural-visual point three-dimensional image input deviceInfo
- Publication number
- JPH06109450A JPH06109450A JP4254663A JP25466392A JPH06109450A JP H06109450 A JPH06109450 A JP H06109450A JP 4254663 A JP4254663 A JP 4254663A JP 25466392 A JP25466392 A JP 25466392A JP H06109450 A JPH06109450 A JP H06109450A
- Authority
- JP
- Japan
- Prior art keywords
- image input
- dimensional image
- image
- blind spot
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 44
- 238000003384 imaging method Methods 0.000 claims abstract description 32
- 238000001514 detection method Methods 0.000 claims abstract description 28
- 238000006243 chemical reaction Methods 0.000 claims description 20
- 238000004441 surface measurement Methods 0.000 claims description 14
- 230000010485 coping Effects 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims 1
- 238000000034 method Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 36
- 230000008859 change Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 11
- 238000012937 correction Methods 0.000 description 9
- 238000009434 installation Methods 0.000 description 9
- 238000006467 substitution reaction Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、コンピュータビジョン
(CV)及びコンピュータグラフィックス(CG)等の
3次元画像情報技術において、3次元画像を入力し、そ
れを合成して3次元に画像を表示する等の複数視点3次
元画像入力装置、特に死角検出法を用いて被写体の死角
を除去する複数視点3次元画像入力装置に関するもので
ある。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image information technology such as computer vision (CV) and computer graphics (CG), which inputs a three-dimensional image and synthesizes it to display the image in a three-dimensional manner. The present invention relates to a multi-viewpoint three-dimensional image input device for removing a blind spot of a subject by using a blind spot detection method.
【0002】[0002]
【従来の技術】従来、このような分野の技術としては、
例えば次のような文献に記載されるものがある。 文献1;テレビジョン学会誌、45[4](1991)
P.446−452 文献2;テレビジョン学会誌、45[4](1991)
P.453−460 従来、3次元画像入力方式には、受動的手法(パッシブ
手法)と能動的手法(アクティブ手法)とがある。能動
的手法とは、3次元情報を取得するために、巧みに制御
され、その形状パターンや濃淡、スペクトル等に対し何
等かの意味を持ったエネルギー(光波、電波、音波)を
対象に照射する手法のことを指す。これに対して受動的
手法とは、対象に対して通常の照明等は行うにしても、
計測に関して意味のあるエネルギーを利用しない計測の
ことをいう。一般的にいって、能動的手法の方が、受動
的手法のものより計測の信頼性が高くなる。受動的手法
の代表的なものがステレオ画像法であり、それを図2に
示す。2. Description of the Related Art Conventionally, as a technique in such a field,
For example, there are those described in the following documents. Reference 1; Journal of Television Society, 45 [4] (1991).
P. 446-452 Document 2; Journal of the Television Society, 45 [4] (1991).
P. 453-460 Conventionally, a three-dimensional image input method includes a passive method (passive method) and an active method (active method). The active method irradiates the target with energy (light wave, radio wave, sound wave) that is skillfully controlled to obtain three-dimensional information and has some meaning with respect to its shape pattern, density, spectrum, etc. Refers to the method. On the other hand, with the passive method, even if normal lighting is performed on the target,
Measurement that does not use meaningful energy. In general, active methods are more reliable than passive methods. A typical passive method is a stereo image method, which is shown in FIG.
【0003】図2は、前記文献2に記載された従来の3
次元画像入力方式の一つであるステレオ画像法の説明図
である。このステレオ画像法では、2次元画像入力装置
である2台のカメラ1,2を所定距離離間して配置し、
左右のカメラ1,2で撮られた被写体3の結像位置の
差、即ち位相差を利用し、三角測量法によって被写体3
までの距離を計る方法である。FIG. 2 shows the conventional 3 described in the above document 2.
It is explanatory drawing of the stereo image method which is one of the three-dimensional image input systems. In this stereo image method, two cameras 1 and 2 which are two-dimensional image input devices are arranged at a predetermined distance from each other,
The difference between the imaging positions of the subject 3 taken by the left and right cameras 1 and 2, that is, the phase difference is used, and the subject 3 is triangulated.
Is a way to measure the distance to.
【0004】図3は、図2のステレオ画像法で得られた
信号の濃淡画像と距離画像の2枚の画像の説明図であ
る。濃淡画像は、図2のカメラ1,2で得られるカラー
や白黒の画像である。距離画像は、3次元位置に関する
画像であり、マトリクスデータで一つ一つの画素が対象
物(被写体3)の奥行きに関する情報を持つものであ
る。このような濃淡画像と距離画像とから、偏光フイル
タを用いた両眼融合方式によって立体画像表示を行った
り、レンチキュラ板を用いて立体画像表示を行ったりし
ている。立体画像表示の一例を図4に示す。FIG. 3 is an explanatory diagram of two images, a grayscale image of a signal and a distance image obtained by the stereo image method of FIG. The grayscale image is a color or monochrome image obtained by the cameras 1 and 2 in FIG. The distance image is an image regarding a three-dimensional position, and each pixel in the matrix data has information regarding the depth of the object (subject 3). From such a grayscale image and a range image, a stereoscopic image display is performed by a binocular fusion method using a polarization filter, or a stereoscopic image display is performed by using a lenticular plate. An example of a stereoscopic image display is shown in FIG.
【0005】図4は、前記文献1に記載された従来の3
次元画像表示方式の一つである多眼式レンチキュラ方式
の原理を示す図である。多眼式レンチキュラ方式は、複
数のかまぼこ状のレンズ板からなるレンチキュラ板10
を用い、各レンズ板の焦点面に左右画像をストライプ状
に配置した方式である。1個のレンズ板内にはa,b,
c,…,fの部分に、それぞれa1 ,b1 ,c1 ,…,
f1 という多方向から撮像したストライプ状の多眼像1
1を表示する。レンズ板の作用によって各方向のストラ
イプ状の多眼像11は左右の眼12,13に別々に入
り、視点を移動すれば、横方向の立体映像を見ることが
できる。FIG. 4 shows the conventional 3 described in the above document 1.
It is a figure which shows the principle of the multi-lens type lenticular system which is one of the three-dimensional image display systems. The multi-lens lenticular system is a lenticular plate 10 including a plurality of kamaboko-shaped lens plates.
Is used to arrange the left and right images in stripes on the focal plane of each lens plate. A, b, in one lens board
c, ..., the portion of the f, respectively a 1, b 1, c 1 , ...,
f 1 striped multiview image captured from multiple directions of 1
1 is displayed. By the action of the lens plate, the striped multi-view image 11 in each direction enters the left and right eyes 12 and 13 separately, and if the viewpoint is moved, a horizontal stereoscopic image can be viewed.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、上記構
成の装置では、次のような課題があった。 (1) 3次元画像表示方式として、レンチキュラ板1
0を使用した場合、平面画像を立体的に見れるものの、
観察者の視線を変えたときのものの見え方は、立体視可
能な観察領域として約5m離れて見たときに、左右方向
で5〜10cm、前後方向に±30cm程度と狭い。また、
両眼融合方式においては、平面画像の立体的表現のみ
で、視線を変えても、画像そのものは変わらないという
問題があった。However, the apparatus having the above structure has the following problems. (1) Lenticular plate 1 as a three-dimensional image display system
When 0 is used, a two-dimensional image can be viewed three-dimensionally,
When the observer's line of sight is changed, the appearance of the object is as narrow as 5 to 10 cm in the left-right direction and ± 30 cm in the front-back direction when viewed at a distance of about 5 m as a stereoscopic viewing area. Also,
In the binocular fusion method, there is a problem that the image itself does not change even if the line of sight is changed, only with a stereoscopic representation of a two-dimensional image.
【0007】(2) そこで、前記の観察視野が狭いと
か、視線を変えても画像が変わらない等の問題を解決す
るため、本願発明者は先に特願平4−192272号公
報の提案を行った。この提案では、被写体の画像を入力
して濃淡画像と距離画像の2枚の画像を出力するための
少なくとも2台の3次元画像入力装置を離間して配置し
ている。各3次元画像入力装置は、例えば3次元カメラ
(以下、3Dカメラという)でそれぞれ構成されてい
る。そして、離間した2台の3Dカメラにより、被写体
の画像を入力して該被写体を表現する濃淡画像と距離画
像の信号を出力し、該濃淡画像と距離画像から表示画像
を表示して3次元の画像表示を行うようになっている。
ところが、2台の3Dカメラを用いた場合には、撮像で
きる被写体が限定され、特に凹部のある被写体では死角
が生じてしまう。これを補償するため、本願発明者は図
5に示すように3Dカメラの台数を増やす方法を提案し
た。(2) Therefore, in order to solve the above-mentioned problems such as the observation field of view being narrow and the image not changing even if the line of sight is changed, the inventor of the present application previously proposed Japanese Patent Application No. 4-192272. went. In this proposal, at least two three-dimensional image input devices for inputting an image of a subject and outputting two images of a grayscale image and a distance image are arranged separately. Each three-dimensional image input device is composed of, for example, a three-dimensional camera (hereinafter referred to as a 3D camera). Then, two separated 3D cameras input an image of a subject, output signals of a grayscale image and a distance image representing the subject, and display a display image from the grayscale image and the distance image to display a three-dimensional image. It is designed to display images.
However, when two 3D cameras are used, the subjects that can be imaged are limited, and blind spots occur especially in subjects having concave portions. In order to compensate for this, the present inventor has proposed a method of increasing the number of 3D cameras as shown in FIG.
【0008】(3) 図5は、本願発明者が先に提案し
たもので、3Dカメラを2台から5台に増やした複数視
点3次元画像入力装置の概略の構成ブロック図である。
この複数視点3次元画像入力装置は、5台の3Dカメラ
20−1〜20−5を備え、それらの光軸が交点Kで交
わるように配置されている。各3Dカメラ20−1〜2
0−5では、被写体の画像を入力して該被写体を表現す
る濃淡画像21−1v〜21−5vと距離画像22−1
r〜22−5rをそれぞれ出力する。これらの濃淡画像
21−1v〜21−5vと距離画像22−1r〜22−
5rのデータに基づき、各3Dカメラ20−1〜20−
5毎の被写体を特定する処理を行い、最適画像を選択
し、観察者が望む視線方向の表示画像を表示装置に3次
元表示するようになっている。しかし、このような構成
では、各3Dカメラ20−1〜20−5毎の濃淡画像2
1−1v〜21−5vと距離画像22−1r〜22−5
rのデータを全て用い、被写体特定処理とその最適画像
の選択を行うので、多量のデータ処理が必要であり、そ
れを処理する処理回路の規模が増大すると共に処理時間
が長くなるという問題があり、未だ技術的に充分満足の
ゆく複数視点3次元画像入力装置を得ることが困難であ
った。本発明は、前記従来技術が持っていた課題とし
て、データ処理回路の回路規模が増大し、処理時間が長
くなるという点について解決した複数視点3次元画像入
力装置を提供するものである。(3) FIG. 5 is a schematic block diagram of a multi-viewpoint three-dimensional image input device, which has been previously proposed by the inventor of the present application, in which the number of 3D cameras is increased from two to five.
The multi-viewpoint three-dimensional image input device includes five 3D cameras 20-1 to 20-5 and is arranged so that their optical axes intersect at an intersection point K. Each 3D camera 20-1 to 2
In 0-5, the grayscale images 21-1v to 21-5v and the distance image 22-1 representing the subject by inputting the image of the subject are input.
r to 22-5r are output. These grayscale images 21-1v to 21-5v and distance images 22-1r to 22-
Based on the data of 5r, each 3D camera 20-1 to 20-
The process of specifying the object for each of the 5 is performed, the optimum image is selected, and the display image in the line-of-sight direction desired by the observer is three-dimensionally displayed on the display device. However, with such a configuration, the grayscale image 2 for each of the 3D cameras 20-1 to 20-5
1-1v to 21-5v and range images 22-1r to 22-5
Since all the data of r are used for subject identification processing and selection of the optimum image, a large amount of data processing is required, and there is a problem that the scale of the processing circuit for processing it increases and the processing time increases. However, it has been difficult to obtain a multi-viewpoint three-dimensional image input device that is technically sufficiently satisfactory. SUMMARY OF THE INVENTION The present invention provides a multi-viewpoint three-dimensional image input device that solves the problem that the conventional technique has, that is, the circuit scale of the data processing circuit increases and the processing time increases.
【0009】[0009]
【課題を解決するための手段】第1の発明では、前記課
題を解決するために、照射された被写体の画像を入力し
てその被写体を表現する濃淡画像の信号を出力する少な
くとも2個の2次元画像入力装置を有する3次元画像入
力装置を、複数台備えた複数視点3次元画像入力装置に
おいて、撮像指定領域を設け、その撮像指定領域は前記
各3次元画像入力装置の全ての視野に位置し、該撮像指
定領域の距離幅の中心線の交点が一点に集まるように前
記各3次元画像入力装置を配置している。第2の発明で
は、第1の発明において、撮像指定領域外の画像データ
は3次元的に全て廃棄する不要領域データ廃棄手段を設
けている。第3の発明では、第1の発明において、撮像
指定領域幅内の最大距離値以上の画素には所定の記号を
書込む記号代入手段を設けている。第4の発明では、第
1の発明において、撮像指定領域の最長距離において距
離検出精度が所望表示画像の画素幅より狭くなるように
3次元画像入力装置の出力画像に対して画素密度変換を
行って濃淡画像を合成する表示密度画像作成手段を、各
3次元画像入力装置毎に設けている。According to the first aspect of the invention, in order to solve the above-mentioned problems, an image of an illuminated subject is input and at least two gray scale images representing the subject are output. In a multi-viewpoint three-dimensional image input device having a plurality of three-dimensional image input devices having a three-dimensional image input device, an image pickup designated region is provided, and the image pickup designated region is located in all fields of view of the respective three-dimensional image input devices. Then, the respective three-dimensional image input devices are arranged so that the intersections of the center lines of the distance width of the imaged designated area are gathered at one point. According to a second aspect of the present invention, in the first aspect, an unnecessary area data discarding unit that discards all the image data outside the imaging designated area three-dimensionally is provided. In a third aspect based on the first aspect, a symbol substituting means for writing a predetermined symbol is provided in a pixel having a maximum distance value or more within a width of the designated image capturing area. According to a fourth aspect, in the first aspect, the pixel density conversion is performed on the output image of the three-dimensional image input device so that the distance detection accuracy becomes narrower than the pixel width of the desired display image at the longest distance of the designated image capturing area. Display density image creating means for synthesizing a grayscale image is provided for each three-dimensional image input device.
【0010】第5の発明では、第4の発明の表示密度画
素作成手段は、画素密度変換を行うときに各画素の距離
値の分布をもとに新たな距離値とする機能を有してい
る。第6の発明では、第4の発明の表示密度画素作成手
段は、画素密度変換を行った後の濃淡画像値において、
新たな距離値に対応する画素の濃淡値のみを選択処理し
て新たな濃淡画像値とする機能を有している。第7の発
明では、第4の発明において、前記複数台の3次元画像
入力装置中の両端の3次元画像入力装置側に設けられた
前記表示密度画素作成手段の出力に基づき前記被写体面
の向きを判定する対向面判定手段と、前記対向面判定手
段の判定結果に基づき前記被写体の死角を検出する死角
検出手段と、前記両端の3次元画像入力装置以外の3次
元画像入力装置側に設けられた前記表示密度画素作成手
段の出力に基づき前記対向面判定手段及び死角検出手段
の処理領域について最適画像を選択し当てはめる死角対
応選択手段と、前記死角対応選択手段の当てはめ状況か
ら残存死角の有無を判断する死角有無判断手段とを、備
えた死角対処手段を、前記複数の表示密度画素作成手段
の出力側に接続している。In the fifth invention, the display density pixel creating means of the fourth invention has a function of setting a new distance value based on the distribution of the distance value of each pixel when performing the pixel density conversion. There is. In the sixth invention, the display density pixel creation means of the fourth invention is such that, in the grayscale image value after the pixel density conversion,
It has a function of selecting and processing only the grayscale value of the pixel corresponding to the new distance value to obtain a new grayscale image value. In a seventh aspect based on the fourth aspect, the orientation of the subject plane is based on the output of the display density pixel creating means provided on both sides of the plurality of three-dimensional image input devices on the three-dimensional image input device side. Is provided on the side of the three-dimensional image input device other than the three-dimensional image input devices at the both ends, and the facing surface determination means for determining the blind area, the blind spot detection means for detecting the blind spot of the subject based on the determination result of the facing surface determination means. Based on the output of the display density pixel creation means, a blind spot correspondence selection means for selecting and fitting an optimum image for the processing area of the facing surface determination means and the blind spot detection means, and the presence or absence of residual blind spots from the fitting status of the blind spot correspondence selection means. The blind spot coping means including the blind spot presence / absence judging means for judging is connected to the output side of the plurality of display density pixel creating means.
【0011】第8の発明では、第4の発明において、2
次元画像入力装置の位相差検出方向において、前記表示
密度画像作成手段で合成した表示画素密度により決まる
位相差の画素数分だけ、所定の光軸間隔に対して前記2
次元画像入力装置の相対位置にオフセットを設けてい
る。第9の発明では、第7の発明の死角検出手段は、前
記被写体の距離値により死角判別値を規格化する機能を
有している。第10の発明では、第7の発明の死角有無
判断手段は、前記被写体の3次元位置により残存死角の
判断基準となる画素数を変更する機能を有している。According to an eighth invention, in the fourth invention, 2
In the phase difference detection direction of the two-dimensional image input device, the number of pixels is 2 for a predetermined optical axis interval by the number of pixels of the phase difference determined by the display pixel density synthesized by the display density image creating means.
An offset is provided at the relative position of the three-dimensional image input device. In the ninth invention, the blind spot detecting means of the seventh invention has a function of standardizing the blind spot determination value based on the distance value of the subject. In the tenth invention, the blind spot presence / absence determining means of the seventh invention has a function of changing the number of pixels serving as a criterion for determining the remaining blind spot depending on the three-dimensional position of the subject.
【0012】[0012]
【作用】第1の発明によれば、以上のように複数視点3
次元画像入力装置を構成したので、撮像指定領域を設け
ることにより、被写体の撮像領域(例えば、幅及び距
離)が指定され、生成される濃淡画像及び距離画像のデ
ータ数が少なくなり、少ないデータ処理量で、被写体特
定処理とその最適画像の選択を行うことによって死角部
分の検出とその除去が簡単に行える。第2の発明によれ
ば、不要領域データ廃棄手段は、濃淡画像及び距離画像
のデータ数を減少する働きがある。第3の発明によれ
ば、記号代入手段は、処理すべき濃淡画像及び距離画像
のデータ数を削減する働きがある。According to the first aspect of the invention, as described above, the plural viewpoints 3
Since the three-dimensional image input device is configured, the imaging area (for example, width and distance) of the subject is specified by providing the imaging specification area, and the number of data of the grayscale image and the distance image to be generated is reduced, and thus less data processing is performed. Depending on the amount, the blind spot portion can be easily detected and removed by performing the subject specifying process and selecting the optimum image thereof. According to the second invention, the unnecessary area data discarding unit has a function of reducing the number of data of the grayscale image and the range image. According to the third invention, the symbol substituting means has a function of reducing the number of data of the grayscale image and the range image to be processed.
【0013】第4の発明によれば、表示密度画素作成手
段は、撮像指定領域の距離最大値において距離検出精度
(例えば、1位相差分)が濃淡画像の1画素の幅を越え
ないように、即ち距離検出精度(1位相差分)が表示画
像の1画素分以下になるように、元の濃淡画像が所定の
数、合成される。これにより、濃淡画像の1画素の大き
さは、2次元画像入力装置の1画素を何画素か合成した
大きさをもって表示濃淡画像の1画素となる。第5の発
明によれば、表示密度画素作成手段は、画素密度変換を
行うときに各画素の距離値の分布をもとに新たな距離値
とし、画素密度の変換を容易にする働きがある。第6の
発明によれば、表示密度画素作成手段は、新たな距離値
に対応する画素の濃淡値のみを選び出して処理し、新た
な濃淡画像値として画素密度変換後の濃淡画像値を生成
する。画素密度変換をするときに距離値に該当する濃淡
画像を選択して新たな濃淡画像値とすることにより、そ
の濃淡画像値が少なくとも被写体の濃淡値の合成値とな
り、他の被写体の濃淡値が紛れ込まない純度の高い濃淡
値を生成する働きがある。According to the fourth aspect of the present invention, the display density pixel creating means is configured so that the distance detection accuracy (for example, one phase difference) does not exceed the width of one pixel of the grayscale image at the maximum distance value of the designated image pickup area. That is, a predetermined number of original grayscale images are combined so that the distance detection accuracy (one phase difference) is equal to or less than one pixel of the display image. As a result, the size of one pixel of the grayscale image becomes one pixel of the displayed grayscale image with a size obtained by combining several pixels of one pixel of the two-dimensional image input device. According to the fifth aspect, the display density pixel creation means has a function of facilitating the conversion of the pixel density by setting a new distance value based on the distribution of the distance value of each pixel when performing the pixel density conversion. . According to the sixth aspect, the display density pixel creation means selects and processes only the grayscale value of the pixel corresponding to the new distance value, and generates the grayscale image value after the pixel density conversion as a new grayscale image value. . By selecting the grayscale image corresponding to the distance value when converting the pixel density and setting it as a new grayscale image value, the grayscale image value becomes at least the composite value of the grayscale values of the subject, and the grayscale values of other subjects are changed. It has the function of generating a high-purity gray value that does not get mixed.
【0014】第7の発明によれば、対向面判定手段及び
死角検出手段は、両端の3次元画像入力装置の距離画像
に基づき死角及び被写体面の傾きを検出する。死角対応
選択手段は、死角領域及び被写体面の傾きが不都合な領
域のみに、中間の3次元画像入力装置の中の最適画像を
当てはめる。死角有無判断手段は、残存死角の有無を判
定する。第8の発明によれば、2次元画像入力装置の相
対位置に設けたオフセットは、該2次元画像入力装置の
位相差検出領域を拡大する働きがある。第9の発明によ
れば、死角検出手段は、被写体の距離値により死角判別
値を規格化し、死角の検出を容易にする働きがある。第
10の発明によれば、死角有無判断手段は、被写体の3
次元位置により残存死角の判定基準となる画素数を変更
し、死角有無の判断を容易にする働きがある。従って、
前記課題を解決できるのである。According to the seventh aspect of the invention, the facing surface determining means and the blind spot detecting means detect the blind spot and the inclination of the object surface based on the distance images of the three-dimensional image input devices at both ends. The blind spot correspondence selecting means applies the optimum image in the intermediate three-dimensional image input device only to the blind spot region and the region where the inclination of the subject surface is inconvenient. The blind spot presence / absence determining means determines whether there is a residual blind spot. According to the eighth aspect, the offset provided at the relative position of the two-dimensional image input device has a function of enlarging the phase difference detection area of the two-dimensional image input device. According to the ninth aspect, the blind spot detecting means has a function of standardizing the blind spot determination value according to the distance value of the subject and facilitating the detection of the blind spot. According to the tenth invention, the blind spot presence / absence determining means is
The number of pixels serving as a criterion for determining the remaining blind spot is changed depending on the dimensional position to facilitate the determination of the presence or absence of the blind spot. Therefore,
The above problems can be solved.
【0015】[0015]
【実施例】図1は、本発明の実施例を示す複数視点3次
元画像入力装置の構成ブロック図である。この実施例で
は、5台の3次元画像入力装置(例えば、3Dカメラ)
を用いた場合について説明するが、少なくとも3台以上
ならば何台でも良い。複数視点3次元画像入力装置は、
5台の3次元画像入力装置(例えば、3Dカメラ)30
−1〜30−5を備え、それらの光軸H30−1〜H3
0−5が交点Kで交わるように配置されている。各3D
カメラ30−1〜30−5は、照射された被写体の画像
を入力してその被写体を表現する少なくとも2枚の濃淡
画像の信号を出力する機能を有し、その出力側には撮像
指定領域内画像作成装置40−1〜40−5がそれぞれ
接続されている。1 is a block diagram showing the configuration of a multi-viewpoint three-dimensional image input device according to an embodiment of the present invention. In this embodiment, five three-dimensional image input devices (for example, 3D camera)
Although the case of using is described, any number may be used as long as it is at least three or more. The multi-viewpoint three-dimensional image input device is
Five 3D image input devices (for example, 3D camera) 30
-1 to 30-5, and their optical axes H30-1 to H3
It is arranged that 0-5 intersect at the intersection K. Each 3D
Each of the cameras 30-1 to 30-5 has a function of inputting an image of an illuminated subject and outputting signals of at least two grayscale images representing the subject. The image creating devices 40-1 to 40-5 are connected to each other.
【0016】各撮像指定領域内画像作成装置40−1〜
40−5は、各3Dカメラ30−1〜30−5から出力
される少なくとも2枚の濃淡画像に基づき、撮像指定領
域内において所定の濃淡画像S44及び距離画像S45
を作成する装置であり、領域限定対応点検索手段41を
有している。領域限定対応点検索手段41は、各3Dカ
メラ30−1〜30−5から出力された2枚の濃淡画像
に対して必要領域(撮像指定領域)のみを走査して対応
点検索し、濃淡画像と距離画像の信号を出力する機能を
有し、その出力側には、不要領域データ廃棄手段42及
び記号代入手段43を介して記憶手段(例えば、LSI
メモリ等で構成される濃淡画像メモリ44及び距離画像
メモリ45)が接続されている。不要領域データ廃棄手
段42は、領域限定対応点検索手段41の出力画像を入
力し、不要領域(撮像指定領域以外)のデータを廃棄す
る機能を有している。記号代入手段43は、不要領域デ
ータ廃棄手段42の出力画像を入力し、指定領域外、つ
まり撮像指定領域外の距離値を持つ画像データを特定記
号に置換し、撮像指定領域内の濃淡画像S44及び距離
画像S45を出力し、濃淡画像メモリ44及び距離画像
メモリ45へそれぞれ格納する機能を有している。Image creation devices 40-1 to 40-1 in each designated image pickup area
40-5 is a predetermined grayscale image S44 and a distance image S45 in the imaging designated area based on at least two grayscale images output from each of the 3D cameras 30-1 to 30-5.
And an area-limited corresponding point search means 41. The area-limited corresponding point search means 41 scans only the necessary area (imaging designated area) for the two grayscale images output from each of the 3D cameras 30-1 to 30-5 to search for corresponding points, and then the grayscale image. And a function of outputting a distance image signal. On the output side thereof, a storage means (for example, an LSI) via an unnecessary area data discarding means 42 and a symbol substituting means 43.
A grayscale image memory 44 and a range image memory 45) which are composed of a memory or the like are connected. The unnecessary area data discarding unit 42 has a function of inputting the output image of the area-limited corresponding point searching unit 41 and discarding the data of the unnecessary area (other than the imaging designated area). The symbol substituting means 43 inputs the output image of the unnecessary area data discarding means 42, replaces the image data having a distance value outside the designated area, that is, outside the imaging designated area with a specific symbol, and the grayscale image S44 within the imaging designated area. And the distance image S45 are output and stored in the grayscale image memory 44 and the distance image memory 45, respectively.
【0017】各撮像指定領域内画像作成装置40−1〜
40−5の出力側には、表示密度画素作成装置50−1
〜50−5がそれぞれ接続され、さらにその出力側に死
角対処装置60が接続されている。各表示密度画素作成
装置50−1〜50−5は、各濃淡画像メモリ44及び
距離画像メモリ45に格納された濃淡画像S44及び距
離画像S45を入力し、表示画像の画素密度に変換して
画素密度変換された濃淡画像S52及び距離画像S53
を作成する装置であり、該表示画像の画素密度と濃淡画
像S44の画素密度とを交換する画素密度変換手段51
と、変換された濃淡画像S52を格納する濃淡画像メモ
リ52と、画素密度変換された距離画像S53を格納す
る距離画像メモリ53とを、備えている。Image forming devices 40-1 to 40-1 in the respective image pickup designated areas
At the output side of 40-5, a display density pixel creation device 50-1
.About.50-5 are respectively connected, and the blind spot coping device 60 is further connected to the output side thereof. Each of the display density pixel creation devices 50-1 to 50-5 inputs the grayscale image S44 and the distance image S45 stored in the respective grayscale image memory 44 and the distance image memory 45, converts the grayscale image S44 and the distance image S45 into the pixel density of the display image, and converts the pixels into pixels. Density-converted grayscale image S52 and range image S53
And a pixel density conversion unit 51 for exchanging the pixel density of the display image and the pixel density of the grayscale image S44.
A grayscale image memory 52 for storing the converted grayscale image S52, and a distance image memory 53 for storing the distance image S53 with pixel density conversion.
【0018】死角対処装置60は、各表示密度画素作成
装置50−1〜50−5の出力画像から死角部分を取り
除き、その死角部分の取り除かれた濃淡画像及び距離画
像を出力すると共に、その死角部分のデータ等を出力す
る機能を有している。この死角対処装置60は、両端の
3Dカメラ30−1,30−5側の表示密度画素作成装
置50−1,50−5の出力距離画像S53から被写体
面の向きを判定する対向面判定手段61を備え、その出
力側に、死角部分の検出を行う死角検出手段62が接続
されている。死角検出手段62の出力側には、対向面判
定手段61及び死角検出手段62の処理領域を記憶して
おく処理領域メモリ63が接続され、その出力側に、死
角対応選択手段64を介して死角有無判断手段65が接
続されている。死角対応選択手段64は、処理領域メモ
リ63及び各表示密度画素作成装置50−1〜50−5
の出力距離画像S53を入力し、該処理領域メモリ63
に格納された処理領域について、中間の表示密度画素作
成装置50−2〜50−4の出力距離画像S53をもと
に、死角対応領域の位相差変化の最小画像(最適画像)
を選択し当てはめる機能を有している。死角有無判断手
段65は、処理領域メモリ63に格納された処理領域が
全て死角対応選択手段64で当てはめられたか否か、つ
まり死角対応領域が埋まったか否かを判断し、残存死角
の有無を検出する機能を有している。The blind spot coping device 60 removes the blind spots from the output images of the respective display density pixel creating devices 50-1 to 50-5, outputs the grayscale image and the range image from which the blind spots have been removed, and outputs the blind spots. It has a function of outputting partial data. The blind spot coping device 60 determines the facing surface determining means 61 that determines the orientation of the subject surface from the output distance images S53 of the display density pixel creating devices 50-1 and 50-5 on the 3D cameras 30-1 and 30-5 at both ends. And a blind spot detecting means 62 for detecting a blind spot portion is connected to the output side thereof. A processing area memory 63 for storing the processing areas of the facing surface determining means 61 and the blind spot detecting means 62 is connected to the output side of the blind spot detecting means 62, and the output side thereof has a blind spot corresponding to the blind spot correspondence selecting means 64. Presence determination means 65 is connected. The blind spot correspondence selection means 64 is a processing area memory 63 and each of the display density pixel creation devices 50-1 to 50-5.
The output distance image S53 of
Based on the output distance images S53 of the intermediate display density pixel creation devices 50-2 to 50-4, the minimum image of the phase difference change in the blind spot corresponding region (optimum image) for the processing region stored in
Has a function of selecting and applying. The blind spot presence / absence determining means 65 determines whether or not all the processing areas stored in the processing area memory 63 have been fitted by the blind spot corresponding selecting means 64, that is, whether or not the blind spot corresponding area has been filled, and detects the presence or absence of residual blind spots. It has a function to do.
【0019】死角有無判断手段65の出力側には、死角
部分S70を記憶する死角記憶メモリ70が接続されて
いる。表示密度画素作成装置50−1内の濃淡画像メモ
リ52、対向面判定手段61、及び死角検出手段62の
出力側には、第1の3Dカメラ30−1の死角部分及び
被写体不適面を取り除いた最終濃淡画像S71を格納す
る濃淡画像メモリ71と、その距離画像S72を格納す
る距離画像メモリ72とが接続されている。死角対処装
置60の出力側には、他の配置端の第5の3Dカメラ3
0−5の死角部分及び被写体不適面を取り除いた最終濃
淡画像S73を格納する濃淡画像メモリ73と、その距
離画像S74を格納する距離画像メモリ74とが接続さ
れている。また、死角対応選択手段64の出力側には、
該死角対処装置60から出力された死角部分及び被写体
不適面に最適画像を記憶する際の3Dカメラ番号(画
角、設置角)及び該画像内番地(X方向、Y方向)とい
った画素番号S75を格納する画素番号付け用の画素番
号メモリ75と、該画素番号S75に対応した濃淡画像
S76を格納する濃淡画像メモリ76と、その距離画像
S77を格納する距離画像メモリ77とが、接続されて
いる。A blind spot storage memory 70 for storing a blind spot portion S70 is connected to the output side of the blind spot presence / absence determining means 65. On the output side of the grayscale image memory 52, the facing surface determination means 61, and the blind spot detection means 62 in the display density pixel creation device 50-1, the blind spot portion of the first 3D camera 30-1 and the subject unsuitable surface are removed. A grayscale image memory 71 that stores the final grayscale image S71 and a range image memory 72 that stores the range image S72 are connected. On the output side of the blind spot countermeasure device 60, the fifth 3D camera 3 at the other arrangement end is provided.
A grayscale image memory 73 that stores the final grayscale image S73 from which the blind spot portion 0-5 and the subject unsuitable surface have been removed and a distance image memory 74 that stores the distance image S74 are connected. Further, on the output side of the blind spot correspondence selection means 64,
A pixel number S75 such as a 3D camera number (angle of view, installation angle) and an internal address of the image (X direction, Y direction) when the optimum image is stored in the blind spot portion output from the blind spot handling device 60 and the subject inadequate surface are set. A pixel number memory 75 for storing pixel numbers, a grayscale image memory 76 for storing a grayscale image S76 corresponding to the pixel number S75, and a distance image memory 77 for storing the distance image S77 are connected. .
【0020】次に、図6(a),(b),(c)、図
7、図8、及び図9を参照しつつ、図1中の3Dカメラ
30−1〜30−5の構成を説明する。図6(a)〜
(c)は図1の3Dカメラの説明図であり、同図(a)
は3Dカメラの構成図、同図(b)は3Dカメラの距離
−位相差特性例を示す図、及び同図(c)は2次元画像
入力装置の画角と画素数の関係の説明図である。図7は
図1の装置における撮像指定距離範囲の説明図、及び図
8は図1の装置における撮像指定領域の説明図である。
図6(a)に示すように、図1中の3Dカメラは、電荷
結合素子(以下、CCDという)等のエリアセンサから
なる2つの2次元画像入力装置31,32を備え、それ
らが一定間隔(光軸間隔)L0 離間して配置されてい
る。各2次元画像入力装置31,32に使用されている
レンズ33,34の光軸H33,H34を平行にした場
合に、次式(1),(2)のように距離lと位相差ΔB
が反比例する関係にある。その関係が図6(b)に示さ
れている。Next, the configuration of the 3D cameras 30-1 to 30-5 in FIG. 1 will be described with reference to FIGS. 6A, 6B, 6C, 7, 8 and 9. explain. FIG. 6 (a)-
(C) is an explanatory view of the 3D camera of FIG. 1, and FIG.
Is a configuration diagram of a 3D camera, FIG. 3B is a diagram showing an example of distance-phase difference characteristics of the 3D camera, and FIG. 3C is an explanatory diagram of a relationship between the angle of view and the number of pixels of the two-dimensional image input device. is there. FIG. 7 is an explanatory diagram of an image capturing designated distance range in the apparatus of FIG. 1, and FIG. 8 is an explanatory diagram of an image capturing designated area in the apparatus of FIG.
As shown in FIG. 6A, the 3D camera shown in FIG. 1 includes two two-dimensional image input devices 31 and 32 each including an area sensor such as a charge-coupled device (hereinafter referred to as a CCD), which are arranged at regular intervals. (Optical axis interval) L 0 is spaced apart. When the optical axes H33 and H34 of the lenses 33 and 34 used in the two-dimensional image input devices 31 and 32 are parallel, the distance 1 and the phase difference ΔB are expressed by the following equations (1) and (2).
Are in inverse proportion. The relationship is shown in FIG. 6 (b).
【0021】[0021]
【数1】 一方、図6(c)に示すように、1つの2次元画像入力
装置(例えば、31)の画角δは、一定距離にある被写
体をどれだけの幅でとらえるかで決まり、その画角δを
達成するレンズ33が通常選ばれている。この場合、1
画素の幅wで見る寸法は、次式(3),(4)により決
まる。 w=2ltan(δ/2) ・・・(3) Δw=W/N ・・・(4) 但し、δ;画角 Δw;1画素の視野 N;画角δ内の画素数 そこで、3Dカメラとして構成したときの距離精度値、
即ち位相差1画素変化分の値と、被写体幅1画素分の幅
との関係(1位相差変化による距離変化内にいくつの画
素が含まれるか)を求めると、(2),(3),(4)
式より次式(5)が得られる。[Equation 1] On the other hand, as shown in FIG. 6C, the angle of view δ of one two-dimensional image input device (for example, 31) is determined by the width of a subject at a certain distance and the angle of view δ. The lens 33 that achieves the above is usually selected. In this case, 1
The size viewed from the pixel width w is determined by the following equations (3) and (4). w = 2 ltan (δ / 2) (3) Δw = W / N (4) where δ; angle of view Δw; field of view of 1 pixel N; number of pixels within angle of view δ Therefore, 3D camera Distance accuracy value when configured as
That is, the relationship between the value of one pixel difference in phase difference and the width of one pixel of the subject width (how many pixels are included in the distance change due to one phase difference change) is calculated as (2) and (3). , (4)
From the equation, the following equation (5) is obtained.
【0022】[0022]
【数2】 この(5)式の意味は、ある位相差ΔBに対応する距離
値より短い距離にある被写体の1位相差変化の距離変化
値が、許容係数k2 倍の被写体幅1画素分の幅以下にな
ることを意味している。つまり、(5)式は、ある位相
差ΔB以上の1位相差変化では許容係数k2 倍の濃淡画
像の画素数以下になることを意味している。この(5)
式の関係に基づき、任意である許容係数k2 を例えば8
とし、以下の説明を続ける。例えば、2次元画像入力装
置31,32の水平方向(位相差検出方向)の画素数を
500個、レンズ33,34の画角δを50度、2次元
画像入力装置31,32の光軸間隔L0 を20cmとした
ときの距離と位相差特性が図7に示されている。この図
のLは撮像指定範囲、ΔBmim は所望最低位相差であ
る。この例では、許容係数k2 を8としているので、
(5)式を解くと、位相差ΔBが約67画素となる。そ
のため、位相差ΔBが67画素以上となる距離(約2
m)を撮像指定最長距離としてある。[Equation 2] The expression (5) means that the distance change value of one phase difference change of a subject at a distance shorter than the distance value corresponding to a certain phase difference ΔB is equal to or smaller than the width of one pixel of the subject width of the allowable coefficient k 2 times. Is meant to be. That is, the expression (5) means that the number of pixels of the grayscale image having the allowable coefficient k 2 times is equal to or less than one phase difference change of a certain phase difference ΔB or more. This (5)
Based on the relationship of the equation, the allowable coefficient k 2 is set to, for example, 8
And the following explanation is continued. For example, the number of pixels in the horizontal direction (phase difference detection direction) of the two-dimensional image input devices 31 and 32 is 500, the angle of view δ of the lenses 33 and 34 is 50 degrees, and the optical axis spacing of the two-dimensional image input devices 31 and 32 is The distance and the phase difference characteristic when L 0 is 20 cm are shown in FIG. 7. In this figure, L is the designated imaging range, and ΔB mim is the desired minimum phase difference. In this example, the tolerance coefficient k 2 is set to 8, so
Solving the equation (5), the phase difference ΔB becomes about 67 pixels. Therefore, the distance at which the phase difference ΔB becomes 67 pixels or more (about 2
m) is the designated longest distance for imaging.
【0023】一方、図1に示すように5台の3Dカメラ
30−1〜30−5の画角内に被写体を置く必要性か
ら、撮像指定最短距離(約1.4m)が求まる。但し、
両端の3Dカメラ30−1,30−5の光軸H30−
1,H30−5の設置角θは65度の例となっている。
設置角θは、両端の3Dカメラ30−1,30−5の主
点を結んだ点と両端の光軸H30−1,H30−5の成
す角度である。この模様が図8に示されている。図8に
おいて、O1 ,O2 ,O3 ,O4 ,O5 は3Dカメラ3
0−1〜30−5の主点であり、それらの主点O1 〜O
5 の各光軸H30−1〜H30−5が交点Kで交わるよ
うに設置されている。また、各光軸H30−1〜H30
−5は、交点Kにおける挟角を等分割するようにして、
後の計算処理を楽にしてある。但し、等分割でなくとも
良い。図8の斜線部分が撮像指定領域LSとなってい
る。主点O1 とO5 の間隔は2mの設定であるが、撮像
領域を広げるために、主点O2 ,O3 ,O4 の配置位置
を多少凹形に配置してある。即ち、撮像指定距離幅の中
心Oが、各3Dカメラ30−1〜30−5共に一点に集
めてある。On the other hand, as shown in FIG. 1, since it is necessary to place the subject within the angle of view of the five 3D cameras 30-1 to 30-5, the designated imaging shortest distance (about 1.4 m) can be obtained. However,
Optical axes H30- of 3D cameras 30-1 and 30-5 at both ends
1, the installation angle θ of H30-5 is 65 degrees.
The installation angle θ is an angle formed by the points connecting the principal points of the 3D cameras 30-1 and 30-5 at both ends and the optical axes H30-1 and H30-5 at both ends. This pattern is shown in FIG. In FIG. 8, O 1 , O 2 , O 3 , O 4 , and O 5 are 3D cameras 3
0-1 to 30-5 and their principal points O 1 to O
The optical axes H30-1 to H30-5 of 5 are installed so as to intersect at an intersection point K. In addition, each optical axis H30-1 to H30
-5 divides the included angle at the intersection K into equal parts,
It eases the subsequent calculation process. However, it does not have to be equally divided. The hatched portion in FIG. 8 is the imaged designation area LS. The distance between the principal points O 1 and O 5 is set to 2 m, but the principal points O 2 , O 3 , and O 4 are arranged in a slightly concave shape in order to widen the imaging area. That is, the center O of the designated imaging distance width is gathered at one point in each of the 3D cameras 30-1 to 30-5.
【0024】図9は、図6に示す2次元画像入力装置3
1,32のオフセット配置の説明図である。図8に示す
ように、3Dカメラ30−1〜30−5では、一定距離
範囲内を撮像すれば良いので、遠距離(即ち低位相差)
の画像は取り扱わない。そのため、図9に示すように、
図6(a)における2次元画像入力装置31,32の配
置関係で、所望最低位相差ΔBmim (例えば67画素
分)だけずらしてオフセットを設け、配置することも可
能である。このようなオフセットを設ければ、2次元画
像入力装置31,32の位相差検出領域を拡大できる。FIG. 9 shows the two-dimensional image input device 3 shown in FIG.
It is explanatory drawing of the offset arrangement | positioning of 1,32. As shown in FIG. 8, with the 3D cameras 30-1 to 30-5, it is only necessary to capture an image within a fixed distance range, and thus a long distance (that is, a low phase difference).
Image is not handled. Therefore, as shown in FIG.
Due to the arrangement relationship between the two-dimensional image input devices 31 and 32 in FIG. 6A , it is also possible to dispose the offset by offsetting it by the desired minimum phase difference ΔB mim (for example, 67 pixels). If such an offset is provided, the phase difference detection areas of the two-dimensional image input devices 31 and 32 can be expanded.
【0025】次に、図10〜図20を参照しつつ、図1
の装置の動作を説明する。図10(a)〜(c)は、図
1の各撮像指定領域内画像作成装置40−1〜40−5
の処理内容を示す図である。図11は、図1の各撮像指
定領域内画像作成装置40−1〜40−5における対応
点検索領域の限定領域の説明図である。図1の各3Dカ
メラ30−1〜30−5では、照射された被写体の画像
を入力して図11に示す2枚の濃淡画像S30a,S3
0bの信号をそれぞれ出力する。これらの各2枚の濃淡
画像S30a,S30bの信号は、通常、LSIメモリ
等に格納され、各撮像指定領域内画像作成装置40−1
〜40−5へ出力される。各撮像指定領域内画像作成装
置40−1〜40−5では、図10(a)〜(c)に示
すような処理を行う。Next, referring to FIG. 10 to FIG.
The operation of the device will be described. 10 (a) to 10 (c) are image creation devices 40-1 to 40-5 in the respective imaging designated areas of FIG.
It is a figure which shows the processing content of. FIG. 11 is an explanatory diagram of a limited area of the corresponding point search area in each of the image-capturing-designated-area image creation devices 40-1 to 40-5 in FIG. In each of the 3D cameras 30-1 to 30-5 in FIG. 1, the image of the illuminated subject is input and the two grayscale images S30a and S3 shown in FIG. 11 are input.
0b signals are output respectively. The signals of these two gray-scale images S30a and S30b are usually stored in an LSI memory or the like, and the image creation device 40-1 in each imaging designated area
To 40-5. The image-capturing-designated-region image creation devices 40-1 to 40-5 perform the processes shown in FIGS.
【0026】図10(a)は、2つの濃淡画像S30
a,S30bの例えば1つS30aを表わしている。撮
像領域が指定されているので、他の濃淡画像S30bの
位相差は、図11に示す例では60〜115画素の範囲
までに存在し、一方の濃淡画像S30aに対し、65画
素ずれた領域から、他端の領域から115画素ずれた領
域までを対応点検索を行って距離画像を検出してるのが
図10(a)である。この対応点検索は、図1の領域限
定対応点検索手段41によって行われる。つまり、領域
検定対応点検索手段41では、位相差検出時において図
10(a)に示すように、必要な領域(撮像指定領域)
LSのみを走査し、一対の濃淡画像と距離画像を生成
し、不要領域データ廃棄手段42へ送る。FIG. 10A shows two grayscale images S30.
a, S30b, for example, one S30a is represented. Since the imaging region is designated, the phase difference of the other grayscale image S30b exists in the range of 60 to 115 pixels in the example shown in FIG. 11, and is shifted from the region shifted by 65 pixels to one grayscale image S30a. FIG. 10A shows that the range image is detected by performing a corresponding point search from the area at the other end to an area displaced by 115 pixels. This corresponding point search is performed by the area-limited corresponding point search means 41 of FIG. That is, in the area verification corresponding point searching means 41, as shown in FIG. 10A at the time of detecting the phase difference, a necessary area (imaging designated area)
Only the LS is scanned to generate a pair of grayscale image and distance image, which are sent to the unnecessary area data discarding means 42.
【0027】不要領域データ廃棄手段42では、図10
(b)に示すように、撮像指定領域LS以外の不要領域
L42の画像を除去し、記号代入手段43へ送る。な
お、各3Dカメラ30−1〜30−5の画像データS3
0a,S30bを格納するメモリ容量を、予め必要な容
量値にしておけば、不要領域データ廃棄手段42を省略
できる。記号代入手段43では、図10(c)に示すよ
うに、撮像指定領域LSの幅範囲において、図10
(c)の斜線部分のように、撮像指定領域LSの一定距
離範囲以外(指定距離外)L43の被写体について、そ
の画像データを除去し、代わりに距離範囲外の記号を例
えば0として代入し、その結果得られた濃淡画像S44
と距離画像S45を濃淡画像メモリ44及び距離画像メ
モリ45にそれぞれ格納する。この段階で、濃淡画像メ
モリ44及び距離画像メモリ45には、撮像指定領域幅
内の所定距離範囲の画像と記号が記憶されることにな
る。濃淡画像メモリ44及び距離画像メモリ45に格納
された濃淡画像S44及び距離画像S45は、図12及
び図13に示すように、各表示密度画素作成装置50−
1〜50−5によってそれぞれ次のような処理が行われ
る。In the unnecessary area data discarding means 42, FIG.
As shown in (b), the image of the unnecessary area L42 other than the image pickup designated area LS is removed and sent to the symbol substitution means 43. In addition, the image data S3 of each of the 3D cameras 30-1 to 30-5
If the memory capacity for storing 0a and S30b is set to a required capacity value in advance, the unnecessary area data discarding means 42 can be omitted. In the symbol substituting means 43, as shown in FIG. 10C, in the width range of the imaging designated area LS, as shown in FIG.
As in the hatched portion in (c), the image data of the subject L43 other than the fixed distance range (outside the designated distance) of the image pickup designated area LS is removed, and instead, the symbol outside the distance range is substituted as 0, for example. Grayscale image S44 obtained as a result
And the distance image S45 are stored in the grayscale image memory 44 and the distance image memory 45, respectively. At this stage, the grayscale image memory 44 and the distance image memory 45 store images and symbols within a predetermined distance range within the width of the designated imaging area. The grayscale image S44 and the range image S45 stored in the grayscale image memory 44 and the range image memory 45 are displayed in the respective display density pixel creation devices 50-, as shown in FIGS.
The following processes are performed by 1 to 50-5.
【0028】図12は、図1の画素密度変換例の説明
図、及び図13はその画素密度変換方法の説明図であ
る。この例の場合、許容係数k2 が8であるので、画素
密度変換手段51では、まず処理511により、距離画
像S45を水平方向Hを8個、垂直方向Vを8個の群に
順次分割していく。なお、垂直方向Vは8個以外の数で
も良い。処理512では、各分割した群の中で距離画像
値(r1 ,r2 ,…)の分布の最大分布を示す距離値を
当該群の距離値rnew とし、それを処理513へ送る。
本実施例では、距離値r±1位相差分を累積して数える
ようにしている。FIG. 12 is an explanatory diagram of the pixel density conversion example of FIG. 1, and FIG. 13 is an explanatory diagram of the pixel density conversion method. In the case of this example, since the tolerance coefficient k 2 is 8, the pixel density conversion unit 51 first divides the range image S45 into groups of 8 in the horizontal direction H and 8 in the vertical direction V by processing 511. To go. The vertical direction V may be a number other than eight. In the process 512, the distance value indicating the maximum distribution of the distribution of the range image values (r 1 , r 2 , ...) In each divided group is set as the distance value r new of the group, and it is sent to the process 513.
In this embodiment, the distance values r ± 1 phase differences are accumulated and counted.
【0029】次に、処理513では、距離値rnew を持
つ画素に対応した濃淡画像の濃淡値のみの平均値をと
り、当該群の濃淡値Enew とする。これらの画面全体に
亘った処理の結果、濃淡画像S52及び距離画像S53
が得られ、それが濃淡画像メモリ52と距離画像メモリ
53にそれぞれ格納される。各3Dカメラ30−1〜3
0−5の出力画像については、各撮像指定領域内画像作
成装置40−1〜40−5と表示密度画像作成装置50
−1〜50−5でほぼ同様に処理される。但し、横方向
の撮像指定領域LSが各3Dカメラ30−1〜30−5
によって異なるので、各撮像指定領域内画像作成装置4
0−1〜40−5内の撮像指定領域LSには違いが設け
られている。両端の3Dカメラ30−1,30−5側の
表示密度画素作成装置50−1,50−5で画素密度変
換された濃淡画像S52及び距離画像S53は、死角対
処装置60において図14〜図20に示すような処理が
行われる。Next, in process 513, the average value of only the grayscale values of the grayscale image corresponding to the pixel having the distance value r new is taken and set as the grayscale value E new of the group. As a result of the processing over the entire screen, the grayscale image S52 and the distance image S53 are displayed.
Is obtained and stored in the grayscale image memory 52 and the range image memory 53, respectively. Each 3D camera 30-1 to 3
For the output images 0-5, the image-capturing-designated-area image creation devices 40-1 to 40-5 and the display density image creation device 50 are displayed.
-1 to 50-5 are processed in almost the same manner. However, the 3D cameras 30-1 to 30-5 are set in the laterally designated image pickup area LS.
The image creation device 4 within each imaging designated area
Differences are provided in the imaging designated area LS in 0-1 to 40-5. 14 to 20 in the blind spot coping device 60, the grayscale image S52 and the distance image S53 whose pixel densities have been converted by the display density pixel creation devices 50-1 and 50-5 on the 3D cameras 30-1 and 30-5 side at both ends. The processing as shown in is performed.
【0030】図14は、対向面判定手段61の処理内容
を示すもので、被写体の面の3Dカメラ30−1,30
−5に対する面の傾きの説明図である。図14中のO1
〜O5 は3Dカメラ30−1〜30−5の主点である。
例えば、右端の3Dカメラ30−5の主点O5 を用いて
対向面判定手段61の処理内容を説明する。なお、左端
の3Dカメラ30−1の主点O1 についても、傾き面の
正負のとり方が逆になるだけで、基本的な処理内容は同
様である。図15は、右端の3Dカメラ30−5
(O5 )に着目したときの被写体面の向きの判定方法の
説明図である。及び、図6は、図1の被写体面の成す角
と3Dカメラ設置角の説明図である。対向面判定手段6
1では、例えば画素を時計回りに走査する。この場合、
距離変化分を1画素(即ち、画素密度変化された画素の
ことをいい、以下同様の意味に使用する)で除した値が
一定値以上のときには、3Dカメラ30−5で見る面が
最も適した面で、それ以外の3Dカメラ30−1〜30
−4ではより急峻な面となってしまう。そこで、これら
の面については、右端の3Dカメラ30−5(O5 )で
見た濃淡画像S71及び距離画像S72を濃淡画像メモ
リ71及び距離画像メモリ72にそれぞれ記憶する。前
記の一定値とは、この例では等角に5台の3Dカメラ3
0−1〜30−5を用いているので、1画素当りの距離
変化分dl/dBが1/4・(π/2−θ)で表現され
る値のことである。例えば、図16に示すように、画角
θは65度であるので、光軸H30−5と直角を成す線
に対して−6.25度の傾きを持つ面がその一定値とな
る。そして、規格化された距離変化分が画素幅の約1/
9画素分に相当するので、画素幅方向に9画素走査した
ときの距離変化が1画素以下の面ということになる。FIG. 14 shows the processing contents of the facing surface determining means 61. The 3D cameras 30-1, 30 on the surface of the object.
It is explanatory drawing of the inclination of the surface with respect to -5. O 1 in FIG.
˜O 5 are the main points of the 3D cameras 30-1 to 30-5.
For example, the processing content of the facing surface determination means 61 will be described using the principal point O 5 of the rightmost 3D camera 30-5. Regarding the principal point O 1 of the leftmost 3D camera 30-1, the basic processing contents are the same except that the positive and negative directions of the inclined surface are reversed. FIG. 15 shows the rightmost 3D camera 30-5.
(O 5) is an explanatory view of the object plane orientation determination method when attention is paid to. 6A and 6B are explanatory diagrams of the angle formed by the object plane in FIG. 1 and the 3D camera installation angle. Opposing surface determination means 6
In 1, for example, pixels are scanned clockwise. in this case,
When the value obtained by dividing the distance change by 1 pixel (that is, the pixel whose pixel density has been changed, and used in the same meaning below) is a certain value or more, the surface viewed by the 3D camera 30-5 is most suitable. The other 3D cameras 30-1 to 30
At -4, the surface becomes steeper. Therefore, for these surfaces, the grayscale image S71 and the range image S72 viewed by the rightmost 3D camera 30-5 (O 5 ) are stored in the grayscale image memory 71 and the range image memory 72, respectively. In this example, the above-mentioned fixed value means that the three 3D cameras 3 are equiangular.
Since 0-1 to 30-5 are used, the distance change dl / dB per pixel is a value expressed by 1/4 · (π / 2−θ). For example, as shown in FIG. 16, since the angle of view θ is 65 degrees, a surface having an inclination of −6.25 degrees with respect to a line forming a right angle with the optical axis H30-5 has the constant value. Then, the normalized distance change is about 1 / of the pixel width.
Since it corresponds to 9 pixels, it means that the distance change when scanning 9 pixels in the pixel width direction is less than 1 pixel.
【0031】なお、規格化された距離変化分とは、その
距離値における画素幅と同じ寸法となる位相差変化分に
相当する。例えば、67画素の位相差を示す距離の被写
体では1/9画素分であるが、115画素の位相差を示
す距離では約1/5画素分となる。即ち、5画素幅方向
に走査したとき、1位相差変化分が−6.25度に相当
する。この判定基準を次の表1に示す。The standardized distance change corresponds to the phase difference change having the same dimension as the pixel width at the distance value. For example, the object having a distance showing a phase difference of 67 pixels has 1/9 pixels, but the distance having a phase difference of 115 pixels has about 1/5 pixels. That is, when scanning in the width direction of 5 pixels, one phase difference change corresponds to −6.25 degrees. The judgment criteria are shown in Table 1 below.
【0032】[0032]
【表1】 この表1において、位相差及び画素数共に計数値である
ので、量子化誤差が小さくなるように、計算結果の画素
数を四捨五入にて決定する方法をとっている。表1は、
検出された面の向きにより、他の3Dカメラ30−1,
…のデータの処理手順の優先順位付けをするもので、判
定基準内の3Dカメラ30−5のデータから当てはめる
ようにしている。この対向面判定手段61においては、
1位相差変化までの被写体面について取り扱う。1位相
差変化よりも大きい位相差変化は、次の死角検出手段6
2にて処理される。[Table 1] In Table 1, since both the phase difference and the pixel number are count values, the number of pixels of the calculation result is rounded off so that the quantization error becomes small. Table 1 shows
Depending on the direction of the detected surface, another 3D camera 30-1,
The data processing procedure is prioritized and the data of the 3D camera 30-5 within the criterion is applied. In the facing surface determination means 61,
Handle the subject plane up to 1 phase difference change. A phase difference change larger than one phase difference change is detected by the next blind spot detecting means 6
Processed in 2.
【0033】図17は、図1の死角検出手段62におけ
る死角の説明図である。最短距離においても、規格化距
離は1.7位相差である。そのため、死角検出手段62
において、位相差変化分は2位相差以上の変化が画素間
にあるところを死角として定義付けしている。図17に
示すように、死角には2通りの死角が存在する。1つは
撮像指定領域内の被写体自身の影となってしまう部分で
ある死角可能性領域Iである。他の1つは、被写体全体
が撮像指定領域LSの遠端に落とす影の部分である死角
可能性領域IIである。死角可能性領域Iは、3Dカメ
ラ30−5(O5 )においては負の2位相差変化以上の
変化の領域に相当し、正の値のときは無視する形で検出
される。3Dカメラ30−1(O1 )では正負が逆とな
る。この位相差変化の大きさにより、死角部分の幅が計
算されるので、その死角部分を埋めるように他の3Dカ
メラ30−1,…のデータを死角対応選択手段64にて
当てはめていく。このときは、3Dカメラ30−1(O
1 )から当てはめていき、3Dカメラ30−4までその
処理を行うが、死角部分の画素を埋めつくした時点で処
理を終了させる。FIG. 17 is an explanatory diagram of a blind spot in the blind spot detecting means 62 of FIG. Even at the shortest distance, the normalized distance is 1.7 phase difference. Therefore, the blind spot detection means 62
In, the phase difference change is defined as a blind spot where there is a change of two phase differences or more between pixels. As shown in FIG. 17, there are two types of blind spots. One is a blind spot possibility area I which is a portion that becomes a shadow of the subject itself in the imaging designated area. The other one is a blind spot possibility area II which is a shadow portion cast on the far end of the imaged designated area LS. In the 3D camera 30-5 (O 5 ), the blind spot possibility region I corresponds to a region of change equal to or more than the negative two-phase difference change, and is detected in a negligible form when the value is positive. The 3D camera 30-1 (O 1 ) has the opposite sign. Since the width of the blind spot portion is calculated based on the magnitude of this phase difference change, the blind spot correspondence selecting means 64 applies the data of the other 3D cameras 30-1, ... To fill the blind spot portion. At this time, the 3D camera 30-1 (O
The process is started from 1 ) and the process is performed up to the 3D camera 30-4, but the process is terminated when the pixels in the blind spots are completely filled.
【0034】図18は、図1の死角有無判断手段65で
死角有無を判別する際に用いる補正係数メモリ(例えば
ROM)の一例を示す図である。図19は、死角部分と
その死角を埋める他の3Dカメラの設置角との説明図で
ある。及び、図20は、画角位置と補正係数値との一例
を示す図である。前記の死角部分の寸法値は、各3Dカ
メラ30−1〜30−5の設置角によって埋めつくす画
素数に違いがある。そこで、この死角部分の寸法値は、
例えば図18に示すような補正係数ROMを作成してお
き、距離値lと画像位置Xで定まる係数を乗算して判定
するようにしている。FIG. 18 is a diagram showing an example of a correction coefficient memory (for example, ROM) used when the blind spot presence / absence determining means 65 of FIG. FIG. 19 is an explanatory diagram of a blind spot and an installation angle of another 3D camera that fills the blind spot. 20 is a diagram showing an example of the angle of view position and the correction coefficient value. The dimensional value of the blind spot portion has a difference in the number of pixels to be filled up depending on the installation angle of each of the 3D cameras 30-1 to 30-5. Therefore, the dimension value of this blind spot is
For example, a correction coefficient ROM as shown in FIG. 18 is created, and determination is made by multiplying the distance value 1 by a coefficient determined by the image position X.
【0035】このような補正係数の決め方の一例を、図
19及び図20を参照しつつ説明する。補正係数は、死
角と検出される向きに対して直角な方向から見る3Dカ
メラ30−1〜30−5の視線のとき最大となり、その
値を1とする。図20は、その直角な視線上を3Dカメ
ラ30−5(O5 )の有効画素内(例えば、−25度〜
+5度)についての係数値を示している。画角位置は各
3Dカメラ30−1〜30−5を構成する2次元画像入
力装置の撮像位置(画素番号)に対応する。そのため、
3Dカメラ30−1〜30−5の距離値と画像位置によ
り、他の3Dカメラの補正係数値が求められる。なお、
図18の補正係数ROMは、3Dカメラ30−5
(O5 )に対し、残りの3Dカメラ30−1(O1 )〜
30−4(O4)に対してそれぞれ設けられている。そ
の死角の大きさは、処理領域メモリ63に記憶される。An example of how to determine such a correction coefficient will be described with reference to FIGS. 19 and 20. The correction coefficient becomes maximum when the line of sight of the 3D cameras 30-1 to 30-5 is viewed from a direction perpendicular to the direction detected as a blind spot, and the value is set to 1. FIG. 20 shows the right-angle line of sight within the effective pixel of the 3D camera 30-5 (O 5 ) (for example, from −25 degrees to
The coefficient value for +5 degrees is shown. The angle-of-view position corresponds to the imaging position (pixel number) of the two-dimensional image input device forming each of the 3D cameras 30-1 to 30-5. for that reason,
The correction coefficient values of other 3D cameras are obtained from the distance values and image positions of the 3D cameras 30-1 to 30-5. In addition,
The correction coefficient ROM of FIG. 18 is a 3D camera 30-5.
For (O 5 ), the remaining 3D cameras 30-1 (O 1 ) to
It is provided for each of 30-4 (O 4 ). The size of the blind spot is stored in the processing area memory 63.
【0036】以上のように、図17に示す死角可能性領
域Iに他の3Dカメラ30−1〜30−4のデータを当
てはめる際も、対向面の角度を判断基準として、他の3
Dカメラ30−1〜30−4のデータ(位相差変化の小
さい面)が優先的に当てはめられる。当てはめる面で、
撮像指定遠端の記号を含めて全部埋めつくされなかった
場合には、それが死角有無判断手段65で判断され、そ
の死角部分S70が死角記憶メモリ70に格納される。As described above, when the data of the other 3D cameras 30-1 to 30-4 are applied to the blind spot possibility area I shown in FIG.
Data of the D cameras 30-1 to 30-4 (surfaces with small changes in phase difference) are preferentially applied. In terms of fitting
If all the symbols including the designated far end of the image are not filled up, it is judged by the blind spot presence / absence judging means 65, and the blind spot portion S70 is stored in the blind spot storage memory 70.
【0037】次に、図17に示す死角可能性領域II
は、各3Dカメラ30−1〜30−5の濃淡画像S52
及び距離画像S53の記号で置換した部分以外の距離値
を持った画像のその距離値から、撮像指定領域遠端まで
の距離範囲が全てこの死角可能性領域IIとなる。とこ
ろが、この死角可能性領域IIまでの間は、死角可能性
領域Iとして3Dカメラ30−1(O1 )及び30−5
(O5 )にて処理されているし、かつ死角可能性領域I
Iに対して表示については無効な記号に置き換えてある
ので、無視してよい領域といえる。つまり、死角対処装
置60では、死角可能性領域Iのみの死角処理で良く、
かつ表示画素の大きさよりも位相差変化の距離の方が小
さいので、両端の3Dカメラ30−1,30−5のみで
死角の有無を検出できる。また、その死角部分を他の3
Dカメラ30−2〜30−4のデータで埋めていき、そ
れでも残った部分を図1の装置では検出不能な死角とし
て認識できるようになっている。このように、中間の3
Dカメラ30−2〜30−4の死角部分は、両端の3D
カメラ30−1,30−5の死角を埋めていく処理過程
で、位相差変化の小さい画像を選択しながら埋めていく
ので、位相差の大きい死角部分が使われず、特に死角処
理の必要がない。Next, the blind spot possibility area II shown in FIG.
Is a grayscale image S52 of each 3D camera 30-1 to 30-5.
And the distance range from the distance value of the image having the distance value other than the portion replaced by the symbol of the distance image S53 to the far end of the designated image capturing area is the blind spot possibility area II. However, up to this blind spot possibility area II, the 3D cameras 30-1 (O 1 ) and 30-5 are designated as blind spot possibility areas I.
(O 5 ), and there is a possibility of blind spot I
The display for I has been replaced with an invalid symbol, so it can be said to be an area that can be ignored. That is, in the blind spot countermeasure device 60, it is sufficient to perform blind spot processing only on the blind spot possibility region I,
Moreover, since the distance of the phase difference change is smaller than the size of the display pixel, the presence or absence of the blind spot can be detected only by the 3D cameras 30-1 and 30-5 at both ends. In addition, the blind spot is the other 3
The data of the D cameras 30-2 to 30-4 are filled in, and the remaining portion can be recognized as a blind spot that cannot be detected by the apparatus of FIG. Thus, the middle 3
The blind spots of the D cameras 30-2 to 30-4 are 3D at both ends.
In the process of filling the blind spots of the cameras 30-1 and 30-5, the images with a small phase difference change are filled while being selected, so that the blind spot portion with a large phase difference is not used, and the blind spot processing is not particularly required. .
【0038】以上のようにして得られた死角部分以外の
画像について、カメラ番号(画角、設置角)や画素番号
(X方向、Y方向)といった画素番号S75、濃淡画像
S76、及び距離画像S77の組として画素番号メモリ
75、濃淡画像メモリ76、及び距離画像メモリ77に
順次記憶される。本実施例では、次のような利点を有し
ている。 (a) 撮像指定領域内画像作成装置40−1〜40−
5により撮像指定領域LSを設け、表示密度画素作成装
置50−1〜50−5により、該撮像指定領域LSの最
長距離において、距離検出精度(1位相差分)が表示画
像の1画素分以下の値になるように濃淡画像S52を合
成するようにしたので、両端の3Dカメラ30−1,3
0−5側の表示密度画素作成装置50−1,50−5の
出力距離画像S53のみに対向面判定手段61で対向面
の判定、及び死角検出手段62で死角検出を行えば、死
角部分と被写体面不適部分を簡単に特定できる。しか
も、中間の3Dカメラ30−2〜30−4側の表示密度
画素作成装置50−2〜50−4の出力距離画像S53
は、死角部分と被写体面不適部分に対応させれば良いの
で、従来の全画面を走査するのに比較し、画面の一部の
走査で良く、処理時間を短縮できる。さらに、中間の3
Dカメラ30−2〜30−4の信号に対しては、対向面
判定手段61及び死角検出手段62が不要となり、規模
の小さな死角対応選択手段64で処理できるので、装置
規模を小型化できる。With respect to the images other than the blind spots obtained as described above, the pixel number S75 such as the camera number (angle of view, installation angle) and the pixel number (X direction, Y direction), the grayscale image S76, and the distance image S77. Are sequentially stored in the pixel number memory 75, the grayscale image memory 76, and the distance image memory 77. The present embodiment has the following advantages. (A) Image creating device 40-1 to 40-
5, the image pickup designated area LS is provided by the display density pixel creation devices 50-1 to 50-5, and the distance detection accuracy (one phase difference) is one pixel or less of the display image at the longest distance of the image pickup designated area LS. Since the grayscale image S52 is composed so as to obtain the value, the 3D cameras 30-1 and 3-3 at both ends are combined.
If only the output distance image S53 of the display density pixel creation devices 50-1 and 50-5 on the 0-5 side is determined by the facing surface determination unit 61 and the blind spot detection unit 62 performs the blind spot detection, the blind spot portion is obtained. You can easily identify the unsuitable part of the subject plane. Moreover, the output distance image S53 of the display density pixel creation devices 50-2 to 50-4 on the side of the intermediate 3D cameras 30-2 to 30-4
Since it suffices to correspond to the blind spot portion and the object surface unsuitable portion, a part of the screen may be scanned compared with the conventional full screen scanning, and the processing time can be shortened. Furthermore, the middle 3
The signals from the D cameras 30-2 to 30-4 do not require the facing surface determination means 61 and the blind spot detection means 62, and can be processed by the small blind spot correspondence selection means 64, so that the device scale can be reduced.
【0039】(b) 死角有無判断手段65により、複
数視点3次元画像入力装置として、残存死角の有無がわ
かるので、得られた画像の残存死角による画質の劣化度
合を知ることができ、画像のファイリングの際のファイ
ル可否の判断ができる。 (c) 表示密度画素作成装置50−1〜50−5で画
素密度変換を行うときに、距離値に該当する濃淡画像S
44を選択して新たな濃淡画像値としているので、その
濃淡画像値は少なくとも被写体の濃淡値の合成値とな
り、他の被写体の濃淡値が紛れ込まない、純度の良い濃
淡値が得られる。なお、本発明は上記実施例に限定され
ず、例えば、図1の撮像指定領域内画像作成装置40−
1〜40−5、表示密度画素作成装置50−1〜50−
5、及び死角対処装置60等を、図示以外の構成に変更
する等、種々の変形が可能である。(B) Since the presence / absence of residual blind spots as a multi-viewpoint three-dimensional image input device is known by the blind spot presence / absence judging means 65, it is possible to know the degree of deterioration of the image quality due to the residual blind spots of the obtained image. It is possible to judge whether files can be filed at the time of filing. (C) The grayscale image S corresponding to the distance value when the pixel density conversion is performed by the display density pixel creation devices 50-1 to 50-5.
Since 44 is selected as a new grayscale image value, the grayscale image value becomes a composite value of at least the grayscale values of the subject, and the grayscale values of high purity are obtained in which the grayscale values of other subjects are not mixed. It should be noted that the present invention is not limited to the above-described embodiment, and for example, the image-capturing-designated-region image creating apparatus 40- of FIG.
1-40-5, display density pixel creation device 50-1-50-
5 and the blind spot countermeasure device 60, etc., can be modified in various ways, such as by changing to a configuration other than that shown in the drawing.
【0040】[0040]
【発明の効果】以上詳細に説明したように、第1の発明
によれば、撮像指定領域を設け、その撮像指定領域は複
数設置された個々の3次元画像入力装置の全ての視野に
少なくとも位置し、該撮像指定領域の距離幅の中心線の
交点が一点に集まるようにその個々の3次元画像入力装
置を設置したので、少ないデータ処理量で、被写体特定
処理とその最適画像の選択を行って死角部分の除去が行
える。そのため、処理回路規模の削減化と処理時間の短
縮化が可能となる。第2の発明によれば、撮像指定領域
外の画像データは3次元的に全て廃棄する不要領域デー
タ廃棄手段を設けたので、より少ないデータ処理量で死
角部分と被写体面不適部分を特定でき、より処理回路規
模の削減化と処理時間の短縮化が可能となる。As described in detail above, according to the first aspect of the present invention, the image pickup designation area is provided, and the image pickup designation area is located at least in all fields of view of the plurality of individual three-dimensional image input devices. However, since the individual three-dimensional image input devices are installed so that the intersections of the center lines of the distance width of the imaged designated area are gathered at one point, the subject specifying process and the selection of the optimum image thereof can be performed with a small amount of data processing. Can remove the blind spots. Therefore, it is possible to reduce the processing circuit scale and the processing time. According to the second aspect of the present invention, since the unnecessary area data discarding means for discarding all the image data outside the imaging designated area three-dimensionally is provided, it is possible to specify the blind spot portion and the object surface unsuitable portion with a smaller data processing amount, It is possible to further reduce the processing circuit scale and the processing time.
【0041】第3の発明によれば、撮像指定領域幅内の
最大距離値以上の画素には所定の記号を書込む記号代入
手段を設けたので、少ないデータ量で濃淡画像と距離画
像の作成が行える。第4の発明によれば、表示密度画素
作成手段を設けたので、撮像指定領域の最長距離におい
て、距離検出精度(例えば、1位相差分)が表示画素の
1画素分以下の値になるように濃淡画像が合成される。
そのため、複数台の3次元画像入力装置の両端の信号の
みに例えば対向面判定や死角検出を行えば、死角部分と
被写体面不適部分を簡単に特定できる。そして、中間に
配置した3次元画像入力装置の信号を死角部分と被写体
面不適部分に対応させることにより、従来の全画面を走
査するのに比較し、画面の一部の走査で良く、処理時間
の短縮化が可能となる。According to the third aspect of the invention, since the symbol substitution means for writing a predetermined symbol in the pixels having the maximum distance value or more within the width of the designated image pickup area is provided, the grayscale image and the distance image can be created with a small amount of data. Can be done. According to the fourth invention, since the display density pixel creating means is provided, the distance detection accuracy (for example, one phase difference) becomes a value equal to or less than one pixel of the display pixel at the longest distance of the designated image capturing area. Grayscale images are combined.
Therefore, if only the signals at both ends of the plurality of three-dimensional image input devices are used to perform the facing surface determination or the blind spot detection, the blind spot portion and the object surface unsuitable portion can be easily specified. Then, by making the signal of the three-dimensional image input device arranged in the middle correspond to the blind spot portion and the unsuitable portion of the object plane, it is sufficient to scan a part of the screen as compared with the conventional full screen scanning, and the processing time Can be shortened.
【0042】第5の発明によれば、表示密度画素作成手
段は画素密度変換を行うときに各画素の距離値の分布を
もとに新たな距離値とする機能を有するので、画素密度
変換が簡単に行える。第6の発明によれば、表示密度画
素作成手段は、画素密度変換を行った後の濃淡画像値に
おいて、新たな距離値に対応する画素の濃淡値のみを選
択処理して新たな濃淡画像値とする機能を有するので、
その新たな濃淡画像値を用いた死角検出が容易になる。
第7の発明によれば、死角対処手段を設けたので、両端
の3次元画像入力装置の信号のみに対向面判定及び死角
検出を行えば、死角部分と被写体面不適部分を簡単に特
定できる。そして、中間の3次元画像入力装置の信号は
死角部分と被写体面不適部分に対応させることになり、
従来の全画面を走査するのに比較し、画面の一部の走査
で良く、処理時間の短縮化が可能となる。しかも、中間
の3次元画像入力装置の信号に対しては対向面判定及び
死角検出の処理が不要となり、回路規模の小さな死角対
応選択手段で処理できるので、装置規模の小型化が可能
となる。According to the fifth aspect, the display density pixel creating means has a function of setting a new distance value based on the distribution of the distance value of each pixel when performing the pixel density conversion. Easy to do. According to the sixth aspect, the display density pixel creation means selects only the grayscale value of the pixel corresponding to the new distance value in the grayscale image value after the pixel density conversion to perform a new grayscale image value. Since it has a function to
The blind spot detection using the new gray image value becomes easy.
According to the seventh aspect of the invention, since the blind spot coping means is provided, the blind spot portion and the subject surface unsuitable portion can be easily specified by performing the facing surface determination and the blind spot detection only on the signals of the three-dimensional image input devices at both ends. Then, the signal of the intermediate three-dimensional image input device corresponds to the blind spot portion and the object surface unsuitable portion,
Compared with the conventional full-screen scanning, a part of the screen may be scanned, and the processing time can be shortened. Moreover, it is not necessary to perform the processing for determining the facing surface and the blind spot detection for the signal of the intermediate three-dimensional image input device, and the processing can be performed by the blind spot correspondence selecting unit having a small circuit scale, so that the device scale can be reduced.
【0043】第8の発明によれば、2次元画像入力装置
の相対位置にオフセットを設けたので、2次元画像入力
装置の位相差検出領域が広がる。第9の発明によれば、
死角検出手段は被写体の距離値により死角判別値を規格
化する機能を有するので、死角の検出が容易になる。第
10の発明によれば、死角有無判断手段は、被写体の3
次元位置により残存死角の判断基準となる画素数を変更
する機能を有するので、死角有無の判断が容易になる。According to the eighth invention, since the offset is provided at the relative position of the two-dimensional image input device, the phase difference detection area of the two-dimensional image input device is expanded. According to the ninth invention,
The blind spot detecting means has a function of standardizing the blind spot discriminating value according to the distance value of the subject, so that the blind spot can be easily detected. According to the tenth invention, the blind spot presence / absence determining means is
Since it has a function of changing the number of pixels serving as a criterion for determining the remaining blind spot depending on the dimensional position, it becomes easy to determine whether or not the blind spot exists.
【図1】本発明の実施例を示す複数視点3次元画像入力
装置の構成ブロック図である。FIG. 1 is a configuration block diagram of a multi-viewpoint three-dimensional image input device according to an embodiment of the present invention.
【図2】従来の3次元画像入力方式の1つであるステレ
オ画像法の説明図である。FIG. 2 is an explanatory diagram of a stereo image method which is one of conventional 3D image input methods.
【図3】図2のステレオ画像法で得られた濃淡画像と距
離画像の説明図である。FIG. 3 is an explanatory diagram of a grayscale image and a distance image obtained by the stereo image method of FIG.
【図4】従来の3次元画像表示方式の1つである多眼式
レンチキュラ方式の原理図である。FIG. 4 is a principle diagram of a multi-lens lenticular system, which is one of conventional 3D image display systems.
【図5】先の提案の複数視点3次元画像入力装置の概略
の構成ブロック図である。FIG. 5 is a schematic block diagram of the previously proposed multi-viewpoint three-dimensional image input device.
【図6】図1の3Dカメラの説明図である。FIG. 6 is an explanatory diagram of the 3D camera in FIG. 1.
【図7】図1の撮像指定距離範囲の説明図である。FIG. 7 is an explanatory diagram of an imaging designated distance range of FIG.
【図8】図1の撮像指定領域の説明図である。FIG. 8 is an explanatory diagram of an image capturing designated area in FIG.
【図9】図6に示す2次元画像入力装置のオフセット配
置の説明図である。9 is an explanatory diagram of an offset arrangement of the two-dimensional image input device shown in FIG.
【図10】図1の撮像指定領域内画像作成装置の処理内
容を示す説明図である。10 is an explanatory diagram showing the processing contents of the image-capturing-designated-region image creating apparatus of FIG. 1. FIG.
【図11】図1の対応点検索領域の限定領域を示す説明
図である。11 is an explanatory diagram showing a limited area of the corresponding point search area in FIG. 1. FIG.
【図12】図1の画素密度変換例を示す説明図である。FIG. 12 is an explanatory diagram showing an example of pixel density conversion of FIG. 1.
【図13】図1の画素密度変換方法を示す説明図であ
る。FIG. 13 is an explanatory diagram showing a pixel density conversion method of FIG.
【図14】図1の被写体面の傾きを示す説明図である。FIG. 14 is an explanatory diagram showing the inclination of the subject plane in FIG. 1.
【図15】図1の被写体面の判定方法を示す説明図であ
る。FIG. 15 is an explanatory diagram showing a method of determining the object plane of FIG. 1.
【図16】図1の被写体面のなす角と3Dカメラ設置角
を示す説明図である。16 is an explanatory diagram showing an angle formed by the object plane in FIG. 1 and a 3D camera installation angle.
【図17】図1の死角の説明図である。17 is an explanatory diagram of a blind spot in FIG. 1. FIG.
【図18】図1の死角有無を判別する際に用いる補正係
数ROMの構成例を示す図である。FIG. 18 is a diagram showing a configuration example of a correction coefficient ROM used when determining the presence or absence of a blind spot in FIG. 1;
【図19】図1の死角部分と死角を埋める他の3Dカメ
ラの設置角との説明図である。FIG. 19 is an explanatory diagram of a blind spot portion in FIG. 1 and an installation angle of another 3D camera that fills the blind spot.
【図20】図1の画角位置と補正係数値との一例を示す
図である。20 is a diagram showing an example of the angle-of-view position and the correction coefficient value of FIG.
30−1〜30−5 3Dカメラ 31,32 2次元画像入力装置 40−1〜40−5 撮像指定領域内画像作成装置 41 領域限定対応点検索手段 42 不要領域データ廃棄手段 43 記号代入手段 44,52,71,73,76 濃淡画像メモリ 45,53,72,74,77 距離画像メモリ 50−1〜50−5 表示密度画素作成装置 51 画素密度変換手段 60 死角対処装置 61 対応面判定手段 62 死角検出手段 63 処理領域メモリ 64 死角対応選択手段 65 死角有無判断手段 70 死角記憶メモリ 75 画素番号メモリ 30-1 to 30-5 3D camera 31, 32 two-dimensional image input device 40-1 to 40-5 image creation device in image pickup designated area 41 area limited corresponding point search means 42 unnecessary area data discarding means 43 symbol substitution means 44, 52, 71, 73, 76 Gray image memory 45, 53, 72, 74, 77 Distance image memory 50-1 to 50-5 Display density pixel creation device 51 Pixel density conversion means 60 Blind spot coping device 61 Corresponding surface determination means 62 Blind spot Detecting means 63 Processing area memory 64 Blind spot correspondence selecting means 65 Blind spot presence / absence judging means 70 Blind spot storage memory 75 Pixel number memory
Claims (10)
被写体を表現する濃淡画像の信号を出力する少なくとも
2個の2次元画像入力装置を有する3次元画像入力装置
を、複数台備えた複数視点3次元画像入力装置におい
て、 撮像指定領域を設け、その撮像指定領域は前記各3次元
画像入力装置の全ての視野に位置し、該撮像指定領域の
距離幅の中心線の交点が一点に集まるように前記各3次
元画像入力装置を配置したことを特徴とする複数視点3
次元画像入力装置。1. A plurality of three-dimensional image input devices having at least two two-dimensional image input devices for inputting an image of an illuminated subject and outputting a signal of a grayscale image representing the subject. In the viewpoint three-dimensional image input device, an imaging designated area is provided, the imaging designated area is located in all the visual fields of the respective three-dimensional image input devices, and the intersections of the center lines of the distance widths of the imaging designated area gather at one point. Multiple viewpoints 3 characterized by arranging the respective three-dimensional image input devices as described above
Dimensional image input device.
元的に全て廃棄する不要領域データ廃棄手段を、設けた
ことを特徴とする請求項1記載の複数視点3次元画像入
力装置。2. The multi-viewpoint three-dimensional image input device according to claim 1, further comprising: unnecessary area data discarding means for three-dimensionally discarding all image data outside the imaging designated area.
の画素には所定の記号を書込む記号代入手段を、設けた
ことを特徴とする請求項1記載の複数視点3次元画像入
力装置。3. The multi-viewpoint three-dimensional image input device according to claim 1, further comprising a symbol substituting means for writing a predetermined symbol in a pixel having a maximum distance value or more within the width of the designated imaging region. .
離検出精度が所望表示画素の画素幅より狭くなるように
前記3次元画像入力装置の出力画像に対し画素密度変換
を行って濃淡画像を合成する表示密度画素作成手段を、
前記各3次元画像入力装置毎に設けたことを特徴とする
請求項1記載の複数視点3次元画像入力装置。4. A grayscale image is synthesized by performing pixel density conversion on the output image of the three-dimensional image input device so that the distance detection accuracy becomes narrower than the pixel width of the desired display pixel at the longest distance of the image pickup designated area. Display density pixel creation means,
The multi-viewpoint three-dimensional image input device according to claim 1, wherein the three-dimensional image input device is provided for each of the three-dimensional image input devices.
変換を行うときに各画素の距離値の分布をもとに新たな
距離値とする機能を有することを特徴とする請求項4記
載の複数視点3次元画像入力装置。5. The display density pixel creating means has a function of setting a new distance value based on a distribution of distance values of each pixel when performing pixel density conversion. Multi-view 3D image input device.
変換を行った後の濃淡画像値において、新たな距離値に
対応する画素の濃淡値のみを選択処理して新たな濃淡画
像値とする機能を有することを特徴とする請求項4記載
の複数視点3次元画像入力装置。6. The display density pixel creating means selects only the grayscale value of a pixel corresponding to a new distance value from the grayscale image values after the pixel density conversion to obtain a new grayscale image value. The multi-viewpoint three-dimensional image input device according to claim 4, which has a function.
端の3次元画像入力装置側に設けられた前記表示密度画
素作成手段の出力に基づき前記被写体面の向きを判定す
る対向面判定手段と、 前記対向面判定手段の判定結果に基づき前記被写体の死
角を検出する死角検出手段と、 前記両端の3次元画像入力装置以外の3次元画像入力装
置側に設けられた前記表示密度画素作成手段の出力に基
づき前記対向面判定手段及び死角検出手段の処理領域に
ついて最適画像を選択し当てはめる死角対応選択手段
と、 前記死角対応選択手段の当てはめ状況から残存死角の有
無を判断する死角有無判断手段とを、備えた死角対処手
段を、 前記複数の表示密度画素作成手段の出力側に接続したこ
とを特徴とする請求項4記載の複数視点3次元画像入力
装置。7. A facing surface determination means for determining the orientation of the object surface based on the output of the display density pixel creation means provided on both sides of the three-dimensional image input device of the plurality of three-dimensional image input devices. And a blind spot detection unit that detects a blind spot of the subject based on the determination result of the facing surface determination unit, and the display density pixel creation unit provided on a side of a three-dimensional image input device other than the three-dimensional image input devices at both ends. A blind spot correspondence selecting means for selecting and fitting an optimum image for the processing area of the facing surface judging means and the blind spot detecting means based on the output of the blind spot presence / absence judging means for judging the presence or absence of the residual blind spot from the fitting condition of the blind spot corresponding selecting means. The multi-viewpoint three-dimensional image input device according to claim 4, wherein the blind spot coping means provided with is connected to an output side of the plurality of display density pixel creating means.
向において、前記表示密度画素作成手段で合成した表示
画素密度により決まる位相差の画素数分だけ、所定の光
軸間隔に対して前記2次元画像入力装置の相対位置にオ
フセットを設けたことを特徴とする請求項4記載の複数
視点3次元画像入力装置。8. In the phase difference detection direction of the two-dimensional image input device, the number of pixels of the phase difference determined by the display pixel density synthesized by the display density pixel creating means is equal to the 2 The multi-viewpoint three-dimensional image input device according to claim 4, wherein an offset is provided at a relative position of the three-dimensional image input device.
値により死角判別値を規格化する機能を有することを特
徴する請求項7記載の複数視点3次元画像入力装置。9. The multi-viewpoint three-dimensional image input device according to claim 7, wherein the blind spot detecting means has a function of standardizing a blind spot discriminant value according to a distance value of the subject.
の3次元位置により残存死角の判断基準となる画素数を
変更する機能を有することを特徴とする請求項7記載の
複数視点3次元画像入力装置。10. The multi-viewpoint three-dimensional image input according to claim 7, wherein the blind spot presence / absence determining means has a function of changing the number of pixels serving as a criterion for determining the remaining blind spot depending on the three-dimensional position of the subject. apparatus.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP4254663A JP2795784B2 (en) | 1992-09-24 | 1992-09-24 | Multiple viewpoint 3D image input device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP4254663A JP2795784B2 (en) | 1992-09-24 | 1992-09-24 | Multiple viewpoint 3D image input device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH06109450A true JPH06109450A (en) | 1994-04-19 |
| JP2795784B2 JP2795784B2 (en) | 1998-09-10 |
Family
ID=17268140
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP4254663A Expired - Fee Related JP2795784B2 (en) | 1992-09-24 | 1992-09-24 | Multiple viewpoint 3D image input device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2795784B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7103212B2 (en) | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
| JP2008052741A (en) * | 2006-08-24 | 2008-03-06 | Harman Becker Automotive Systems Gmbh | Method for imaging the surrounding of vehicle, and system for the same |
| JP2018063162A (en) * | 2016-10-12 | 2018-04-19 | 国際航業株式会社 | Image acquiring method and image acquiring device |
| JP2018063556A (en) * | 2016-10-12 | 2018-04-19 | 国際航業株式会社 | Image correcting method and image correcting device |
-
1992
- 1992-09-24 JP JP4254663A patent/JP2795784B2/en not_active Expired - Fee Related
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7103212B2 (en) | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
| JP2008052741A (en) * | 2006-08-24 | 2008-03-06 | Harman Becker Automotive Systems Gmbh | Method for imaging the surrounding of vehicle, and system for the same |
| JP2018063162A (en) * | 2016-10-12 | 2018-04-19 | 国際航業株式会社 | Image acquiring method and image acquiring device |
| JP2018063556A (en) * | 2016-10-12 | 2018-04-19 | 国際航業株式会社 | Image correcting method and image correcting device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2795784B2 (en) | 1998-09-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6608622B1 (en) | Multi-viewpoint image processing method and apparatus | |
| JP5238429B2 (en) | Stereoscopic image capturing apparatus and stereoscopic image capturing system | |
| EP0684585B1 (en) | Image forming method and apparatus | |
| KR101629479B1 (en) | High density multi-view display system and method based on the active sub-pixel rendering | |
| US6791598B1 (en) | Methods and apparatus for information capture and steroscopic display of panoramic images | |
| EP0680014B1 (en) | Image processing method and apparatus | |
| EP0680019B1 (en) | Image processing method and apparatus | |
| US7570280B2 (en) | Image providing method and device | |
| CN102792333B (en) | Image processing apparatus, method, program and record medium | |
| JP4065488B2 (en) | 3D image generation apparatus, 3D image generation method, and storage medium | |
| US20060018509A1 (en) | Image generation device | |
| JPH09231373A (en) | Device for measuring three-dimensional position | |
| JP3032414B2 (en) | Image processing method and image processing apparatus | |
| JP4193342B2 (en) | 3D data generator | |
| CN116708746A (en) | Naked eye 3D-based intelligent display processing method | |
| JPH1062140A (en) | Method and device for reconstruction of shape | |
| JP4193292B2 (en) | Multi-view data input device | |
| JPH07109625B2 (en) | 3D stereoscopic method | |
| JP2006119843A (en) | Image forming method, and apparatus thereof | |
| CN108805921A (en) | Image-taking system and method | |
| KR102112491B1 (en) | Method for description of object points of the object space and connection for its implementation | |
| JP2795784B2 (en) | Multiple viewpoint 3D image input device | |
| JPH08201941A (en) | Three-dimensional image forming method | |
| JPH07220113A (en) | Image recording / reproducing device | |
| JPH07296195A (en) | Image processing apparatus and method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19980616 |
|
| LAPS | Cancellation because of no payment of annual fees |