[go: up one dir, main page]

JP2003132349A - Drawing equipment - Google Patents

Drawing equipment

Info

Publication number
JP2003132349A
JP2003132349A JP2001326591A JP2001326591A JP2003132349A JP 2003132349 A JP2003132349 A JP 2003132349A JP 2001326591 A JP2001326591 A JP 2001326591A JP 2001326591 A JP2001326591 A JP 2001326591A JP 2003132349 A JP2003132349 A JP 2003132349A
Authority
JP
Japan
Prior art keywords
image
vehicle
dimensional object
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001326591A
Other languages
Japanese (ja)
Other versions
JP2003132349A5 (en
Inventor
Akira Ishida
明 石田
Atsushi Iizaka
篤 飯阪
Takashi Yoshida
崇 吉田
Nobuhiko Yasui
伸彦 安井
Masamichi Nakagawa
雅通 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001326591A priority Critical patent/JP2003132349A/en
Publication of JP2003132349A publication Critical patent/JP2003132349A/en
Publication of JP2003132349A5 publication Critical patent/JP2003132349A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 ドライバに違和感を与えにくい運転支援画像
を生成する描画装置を提供すること。 【解決手段】 描画装置100は、撮像部101によっ
て取得した画像に写っている障害物の3次元座標を、車
速センサ102および操舵角センサ103からの計測値
に基づいて検出する。描画装置100は、障害物の存在
領域を近似する平面を面モデル抽出部105で算出す
る。描画装置100は、算出された平面に撮像部101
で取得した画像を投影して、合成画像を作成し、表示部
107に表示させる。
(57) [Summary] [PROBLEMS] To provide a drawing device for generating a driving support image that does not easily give a driver an uncomfortable feeling. A drawing device detects three-dimensional coordinates of an obstacle in an image acquired by an imaging unit based on measurement values from a vehicle speed sensor and a steering angle sensor. In the drawing apparatus 100, the plane model extraction unit 105 calculates a plane approximating the area where the obstacle is present. The drawing apparatus 100 sets the imaging unit 101 on the calculated plane.
The synthesized image is created by projecting the image acquired in step (1) and displayed on the display unit 107.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、描画装置に関し、
より特定的には、運転支援装置に組み込むことが可能な
描画装置に関する。さらに詳しく述べると、車両に固定
されている撮像装置により取り込まれた撮像画像を基礎
として、車両の周辺の状況を表す運転支援画像を生成す
る描画装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a drawing device,
More specifically, it relates to a drawing device that can be incorporated in a driving support device. More specifically, the present invention relates to a drawing device that generates a driving assistance image representing a situation around a vehicle based on a captured image captured by an imaging device fixed to the vehicle.

【0002】[0002]

【従来の技術】従来の運転支援装置の一例として、国際
公開WO00/07373号公報に開示されている車両
周囲監視装置がある。国際公開WO00/07373号
公報に開示されている車両周囲監視装置は、車両の全周
囲方向を撮影するための複数の撮像装置を備えている。
各撮像装置には、互いに異なる撮影領域が割り当てられ
ている。ここで、撮影領域とは、車両の周辺の一部であ
って、全ての撮影領域には、少なくとも車両の後方部方
向が含まれている。以上の各撮像装置は、自身の撮像領
域の状況を表す画像(以下、撮影画像と称する)を取り
込む。
2. Description of the Related Art As an example of a conventional driving support device, there is a vehicle surroundings monitoring device disclosed in International Publication WO00 / 07373. The vehicle periphery monitoring device disclosed in International Publication WO00 / 07373 includes a plurality of image capturing devices for capturing an image of the entire periphery of the vehicle.
Different imaging areas are assigned to the respective imaging devices. Here, the shooting area is a part of the periphery of the vehicle, and all the shooting areas include at least the rear direction of the vehicle. Each of the above imaging devices captures an image (hereinafter, referred to as a captured image) representing the situation of its own imaging region.

【0003】国際公開WO00/07373号公報に開
示されている車両周囲監視装置は、各撮像装置により取
り込まれた撮影画像を基礎として、車両の周辺(車両の
後方部方向を含む)を真上から見た一つの周辺画像を生
成する。より具体的には、車両周囲監視装置は、各撮像
装置が取り込んだ撮影画像に視点変換処理を施し、車両
周辺を真上から見下ろした周辺画像を生成する。上記視
点変換処理では、車両周囲監視装置の処理負担を軽くす
るため、各撮影画像に映る立体物は全て路面上に存在す
ると仮定される。車両周辺監視装置は、撮像装置を視点
として、撮像画像に映る立体物を路面に投影して、周辺
画像を得るための空間データを生成する。以上の空間デ
ータを基礎として、車両周辺監視装置は、複数の撮影画
像から一つの周辺画像を合成する。
The vehicle surroundings monitoring device disclosed in International Publication WO00 / 07373 discloses a vehicle surroundings (including a rearward direction of the vehicle) from directly above, based on a photographed image captured by each imaging device. Generate one peripheral image that you see. More specifically, the vehicle surroundings monitoring device performs a viewpoint conversion process on the captured image captured by each image capturing device to generate a peripheral image of the vehicle surroundings viewed from directly above. In the viewpoint conversion process, in order to reduce the processing load on the vehicle surroundings monitoring device, it is assumed that all three-dimensional objects shown in each captured image are present on the road surface. The vehicle periphery monitoring device projects spatial objects for capturing a peripheral image by projecting a three-dimensional object in a captured image onto a road surface with the image capturing device as a viewpoint. Based on the above spatial data, the vehicle periphery monitoring device synthesizes one periphery image from a plurality of captured images.

【0004】ユーザは、車両周囲監視装置が表示する周
辺画像(車両の後方部方向の画像を含む)を参考にしな
がら、車両の操作(バックでの駐車など)を行う。
The user operates the vehicle (parking at the back, etc.) while referring to the peripheral image (including the image in the rear direction of the vehicle) displayed by the vehicle surroundings monitoring device.

【0005】[0005]

【発明が解決しようとする課題】しかし、上記車両周囲
監視装置には、車両の周辺に存在する立体物が周辺画像
上に正しく描かれない場合があるという問題点があっ
た。より具体的には、図30に示すように、路面Frd
上に逆「L」字型の断面を有する立体物Bがあると想定
する。以上の立体物Bを撮像装置2001で撮影したと
き、立体物Bの鉛直方向の部分Bvと水平方向の部分B
hとは、撮影画像S3001に映る。上記の視点変換処
理では、立体物Bが撮像装置2001を視点として路面
Frdに投影される。図30にはさらに、撮像装置20
01を視点として上記部分Bvが路面Frdに投影され
た投影部分Bv’が描かれている。したがって、上記の
視点変換処理によって、車両周辺監視装置は、上記部分
Bhと投影部分Bv’とから構成される仮想物体B’を
真上から見下ろした周辺画像として取り扱い、周辺画像
を合成する。
However, the above-described vehicle surroundings monitoring device has a problem that a three-dimensional object existing around the vehicle may not be drawn correctly on the surrounding image. More specifically, as shown in FIG. 30, the road surface Frd
Assume there is a solid B having an inverted "L" shaped cross section above. When the above three-dimensional object B is photographed by the imaging device 2001, the vertical portion Bv and the horizontal portion B of the three-dimensional object B are captured.
h is reflected in the captured image S3001. In the viewpoint conversion process described above, the three-dimensional object B is projected onto the road surface Frd with the imaging device 2001 as the viewpoint. In FIG. 30, the imaging device 20 is further provided.
A projection portion Bv ′ in which the above portion Bv is projected on the road surface Frd is drawn with 01 as a viewpoint. Therefore, by the above-mentioned viewpoint conversion processing, the vehicle periphery monitoring device treats the virtual object B ′ composed of the portion Bh and the projection portion Bv ′ as a peripheral image viewed from directly above and synthesizes the peripheral image.

【0006】しかしながら、仮想物体B’は、撮像装置
2001から見た物体Bと比べると大きく変形して見え
る。具体的には、物体Bの鉛直方向の部分Bvが大きく
引き伸ばされたようして、仮想物体B’が生成されてい
る。その結果、国際公開WO00/07373号公報に
開示されている車両周辺監視装置は、車両の周辺に存在
する立体物を周辺画像上に正しく描くことができず、ド
ライバーに違和感を与える周辺画像を生成していた。
However, the virtual object B ′ looks much deformed compared to the object B seen from the image pickup apparatus 2001. Specifically, the virtual object B ′ is generated as if the vertical portion Bv of the object B was greatly stretched. As a result, the vehicle periphery monitoring device disclosed in International Publication WO00 / 07373 cannot correctly draw a three-dimensional object existing in the periphery of the vehicle on the periphery image, and generates a periphery image that gives the driver a sense of discomfort. Was.

【0007】それ故に、本発明の目的は、ドライバーに
違和感を与えにくい運転支援画像を生成する描画装置を
提供することである。
[0007] Therefore, an object of the present invention is to provide a drawing device for generating a driving support image which does not give a driver a feeling of strangeness.

【0008】[0008]

【課題を解決するための手段および発明の効果】第1の
発明は、車両の運転支援用の表示画像を作成するための
描画装置であって、車両に設置されたカメラから、当該
車両の周辺の画像を取得する撮像画像取得手段と、撮像
画像取得手段が取得した画像に基づいて、車両周辺の立
体物の存在領域を検出する立体物検出手段と、立体物検
出手段が検出した立体物の存在領域を近似する平面を抽
出する面モデル抽出手段と、面モデル抽出手段が抽出し
た平面に撮像画像取得手段が取得した画像を投影して、
表示すべき合成画像を作成する画像合成部とを備える。
A first aspect of the present invention is a drawing device for creating a display image for driving assistance of a vehicle, which is provided from a camera installed in the vehicle to the periphery of the vehicle. Image acquisition means for acquiring the image of the three-dimensional object, and a three-dimensional object detection means for detecting the existence area of the three-dimensional object around the vehicle based on the image acquired by the captured image acquisition means, and the three-dimensional object detected by the three-dimensional object detection means. By projecting the image acquired by the captured image acquisition means onto the plane extracted by the plane model extracting means for extracting the plane approximating the existing area, and the plane model extracting means,
And an image synthesizing unit for creating a synthetic image to be displayed.

【0009】第1の発明によれば、描画装置は、車両周
辺に存在する立体物の存在領域を近似する平面を抽出す
ることができ、抽出した平面に撮像された画像を投影す
ることによって、合成画像の歪みを低減することが可能
となる。
According to the first aspect of the present invention, the drawing device can extract a plane approximating the existence area of the three-dimensional object existing around the vehicle, and by projecting the imaged image on the extracted plane, It is possible to reduce the distortion of the composite image.

【0010】第2の発明は、第1の発明に従属する発明
であって、画像合成部は、面モデル抽出手段が抽出した
平面に撮像画像取得手段が取得した画像を投影するため
のマッピングテーブルと、立体物検出手段によって逐次
抽出される平面に基づいて、マッピングテーブルを修正
していくマッピングテーブル修正手段と、マッピングテ
ーブルに基づいて、合成画像を逐次作成する画像合成手
段とを含む。
A second invention is according to the first invention, wherein the image synthesizing section projects a mapping table for projecting the image acquired by the captured image acquiring means onto the plane extracted by the surface model extracting means. And a mapping table correcting means for correcting the mapping table based on the planes sequentially extracted by the three-dimensional object detecting means, and an image synthesizing means for sequentially creating a synthetic image based on the mapping table.

【0011】第2の発明によれば、描画装置は、立体物
の存在領域を近似する平面に撮像された画像を投影する
ためのマッピングテーブルを逐次設定していくので、平
面に投影するための膨大な計算をすることなく、合成画
像を作成することが可能となる。
According to the second aspect of the present invention, the drawing apparatus sequentially sets the mapping table for projecting the imaged image on the plane that approximates the existing area of the three-dimensional object, so that the image is projected on the plane. It is possible to create a composite image without enormous calculation.

【0012】第3の発明は、第2の発明に従属する発明
であって、画像合成部は、マッピングテーブルにおい
て、データが存在しないと扱われている合成画像上の領
域に貼り付けるためのCG画像を作成するCGデータ作
成手段をさらに含み、画像合成手段は、CGデータ作成
手段が作成したCG画像を合成画像上においてデータが
存在しないとして扱われている領域に貼り付けて、合成
画像を作成することを特徴とする。
A third aspect of the invention is an aspect according to the second aspect of the invention, in which the image synthesizing unit pastes a CG for pasting in an area on the synthetic image where data is treated as not existing in the mapping table. The image synthesizing unit further includes a CG data creating unit that creates an image, and the image synthesizing unit creates a composite image by pasting the CG image created by the CG data creating unit onto an area of the composite image that is treated as having no data. It is characterized by doing.

【0013】第3の発明によれば、描画装置は、マッピ
ングテーブルにおいてデータが存在しないと扱われてい
る合成画像上の領域に貼り付けるためのCG画像を作成
して、合成画像を作成するので、ドライバーにとってよ
り見やすい車両周辺の合成画像を作成することが可能と
なる。
According to the third aspect of the invention, the drawing apparatus creates a CG image to be pasted in an area on the composite image which is treated as having no data in the mapping table, and creates the composite image. , It is possible to create a composite image of the vehicle surroundings that is easier for the driver to see.

【0014】第4の発明は、第1の発明に従属する発明
であって、車両の移動量を検出する車両移動量検出手段
をさらに含み、立体物検出手段は、車両移動量検出手段
が検出した車両の移動量に基づいて、移動前の画像と移
動後の画像とを比較して、撮像画像取得手段が取得した
画像に撮像されている立体物までの距離を算出して、車
両周辺の立体物の存在領域を検出することを特徴とす
る。
A fourth invention is an invention according to the first invention, further comprising a vehicle movement amount detecting means for detecting a movement amount of the vehicle, wherein the three-dimensional object detecting means is detected by the vehicle movement amount detecting means. Based on the amount of movement of the vehicle, the image before movement and the image after movement are compared to calculate the distance to the three-dimensional object captured in the image acquired by the captured image acquisition means, The present invention is characterized by detecting the existence area of a three-dimensional object.

【0015】第4の発明によれば、描画装置は、車両の
移動量と、撮像した移動前後の画像とによって、間接的
に立体物の存在領域を検出することが可能となる。従っ
て、描画装置は、立体物に直接電波等を送信して反射さ
せて立体物までの距離を測距する超音波センサやレーザ
レーダセンサなどのアクティブ測距センサを用いなくて
済むので車両に設置するセンサの数を減らすことが可能
となる。また、アクティブ測距センサなどは、車両の周
辺に設置する必要があるので、車両の外観を損ねること
となるが、第4の発明においては、車両の外観を損ねる
ことなく車両周辺の立体物の存在領域を検出することが
可能となる。
According to the fourth aspect, the drawing device can indirectly detect the existence area of the three-dimensional object based on the moving amount of the vehicle and the captured images before and after the movement. Therefore, the drawing device does not need to use an active range-finding sensor such as an ultrasonic sensor or a laser radar sensor that directly transmits a radio wave or the like to the three-dimensional object and reflects it to measure the distance to the three-dimensional object. It is possible to reduce the number of sensors used. Further, since the active distance measuring sensor and the like need to be installed in the vicinity of the vehicle, the appearance of the vehicle is impaired. However, in the fourth invention, the three-dimensional object around the vehicle is not impaired without impairing the appearance of the vehicle. It becomes possible to detect the existing area.

【0016】第5の発明は、第4の発明に従属する発明
であって、車両移動量検出手段は、車両に設置された車
速センサおよび操舵角センサの測定値に基づいて、車両
の移動量を検出することを特徴とする。
A fifth aspect of the invention is an invention according to the fourth aspect of the invention, wherein the vehicle movement amount detection means is based on the measured values of a vehicle speed sensor and a steering angle sensor installed in the vehicle, Is detected.

【0017】第5の発明によれば、描画装置は、車両に
設置されている車速センサおよび操舵角センサから車両
の移動量を求めると、撮像した画像とによって、間接的
に立体物の存在領域を検出することができる。
According to the fifth aspect of the invention, when the drawing device obtains the moving amount of the vehicle from the vehicle speed sensor and the steering angle sensor installed in the vehicle, the drawing image indirectly captures the existence area of the three-dimensional object. Can be detected.

【0018】第6の発明は、第4の発明に従属する発明
であって、車両移動量検出手段が検出した車両の移動量
に基づいて、立体物検出手段が検出した立体物の将来の
存在領域を予測する予測手段をさらに含み、面モデル抽
出手段は、予測手段が予測した立体物の存在領域に基づ
いて、平面を抽出することを特徴とする。
A sixth invention is an invention according to the fourth invention, wherein the future existence of the three-dimensional object detected by the three-dimensional object detecting means is detected based on the moving amount of the vehicle detected by the vehicle moving amount detecting means. The plane model extracting means further includes a predicting means for predicting the area, and the plane model extracting means extracts the plane based on the existing area of the three-dimensional object predicted by the predicting means.

【0019】第6の発明によれば、立体物の将来の存在
領域を予測することができるので、立体物検出手段が立
体物の存在領域を十分に検出することができなかったと
しても、予測領域に基づいて、平面を求めることができ
る。したがって、途中で途絶えることのない表示画像を
ドライバーに提供することが可能となる。
According to the sixth aspect of the present invention, the future area of existence of the three-dimensional object can be predicted. Therefore, even if the three-dimensional object detecting means cannot sufficiently detect the area of existence of the three-dimensional object, the prediction is possible. The plane can be determined based on the area. Therefore, it is possible to provide the driver with a display image that is not interrupted on the way.

【0020】第7の発明は、第1の発明に従属する発明
であって、立体物検出手段は、立体物の輪郭を構成する
エッジ上の点の3次元座標を割り出して立体物の存在領
域を検出し、面モデル抽出手段は、立体物検出手段が割
り出したエッジ上の点の3次元座標に基づいて、立体物
の存在領域を近似する平面を抽出することを特徴とす
る。
A seventh invention is an invention according to the first invention, wherein the three-dimensional object detecting means determines the three-dimensional coordinates of points on the edge forming the contour of the three-dimensional object to determine the existence area of the three-dimensional object. And the plane model extracting means extracts a plane that approximates the existing area of the three-dimensional object, based on the three-dimensional coordinates of the points on the edge determined by the three-dimensional object detecting means.

【0021】第7の発明によれば、描画装置は、3次元
座標で表される立体物の存在領域に基づいて、平面を抽
出するので、より正確な立体物の存在領域を近似する平
面を求めることができる。したがって、ドライバーは、
表示される合成画像を見て正確に駐車などの運転操作を
行うことが可能となる。
According to the seventh aspect, the drawing apparatus extracts the plane based on the existence area of the three-dimensional object represented by the three-dimensional coordinates. Therefore, a more accurate plane approximates the existence area of the three-dimensional object. You can ask. Therefore, the driver
It is possible to accurately perform a driving operation such as parking by looking at the displayed composite image.

【0022】第8の発明は、第1の発明に従属する発明
であって、画像合成部は、自車両を示すモデル図を貼り
付けて合成画像を作成することを特徴とする。
An eighth invention is an invention according to the first invention, wherein the image synthesizing section pastes a model diagram showing the own vehicle to create a synthetic image.

【0023】第8の発明によれば、描画装置は、合成画
像上に自車両のモデル図を貼り付けるので、ドライバー
は自車両と立体物との位置関係をはっきり認識すること
ができ、ドライバーにとってより見やすい車両周辺の合
成画像を作成することが可能となる。
According to the eighth aspect of the invention, since the drawing device pastes the model diagram of the own vehicle on the composite image, the driver can clearly recognize the positional relationship between the own vehicle and the three-dimensional object. It is possible to create a composite image around the vehicle that is easier to see.

【0024】第9の発明は、車両の運転支援用の表示画
像を作成するための描画装置であって、車両に設置され
たカメラから、当該車両の周辺画像を取得する撮像画像
取得手段と、撮像画像取得手段が取得した画像に基づい
て、車両周辺の立体物の存在領域を検出する立体物検出
手段と、立体物検出手段が検出した立体物を路面に投影
したときの領域を抽出する領域抽出手段と、領域抽出手
段が抽出した領域に基づいて、路面上に投影した立体物
の存在領域を示すCG画像を作成するCG画像作成手段
と、撮像画像取得手段が取得した画像を路面上に投影
し、投影して得る画像にCG画像作成手段が作成したC
G画像を重ね、表示すべき合成画像を作成する画像合成
部とを備える。
A ninth aspect of the present invention is a drawing device for producing a display image for driving assistance of a vehicle, and a picked-up image obtaining means for obtaining a peripheral image of the vehicle from a camera installed in the vehicle, Based on the image acquired by the captured image acquisition means, a three-dimensional object detection means for detecting the existence area of the three-dimensional object around the vehicle, and an area for extracting the area when the three-dimensional object detected by the three-dimensional object detection means is projected on the road surface. Based on the extraction means, the area extracted by the area extraction means, a CG image creation means for creating a CG image showing the existing area of the three-dimensional object projected on the road surface, and the image acquired by the captured image acquisition means on the road surface. C created by the CG image creating means on the image projected and obtained by projection
An image combining unit that overlaps the G images and creates a combined image to be displayed.

【0025】第9の発明によれば、描画装置は、立体物
を路面上に投影したときの領域を抽出して、当該領域を
示すCG画像を作成して、表示すべき合成画像を作成す
る。これによって、ドライバーは、車両の上方から見た
画像として立体物の存在領域を認識することが可能とな
る。
According to the ninth aspect of the invention, the drawing device extracts a region when the three-dimensional object is projected on the road surface, creates a CG image showing the region, and creates a composite image to be displayed. . This allows the driver to recognize the existence area of the three-dimensional object as an image viewed from above the vehicle.

【0026】第10の発明は、第9の発明に従属する発
明であって、車両の移動量を検出する車両移動量検出手
段をさらに含み、立体物検出手段は、車両移動量検出手
段が検出した車両の移動量に基づいて、撮像画像取得手
段が取得した画像に撮像されている立体物までの距離を
算出して、車両周辺の立体物の存在領域を検出すること
を特徴とする。
A tenth invention is an invention according to the ninth invention, further comprising a vehicle movement amount detecting means for detecting a movement amount of the vehicle, wherein the three-dimensional object detecting means is detected by the vehicle movement amount detecting means. Based on the moving amount of the vehicle, the distance to the three-dimensional object captured in the image acquired by the captured image acquisition unit is calculated, and the existence area of the three-dimensional object around the vehicle is detected.

【0027】第11の発明は、第10の発明に従属する
発明であって、車両移動量検出手段は、車両に設置され
た車速センサおよび操舵角センサの測定値に基づいて、
車両の移動量を検出することを特徴とする。
An eleventh invention is an invention dependent on the tenth invention, wherein the vehicle movement amount detecting means is based on measured values of a vehicle speed sensor and a steering angle sensor installed in the vehicle.
It is characterized in that the amount of movement of the vehicle is detected.

【0028】第12の発明は、第10の発明に従属する
発明であって、車両移動量検出手段が検出した車両の移
動量に基づいて、立体物検出手段が検出した立体物の存
在領域を予測する予測手段をさらに含み、領域抽出手段
は、予測手段が予測した立体物の存在領域に基づいて、
立体物を路面に投影したときの領域を抽出することを特
徴とする。
A twelfth aspect of the invention is an invention dependent on the tenth aspect of the invention, wherein the presence region of the three-dimensional object detected by the three-dimensional object detection means is detected based on the amount of movement of the vehicle detected by the vehicle movement amount detection means. Further including a predicting means for predicting, the area extracting means, based on the existence area of the three-dimensional object predicted by the predicting means,
It is characterized by extracting a region when a three-dimensional object is projected on a road surface.

【0029】第12の発明によれば、立体物の将来の存
在領域を予測することができるので、立体物検出手段が
立体物の存在領域を十分に検出することができなかった
としても、予測領域に基づいて、路面に投影した立体物
の領域を求めることができる。したがって、途中で途絶
えることのない表示画像をドライバーに提供することが
可能となる。
According to the twelfth aspect of the present invention, since the future existence area of the three-dimensional object can be predicted, even if the three-dimensional object detection means cannot sufficiently detect the existence area of the three-dimensional object, the prediction is possible. The area of the three-dimensional object projected on the road surface can be obtained based on the area. Therefore, it is possible to provide the driver with a display image that is not interrupted on the way.

【0030】第13の発明は、第9の発明に従属する発
明であって、さらに、撮像画像取得手段が取得した画像
に基づいて、車両周辺に存在する他車両の存在領域を抽
出する車両領域抽出手段と、車両領域抽出手段が抽出し
た他車両の存在領域に基づいて、当該他車両の車種を判
定する車種判定手段とを備え、CG画像作成手段は、立
体物の存在領域を示すCG画像に車種判定手段が判定し
た車種に応じた車両のモデル図を貼り付けてCG画像を
作成することを特徴とする。
A thirteenth invention is an invention according to the ninth invention, and further, a vehicle area for extracting an existing area of another vehicle existing around the vehicle based on the image acquired by the captured image acquisition means. The CG image creating unit includes an extracting unit and a vehicle type determining unit that determines the vehicle type of the other vehicle based on the existing region of the other vehicle extracted by the vehicle region extracting unit. It is characterized in that a CG image is created by pasting a model diagram of a vehicle according to the vehicle type determined by the vehicle type determination means.

【0031】第13の発明によれば、描画装置は、車両
周辺に存在する他車両を見やすいモデル図にして、合成
画像を作成するので、ドライバーにとって、違和感のな
い合成画像を作成することが可能となる。
According to the thirteenth aspect of the invention, the drawing device creates a composite image by making a model diagram that makes it easy to see other vehicles existing in the vicinity of the vehicle. Therefore, it is possible to create a composite image that does not make the driver feel uncomfortable. Becomes

【0032】第14の発明は、第9の発明に従属する発
明であって、立体物検出手段は、立体物の輪郭を構成す
るエッジ上の点の3次元座標を割り出して立体物の存在
領域を検出し、領域抽出手段は、立体物検出手段が割り
出したエッジ上の点の3次元座標に基づいて、立体物を
路面に投影したときの領域を抽出することを特徴とす
る。
A fourteenth invention is an invention according to the ninth invention, wherein the three-dimensional object detecting means determines the three-dimensional coordinates of points on the edge forming the contour of the three-dimensional object to determine the existence area of the three-dimensional object. And the area extracting means extracts the area when the three-dimensional object is projected on the road surface based on the three-dimensional coordinates of the points on the edge determined by the three-dimensional object detecting means.

【0033】第14の発明によれば、描画装置は、3次
元座標で表される立体物の存在領域に基づいて、路面上
に投影した領域を抽出するので、より正確な路面上での
領域求めることができる。したがって、ドライバーは、
表示される合成画像を見て正確に駐車などの運転操作を
行うことが可能となる。
According to the fourteenth aspect, the drawing device extracts the area projected on the road surface based on the existence area of the three-dimensional object represented by the three-dimensional coordinates. Therefore, the area on the road surface is more accurate. You can ask. Therefore, the driver
It is possible to accurately perform a driving operation such as parking by looking at the displayed composite image.

【0034】第15の発明は、車両の運転支援用の表示
画像を作成するための描画方法であって、車両に設置さ
れたカメラから、当該車両の周辺画像を取得する撮像画
像取得ステップと、撮像画像取得ステップにおいて取得
した画像に基づいて、車両周辺の立体物の存在領域を検
出する立体物検出ステップと、立体物検出ステップにお
いて検出した立体物の存在領域を近似する平面を抽出す
る面モデル抽出ステップと、面モデル抽出ステップにお
いて抽出した平面に撮像画像取得ステップにおいて取得
した画像を投影して、表示すべき合成画像を作成する画
像合成ステップとを備える。
A fifteenth aspect of the present invention is a drawing method for creating a display image for supporting driving of a vehicle, which comprises a captured image obtaining step of obtaining a peripheral image of the vehicle from a camera installed in the vehicle, Based on the image acquired in the captured image acquisition step, a three-dimensional object detection step that detects a three-dimensional object existing area around the vehicle, and a surface model that extracts a plane that approximates the three-dimensional object existing area detected in the three-dimensional object detection step An extraction step and an image combination step of projecting the image acquired in the captured image acquisition step onto the plane extracted in the surface model extraction step to create a combined image to be displayed.

【0035】第16の発明は、車両の運転支援用の表示
画像を作成するための描画方法であって、車両に設置さ
れたカメラから、当該車両の周辺画像を取得する撮像画
像取得ステップと、撮像画像取得ステップにおいて取得
した画像に基づいて、車両周辺の立体物の存在領域を検
出する立体物検出ステップと、立体物検出ステップにお
いて検出した立体物を路面に投影したときの領域を抽出
する領域抽出ステップと、領域抽出ステップにおいて抽
出した領域に基づいて、路面上に投影した立体物の存在
領域を示すCG画像を作成するCG画像作成ステップ
と、撮像画像取得ステップにおいて取得した画像を路面
上に投影し、投影して得る画像にCG画像作成ステップ
において作成したCG画像を重ね、表示すべき合成画像
を作成する画像合成ステップとを備える。
A sixteenth aspect of the present invention is a drawing method for creating a display image for driving assistance of a vehicle, comprising a captured image obtaining step of obtaining a peripheral image of the vehicle from a camera installed in the vehicle, Based on the image acquired in the captured image acquisition step, a three-dimensional object detection step that detects the existence area of the three-dimensional object around the vehicle, and an area that extracts the area when the three-dimensional object detected in the three-dimensional object detection step is projected on the road surface. Based on the extraction step and the area extracted in the area extraction step, the CG image creation step of creating a CG image showing the existing area of the three-dimensional object projected on the road surface, and the image acquired in the captured image acquisition step on the road surface. Image composition for projecting and superimposing the CG image created in the CG image creating step on the image obtained by projection to create a composite image to be displayed And a step.

【0036】第17の発明は、車両の運転支援用の表示
画像を作成するためのプログラムが記録された記録媒体
であって、車両に設置されたカメラから、当該車両の周
辺画像を取得する撮像画像取得ステップと、撮像画像取
得ステップにおいて取得した画像に基づいて、車両周辺
の立体物の存在領域を検出する立体物検出ステップと、
立体物検出ステップにおいて検出した立体物の存在領域
を近似する平面を抽出する面モデル抽出ステップと、面
モデル抽出ステップにおいて抽出した平面に撮像画像取
得ステップにおいて取得した画像を投影して、表示すべ
き合成画像を作成する画像合成ステップとを備える。
A seventeenth aspect of the present invention is a recording medium in which a program for creating a display image for supporting driving of a vehicle is recorded, which is an image pickup for acquiring a peripheral image of the vehicle from a camera installed in the vehicle. An image acquisition step, based on the image acquired in the captured image acquisition step, a three-dimensional object detection step of detecting the existence area of the three-dimensional object around the vehicle,
A plane model extraction step that extracts a plane that approximates the existing area of the three-dimensional object detected in the three-dimensional object detection step, and the image acquired in the captured image acquisition step should be projected and displayed on the plane extracted in the surface model extraction step. An image combining step of creating a combined image.

【0037】第18の発明は、車両の運転支援用の表示
画像を作成するためのプログラムが記録された記録媒体
であって、車両に設置されたカメラから、当該車両の周
辺画像を取得する撮像画像取得ステップと、撮像画像取
得ステップにおいて取得した画像に基づいて、車両周辺
の立体物の存在領域を検出する立体物検出ステップと、
立体物検出ステップにおいて検出した立体物を路面に投
影したときの領域を抽出する領域抽出ステップと、領域
抽出ステップにおいて抽出した領域に基づいて、路面上
に投影した立体物の存在領域を示すCG画像を作成する
CG画像作成ステップと、撮像画像取得ステップにおい
て取得した画像を路面上に投影し、投影して得る画像に
CG画像作成ステップにおいて作成したCG画像を重
ね、表示すべき合成画像を作成する画像合成ステップと
を備える。
An eighteenth aspect of the present invention is a recording medium in which a program for creating a display image for driving assistance of a vehicle is recorded, and is an image pickup for acquiring a peripheral image of the vehicle from a camera installed in the vehicle. An image acquisition step, based on the image acquired in the captured image acquisition step, a three-dimensional object detection step of detecting the existence area of the three-dimensional object around the vehicle,
A region extraction step of extracting a region when the three-dimensional object detected in the three-dimensional object detection step is projected onto a road surface, and a CG image showing the existing region of the three-dimensional object projected onto the road surface based on the region extracted in the region extraction step The image acquired in the captured image acquisition step and the image acquired in the captured image acquisition step are projected onto the road surface, and the image obtained by projection is overlapped with the CG image created in the CG image creation step to create a composite image to be displayed. An image synthesizing step.

【0038】第19の発明は、車両の運転支援用の表示
画像を作成するためのプログラムであって、車両に設置
されたカメラから、当該車両の周辺画像を取得する撮像
画像取得ステップと、撮像画像取得ステップにおいて取
得した画像に基づいて、車両周辺の立体物の存在領域を
検出する立体物検出ステップと、立体物検出ステップに
おいて検出した立体物の存在領域を近似する平面を抽出
する面モデル抽出ステップと、面モデル抽出ステップに
おいて抽出した平面に撮像画像取得ステップにおいて取
得した画像を投影して、表示すべき合成画像を作成する
画像合成ステップとを備える。
A nineteenth aspect of the present invention is a program for creating a display image for driving support of a vehicle, comprising: a captured image acquisition step of acquiring a peripheral image of the vehicle from a camera installed in the vehicle; Based on the image acquired in the image acquisition step, a three-dimensional object detection step that detects a three-dimensional object existing area around the vehicle, and a surface model extraction that extracts a plane that approximates the three-dimensional object existing area detected in the three-dimensional object detection step And an image composition step of projecting the image acquired in the captured image acquisition step onto the plane extracted in the surface model extraction step to create a combined image to be displayed.

【0039】第20の発明は、車両の運転支援用の表示
画像を作成するためのプログラム、車両に設置されたカ
メラから、当該車両の周辺画像を取得する撮像画像取得
ステップと、撮像画像取得ステップにおいて取得した画
像に基づいて、車両周辺の立体物の存在領域を検出する
立体物検出ステップと、立体物検出ステップにおいて検
出した立体物を路面に投影したときの領域を抽出する領
域抽出ステップと、領域抽出ステップにおいて抽出した
領域に基づいて、路面上に投影した立体物の存在領域を
示すCG画像を作成するCG画像作成ステップと、撮像
画像取得ステップにおいて取得した画像を路面上に投影
し、投影して得る画像にCG画像作成ステップにおいて
作成したCG画像を重ね、表示すべき合成画像を作成す
る画像合成ステップとを備える。
A twentieth aspect of the invention is a program for creating a display image for driving assistance of a vehicle, a captured image acquisition step of obtaining a peripheral image of the vehicle from a camera installed in the vehicle, and a captured image acquisition step. Based on the image obtained in, the three-dimensional object detection step of detecting the existence area of the three-dimensional object around the vehicle, the area extraction step of extracting the area when the three-dimensional object detected in the three-dimensional object detection step is projected on the road surface, Based on the area extracted in the area extraction step, a CG image creation step of creating a CG image showing the existing area of the three-dimensional object projected on the road surface, and an image acquired in the captured image acquisition step are projected on the road surface and projected. The image composition step for superimposing the CG image created in the CG image creation step on the image obtained by Provided with a door.

【0040】[0040]

【発明の実施の形態】(第1の実施形態)図1は、本発
明の第1の実施形態に係る描画装置の機能的構成を示す
ブロック図である。図1において、描画装置100は、
撮像部101と、車速センサ102と、操舵角センサ1
03と、障害物検出部104と、面モデル抽出部105
と、マッピングテーブル修正部108と、画像合成部1
06と、表示部107とを備える。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS (First Embodiment) FIG. 1 is a block diagram showing a functional configuration of a drawing apparatus according to a first embodiment of the present invention. In FIG. 1, the drawing apparatus 100 is
Imaging unit 101, vehicle speed sensor 102, steering angle sensor 1
03, an obstacle detection unit 104, and a surface model extraction unit 105.
, Mapping table correction unit 108, and image composition unit 1
06 and the display unit 107.

【0041】撮像部101は、車両周辺に取り付けられ
た複数のカメラ10を含む。ここでは、複数のカメラを
区別するためにカメラ10(#番号)と表記した。各カ
メラを総称してカメラ10ということにする。各カメラ
10は、典型的には、CCD、CMOSデバイス等の固
定撮像素子を持つ、カラーまたはモノクロのデジタルカ
メラである。カメラ10は、車両周辺を撮像することが
できる。図1では、撮像部101は、二つのカメラ10
(#1)、10(#2)を含むこととした。なお、カメ
ラ10は、2つ以上であってもよいし、2つ未満であっ
てもよい。
The image pickup section 101 includes a plurality of cameras 10 mounted around the vehicle. Here, the camera 10 (# number) is used to distinguish a plurality of cameras. Each camera will be generically referred to as camera 10. Each camera 10 is typically a color or monochrome digital camera having a fixed image sensor such as a CCD or CMOS device. The camera 10 can capture an image around the vehicle. In FIG. 1, the imaging unit 101 includes two cameras 10
(# 1) and 10 (# 2) are included. The number of cameras 10 may be two or more, or less than two.

【0042】図2は、二つのカメラ10(#1)、10
(#2)の車両での取り付け位置の一例を示した図であ
る。図2で示したように、カメラ10(#1)は、車両
の右側後方部を撮像することができる位置に取り付けら
れている。また、カメラ10(#2)は、車両の左側後
方部を撮像することができる位置に取り付けられてい
る。なお、カメラ10は、車両の後方部のほか、車両の
側面部や前面部など車両の周囲を撮像することができる
位置に取り付けられていてもよい。撮像部101は、カ
メラ10によって撮像された車両周囲の画像のデータ
(以下、画像データという)を逐次、障害物検出部10
4および画像合成部106に与える。
FIG. 2 shows two cameras 10 (# 1) and 10 (# 1).
It is a figure showing an example of the attachment position in the vehicle of (# 2). As shown in FIG. 2, the camera 10 (# 1) is attached to a position where the right rear portion of the vehicle can be imaged. The camera 10 (# 2) is attached to a position where the left rear part of the vehicle can be imaged. It should be noted that the camera 10 may be attached to a position that can image the surroundings of the vehicle such as a side surface portion or a front surface portion of the vehicle in addition to the rear portion of the vehicle. The image capturing unit 101 sequentially acquires the data of the image around the vehicle captured by the camera 10 (hereinafter, referred to as image data) from the obstacle detecting unit 10.
4 and the image synthesis unit 106.

【0043】車速センサ102は、描画装置100が装
備されている車両の車輪速度を逐次計測し、計測した測
度を障害物検出部104に送る。操舵角センサ103
は、描画装置100が装備されている車両のハンドル操
舵角を逐次計測し、計測したハンドル操舵角を障害物検
出部104に送る。
The vehicle speed sensor 102 sequentially measures the wheel speed of the vehicle equipped with the drawing apparatus 100, and sends the measured speed to the obstacle detection unit 104. Steering angle sensor 103
Sequentially measures the steering wheel steering angle of the vehicle equipped with the drawing apparatus 100, and sends the measured steering wheel steering angle to the obstacle detection unit 104.

【0044】障害物検出部104は、車速センサ102
から与えられる車両の車輪速度、操舵角センサ103か
ら与えられる車両のハンドル操舵角および撮像部101
から与えられる車両周辺の画像データをもとに、撮像部
101が撮像した画像に映っている車両周辺の障害物
(立体物)を構成する点の座標データを算出する。ここ
で、障害物(立体物)を構成する点の座標データは、カ
メラ10を原点とした座標系(以下、カメラ座標とい
う)での座標値である。障害物検出部104は、算出し
た座標データを面モデル抽出部105に送る。
The obstacle detection unit 104 is a vehicle speed sensor 102.
Wheel speed of the vehicle given from the steering angle of the vehicle given from the steering angle sensor 103 and the imaging unit 101
Based on the image data of the surroundings of the vehicle given from the above, the coordinate data of the points forming the obstacle (three-dimensional object) around the vehicle shown in the image captured by the imaging unit 101 is calculated. Here, the coordinate data of the points forming the obstacle (three-dimensional object) are coordinate values in a coordinate system with the camera 10 as the origin (hereinafter, referred to as camera coordinates). The obstacle detection unit 104 sends the calculated coordinate data to the surface model extraction unit 105.

【0045】面モデル抽出部105は、障害物検出部1
04から与えられた立体障害物の座標データをもとに、
当該立体障害物が存在する領域を近似する路面に垂直な
平面の面領域を算出する。面モデル抽出部105は、算
出した平面の面領域に関するデータをマッピングテーブ
ル修正部108に送る。
The plane model extraction unit 105 includes an obstacle detection unit 1
Based on the coordinate data of the three-dimensional obstacle given from 04,
The surface area of a plane perpendicular to the road surface that approximates the area where the steric obstacle exists is calculated. The surface model extraction unit 105 sends the calculated data regarding the surface area of the flat surface to the mapping table correction unit 108.

【0046】マッピングテーブル修正部108は、標準
マッピングテーブル1081と、修正マッピングテーブ
ル1082とを含む。標準マッピングテーブル1081
は、画像データに含まれる画素の位置座標を、合成画像
における画素の位置座標に変換する処理を高速に行うた
めのテーブルである。標準マッピングテーブル1081
には、カメラ10によって撮像された画像がすべて路面
上に存在するという想定の下で、撮像画像を車両上方部
から見た画像に加工合成するための変換が定義されてい
る。
The mapping table modification unit 108 includes a standard mapping table 1081 and a modified mapping table 1082. Standard mapping table 1081
Is a table for performing a process of converting the position coordinates of pixels included in the image data into the position coordinates of pixels in the composite image at high speed. Standard mapping table 1081
Defines a conversion for processing and synthesizing a captured image into an image viewed from the upper part of the vehicle under the assumption that all images captured by the camera 10 are present on the road surface.

【0047】図3は、標準マッピングテーブル1801
の一例を示す図である。標準マッピングテーブル180
1では、合成画像の全ての座標(i,j)の画素値がど
のように決定されるかが示されている。具体的には、任
意の座標(i,j)に対して、カメラ番号と対応させて
X座標、Y座標および必要度が設定されている。ここ
で、X座標およびY座標とは、対応するカメラが撮像し
た画像における座標のことである。必要度とは、X座
標、Y座標に対応する画素値をどの程度利用するかを示
す係数である。たとえば、図3において、合成画像の座
標(i1,j1)の画素値は、カメラ10(#1)で撮
像された画像の座標(12,45)の画素値を必要度
“1”で変換したものとなる。必要度が“1”であると
は、すなわち、撮像画像の画素値をそのままコピーして
使うことである。また、合成画像の座標(i2,j2)
の画素値は、カメラ10(#1)で撮像された画像の座
標(10,10)の画素値に必要度“0.3”をかけた
数値と、カメラ10(#2)で撮像された画像の座標
(56,80)の画素値に必要度“0.5”をかけた数
値との和を、それぞれの必要度の和、この場合は0.8
で割った値となる。
FIG. 3 shows a standard mapping table 1801.
It is a figure which shows an example. Standard mapping table 180
1 shows how the pixel values at all coordinates (i, j) of the composite image are determined. Specifically, for any coordinate (i, j), the X coordinate, the Y coordinate, and the necessity degree are set in association with the camera number. Here, the X coordinate and the Y coordinate are coordinates in an image captured by the corresponding camera. The necessity degree is a coefficient indicating how much the pixel value corresponding to the X coordinate and the Y coordinate is used. For example, in FIG. 3, the pixel value of the coordinate (i1, j1) of the composite image is obtained by converting the pixel value of the coordinate (12, 45) of the image captured by the camera 10 (# 1) with the necessity degree of "1". Will be things. The necessity level being “1” means that the pixel value of the captured image is copied as it is and used. Also, the coordinates (i2, j2) of the composite image
The pixel value of is captured by the camera 10 (# 2) by multiplying the pixel value of the coordinates (10, 10) of the image captured by the camera 10 (# 1) by the necessity degree "0.3". The sum of the pixel value of the image coordinates (56, 80) multiplied by the necessity degree "0.5" is the sum of the respective necessity degrees, in this case 0.8.
It is the value divided by.

【0048】修正マッピングテーブル1082は、標準
マッピングテーブル1081の内容を修正したテーブル
である。マッピングテーブル修正部108は、面モデル
抽出部105から送られてくる面領域のデータをもと
に、標準マッピングテーブル1081を修正し、修正マ
ッピングテーブル1802を作成する。
The modified mapping table 1082 is a table in which the contents of the standard mapping table 1081 have been modified. The mapping table correction unit 108 corrects the standard mapping table 1081 based on the surface area data sent from the surface model extraction unit 105, and creates a corrected mapping table 1802.

【0049】図4は、標準マッピングテーブル1081
および修正マッピングテーブル1802を直感的に理解
するための図である。図4(a)は、標準マッピングテ
ーブル1081を直感的に理解するための図である。図
4(a)において、カメラ10(#1)で撮像された画
像gbの各座標の画素は、標準マッピングテーブル10
81によって、対応する合成画像gaの座標の画素とな
る。画像gbの画素は、画像gaの点線の枠内の画素と
なる。
FIG. 4 shows the standard mapping table 1081.
FIG. 9 is a diagram for intuitively understanding a modified mapping table 1802. FIG. 4A is a diagram for intuitively understanding the standard mapping table 1081. In FIG. 4A, the pixel at each coordinate of the image gb captured by the camera 10 (# 1) is the standard mapping table 10
By 81, it becomes the pixel of the coordinate of the corresponding composite image ga. The pixels of the image gb are the pixels within the frame of the dotted line of the image ga.

【0050】カメラ10(#1)で撮像された画像gb
には、路面上の長方形(たとえば、駐車枠を示す白線)
が撮像されているとする。画像gbはカメラ10(#
1)を視点として撮像されているので、路面上の長方形
は、歪んだ菱形となる。標準マッピングテーブル180
1には、カメラ10によって撮像された画像がすべて路
面上に存在するという想定の下で、カメラ10の撮像画
像を車両上方部から見た画像に加工合成するための変換
が定義されている。したがって、カメラ10(#1)で
撮像された路面上に存在する長方形(画像gbの歪んだ
菱形)は、標準マッピングテーブル1801での変換に
よって、合成画像gaにおいて、歪むことのない長方形
となる。
Image gb taken by the camera 10 (# 1)
Is a rectangle on the road (for example, a white line indicating a parking frame)
Is imaged. The image gb shows the camera 10 (#
Since the image is taken from the viewpoint 1), the rectangle on the road surface becomes a distorted rhombus. Standard mapping table 180
1 defines the conversion for processing and synthesizing the image captured by the camera 10 into the image viewed from the upper part of the vehicle under the assumption that all the images captured by the camera 10 exist on the road surface. Therefore, the rectangle (the distorted rhombus of the image gb) present on the road surface imaged by the camera 10 (# 1) becomes a non-distorted rectangle in the composite image ga by the conversion in the standard mapping table 1801.

【0051】図4(b)は、修正マッピングテーブル1
802を直感的に理解するための図である。従来技術で
説明したように、標準マッピングテーブル1801を用
いて、路面よりも上部に存在する障害物を撮像した画像
を加工合成した場合、歪んだ画像となり、正確に画像を
加工合成することができない。路面から離れれば離れる
ほど大きく歪んだ画像となる。
FIG. 4B shows the modified mapping table 1
FIG. 8 is a diagram for intuitively understanding 802. As described in the related art, when the standard mapping table 1801 is used to process and combine an image of an obstacle existing above the road surface, the image becomes a distorted image, and the image cannot be accurately processed and combined. . The further away from the road surface, the more distorted the image.

【0052】修正マッピングテーブル1802には、路
面よりも上にある物体を圧縮して投影して合成画像を作
成するための変換が定義されている。図4(b)におい
て、カメラ10(#1)で撮像された画像gbsには、
障害物として一本の柱が撮像されている。修正マッピン
グテーブル1802に定義されている変換によって、画
像gbsに撮像されている柱の一面AおよびBが圧縮さ
れて合成画像gasに描かれる。カメラ10からは見る
ことのできない画像gbsに写っている柱の向こうにつ
いては、データがないものとして扱われ、合成画像ga
sにおいて、真っ黒な画像となっている。
The modified mapping table 1802 defines transformations for compressing and projecting an object above the road surface to create a composite image. In FIG. 4B, the image gbs captured by the camera 10 (# 1) includes
One pillar is imaged as an obstacle. By the conversion defined in the correction mapping table 1802, the one surfaces A and B of the pillar imaged in the image gbs are compressed and drawn in the composite image gas. The other side of the pillar that is reflected in the image gbs that cannot be seen from the camera 10 is treated as having no data, and the composite image ga
In s, a black image is obtained.

【0053】画像合成部106は、撮像部101から画
像データが与えられたら、修正マッピングテーブル10
82を参照して、画像データを加工し、合成画像を作成
する。画像合成部106は、作成した合成画像を表示部
107に送る。表示部107は、画像合成部106から
送られてきた合成画像を表示し、ユーザに提示する。
The image synthesizing unit 106 receives the image data from the image pickup unit 101, and then the modified mapping table 10
With reference to 82, the image data is processed to create a composite image. The image composition unit 106 sends the created composite image to the display unit 107. The display unit 107 displays the combined image sent from the image combining unit 106 and presents it to the user.

【0054】図5は、第1の実施形態に係る描画装置1
00が合成画像を作成するまでの撮像画像の加工の様子
を直感的に理解するための図ある。図5(a)は、撮像
部101のカメラ10(#1)によって取り込まれる画
像の一例を示す図である。図5(a)には、白線の駐車
枠内に一台の乗用車が駐車されている様子が写ってい
る。図5(a)の画像の下部に写っている部分Jsh
は、カメラ10(#1)が取り付けられている自車両で
ある。描画装置100は、図5(a)に示した撮像画像
から、駐車されている乗用車がすっぽり覆い隠れ、カメ
ラ10(#1)から見えなくなるような平面の領域(駐
車されている乗用車の存在領域を近似するような平面の
領域)を決定する。
FIG. 5 shows a drawing apparatus 1 according to the first embodiment.
FIG. 10 is a diagram for intuitively understanding how the captured image is processed until 00 creates a composite image. FIG. 5A is a diagram showing an example of an image captured by the camera 10 (# 1) of the image capturing unit 101. FIG. 5A shows that one passenger car is parked in the white line parking frame. The portion Jsh shown at the bottom of the image in FIG.
Is a vehicle equipped with the camera 10 (# 1). The drawing device 100 displays a flat area (a parked passenger vehicle existence area) in which the parked passenger vehicle is completely covered by the camera 10 (# 1) from the captured image shown in FIG. Area of the plane that approximates

【0055】図5(b)は、描画装置100が決定した
平面の領域を示す図である。図5(b)において、斜線
で示されている二つの平面C、Dが乗用車をすっぽり覆
い隠す平面である。平面の領域を決定した後、描画装置
100は、修正マッピングテーブル1082に従い、平
面の領域上の画像データを圧縮して投影し、合成画像を
完成させる。カメラ10(#1)から見ることのできな
い当該平面領域の向こう側は、データがないものとして
扱われ、真っ黒な画素として、合成画像が作られる。図
5(c)は、描画装置100が最終的に作成した合成画
像を示した図である。図5(c)において、カメラ10
(#1)からの点線で囲まれた部分がカメラ10(#
1)の撮像領域を表している。図5(c)に示したよう
に、合成画像において、駐車場に駐車されている車両の
画像は、路面と垂直な面に圧縮して投影される。その結
果、駐車場に駐車されている車両が大きく歪むことな
く、合成画像が作成されることとなる。また、データが
ないものとして扱われた平面の向こう側(カメラ10
(#1)から見て車両の向こう側となる)については、
真っ黒な画像となる。
FIG. 5B is a diagram showing a plane area determined by the drawing apparatus 100. In FIG. 5B, two planes C and D indicated by diagonal lines are planes that completely cover the passenger car. After determining the plane area, the drawing apparatus 100 compresses and projects the image data on the plane area according to the modified mapping table 1082 to complete the composite image. The area on the other side of the plane area that cannot be seen from the camera 10 (# 1) is treated as having no data, and a composite image is formed as a black pixel. FIG. 5C is a diagram showing a composite image finally created by the drawing apparatus 100. In FIG. 5C, the camera 10
The part surrounded by the dotted line from (# 1) is the camera 10 (#
The image pickup area of 1) is shown. As shown in FIG. 5C, in the composite image, the image of the vehicle parked in the parking lot is compressed and projected on the surface perpendicular to the road surface. As a result, the composite image is created without the vehicle parked in the parking lot being significantly distorted. In addition, the other side of the plane (camera 10
(Beyond the vehicle when viewed from (# 1))
The image becomes black.

【0056】ここで、以後の説明で用いられる座標系に
ついて説明しておく。図6は、カメラ座標系および車両
座標系を説明するための図である。図6で示したよう
に、カメラ10を中心とした座標系をカメラ座標系とい
うことにする。カメラ座標系において、座標値は、Pc
(xc,yc,zc)で表すこととする。車両の下の路
面上のある一点を中心とする座標系を車両座標系という
ことにする。車両座標系において、座標値は、Pv(x
v,yv,zv)で表すこととする。車両座標系の点
(xv,yv,zv)をカメラ座標系の点(xc,y
c,zc)に変換するには、 (xc,yc,zc)=R(xv,yv,zv)+T ・・・(1) が用いられる。ここで、Rは3×3の回転行列であり、
Tは3次元の平行移動ベクトルである。
Here, the coordinate system used in the following description will be described. FIG. 6 is a diagram for explaining the camera coordinate system and the vehicle coordinate system. As shown in FIG. 6, the coordinate system centered on the camera 10 will be referred to as a camera coordinate system. In the camera coordinate system, the coordinate value is Pc
It will be represented by (xc, yc, zc). A coordinate system centered on a certain point on the road surface under the vehicle is called a vehicle coordinate system. In the vehicle coordinate system, the coordinate value is Pv (x
v, yv, zv). The point (xv, yv, zv) in the vehicle coordinate system is replaced by the point (xc, y in the camera coordinate system.
To convert to (c, zc), (xc, yc, zc) = R (xv, yv, zv) + T (1) is used. Where R is a 3 × 3 rotation matrix,
T is a three-dimensional translation vector.

【0057】図7は、第1の実施形態に係る描画装置1
00の動作を示したフローチャートである。以下、図7
を参照しながら、描画装置100の動作について説明す
る。まず、描画装置100は、車両周辺を撮像し、車両
周辺の画像データを取得する(ステップS101)。次
に、描画装置100は、取得した画像データから障害物
の存在領域を示すカメラ座標系での座標データを検出す
る(ステップS102)。次に、描画装置100は、取
得した障害物の存在領域を示す座標データに基づいて、
障害物の存在領域を近似し、障害物をすっぽり覆い隠す
ような複数の平面の面領域を抽出する(ステップS10
3)。
FIG. 7 shows a drawing apparatus 1 according to the first embodiment.
10 is a flowchart showing an operation of 00. Below, FIG.
The operation of the drawing apparatus 100 will be described with reference to FIG. First, the drawing apparatus 100 captures an image around the vehicle and acquires image data around the vehicle (step S101). Next, the drawing apparatus 100 detects coordinate data in the camera coordinate system indicating the area where the obstacle exists from the acquired image data (step S102). Next, the drawing apparatus 100, based on the acquired coordinate data indicating the existence region of the obstacle,
The area in which the obstacle is present is approximated, and a plurality of plane surface areas that completely cover the obstacle are extracted (step S10).
3).

【0058】次に、描画装置100は、抽出した面領域
に基づいて、標準マッピングテーブル1081を修正し
て、抽出した面領域に撮像データを投影するための変換
が定義された修正マッピングテーブル1082を作成す
る(ステップS104)。その後、描画装置100は、
作成した修正マッピングテーブル1082に基づいて、
撮像部101の各カメラ10が取得した画像データを面
領域に投影する部分は面領域に投影し、路面に投影する
部分はそのまま路面に投影して合成し、表示画像を作成
して、表示する(ステップS105)。
Next, the drawing apparatus 100 corrects the standard mapping table 1081 based on the extracted surface area, and creates the modified mapping table 1082 in which the conversion for projecting the imaging data on the extracted surface area is defined. Create (step S104). After that, the drawing apparatus 100
Based on the created correction mapping table 1082,
The part of the image pickup unit 101 that projects the image data acquired by each camera 10 onto the surface area is projected onto the surface area, and the portion onto the road surface is projected onto the road surface as it is and combined to create and display a display image. (Step S105).

【0059】図8は、図7における障害物の座標データ
検出処理(ステップS102)をより詳しく示したフロ
ーチャートである。以下、図7を参照しながら、障害物
の座標データ検出処理について説明する。まず、描画装
置100は、3×3のSobelフィルタの処理によ
り、取得画像のエッジを抽出する(ステップS20
1)。ここで、エッジとは、取得画像内に存在する画像
の領域の境界のことをいう。Sobelフィルタによる
処理は、画像処理の分野において、一般的に用いられて
いるエッジを抽出するための処理である。簡単に説明す
ると、Sobelフィルタによる処理では、ある座標を
中心とした上下左右の9つの画素値に対して、所定の係
数をそれぞれ乗算して和を計算し、計算結果が大きく変
動する座標をエッジであるする。Sobelフィルタに
よる処理では、垂直方向、水平方向に対して上記のエッ
ジ検出が行われる。
FIG. 8 is a flowchart showing in more detail the obstacle coordinate data detection processing (step S102) in FIG. Hereinafter, the obstacle coordinate data detection processing will be described with reference to FIG. 7. First, the drawing apparatus 100 extracts the edge of the acquired image by the processing of the 3 × 3 Sobel filter (step S20).
1). Here, the term “edge” refers to a boundary between image regions existing in the acquired image. The processing by the Sobel filter is processing for extracting edges that are generally used in the field of image processing. Briefly described, in the processing by the Sobel filter, nine pixel values in the upper, lower, left, and right centering on a certain coordinate are multiplied by a predetermined coefficient to calculate the sum, and the coordinate whose calculation result fluctuates greatly is edged. To be In the processing by the Sobel filter, the above edge detection is performed in the vertical direction and the horizontal direction.

【0060】次に、描画装置100は、抽出されたエッ
ジの変曲点を抽出する(ステップS202)。抽出され
た変曲点をエッジの対応点ということにする。次に、描
画装置100は、車速センサ102および操舵角センサ
103が検出する車輪速度およびハンドル操舵角に基づ
き、カメラ移動量(Rc,Tc)を計測する(ステップ
S203)。ここで、Rcは、ある時刻tから時刻(t
+1)までのカメラ10が空間上を移動した回転方向を
示す3×3の回転行列である。Tcは、ある時刻tから
時刻(t+1)までのカメラ10が空間上を移動した平
行移動方向を示す3次元の移動ベクトルである。カメラ
移動量(Rc,Tc)の計測の計測方法については、後
で詳しく説明する。
Next, the drawing apparatus 100 extracts the inflection point of the extracted edge (step S202). The extracted inflection points are called corresponding points of the edges. Next, the drawing apparatus 100 measures the camera movement amount (Rc, Tc) based on the wheel speed and the steering wheel steering angle detected by the vehicle speed sensor 102 and the steering angle sensor 103 (step S203). Here, Rc is from a certain time t to a time (t
+1) is a 3 × 3 rotation matrix indicating the rotation direction in which the camera 10 has moved in space. Tc is a three-dimensional movement vector indicating the parallel movement direction of the camera 10 moving in space from a certain time t to a time (t + 1). A method of measuring the camera movement amount (Rc, Tc) will be described in detail later.

【0061】次に、描画装置100は、ステップS20
2で抽出した全てのエッジの対応点の画像データ上での
座標値を取得する(ステップS204)。次に、描画装
置100は、三角測量の原理(ステレオ測距の原理)に
基づき、画像データでのエッジの対応点の座標値とカメ
ラ移動量(Rc,Tc)とから、全てのエッジの対応点
のカメラ座標系での座標(xc,yc,zc)を検出す
る(ステップS205)。上記ステップS205におけ
るエッジの対応点のカメラ座標系での座標(xc,y
c,zc)を検出する方法については、後で詳しく説明
する。
Next, the drawing apparatus 100 returns to step S20.
The coordinate values on the image data of the corresponding points of all the edges extracted in 2 are acquired (step S204). Next, the drawing apparatus 100, based on the triangulation principle (stereo ranging principle), uses the coordinate values of the corresponding points of the image data and the camera movement amount (Rc, Tc) to correspond to all edges. The coordinates (xc, yc, zc) of the point in the camera coordinate system are detected (step S205). The coordinates (xc, y) in the camera coordinate system of the corresponding point of the edge in step S205.
The method of detecting c, zc) will be described in detail later.

【0062】次に、描画装置100は、ステップS20
5で求めたエッジの対応点のカメラ座標系での座標(x
c,yc,zc)を式(1)を用いて車両座標系での座
標(xv,yv,zv)に逆変換して、このzv値を参
照して、当該エッジの対応点が路面上に存在するか否か
を判断し(具体的には、|zv|<ε(ε=50mm)
であるか否かを判断し)、路面上のエッジを全て除去す
る(ステップS206)。その後、描画装置100は、
残ったエッジを立体障害物のエッジであると決定し(ス
テップS207)、処理を終了する。
Next, the drawing apparatus 100 returns to step S20.
The coordinates (x in the camera coordinate system) of the corresponding points of the edges obtained in 5
(c, yc, zc) is inversely transformed into coordinates (xv, yv, zv) in the vehicle coordinate system using the equation (1), and the corresponding point of the edge is referred to on the road surface by referring to this zv value. Whether or not it exists (specifically, | zv | <ε (ε = 50 mm)
Then, all edges on the road surface are removed (step S206). After that, the drawing apparatus 100
The remaining edge is determined to be the edge of the three-dimensional obstacle (step S207), and the process ends.

【0063】なお、ステップS206の処理において、
描画装置100は、計算量を減らすために、自車両から
遠方のエッジデータは除去するようにしてもよい。縦列
駐車等を考えると、例えば8m以遠のエッジを除去して
も問題ない。
In the process of step S206,
The drawing apparatus 100 may remove edge data far from the vehicle in order to reduce the amount of calculation. Considering parallel parking and the like, there is no problem even if an edge beyond 8 m is removed.

【0064】図9は、図8におけるステップS203の
処理(カメラ移動量(Rc,Tc)の計測処理)をより
詳しく説明するための図である。以下、図9を参照しな
がら、ステップS203の処理について説明する。駐車
動作は低速で行われるため、タイヤの横滑りが生じない
と近似できる。ここでは、タイヤの横滑りを考慮しない
「アッカーマンモデル(2輪モデル)」を用いている。ア
ッカーマンモデルの仮定は、 (仮定1):タイヤの横滑りが生じない。 (仮定2):ハンドル操舵角と前輪の切れ角は比例関係
である。 である。
FIG. 9 is a diagram for explaining the process of step S203 in FIG. 8 (camera movement amount (Rc, Tc) measurement process) in more detail. The process of step S203 will be described below with reference to FIG. Since the parking operation is performed at a low speed, it can be approximated that the tire does not skid. Here, the “Ackerman model (two-wheel model)” that does not consider the skidding of the tire is used. The assumptions of the Ackerman model are: (Assumption 1): The sideslip of the tire does not occur. (Assumption 2): The steering angle of the steering wheel and the turning angle of the front wheels are in a proportional relationship. Is.

【0065】(仮定1)に基づきタイヤに横滑りが無い
場合、ステアリングを切ると車両は後輪軸の延長線上の
点Oを中心に旋回する。後輪中央の回転半径Rsは前輪
の切れ角βとホイールベースlとを用いて Rs=l/tanβ ・・・(2) と表される。
Based on (Assumption 1), when there is no skidding on the tires, when the steering is turned off, the vehicle turns around a point O on the extension line of the rear wheel axle. The turning radius Rs at the center of the rear wheel is expressed as Rs = 1 / tan β (2) using the cutting angle β of the front wheel and the wheel base 1.

【0066】後輪の中央が、CtからCt+1に動いた
とすると、その移動量hは、左右の車輪速Vl、Vrあ
るいは、後輪中央の回転半径Rsと移動回転角αとを用
いて下記の数式で表される。
Assuming that the center of the rear wheel moves from Ct to Ct + 1, the moving amount h is calculated by using the left and right wheel speeds Vl, Vr or the turning radius Rs of the center of the rear wheel and the moving rotation angle α as follows. It is represented by a mathematical formula.

【数1】 [Equation 1]

【0067】式(2)および式(3)より、移動回転角
αは以下のように表される。
From the expressions (2) and (3), the moving rotation angle α is expressed as follows.

【数2】 [Equation 2]

【0068】また、CtからCt+1への移動ベクトル
Tcは、車両進行方向にX軸、車両進行方向と垂直な方
向にY軸をとると、以下のように表される。
The movement vector Tc from Ct to Ct + 1 is expressed as follows when the X axis is in the vehicle traveling direction and the Y axis is in the direction perpendicular to the vehicle traveling direction.

【数3】 [Equation 3]

【0069】(仮定2)に基づき、ハンドル操舵角と前
輪の切れ角は比例関係であるとすると、前輪の切れ角β
は、ハンドル操舵角θを用いて下記の通りに表される。 β=kθ(kは比例定数) ・・・(6)
Based on (Assumption 2), assuming that the steering angle of the steering wheel is proportional to the turning angle of the front wheels, the turning angle β of the front wheels is β.
Is expressed as follows using the steering angle θ of the steering wheel. β = kθ (k is a proportional constant) (6)

【0070】最後に式(4)、式(5)、式(6)よ
り、車両の2次元上での回転量α、および移動ベクトル
Tは、後輪の左右車輪速Vl、Vrおよびハンドル操舵
角θを用いて下記のように表される。
Finally, according to the equations (4), (5) and (6), the two-dimensional rotation amount α of the vehicle and the movement vector T are obtained by determining the left and right wheel speeds Vl and Vr of the rear wheels and the steering wheel steering. It is expressed as follows using the angle θ.

【数4】 [Equation 4]

【0071】よって、時刻tにおける車両座標系でのカ
メラの位置座標をXv(t)とした場合、時刻tから時
刻(t+1)へ移動した時の車両座標系での関係式は、
回転量αと移動ベクトルTcとを用いて、 Xv(t+1)=Rv(t+1)・Xv(t)+Tv
(t+1) と表される。ここで、
Therefore, when the position coordinate of the camera in the vehicle coordinate system at time t is Xv (t), the relational expression in the vehicle coordinate system when moving from time t to time (t + 1) is:
Using the rotation amount α and the movement vector Tc, Xv (t + 1) = Rv (t + 1) · Xv (t) + Tv
It is expressed as (t + 1). here,

【数5】 である。[Equation 5] Is.

【0072】またカメラ座標と車両座標の関係は固定で
あるため、時刻tにおけるカメラ座標系でのカメラの位
置座標をXc(t)とした場合、 Xc(t)=R・Xv(t)+T Xc(t+1)=R・Xv(t+1)+T となる。ここで、RおよびTは、車両座標からカメラ座
標に変換するための回転行列および平行移動ベクトルで
ある(図6参照)。
Since the relationship between the camera coordinates and the vehicle coordinates is fixed, if the position coordinates of the camera in the camera coordinate system at time t are Xc (t), then Xc (t) = R.Xv (t) + T Xc (t + 1) = R · Xv (t + 1) + T. Here, R and T are a rotation matrix and a translation vector for converting the vehicle coordinates into the camera coordinates (see FIG. 6).

【0073】以上より、カメラ移動量(Rc,Tc)
は、次式で求まる。
From the above, the camera movement amount (Rc, Tc)
Is calculated by the following equation.

【数6】 以上のようにして、ステップS203の処理において
は、車輪速度およびハンドル操舵角から、カメラ移動量
(Rc,Tc)を計測することが可能となる。
[Equation 6] As described above, in the process of step S203, the camera movement amount (Rc, Tc) can be measured from the wheel speed and the steering wheel steering angle.

【0074】図10は、図8におけるステップS205
の処理(カメラ座標でのエッジ対応点の座標の検出処
理)をより詳しく説明するための図である。以下、図1
0を参照しながら、ステップS205の処理について説
明する。図10(a)において、エッジ対応点をPとし
ている。点Pの絶対座標系での座標をPw(xw,y
w,zw)とする。絶対座標系は、路面上に固定された
座標系である。点Pの時刻tにおけるカメラ座標系での
座標をPs(xs,ys,zs)とする。点Pの時刻t
+1におけるカメラ座標系での座標をPr=(xr,y
r,zr)とする。
FIG. 10 shows step S205 in FIG.
FIG. 6 is a diagram for explaining in more detail (processing of detecting coordinates of edge corresponding points in camera coordinates) of FIG. Below, Figure 1
The process of step S205 will be described with reference to 0. In FIG. 10A, the edge corresponding point is P. The coordinates of the point P in the absolute coordinate system are Pw (xw, y
w, zw). The absolute coordinate system is a coordinate system fixed on the road surface. The coordinates of the point P in the camera coordinate system at time t are Ps (xs, ys, zs). Time t of point P
The coordinate in the camera coordinate system at +1 is Pr = (xr, y
r, zr).

【0075】今、絶対座標系とカメラ座標系との間に
は、3×3の回転行列Rws,Rwrと原点座標の平行
移動量を表す3次元の平行移動ベクトルTws,Twr
とを用いて以下のように表すことができる。 Pr=Rwr・Pw+Twr ・・・(7) Ps=Rws・Pw+Tws ・・・(8)
Now, between the absolute coordinate system and the camera coordinate system, 3 × 3 rotation matrices Rws, Rwr and three-dimensional translation vectors Tws, Twr representing the translation amount of the origin coordinates.
It can be expressed as follows using and. Pr = Rwr · Pw + Twr (7) Ps = Rws · Pw + Tws (8)

【0076】図10(b)は、カメラ10のレンズの焦
点距離から導き出される障害物上のエッジ対応点Pと画
像データとの関係を示した図である。図10(b)にお
いて、焦点距離をfrとし、時刻tでの対応点Pの画像
データ上での座標を(xr’、yr’)であるとする。
同様に、時刻(t+1)での対応点Pの画像データ上で
の座標を(xs’,ys’)、焦点距離をfsとする。
三角形の相似関係より、以下のような関係式が成立す
る。 xr’/fr=xr/zr ,yr’/fr=yr/zr ・・・(9) xs’/fs=xs/zs ,ys’/fs=ys/zs ・・・(10)
FIG. 10B is a diagram showing the relationship between the edge corresponding point P on the obstacle derived from the focal length of the lens of the camera 10 and the image data. In FIG. 10B, it is assumed that the focal length is fr and the coordinate of the corresponding point P on the image data at time t is (xr ′, yr ′).
Similarly, the coordinates of the corresponding point P on the image data at time (t + 1) are (xs ', ys'), and the focal length is fs.
The following relational expression holds from the similarity of triangles. xr '/ fr = xr / zr, yr' / fr = yr / zr (9) xs '/ fs = xs / zs, ys' / fs = ys / zs (10)

【0077】式(7)、式(8)より時刻t、t+1で
のカメラの相対関係式が以下のように得られる。 Ps=Rs・Pr+Ts ・・・(11) ここで、R=Rws・inv(Rwr)、Ts=Tws
−M・Twr、M=Rwsである(invは、逆行列を
意味する)。また、Rs、Tsを
From the equations (7) and (8), the relative relational expressions of the cameras at the times t and t + 1 can be obtained as follows. Ps = Rs · Pr + Ts (11) where R = Rws · inv (Rwr) and Ts = Tws
−M · Twr, M = Rws (inv means inverse matrix). In addition, Rs, Ts

【数7】 と表すことする。[Equation 7] To represent.

【0078】式(9)、式(10)、式(11)よりx
r、yr、zs、ysを消去し、下記の関係が求まる。
From equations (9), (10) and (11), x
By deleting r, yr, zs, and ys, the following relationship is obtained.

【数8】 [Equation 8]

【0079】式(12)よりzr、zsについての連立
方程式を解けば、zrを求めることかでき、
By solving the simultaneous equations for zr and zs from the equation (12), zr can be obtained,

【数9】 となる。[Equation 9] Becomes

【0080】上記のzrおよび式(9)から、対応点P
の時刻(t+1)におけるカメラ座標系での座標Prを
求めることができ、
From the above zr and equation (9), the corresponding point P
It is possible to obtain the coordinate Pr in the camera coordinate system at the time (t + 1) of

【数10】 となる。[Equation 10] Becomes

【0081】同様にして、zsを求め、対応点pの時刻
tにおけるカメラ座標での座標Psを求めることができ
る。このように、カメラ移動量(Rc,Tc)から対応
点Pのカメラ座標系での座標(xc,yc,zc)を求
めることができる。
Similarly, zs can be obtained and the coordinate Ps of the corresponding point p at the camera coordinate at time t can be obtained. In this way, the coordinates (xc, yc, zc) of the corresponding point P in the camera coordinate system can be obtained from the camera movement amount (Rc, Tc).

【0082】図11は、図7における面領域抽出処理
(ステップS103)をより詳しく説明したフローチャ
ートである。以下、図11を参照しながら、面領域抽出
処理について説明する。まず、描画装置100は、抽出
された画像データのエッジ(図8のステップS201参
照)のうちで、所定の長さよりも短いエッジを除去する
(ステップS301)。
FIG. 11 is a flowchart for explaining the surface area extraction processing (step S103) in FIG. 7 in more detail. The surface area extraction processing will be described below with reference to FIG. First, the drawing apparatus 100 removes an edge shorter than a predetermined length from the edges of the extracted image data (see step S201 in FIG. 8) (step S301).

【0083】次に、描画装置100は、残されたエッジ
の対応点に関するカメラ座標系での座標に基づいて、残
されたエッジ対応点を路面に投影した場合の座標値を算
出し、Hough変換によって路面に投影されたエッジ
対応点を近似する直線の方程式を算出する(ステップS
302)。Hough変換については、あとで詳しく説
明する。次に、描画装置100は、先ほどHough変
換によって求めた直線の方程式をもとに、エッジを通
り、かつ路面と垂直な平面を求める(ステップS30
3)。ステップS303の動作については、あとで詳し
く説明する。
Next, the drawing apparatus 100 calculates the coordinate values when the remaining edge corresponding points are projected on the road surface based on the coordinates in the camera coordinate system regarding the corresponding points of the remaining edges, and the Hough conversion is performed. An equation of a straight line that approximates the edge corresponding point projected on the road surface by is calculated (step S
302). The Hough transform will be described in detail later. Next, the drawing apparatus 100 obtains a plane that passes through the edge and is perpendicular to the road surface based on the equation of the straight line obtained by the Hough transform (step S30).
3). The operation of step S303 will be described in detail later.

【0084】次に、描画装置100は、障害物をすっぽ
り覆い隠すように、先ほど求めた路面と垂直な平面の領
域を決定する(ステップS304)。ステップS304
の動作については、あとで詳しく説明する。その後、描
画装置100は、平面を簡単に表すために不必要な平面
は除去して、平面領域を統合し、最終的な面領域を決定
し(ステップS305)、動作を終了する。ステップS
305の動作については、あとで詳しく説明する。
Next, the drawing apparatus 100 determines the area of the plane perpendicular to the road surface obtained previously so as to completely cover the obstacle (step S304). Step S304
The operation of will be described later in detail. Thereafter, the drawing apparatus 100 removes unnecessary planes to easily represent the planes, integrates the plane areas, determines a final plane area (step S305), and ends the operation. Step S
The operation of 305 will be described in detail later.

【0085】次に、Hough変換について詳しく説明
する。Hough変換(ハフ変換)とは、座標点の有無
で表現されている二値画像から、当該二値画像に描かれ
ている図形をパラメータで表現することができる直線な
どの方程式に変換する方法である。たとえば、二値画像
に描かれている図形から直線の方程式を求める場合、ま
ず、XY平面上の二値画像の一点を通る全ての直線の方
程式Y=mX+cを、mc平面の直線に変換する。これ
を、全ての二値画像の点に対して行う。すると、mc平
面において、直線が交差する回数の多い点が出てくる。
当該点のmc平面座標(m,c)が、二値画像に描かれ
ている図形をXY平面の直線の方程式で表した場合の傾
きmおよび切片cとなる。また、直線の方程式のパラメ
ータとして、傾きmおよび切片cを用いたが、別に、直
線の方程式Xcosθ+Ysinθ=ρで用いられるパ
ラメータ(ρ、θ)を用いてもよい。
Next, the Hough conversion will be described in detail. The Hough transform is a method of converting a binary image represented by the presence or absence of coordinate points into an equation such as a straight line that can represent the figure drawn in the binary image with parameters. is there. For example, in the case of obtaining a straight line equation from a figure drawn on a binary image, first, all straight line equations Y = mX + c passing through one point of the binary image on the XY plane are converted into straight lines on the mc plane. Do this for all binary image points. Then, on the mc plane, there appear points at which the straight lines intersect many times.
The mc plane coordinate (m, c) of the point is the inclination m and the intercept c when the figure drawn in the binary image is represented by the equation of the straight line on the XY plane. Although the slope m and the intercept c are used as the parameters of the straight line equation, the parameters (ρ, θ) used in the straight line equation Xcos θ + Y sin θ = ρ may be used separately.

【0086】図12は、図11におけるステップS30
2のHough変換による処理をより詳しく説明したフ
ローチャートである。以下、図12を参照しながら、ス
テップS302のHough変換による処理について説
明する。まず、描画装置100は、エッジ対応点のカメ
ラ座標系での座標値に基づき、エッジ対応点を路面上に
投影した場合の路面上での座標を算出する(ステップS
401)。次に、描画装置100は、路面に投影された
エッジ対応点をHough変換する(ステップS40
2)。その後、描画装置100は、Hough変換によ
って得られたパラメータにより、車両座標系において、
エッジを近似する直線の方程式を導出し(ステップS4
02)、処理を終了する。
FIG. 12 shows step S30 in FIG.
6 is a flowchart illustrating in more detail the processing by Hough transformation of No. 2. Hereinafter, the processing by the Hough conversion in step S302 will be described with reference to FIG. First, the drawing apparatus 100 calculates the coordinates on the road surface when the edge corresponding points are projected on the road surface based on the coordinate values of the edge corresponding points in the camera coordinate system (step S).
401). Next, the drawing apparatus 100 performs Hough transform on the edge corresponding points projected on the road surface (step S40).
2). After that, the drawing apparatus 100 uses the parameters obtained by the Hough transform in the vehicle coordinate system to
A straight line equation that approximates an edge is derived (step S4
02), the processing is ended.

【0087】図13は、ステップS302の処理を具体
的に説明するための図である。図13(a)は、路面上
に投影されたエッジ対応点をプロットした図である。図
13(a)において、原点は、車両座標系(Xv,Y
v,Zv)のXv−Yv平面での原点である。横軸は、
Xv−Yv平面でのXv座標値を表し、縦軸はYv座標
値を表し、単位はmmである。
FIG. 13 is a diagram for specifically explaining the process of step S302. FIG. 13A is a diagram in which the edge corresponding points projected on the road surface are plotted. In FIG. 13A, the origin is the vehicle coordinate system (Xv, Y
v, Zv) is the origin on the Xv-Yv plane. The horizontal axis is
The Xv-Yv plane represents the Xv coordinate value, the vertical axis represents the Yv coordinate value, and the unit is mm.

【0088】図13(b)は、図13(a)で表された
データに対して、Hough変換を施した結果をプロッ
トした図である。ここでのHough変換には、直線の
方程式Xcosθ+Ysinθ=ρが用いられる。図1
3(b)において、横軸はρ(mm)を表し、縦軸はθ
(度)を表す。図13(b)に示したように、(ρ、
θ)のプロット結果が二点A,Bに集中している。すな
わち、点A及びBの座標値(ρ、θ)が、Hough変
換によって得られる直線のパラメータとなる。
FIG. 13 (b) is a plot of the result of Hough transform applied to the data shown in FIG. 13 (a). A straight line equation Xcos θ + Y sin θ = ρ is used for the Hough transform here. Figure 1
3 (b), the horizontal axis represents ρ (mm) and the vertical axis is θ.
Indicates (degree). As shown in FIG. 13B, (ρ,
The plot results of θ) are concentrated at two points A and B. That is, the coordinate values (ρ, θ) of the points A and B become the parameters of the straight line obtained by the Hough transform.

【0089】図13(c)は、上記のHough変換に
よって得られた直線の方程式を図13(a)のグラフ上
に描いた図である。図13(c)で示したように、得ら
れた直線は、路面に投影したエッジデータの集まりを直
線で近似していることが分かる。
FIG. 13C is a diagram in which the equation of the straight line obtained by the above Hough transformation is drawn on the graph of FIG. 13A. As shown in FIG. 13C, it can be seen that the obtained straight line approximates the set of edge data projected on the road surface with a straight line.

【0090】図14は、図11におけるステップS30
3の処理をより詳しく説明したフローチャートである。
以下、図14を参照しながら、ステップS303の処理
について説明する。まず、描画装置100は、ステップ
S302の処理で導出された車両座標系での直線の方向
ベクトルを、カメラ座標系での直線Lcの方向ベクトル
に変換する(ステップS501)。具体的には、ステッ
プS302の処理で導出された車両座標系での直線Lv
の方程式を、 X=Xi+t・av (Xi=(xv,yv,zv)は、直線Lv上の一点で
ある。avは、直線Lvの方向ベクトルである。tは、
パラメータである)とした場合、カメラ座標系での直線
Lcの方向ベクトルacは、 ac=R・av+T として算出される。
FIG. 14 shows the step S30 in FIG.
It is a flow chart which explained processing of 3 in more detail.
The process of step S303 will be described below with reference to FIG. First, the drawing apparatus 100 converts the direction vector of the straight line in the vehicle coordinate system derived in the process of step S302 into the direction vector of the straight line Lc in the camera coordinate system (step S501). Specifically, the straight line Lv in the vehicle coordinate system derived in the process of step S302
X = Xi + t · av (Xi = (xv, yv, zv) is one point on the straight line Lv. Av is the direction vector of the straight line Lv. T is
Parameter), the direction vector ac of the straight line Lc in the camera coordinate system is calculated as ac = R · av + T.

【0091】次に、描画装置100は、カメラ座標系に
おいて、路面の法線ベクトルを算出する(ステップS5
02)。具体的には、車両座標系での路面の法線ベクト
ルHvは、Hv=(0,0,1)となるので、Hvに対
して、回転ベクトルRを用いた変換を行えば、カメラ座
標系での路面の法線ベクトルHcが算出される。すなわ
り、カメラ座標系での路面の法線ベクトルHcは、 Hc=R(0,0,1) となる。以下、Hcを Hc=(λc,μc,ηc) と表すこととする。
Next, the drawing device 100 calculates the normal vector of the road surface in the camera coordinate system (step S5).
02). Specifically, the normal vector Hv of the road surface in the vehicle coordinate system is Hv = (0,0,1), so if Hv is converted using the rotation vector R, the camera coordinate system The normal vector Hc of the road surface at is calculated. That is, the road surface normal vector Hc in the camera coordinate system is Hc = R (0,0,1). Hereinafter, Hc will be expressed as Hc = (λc, μc, ηc).

【0092】次に、描画装置100は、カメラ座標系に
おける直線の方向ベクトルと路面の法線ベクトルとの外
積Hkを算出する(ステップS503)。外積Hk=H
c×acを、 Hk=(λk,μk,ηk) と表すことにする。
Next, the drawing apparatus 100 calculates the outer product Hk of the direction vector of the straight line in the camera coordinate system and the normal vector of the road surface (step S503). Outer product Hk = H
Let c × ac be expressed as Hk = (λk, μk, ηk).

【0093】次に、描画装置100は、ステップS50
3で得られた法線ベクトル間の内積を算出する(ステッ
プS504)。具体的には、ステップS503で得られ
た法線ベクトルがHk1=(λk1,μk1,ηk
1)、Hk2=(λk2,μk2,ηk2)であると、
内積は、 (Hk1・Hk2)=cosθ=λk1・λk2+μk
1・μk2+ηk1・ηk2 によって算出される。
Next, the drawing apparatus 100 returns to step S50.
The inner product between the normal vectors obtained in 3 is calculated (step S504). Specifically, the normal vector obtained in step S503 is Hk1 = (λk1, μk1, ηk
1) and Hk2 = (λk2, μk2, ηk2),
The inner product is (Hk1 · Hk2) = cos θ = λk1 · λk2 + μk
It is calculated by 1 · μk2 + ηk1 · ηk2.

【0094】次に、描画装置100は、ステップS50
5で内積を計算した法線ベクトルに対応するカメラ座標
系での直線間の距離を計算する(ステップS505)。
Next, the drawing apparatus 100 returns to step S50.
The distance between the straight lines in the camera coordinate system corresponding to the normal vector whose inner product is calculated in 5 is calculated (step S505).

【0095】次に、描画装置100は、ステップS50
5で得られた内積に対応する角度θが所定のしきい値ε
(たとえば、5deg)未満であり、かつステップS5
06で計算した直線間の距離が所定のしきい値D(たと
えば、10cm)未満であるか否かを判断する(ステッ
プS506)。
Next, the drawing apparatus 100 returns to step S50.
The angle θ corresponding to the inner product obtained in 5 is a predetermined threshold value ε
(For example, 5 deg) and step S5
It is determined whether or not the distance between the straight lines calculated in 06 is less than a predetermined threshold value D (for example, 10 cm) (step S506).

【0096】上記ステップS506の判断が肯定的であ
る場合、描画装置100は、ステップS507の動作に
進み、当該法線ベクトルに対応する平面を同一の平面で
あるとし、ステップS508の動作に進む。ステップS
508の動作において、描画装置100は、同一平面と
したエッジの対応点のうちで、カメラ位置から最も近い
対応点を探索する(ステップS508)。次に、描画装
置は、ステップS508で探索された対応点を含むエッ
ジを近似した直線を通り、かつ路面と垂直な平面を導出
して平面を決定し(ステップS509)、処理を終了す
る。一方、上記ステップS506の判断が否定的である
場合、描画装置100は、ステップS510の動作に進
み、エッジを近似した直線を通り、かつ路面と垂直な平
面を導出して平面を決定し、処理を終了する。
If the determination in step S506 is affirmative, the drawing apparatus 100 proceeds to step S507, determines that the plane corresponding to the normal vector is the same plane, and proceeds to step S508. Step S
In the operation of 508, the drawing apparatus 100 searches for the closest corresponding point from the camera position among the corresponding points of the edges on the same plane (step S508). Next, the drawing apparatus derives a plane that passes through a straight line approximating the edge including the corresponding point searched in step S508 and is perpendicular to the road surface to determine the plane (step S509), and ends the processing. On the other hand, if the determination in step S506 is negative, the rendering apparatus 100 proceeds to operation in step S510, derives a plane that passes through a straight line that approximates the edge and is perpendicular to the road surface, and determines the plane. To finish.

【0097】図15は、図11におけるステップS30
4の平面領域決定処理をより詳しく説明したフローチャ
ートである。以下、図15を参照しながら、ステップS
304の平面領域決定処理について説明する。まず、描
画装置100は、ステップS303で算出したエッジを
近似した直線を通る平面と路面との交線の方向ベクトル
を算出する(ステップS601)。具体的には、カメラ
座標系での平面の法線ベクトルをNa=(nc1,nc
2,nc3)とし、路面の法線ベクトルをNc=(nc
1,nc2,nc3)とした場合、交線の方向ベクトル
は、NaとNcとの外積 Aac=Na×Nc で求めることができる。
FIG. 15 shows step S30 in FIG.
4 is a flowchart illustrating in more detail the plane area determination processing of No. 4; Hereinafter, referring to FIG. 15, step S
The plane area determination process of 304 will be described. First, the drawing apparatus 100 calculates the direction vector of the line of intersection between the plane passing through the straight line that approximates the edge calculated in step S303 and the road surface (step S601). Specifically, the normal vector of the plane in the camera coordinate system is Na = (nc1, nc
2, nc3) and the normal vector of the road surface is Nc = (nc
1, nc2, nc3), the direction vector of the line of intersection can be obtained by the outer product Aac = Na × Nc of Na and Nc.

【0098】次に、描画装置100は、交線上に存在す
る点の座標を算出する(ステップS602)。具体的に
は、カメラ座標系での路面と垂直な平面の方程式は、 na1・x+na2・y+na3・z=−pa ・・・(13) (ここで、−paは、エッジを近似した直線上に一点
と、法線ベクトルNaとから算出される。)と表し、カ
メラ座標系での路面の方程式は、 λc(x−oxc)+μc(y−oyc)+ηc(z−ozc)=0 ・・・(14) (ここで、(oxc,oyc,ozc)=R(0,0,
0)+T=Tである。λc、μc、ηcは、法線ベクト
ル(nc1,nc2,nc3)から算出される。Rおよ
びTは、車両座標系からカメラ座標系への変換のための
回転行列および平行移動ベクトルである。)と表し、Δ
12=na1・nc2−na2・nc1≠0のとき、式
(13)、式(14)でz=0とおいて、連立方程式を
解くことによって、交線上の一点として路面との交点を
求めることができる。また、Δ12≒0でΔ23=na
2・nc3−na3・nc2≠0のとき、x=0として
同様に解く。また、Δ12≒0でΔ31=na3・nc
1−na1・nc3≠0のとき、y=0として同様に解
く。このようにして、交線上に存在する点のカメラ座標
系での座標を求めることができる。
Next, the drawing apparatus 100 calculates the coordinates of points existing on the intersecting line (step S602). Specifically, the equation of the plane perpendicular to the road surface in the camera coordinate system is as follows: na1 · x + na2 · y + na3 · z = −pa (13) (where, −pa is a straight line that approximates the edge. It is calculated from one point and the normal vector Na), and the equation of the road surface in the camera coordinate system is λc (x-oxc) + μc (y-oyc) + ηc (z-ozc) = 0. (14) (where (oxc, oyc, ozc) = R (0, 0,
0) + T = T. λc, μc, and ηc are calculated from the normal vector (nc1, nc2, nc3). R and T are a rotation matrix and a translation vector for conversion from the vehicle coordinate system to the camera coordinate system. ), Δ
When 12 = na1 · nc2-na2 · nc1 ≠ 0, z = 0 in Equations (13) and (14) is set, and the simultaneous equations are solved to obtain the intersection with the road surface as one point on the intersection. it can. Also, when Δ12≈0, Δ23 = na
When 2 · nc3−na3 · nc2 ≠ 0, x = 0 and solve similarly. Further, when Δ12≈0, Δ31 = na3 · nc
When 1-na1 · nc3 ≠ 0, y = 0 and solve similarly. In this way, the coordinates of the points existing on the intersecting line in the camera coordinate system can be obtained.

【0099】次に、描画装置100は、ステップS60
1で算出した交線の方向ベクトル、ステップS602で
算出した交線上の一点をもとに、交線の方程式を導出す
る(ステップS603)。次に、描画装置100は、路
面に垂直な平面に含まれるエッジを近似した直線に対応
するエッジの対応点のうちで、最も距離が離れている二
つの対応点を探索する(ステップS604)。次に、描
画装置100は、上記で探索した二つの対応点を路面上
に投影し、カメラ座標系での投影点の座標を求める(ス
テップS605)。
Next, the drawing apparatus 100 returns to step S60.
An equation of the line of intersection is derived based on the direction vector of the line of intersection calculated in 1 and one point on the line of intersection calculated in step S602 (step S603). Next, the drawing apparatus 100 searches for the two corresponding points with the longest distance from the corresponding points of the edges corresponding to the straight line that approximates the edge included in the plane perpendicular to the road surface (step S604). Next, the drawing apparatus 100 projects the two corresponding points searched for on the road surface to obtain the coordinates of the projected point in the camera coordinate system (step S605).

【0100】次に、描画装置100は、ステップS60
3で導出した交線に当該二つの投影点からの垂線を下ろ
し、垂線との交点をそれぞれ求める(ステップS60
6)。次に、描画装置100は、上記で求めた二つの交
点を平面と路面との交線の区間を表す二つの端点である
として交線の区間を求める(ステップS607)。ステ
ップS601〜S607の処理は、すべての路面と垂直
な平面に対して行われる。
Next, the drawing apparatus 100 returns to step S60.
A perpendicular line from the two projected points is drawn on the intersection line derived in 3 to obtain the intersection points with the perpendicular line (step S60).
6). Next, the drawing apparatus 100 finds the section of the line of intersection by regarding the two points of intersection obtained above as two end points representing the section of the line of intersection between the plane and the road surface (step S607). The processing of steps S601 to S607 is performed on the plane perpendicular to all road surfaces.

【0101】次に、描画装置100は、上記で導出され
た各交線間の交点を求める(ステップS608)。次
に、描画装置は、二つの交線の交点と、これらの交線の
区間端点(ステップS607で算出した区間の端点)と
の距離を計算する(ステップS609)。次に、描画装
置100は、ステップS609で計算する距離が所定値
未満であるか否かを判断する(ステップS610)。ス
テップS610の判断において、所定値未満である場
合、描画装置100は、二つの交線の交点を一端とする
よう、交線の区間を更新し(ステップS611)、ステ
ップS612の処理に進む。一方、所定値以上である場
合、描画装置100は、交線の区間を更新することな
く、ステップS612の処理に進む。ステップS612
の処理において、描画装置100は、交線の最終的な区
間を決定し、処理を終了する。ステップS612で求め
られた最終的な交線の区間を[gmin,gmax]と
記すことにする。gim,gmaxは、カメラ座標系で
の(x,y,z)座標である。
Next, the drawing apparatus 100 obtains the intersections between the respective intersection lines derived above (step S608). Next, the drawing apparatus calculates the distance between the intersection of the two intersections and the section endpoints of these intersections (the endpoints of the section calculated in step S607) (step S609). Next, the drawing apparatus 100 determines whether or not the distance calculated in step S609 is less than a predetermined value (step S610). If it is less than the predetermined value in the determination of step S610, the drawing apparatus 100 updates the section of the intersection line so that the intersection point of the two intersection lines is one end (step S611), and proceeds to the processing of step S612. On the other hand, when it is equal to or larger than the predetermined value, the drawing apparatus 100 proceeds to the process of step S612 without updating the section of the intersection line. Step S612
In the processing of 1, the drawing apparatus 100 determines the final section of the intersection line and ends the processing. The final section of the intersection line obtained in step S612 will be referred to as [gmin, gmax]. gim and gmax are (x, y, z) coordinates in the camera coordinate system.

【0102】図16は、図11におけるステップS30
5の平面統合処理をより詳しく説明したフローチャート
である。以下、図16を参照しながら、ステップS30
5の平面統合処理について説明する。障害物を覆い隠す
平面をより簡単なものとするためには、不必要な平面を
除去してしまい平面の統合を行うべきである。障害物を
車両と考えた場合、並列駐車において車両の側面を平面
とした場合、同一側にある面は最低1.5m以上離れて
いる。そこで、例えば、2つの面が1.5m以上離れて
いる場合は別の面として認識するようにする。それ以外
は、ほぼ並行であれば車両に近い側の平面に統合してい
くようにすればよい。ステップS305では、上記の概
念を実現するための処理を行う。
FIG. 16 shows step S30 in FIG.
5 is a flowchart illustrating the plane integration process of No. 5 in more detail. Hereinafter, with reference to FIG. 16, step S30
The plane integration processing of No. 5 will be described. To make planes that obscure obstacles simpler, unnecessary planes should be removed and planes should be integrated. When the obstacle is considered to be a vehicle, the surfaces on the same side are separated by at least 1.5 m or more when the side surfaces of the vehicles are planes in parallel parking. Therefore, for example, when the two surfaces are separated by 1.5 m or more, they are recognized as different surfaces. Other than that, if it is almost parallel, it may be integrated into a plane closer to the vehicle. In step S305, a process for realizing the above concept is performed.

【0103】まず、描画装置100は、各平面と路面と
の交線を取得する(ステップS701)。次に、描画装
置100は、任意の二つの交線の方向ベクトルから、二
つの交線が平行しているか否かを判断する(ステップS
702)。二つの交線が平行していない場合、描画装置
100は、平面の統合を行うことなくステップS707
の動作に進む。
First, the drawing apparatus 100 acquires the line of intersection between each plane and the road surface (step S701). Next, the drawing apparatus 100 determines whether or not the two intersection lines are parallel from the direction vector of any two intersection lines (step S).
702). If the two intersection lines are not parallel to each other, the drawing apparatus 100 performs step S707 without performing plane integration.
Proceed to operation.

【0104】一方、二つの交線が平行している場合、描
画装置100は、二つの交線の距離を算出する(ステッ
プS703)。次に、描画装置100は、算出した距離
が所定値(たとえば、1.5m)以下であるか否かを判
断する(ステップS704)。所定値以下でない場合、
描画装置100は、平面の統合を行うことなくステップ
S707の動作に進む。一方、所定値以下である場合、
描画装置100は、当該二つの交線を含む平面を同一平
面であるとし(ステップS705)、ステップS706
の動作に進む。ステップS706の動作において、描画
装置100は、同一であるとした二つの平面のうちで、
カメラに近い側の平面を二つの平面の代表面として平面
を統合し、当該平面を障害物を覆い隠す平面であるとし
て、ステップS707の動作に進む。
On the other hand, when the two intersecting lines are parallel, the drawing apparatus 100 calculates the distance between the two intersecting lines (step S703). Next, the drawing apparatus 100 determines whether the calculated distance is less than or equal to a predetermined value (for example, 1.5 m) (step S704). If it is not less than the specified value,
The drawing apparatus 100 proceeds to the operation of step S707 without integrating the planes. On the other hand, when it is less than or equal to the predetermined value,
The drawing apparatus 100 determines that the plane including the two intersecting lines is the same plane (step S705), and the step S706.
Proceed to operation. In the operation of step S706, the drawing apparatus 100 selects one of the two planes that are the same,
The plane on the side closer to the camera is integrated as a representative plane of the two planes, and the plane is assumed to be a plane that covers obstacles, and the process proceeds to step S707.

【0105】ステップS707の動作において、描画装
置100は、障害物の存在領域を近似し障害物を覆い隠
す平面の面領域を最終決定し、処理を終了する。平面の
面領域は、平面と路面との交線の両端座標区間[gmi
n,gmax]および平面の方程式によって表されるこ
ととなる。ここで、平面と路面との交線の両端座標区間
[gmin,gmax]は、当該平面の底辺であるとい
える。
In the operation of step S707, the drawing apparatus 100 finally determines the plane area of the plane which approximates the existing area of the obstacle and covers the obstacle, and ends the processing. The plane area of a plane is a coordinate section [gmi at both ends of the line of intersection between the plane and the road surface
n, gmax] and the plane equation. Here, the both-end coordinate section [gmin, gmax] of the line of intersection between the plane and the road surface can be said to be the base of the plane.

【0106】図17は、図7におけるステップS104
のマッピングテーブル修正処理をより詳しく説明するフ
ローチャートである。図18は、図17で示すマッピン
グテーブル修正処理を直感的に理解するための図であ
る。以下、図17および図18を参照しながら、マッピ
ングテーブル修正処理について詳しく説明する。まず、
描画装置100は、標準マッピングテーブル1081を
参照して、面領域抽出処理(図7のステップS103)
で求めた平面の底辺区間[gmin,gmax]上の点
に対応する合成画像上での座標を抽出する(ステップS
801)。図18(a)に示したように区間に対応する
画像座標上での点をAとする。
FIG. 17 shows step S104 in FIG.
6 is a flowchart for explaining the mapping table correction process of FIG. FIG. 18 is a diagram for intuitively understanding the mapping table correction process shown in FIG. Hereinafter, the mapping table correction process will be described in detail with reference to FIGS. 17 and 18. First,
The drawing apparatus 100 refers to the standard mapping table 1081 and extracts the surface area (step S103 in FIG. 7).
The coordinates on the composite image corresponding to the points on the bottom section [gmin, gmax] of the plane obtained in step S3 are extracted (step S).
801). A point on the image coordinates corresponding to the section as shown in FIG.

【0107】次に、描画装置100は、点Aとカメラ位
置とを結ぶ直線Lc上の点であって、区間[gmin,
gmax]に対応する画像上の線分を挟んで点Aと反対
側に存在する任意の点を抽出する(ステップS80
2)。図18(a)に示したように、Aと反対側に存在
する任意の点をBとする。
Next, the drawing apparatus 100 is a point on the straight line Lc connecting the point A and the camera position, and the section [gmin,
gmax], and an arbitrary point existing on the opposite side of the point A across the line segment on the image is extracted (step S80).
2). As shown in FIG. 18A, an arbitrary point existing on the opposite side of A is B.

【0108】次に、描画装置100は、点Bを、区間
[gmin,gmax]に対応する平面の面領域であっ
て路面から一定の高さLmaxまでの立体投影面Tmに
投影するための圧縮率を計算する(ステップS80
3)。具体的には、図18(b)に示すように、hc
を、カメラ10の路面からの高さ(既知)、h0を、仮
想カメラKcaの路面からの高さ(既知)、dcを、カ
メラ10から障害物Ssまでの距離、d0を、カメラ1
0と仮想カメラKca位置の路面投影点間の距離(既
知)、Lを、障害物Ssの高さ、とした場合、圧縮率γ
は、立体投影面Tmと撮像面Smとで構成される三角形
の相似関係により 圧縮率γ={(dc+d0)/dc}×{(hc−L)
/(h0−L)} によって計算することができる。これにより、図18
(a)に示すように、AC=γ・ABとなる直線Lc上
の点Cが決定できる。
Next, the drawing apparatus 100 performs compression for projecting the point B onto the stereoscopic projection plane Tm from the road surface to a certain height Lmax, which is a plane surface area corresponding to the section [gmin, gmax]. Calculate the rate (step S80)
3). Specifically, as shown in FIG. 18B, hc
Is the height of the camera 10 from the road surface (known), h0 is the height of the virtual camera Kca from the road surface (known), dc is the distance from the camera 10 to the obstacle Ss, d0 is the camera 1
When 0 is the distance (known) between the road surface projection points at the virtual camera Kca position and L is the height of the obstacle Ss, the compression ratio γ
Is a compression ratio γ = {(dc + d0) / dc} × {(hc-L) due to the similarity of the triangle formed by the stereoscopic projection plane Tm and the imaging plane Sm.
It can be calculated by / (h0-L)}. As a result, FIG.
As shown in (a), the point C on the straight line Lc where AC = γ · AB can be determined.

【0109】次に、描画装置100は、標準マッピング
テーブル1801を参照して、点Bに対応する(i,
j)の画像データ上のX座標、Y座標を抽出する(ステ
ップS804)。次に、描画装置100は、圧縮率γに
よる変換によって得た点Cに対応する修正マッピングテ
ーブル1802上の(i^,j^)のX座標、Y座標を
ステップS804で得た点Bの画像データ上のX座標、
Y座標とする(ステップS805)。
Next, the drawing apparatus 100 refers to the standard mapping table 1801 and corresponds to the point B (i,
The X and Y coordinates on the image data of j) are extracted (step S804). Next, the drawing apparatus 100 obtains the image of the point B obtained in step S804 as the X coordinate and the Y coordinate of (i, j ^) on the modified mapping table 1802 corresponding to the point C obtained by the conversion with the compression rate γ. X coordinate on the data,
The Y coordinate is set (step S805).

【0110】次に、描画装置100は、カメラ位置と区
間上の点Aとを結ぶ直線上であって、区間を挟んでカメ
ラ位置と反対側に存在し、点Cとして表されることのな
い直線Lc上の点に関する修正マッピングテーブル18
02上の(i^,j^)をデータがないものとする(ス
テップS806)。
Next, the drawing apparatus 100 is on the straight line connecting the camera position and the point A on the section, is on the opposite side of the camera position across the section, and is not represented as the point C. Modified mapping table 18 for points on straight line Lc
It is assumed that (i ^, j ^) on 02 has no data (step S806).

【0111】次に、描画装置100は、ステップS80
5およびS806で求めた(i^,j^)以外の(i
^,j^)を対応する標準マッピングテーブル1801
の(i,j)をコピーすることによって、修正マッピン
グテーブル1802を作成し(ステップS807)、処
理を終了する。
Next, the drawing apparatus 100 returns to step S80.
5 and (i ^, j ^) obtained in S806 (i
^, J ^) corresponding standard mapping table 1801
The modified mapping table 1802 is created by copying (i, j) of (step S807), and the process ends.

【0112】このように、第1の実施形態に係る描画装
置100は、検出された障害物の画像を投影する面を、
障害物の存在領域を近似するような複数の面領域とする
ことにより、障害物の画像の投影面を現実の障害物にあ
った3次元投影面とすることができるので、合成画像の
ゆがみを低減することが可能となる。
As described above, the drawing apparatus 100 according to the first embodiment defines the plane on which the image of the detected obstacle is projected,
Since the projection surface of the image of the obstacle can be a three-dimensional projection surface that matches the actual obstacle by making the surface areas that approximate the existence area of the obstacle, the distortion of the composite image can be reduced. It becomes possible to reduce.

【0113】また、描画装置100は、修正マッピング
テーブル1802を作成して、障害物の画像を3次元投
影面に変換するので、膨大な計算を行う必要がなく、合
成画像のゆがみを低減することが可能となる。
Further, since the drawing apparatus 100 creates the modified mapping table 1802 and converts the image of the obstacle into the three-dimensional projection plane, it is not necessary to perform enormous calculation and the distortion of the composite image can be reduced. Is possible.

【0114】なお、第1の実施形態に係る描画装置10
0の面モデル抽出部105においては、立体障害物の存
在領域を近似する路面と垂直な平面の面領域に加え、さ
らに、立体障害物の形状を近似するような平面の領域
(路面と垂直関係にあるとは限らない平面)をも抽出す
るようにしてもよい。たとえば、立体障害物を非常に簡
単な多面体として近似するようにすればよい。この場
合、描画装置は、撮像画像を多面体の各面に投影させる
ことによって、よりリアルな合成画像を作成することが
可能となる。
The drawing apparatus 10 according to the first embodiment.
In the surface model extraction unit 105 of 0, in addition to the surface area of the plane perpendicular to the road surface that approximates the area where the three-dimensional obstacle exists, the area of the plane that approximates the shape of the three-dimensional obstacle (vertical relationship with the road surface Planes that are not necessarily present in (1) may be extracted. For example, the steric obstacle may be approximated as a very simple polyhedron. In this case, the drawing device can create a more realistic composite image by projecting the captured image on each surface of the polyhedron.

【0115】なお、第1の実施形態に係る描画装置10
0において、車両の移動量(カメラの移動量でもよい)
に基づいて、障害物検出部104が検出した障害物の座
標データの将来の座標値を予測する予測部を設けても良
い。このような予測部を設けることによって、前回は障
害物のエッジ対応点が測距でき障害物の座標データを得
ることができたのに、今回は画像データの都合上、エッ
ジ対応点がしっかり測距できなかったため障害物の座標
データを十分に得ることができなかったような場合、前
回の障害物の座標データから今回の障害物の座標データ
を予測することが可能となる。その結果、十分な座標デ
ータを得ることができなかったとしても、面モデルを作
成することが可能となる。座標データの予測値は、車両
の移動量を回転行列および平行移動ベクトルで表して、
座標変換を施せば、求めることができる。
The drawing apparatus 10 according to the first embodiment.
At 0, the amount of movement of the vehicle (may be the amount of movement of the camera)
A predicting unit that predicts future coordinate values of the coordinate data of the obstacle detected by the obstacle detecting unit 104 may be provided based on the above. By providing such a prediction unit, it was possible to measure the edge corresponding point of the obstacle last time and obtain the coordinate data of the obstacle, but this time, due to the convenience of the image data, the edge corresponding point is firmly measured. In the case where the coordinate data of the obstacle cannot be sufficiently obtained because the distance could not be obtained, the coordinate data of the current obstacle can be predicted from the coordinate data of the previous obstacle. As a result, even if sufficient coordinate data cannot be obtained, the surface model can be created. The predicted value of the coordinate data represents the amount of movement of the vehicle by a rotation matrix and translation vector,
It can be obtained by performing coordinate transformation.

【0116】(第2の実施形態)図19は、第2の実施
形態に係る描画装置200の機能的な構成を示すブロッ
ク図である。図19において、第1の実施形態に係る描
画装置100と同様の機能を有する部分については、同
一の符号を付し、説明を省略することとする。図19に
おいて、第2の実施形態に係る描画装置200は、撮像
部101と、車速センサ102と、操舵角センサ103
と、障害物検出部104と、面モデル抽出部105と、
マッピングテーブル修正部108と、画像合成部206
と、表示部207と、CGデータ作成部208と、自車
両モデルデータ部209とを備える。
(Second Embodiment) FIG. 19 is a block diagram showing the functional arrangement of a drawing apparatus 200 according to the second embodiment. In FIG. 19, parts having the same functions as those of the drawing apparatus 100 according to the first embodiment are designated by the same reference numerals, and description thereof will be omitted. In FIG. 19, the drawing device 200 according to the second embodiment includes an imaging unit 101, a vehicle speed sensor 102, and a steering angle sensor 103.
An obstacle detection unit 104, a surface model extraction unit 105,
Mapping table correction unit 108 and image composition unit 206
A display unit 207, a CG data creation unit 208, and a vehicle model data unit 209.

【0117】CGデータ作成部208は、修正マッピン
グテーブル1082を参照して、画像データが存在しな
いとして扱われている合成画像の座標(i,j)を抽出
し、当該座標(i,j)で表される領域に貼り付けるた
めのCG画像を作成する。CGデータ作成部208は、
CG画像として、車両を上から見たときの画像や路面を
表すアスファルトやコンクリートの画像などを作成す
る。
The CG data creating section 208 refers to the modified mapping table 1082, extracts the coordinates (i, j) of the composite image treated as having no image data, and uses the coordinates (i, j) as the coordinates. Create a CG image to paste in the represented area. The CG data creation unit 208
As the CG image, an image of the vehicle viewed from above, an image of asphalt or concrete representing a road surface, or the like is created.

【0118】自車両モデルデータ部209は、自車両を
真上から見たときの画像(以下、自車両モデル図とい
う)のデータを記憶している。
The host vehicle model data section 209 stores data of an image of the host vehicle viewed from directly above (hereinafter referred to as host vehicle model diagram).

【0119】画像合成部206は、撮像部101から画
像データが与えられたら、修正マッピングテーブル10
82に基づき、画像データの画素を合成画像に対応させ
て画像データを加工する。画像合成部206は、修正マ
ッピングテーブル1082においてデータがないとして
扱われている領域に、CGデータ作成部208が作成し
たCG画像を貼り付け、合成画像を作成する。画像合成
部206は、作成した合成画像を表示部207に送る。
The image synthesizing unit 206 receives the image data from the image pickup unit 101, and then the correction mapping table 10
Based on 82, the image data is processed by associating the pixels of the image data with the composite image. The image synthesizing unit 206 pastes the CG image created by the CG data creating unit 208 into an area treated as having no data in the modified mapping table 1082 to create a composite image. The image combining unit 206 sends the created combined image to the display unit 207.

【0120】表示部207は、画像合成部206から合
成画像が送られてきたら、自車両モデルデータ部209
に記憶されている真上から見た自車両の画像を当該合成
画像に貼り付け、最終的な合成画像を作成して表示し、
ユーザに提示する。
When the composite image is sent from the image composition unit 206, the display unit 207 displays the own vehicle model data unit 209.
Paste the image of the vehicle viewed from directly above stored in the composite image, create and display the final composite image,
Present to the user.

【0121】図20は、第2の実施形態に係る描画装置
200が最終的に作成する合成画像の一例を示した図で
ある。図20に示すように、第1の実施形態においては
真っ黒として扱われていた領域(図5(c)参照、修正
マッピングテーブル1082においてデータがないとし
て扱われている領域)に、路面のCG画像Rodおよび
車両を上部から見たCG画像Ucgが貼り付けられてい
る。
FIG. 20 is a diagram showing an example of a composite image finally created by the drawing apparatus 200 according to the second embodiment. As shown in FIG. 20, a CG image of the road surface is displayed in a region treated as a pure black in the first embodiment (see FIG. 5C, a region treated as having no data in the correction mapping table 1082). A CG image Ucg of the Rod and the vehicle viewed from above is attached.

【0122】図21は、第2の実施形態に係る描画装置
200の動作を示すフローチャートである。以下、図2
1を参照しながら、描画装置200の動作について説明
する。図21において、第1の実施形態に係る描画装置
100と同様の動作のステップについては、同一のステ
ップ番号を付し、説明を簡単にすることとする。
FIG. 21 is a flow chart showing the operation of the drawing apparatus 200 according to the second embodiment. Below, FIG.
The operation of the drawing apparatus 200 will be described with reference to FIG. In FIG. 21, steps similar to those of the drawing apparatus 100 according to the first embodiment are designated by the same step numbers to simplify the description.

【0123】まず、描画装置200は、撮像部101に
よって自車両周辺を撮像し、画像データを取得する(ス
テップS101)。次に、描画装置200は、取得した
画像データに撮像されている障害物を構成する点のカメ
ラ座標系での座標データを検出する(ステップS10
2)。次に、描画装置200は、取得した障害物の座標
データから、障害物の存在領域を近似し、障害物をすっ
ぽり覆い隠すような平面の面領域を抽出する(ステップ
S103)。次に、描画装置200は、抽出した面領域
をもとに、修正マッピングテーブル1082を作成し、
ステップS906の動作に進む。
First, the drawing apparatus 200 takes an image of the surroundings of the own vehicle by the image pickup unit 101 and acquires image data (step S101). Next, the drawing apparatus 200 detects the coordinate data in the camera coordinate system of the points forming the obstacle imaged in the acquired image data (step S10).
2). Next, the drawing apparatus 200 approximates the existing area of the obstacle from the acquired coordinate data of the obstacle, and extracts a planar surface area that completely covers the obstacle (step S103). Next, the drawing apparatus 200 creates a modified mapping table 1082 based on the extracted surface area,
Proceed to the operation of step S906.

【0124】ステップS906の動作において、描画装
置200は、修正マッピングテーブルでデータが存在し
ないとして扱われている領域に対応するCGデータを作
成する。次に、描画装置200は、ステップS101で
取得した画像データと、ステップS906で作成したC
Gデータとを重ね合わせた合成画像を作成する(ステッ
プS907)。その後、描画装置200は、さらに、当
該合成画像に自車両モデル図を重ね合わせて最終的な合
成画像を作成して表示し(ステップS908)、処理を
終了する。
In the operation of step S906, the drawing apparatus 200 creates CG data corresponding to the area treated as having no data in the modified mapping table. Next, the drawing apparatus 200 and the image data acquired in step S101 and the C created in step S906.
A composite image is created by superimposing it on the G data (step S907). Then, the drawing apparatus 200 further superimposes the own vehicle model diagram on the composite image to create and display a final composite image (step S908), and ends the process.

【0125】このように、第2の実施形態に係る描画装
置200は、修正マッピングテーブル1802で撮像デ
ータが存在しないとして扱われた領域にCGデータを貼
り付けることによって、すっきりとした見やすい画像を
提供することが可能となる。
As described above, the drawing apparatus 200 according to the second embodiment provides a neat and easy-to-see image by pasting the CG data in the area treated by the modified mapping table 1802 as the absence of image pickup data. It becomes possible to do.

【0126】(第3の実施形態)図22は、第3の実施
形態に係る描画装置300の機能的な構成を示すブロッ
ク図である。図22において、第1の実施形態に係る描
画装置100および第2の実施形態に係る描画装置20
0と同様の機能を有する部分については、同一の符号を
付し、説明を省略することとする。図22において、描
画装置300は、撮像部101と、車速センサ102
と、操舵角センサ103と、障害物検出部104と、画
像合成部306と、表示部307と、領域抽出部308
と、自車両モデルデータ部209と、CG画像作成部3
10と、標準マッピングテーブル部3081とを備え
る。
(Third Embodiment) FIG. 22 is a block diagram showing the functional arrangement of a drawing apparatus 300 according to the third embodiment. In FIG. 22, the drawing apparatus 100 according to the first embodiment and the drawing apparatus 20 according to the second embodiment.
Portions having the same function as 0 are designated by the same reference numerals, and description thereof will be omitted. 22, the drawing device 300 includes an image pickup unit 101 and a vehicle speed sensor 102.
A steering angle sensor 103, an obstacle detection unit 104, an image composition unit 306, a display unit 307, and an area extraction unit 308.
, Own vehicle model data unit 209, and CG image creation unit 3
10 and a standard mapping table unit 3081.

【0127】領域抽出部308は、障害物検出部104
が検出した障害物を構成する点の座標データを路面上に
投影して、障害物を真上から見たときの障害物の路面上
での投影領域を抽出する。
The area extracting section 308 is provided with the obstacle detecting section 104.
The coordinate data of the points that form the obstacle detected by is projected on the road surface, and the projection area on the road surface of the obstacle when the obstacle is viewed from directly above is extracted.

【0128】CG画像作成部310は、領域抽出部30
8が抽出した障害物の路面上での投影領域を示す補助線
のCG画像を作成する。CG画像作成部310は、画像
合成部306からの指示に応じ、作成したCG画像を画
像合成部306に送信する。なお、CG画像作成部31
0は、投影領域を示す補助線のCG画像の他に、障害物
の投影領域を隠す(マスクする)ようなCG画像を作成
するようにしてもよい。
The CG image creating section 310 includes the area extracting section 30.
A CG image of an auxiliary line indicating the projection area on the road surface of the obstacle extracted by 8 is created. The CG image creating unit 310 transmits the created CG image to the image synthesizing unit 306 according to the instruction from the image synthesizing unit 306. The CG image creating unit 31
For 0, a CG image of hiding (masking) the projection area of the obstacle may be created in addition to the CG image of the auxiliary line indicating the projection area.

【0129】標準マッピングテーブル部3081は、標
準マッピングテーブルを記憶している。標準マッピング
テーブルについては、第1の実施形態の場合と同様であ
るので、説明を省略する。
The standard mapping table section 3081 stores a standard mapping table. The standard mapping table is the same as that of the first embodiment, and therefore its explanation is omitted.

【0130】画像合成部306は、撮像部101から画
像データが与えられたら、標準マッピングテーブル部3
081の標準マッピングテーブルを参照して、画像デー
タを自車両の上方(仮想カメラ位置)から見た画像に加
工する。画像合成部306は、C標準マッピングテーブ
ルに基づいて加工した画像にG画像作成部310で作成
したCG画像を貼り付け、合成画像を作成する。画像合
成部306は、CG画像が貼り付けられた合成画像を表
示部307に送る。
The image synthesizing unit 306 receives the image data from the image pickup unit 101, and then the standard mapping table unit 3
With reference to the standard mapping table 081, the image data is processed into an image viewed from above the virtual vehicle position (virtual camera position). The image composition unit 306 attaches the CG image created by the G image creation unit 310 to the image processed based on the C standard mapping table to create a composite image. The image composition unit 306 sends the composite image to which the CG image is attached to the display unit 307.

【0131】表示部307は、画像合成部306から送
られてきた合成画像に自車両モデルデータ部209に記
憶されている自車両モデル図を貼り付け、最終的な合成
画像を作成し、ユーザに提示する。
The display unit 307 affixes the own vehicle model diagram stored in the own vehicle model data unit 209 to the combined image sent from the image combining unit 306, creates a final combined image, and displays it to the user. Present.

【0132】図23は、第3の実施形態に係る描画装置
300が表示する合成画像を説明するための図である。
図23(a)は、標準マッピングテーブルによって加工
された画像データである。従来技術で説明したように、
図23(a)では、車両の上部は、非常に大きく歪んで
いるため、障害物を認識するのは困難である。図23
(b)は、描画装置300によって最終的な合成画像と
して表示される画像である。図23(b)では、障害物
の存在領域を示す補助線Hliが貼り付けられている。
これにより、ユーザは、障害物の存在領域をはっきりと
認識することが可能となる。
FIG. 23 is a diagram for explaining a composite image displayed by the drawing device 300 according to the third embodiment.
FIG. 23A shows image data processed by the standard mapping table. As explained in the prior art,
In FIG. 23A, the upper part of the vehicle is distorted so much that it is difficult to recognize the obstacle. FIG. 23
(B) is an image displayed as a final composite image by the drawing device 300. In FIG. 23B, the auxiliary line Hli indicating the area where the obstacle exists is attached.
This allows the user to clearly recognize the area where the obstacle exists.

【0133】図24は、描画装置300が表示する合成
画像の他の一例を示した図である。図24では、図23
(b)で示した補助線Hliに加え、図23(a)で大
きく歪んだ障害物のい画像を覆い隠すようなCG画像H
suが貼り付けられている。これにより、ユーザは、さ
らに障害物の存在領域をはっきりと認識することが可能
となる。
FIG. 24 is a view showing another example of the composite image displayed by the drawing device 300. In FIG.
In addition to the auxiliary line Hli shown in (b), a CG image H that covers an image of an obstacle that is greatly distorted in FIG. 23 (a).
su is attached. This allows the user to further clearly recognize the area where the obstacle exists.

【0134】図25は、描画装置300の動作を示すフ
ローチャートである。以下、図25を参照しながら、描
画装置300の動作について説明する。図25におい
て、第1の実施形態に係る描画装置100と同様の動作
のステップについては、同一のステップ番号を付し、説
明を簡単にすることとする。
FIG. 25 is a flow chart showing the operation of the drawing apparatus 300. The operation of the drawing apparatus 300 will be described below with reference to FIG. In FIG. 25, steps of the same operations as those of the drawing apparatus 100 according to the first embodiment are denoted by the same step numbers, and the description will be simplified.

【0135】まず、描画装置300は、撮像部101に
よって自車両周辺を撮像し、画像データを取得する(ス
テップS101)。次に、描画装置300は、標準マッ
ピングテーブルに基づき、取得した画像データを自車両
の上方から見た画像に合成する(ステップS100
1)。次に、描画装置300は、取得した画像データに
撮像されている障害物を構成する点のカメラ座標系での
座標データを検出する(ステップS102)。
First, the drawing apparatus 300 uses the image pickup unit 101 to pick up an image of the surrounding area of the vehicle and acquire image data (step S101). Next, the drawing apparatus 300 combines the acquired image data with an image viewed from above the own vehicle based on the standard mapping table (step S100).
1). Next, the drawing apparatus 300 detects the coordinate data in the camera coordinate system of the points forming the obstacle imaged in the acquired image data (step S102).

【0136】次に、描画装置300は、障害物を構成す
る座標データをもとに、障害物を路面に投影した際の存
在領域を抽出する(ステップS1003)。ステップS
1003の処理については、あとで詳しく説明する。次
に、描画装置300は、先ほど抽出した存在領域をより
はっきりと示すためのCG画像(補助線のCG画像やマ
スクするためのCG画像)を作成する(ステップS10
04)。
Next, the drawing apparatus 300 extracts the existing area when the obstacle is projected on the road surface based on the coordinate data forming the obstacle (step S1003). Step S
The processing of 1003 will be described in detail later. Next, the drawing apparatus 300 creates a CG image (a CG image of an auxiliary line or a CG image for masking) for more clearly showing the existing area extracted previously (step S10).
04).

【0137】その後、描画装置300は、ステップS1
001で作成した周辺の合成画像と、ステップS100
4で作成したCG画像と、自車両のモデル図とを重ね合
わせ、最終的な合成画像を作成し、表示する(ステップ
S1005)。
Thereafter, the drawing apparatus 300 proceeds to step S1.
The synthesized image of the periphery created in 001 and step S100
The CG image created in 4 and the model diagram of the vehicle are overlaid to create and display a final composite image (step S1005).

【0138】図26は、図25の障害物存在領域抽出処
理(ステップS1003)をより詳しく説明したフロー
チャートである。以下、図26を参照しながら、障害物
存在領域抽出処理について説明する。まず、描画装置3
00は、障害物を構成する点の座標データを路面上に投
影して、路面上に投影した座標値を算出する(ステップ
S1201)。次に、描画装置300は、カメラ位置を
路面上に投影した位置から、放射線状の各方向における
最短の投影点を抽出する(ステップS1202)。
FIG. 26 is a flow chart for explaining the obstacle existing area extraction processing (step S1003) of FIG. 25 in more detail. Hereinafter, the obstacle existing area extraction processing will be described with reference to FIG. First, the drawing device 3
00 projects the coordinate data of the points forming the obstacle on the road surface, and calculates the coordinate values projected on the road surface (step S1201). Next, the drawing apparatus 300 extracts the shortest projection point in each radial direction from the position where the camera position is projected on the road surface (step S1202).

【0139】次に、描画装置300は、抽出された最短
の投影点近傍の密度が一定値以上である場合、当該投影
点を障害物の領域を構成する領域抽出ポイントであると
して抽出する(ステップS1203)。描画装置300
は、ステップS1202およびステップS1203の動
作を全ての投影点に対して行う。
Next, when the density of the extracted shortest projection point neighborhood is a certain value or more, the drawing apparatus 300 extracts the projection point as an area extraction point forming an obstacle area (step). S1203). Drawing device 300
Performs the operations of steps S1202 and S1203 for all projection points.

【0140】その後、描画装置300は、ステップS1
203で領域を構成する点であるとして抽出された領域
抽出ポイント間の距離が一定値以下の場合、直線で領域
抽出ポイント間同士を補間し、障害物の投影面上におけ
る存在領域を決定する(ステップS1204)。
Thereafter, the drawing apparatus 300 proceeds to step S1.
When the distance between the area extraction points extracted as the points forming the area in 203 is equal to or less than a certain value, the area extraction points are interpolated with a straight line to determine the existence area of the obstacle on the projection surface ( Step S1204).

【0141】このように、第3の実施形態における描画
装置300では、標準マッピングテーブルによって大き
く歪んだ障害物の位置を示す画像を表示したり、大きく
歪んだ障害物を隠すなどの処理を施すので、ユーザにと
って見やすい画像を提供することが可能となる。
As described above, in the drawing apparatus 300 according to the third embodiment, the standard mapping table is used to display an image showing the position of a significantly distorted obstacle and to perform processing such as hiding the greatly distorted obstacle. It is possible to provide an image that is easy for the user to see.

【0142】なお、第3の実施形態における描画装置3
00においても、第1の実施形態と同様、車両の移動量
から障害物の座標データを予測する予測部を設けてもよ
い。このようにすると、障害物の座標データの予測か
ら、領域抽出部308が路面に投影した障害物の領域を
予測することが可能となる。その結果、画像データか
ら、障害物の座標データを十分に得ることができなかっ
た場合でも、描画装置300は、障害物の領域を抽出す
ることができる。
The drawing device 3 according to the third embodiment.
In 00 as well, as in the first embodiment, a prediction unit that predicts coordinate data of an obstacle from the moving amount of the vehicle may be provided. In this way, the area of the obstacle projected by the area extraction unit 308 on the road surface can be predicted from the prediction of the coordinate data of the obstacle. As a result, the drawing apparatus 300 can extract the area of the obstacle even when the coordinate data of the obstacle cannot be sufficiently obtained from the image data.

【0143】(第4の実施形態)図27は、第4の実施
形態における描画装置400の機能的構成を示すブロッ
ク図である。図27において、第1の実施形態における
描画装置100、第2の実施形態における描画装置20
0および第3の実施形態における描画装置300と同様
の機能を有する部分については、同一の符号を付し、説
明を省略することとする。
(Fourth Embodiment) FIG. 27 is a block diagram showing the functional arrangement of a drawing apparatus 400 according to the fourth embodiment. In FIG. 27, the drawing apparatus 100 according to the first embodiment and the drawing apparatus 20 according to the second embodiment.
The components having the same functions as those of the drawing device 300 according to the third and third embodiments are denoted by the same reference numerals, and the description thereof will be omitted.

【0144】図27において、描画装置400は、撮像
部101と、車速センサ102と、操舵角センサ103
と、障害物検出部104と、領域抽出部308と、車両
領域抽出部401と、車種判定部402と、モデルサイ
ズ変更部403と、車両モデルデータベース部404
と、画像合成部406と、表示部407と、自車両モデ
ルデータ部209と、標準マッピングテーブル部308
1とを備える。
In FIG. 27, the drawing device 400 includes an image pickup section 101, a vehicle speed sensor 102, and a steering angle sensor 103.
An obstacle detecting unit 104, a region extracting unit 308, a vehicle region extracting unit 401, a vehicle type determining unit 402, a model size changing unit 403, and a vehicle model database unit 404.
An image combining unit 406, a display unit 407, a vehicle model data unit 209, and a standard mapping table unit 308.
1 and 1.

【0145】画像合成部406は、撮像部101から画
像データが与えられたら、標準マッピングテーブル部3
081に記憶されている標準マッピングテーブルを参照
して、画像データを自車両の上方(仮想カメラ位置)か
ら見た画像に加工する。画像合成部406は、作成した
合成画像を表示部407に与える。
The image synthesizing unit 406 receives the image data from the image pickup unit 101, and then the standard mapping table unit 3
By referring to the standard mapping table stored in 081, the image data is processed into an image viewed from above the own vehicle (virtual camera position). The image combining unit 406 gives the created combined image to the display unit 407.

【0146】車両領域抽出部401は、撮像部101か
ら与えられる画像データの中に車両が存在するか否かを
判断し、車両の外観を示す領域を抽出する。車両領域抽
出部401は、Sobelフィルタ等によりエッジ抽出
を行い、水平エッジおよび垂直エッジの度数分布のピー
ク値により、高さ方向および横方向の障害物の外観領域
を抽出して、車両の外観を示す領域を抽出する。また、
車両領域抽出部401は、ナンバープレートや、タイ
ヤ、バンパーなどを抽出して車両の外観領域を求めるよ
うにしてもよい。車両の外観領域を抽出する方法につい
ては、現在、その他多数の技術が発表されている。車両
領域抽出部401は、抽出された車両の外観領域を車種
判定部402に与える。
The vehicle area extraction unit 401 determines whether or not a vehicle exists in the image data given from the image pickup unit 101, and extracts an area showing the appearance of the vehicle. The vehicle area extraction unit 401 performs edge extraction using a Sobel filter or the like, and extracts the appearance area of the obstacle in the height direction and the lateral direction based on the peak value of the frequency distribution of the horizontal edges and the vertical edges to determine the appearance of the vehicle. The indicated area is extracted. Also,
The vehicle area extraction unit 401 may extract the license plate, tires, bumpers, and the like to obtain the appearance area of the vehicle. Many other technologies have been published at present regarding the method of extracting the exterior region of a vehicle. The vehicle area extraction unit 401 provides the extracted vehicle appearance area to the vehicle type determination unit 402.

【0147】車両モデルデータベース部404は、様々
な種類の車両を数パターンの距離、方向から撮影した場
合の画像データ(車両モデル図)を記憶している。車両
モデルデータベース部404に記憶されている車両モデ
ル図は、自車両モデルデータ部209に記憶されている
自車両モデル図と違和感がないような色合いや質感とな
っている。
The vehicle model database section 404 stores image data (vehicle model diagram) obtained by photographing various types of vehicles from several patterns of distances and directions. The vehicle model diagram stored in the vehicle model database unit 404 has a color and a texture that does not cause a feeling of discomfort with the own vehicle model diagram stored in the own vehicle model data unit 209.

【0148】車種判定部402は、車両モデルデータベ
ース部404を参照して、車両領域抽出部401から与
えられる車両の外観領域と一致する車両モデルが存在す
るか否かを判断し、当該車両の車種を判定する。車種判
定部402は、判定した車種をモデルサイズ変更部40
3に伝える。
The vehicle type determination unit 402 determines whether or not there is a vehicle model that matches the appearance region of the vehicle given from the vehicle region extraction unit 401 by referring to the vehicle model database unit 404, and the vehicle type of the vehicle. To judge. The vehicle type determination unit 402 uses the determined vehicle type as the model size change unit 40.
Tell 3.

【0149】モデルサイズ変更部403は、領域抽出部
308から与えられる障害物の領域の大きさと一致する
ように、車種判定部402から与えられた車種について
の車両モデル図(上から見た場合の車両モデル図)のサ
イズを変更する。モデルサイズ変更部403は、領域抽
出部308から与えられる障害物の領域を覆い隠す(マ
スクする)CG画像を作成し、当該CG画像にサイズを
変更した車両モデル図を貼り付けたCG画像を作成す
る。領域抽出部308から与えられた障害物の領域が車
両の存在領域でない場合、モデルサイズ変更部403
は、当該障害物の領域をマスクするようなCG画像のみ
を作成する。モデルサイズ変更部403は、作成したC
G画像を表示部407に与える。
The model size changing unit 403 matches the size of the obstacle area given from the area extracting unit 308 with the vehicle model diagram of the vehicle type given by the vehicle type determining unit 402 (when viewed from above). Change the size of the vehicle model diagram). The model size changing unit 403 creates a CG image that covers (masks) the area of the obstacle given from the area extracting unit 308, and creates a CG image in which the resized vehicle model diagram is attached to the CG image. To do. When the obstacle area given from the area extracting unit 308 is not the vehicle existing region, the model size changing unit 403
Creates only a CG image that masks the area of the obstacle. The model size changing unit 403 creates the C
The G image is given to the display unit 407.

【0150】表示部407は、画像合成部406から与
えられた合成画像に、自車両モデルデータ部209の自
車両モデル図およびモデルサイズ変更部403から与え
られるCG画像を貼り付け、最終的な合成画像を作成
し、表示する。
The display unit 407 attaches the own vehicle model diagram of the own vehicle model data unit 209 and the CG image provided from the model size changing unit 403 to the combined image provided from the image combining unit 406, and finally combines the images. Create and display an image.

【0151】図28は、描画装置400が作成する合成
画像の一例を示す図である。図28で示すように、描画
装置400は、モデルサイズ変更部403で作成された
車両領域を示すCG画像Suおよび車両モデル図Smd
と、自車両モデル図Jshとを、標準マッピングテーブ
ル1801に基づいて合成した画像に貼り付けて、最終
的な合成画像を作成する。
FIG. 28 is a diagram showing an example of a composite image created by the drawing apparatus 400. As illustrated in FIG. 28, the drawing device 400 includes a CG image Su and a vehicle model diagram Smd indicating the vehicle area created by the model size changing unit 403.
And the own vehicle model diagram Jsh are pasted on an image combined based on the standard mapping table 1801 to create a final combined image.

【0152】図29は、描画装置400の動作を示すフ
ローチャートである。以下、図29を参照しながら、描
画装置400の動作について説明する。図29におい
て、第1の実施形態における描画装置100および第3
の実施形態における描画装置300と同様の動作のステ
ップについては、同一のステップ番号を付し、説明を簡
単にする。まず、描画装置400は、描画モードがON
であるか否かを判断する(ステップS1101)。ここ
で、描画装置400は、ドライバーのスイッチ操作によ
る場合やバックギアに入った場合に、描画モードをON
であるとする。
FIG. 29 is a flow chart showing the operation of the drawing apparatus 400. The operation of the drawing apparatus 400 will be described below with reference to FIG. In FIG. 29, the drawing apparatus 100 and the third device according to the first embodiment are described.
The same step numbers are attached to the steps of the same operation as that of the drawing apparatus 300 in the above embodiment to simplify the description. First, the drawing device 400 is in the drawing mode ON.
It is determined whether or not (step S1101). Here, the drawing apparatus 400 turns on the drawing mode when the driver operates the switch or when the back gear is entered.
Suppose

【0153】描画モードがONになるまで、描画装置4
00は、処理を待機する。一方、描画モードがONとな
った場合、描画装置400は、ステップS101の動作
に進み、撮像部101によって画像データを取得する。
次に、描画装置400は、標準マッピングテーブルに基
づいて、取得した画像データを自車両の上方(仮想カメ
ラ位置)から見た画像に合成する(ステップS100
1)。
Until the drawing mode is turned on, the drawing device 4
00 waits for processing. On the other hand, when the drawing mode is turned on, the drawing apparatus 400 proceeds to the operation of step S101 and acquires image data by the imaging unit 101.
Next, the drawing apparatus 400 synthesizes the acquired image data with an image viewed from above the own vehicle (virtual camera position) based on the standard mapping table (step S100).
1).

【0154】次に、描画装置400は、立体障害物を構
成する点の座標データを検出する(ステップS10
2)。次に、描画装置400は、検出された障害物が車
両であるか否かを判断する(ステップS1105)。例
えば、検出したエッジにより車両の特徴を有しているか
否かによって判断を行う。車両であると判断された場
合、描画装置400は、車両領域をスネーク等により確
定し、車両モデルデータベース部404を参照して、様
々な車種の様々な方向・位置から見た車両モデルのデー
タと、抽出された実画像の車両データとの一致度をニュ
ーラルネットワーク等により算出し、車種を判定する
(ステップS1106)。次に、描画装置400は、自
車両との位置関係により、車種が判定された車両モデル
のサイズや向きを決定し、車両領域をマスクする画像と
車両モデル図とを重ね合わせたCG画像を作成し(ステ
ップS1108)、ステップS1109の動作に進む。
Next, the drawing device 400 detects the coordinate data of the points forming the three-dimensional obstacle (step S10).
2). Next, the drawing apparatus 400 determines whether or not the detected obstacle is a vehicle (step S1105). For example, the determination is made based on whether or not the detected edge has the characteristics of the vehicle. When it is determined that the vehicle is a vehicle, the drawing device 400 determines the vehicle area by snake or the like, and refers to the vehicle model database unit 404 to obtain the data of the vehicle model viewed from various directions and positions of various vehicle types. The degree of coincidence with the vehicle data of the extracted actual image is calculated by a neural network or the like to determine the vehicle type (step S1106). Next, the drawing device 400 determines the size and orientation of the vehicle model whose vehicle type has been determined based on the positional relationship with the host vehicle, and creates a CG image in which an image for masking the vehicle region and the vehicle model diagram are superimposed. Then (step S1108), the operation proceeds to step S1109.

【0155】一方、上記ステップS1105において、
車両でないと判断された場合、描画装置400は、車両
領域をマスクする画像を作成し(ステップS110
7)、ステップS1109の動作に進む。
On the other hand, in step S1105,
When it is determined that the vehicle area is not the vehicle, the drawing apparatus 400 creates an image that masks the vehicle area (step S110).
7) and proceeds to the operation of step S1109.

【0156】ステップS1109の動作において、描画
装置400は、ステップS1001で求めた合成画像
と、ステップS1108で求めた車両領域をマスクする
CG画像に車両モデルを重ねたCG画像、もしくはステ
ップS1107で求めた障害物をマスクするCG画像と
を重ね合わせ、さらに自車両モデル図を重ね合わせて最
終的なCG画像を作成し、表示する。
In the operation of step S1109, the drawing apparatus 400 determines the composite image obtained in step S1001 and the CG image obtained by superimposing the vehicle model on the CG image masking the vehicle region obtained in step S1108, or in step S1107. The final CG image is created and displayed by superimposing the CG image for masking the obstacle and further superimposing the own vehicle model diagram.

【0157】その後、描画装置400は、描画モードが
OFFであるか否かを判断し(ステップS1110)、
OFFでない場合は、ステップS101の動作に戻り、
上記の動作を繰り返す。一方、OFFである場合、描画
装置400は、動作を終了する。なお、ここで、例えば
シフトがバックからドライブへ入った場合、駐車時の切
り返し等が考えられるため、一定時間は描画モードを続
けるようにしても良い。
Thereafter, the drawing apparatus 400 determines whether the drawing mode is OFF (step S1110),
If it is not OFF, the operation returns to step S101,
The above operation is repeated. On the other hand, when it is OFF, the drawing apparatus 400 ends the operation. It should be noted that, for example, when the shift enters from the back to the drive, turning back at the time of parking may be considered. Therefore, the drawing mode may be continued for a certain period of time.

【0158】このように第5の実施形態における描画装
置400は、障害物が車両である場合、自車と同じよう
な色合い・質感の車両のCG画像を自車両の上方から見
た画像として貼り付けるので、全く違和感のない周辺画
像を作成することが可能となる。
As described above, when the obstacle is a vehicle, the drawing apparatus 400 according to the fifth embodiment pastes a CG image of a vehicle having the same color and texture as the own vehicle as an image viewed from above the own vehicle. Since it is attached, it is possible to create a peripheral image having no discomfort.

【0159】なお、車両モデルデータベース部404に
車両以外のCG画像(たとえば、木や壁、オートバイな
どのCG画像)を記憶させておき、車両以外の領域を判
断できるようにしてもよい。このようにすることによっ
て、よりリアルな周辺画像を作成することが可能とな
る。
The vehicle model database unit 404 may store CG images other than the vehicle (for example, CG images of trees, walls, motorcycles, etc.) so that areas other than the vehicle can be determined. By doing so, it becomes possible to create a more realistic peripheral image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態に係る描画装置の機能
的構成を示すブロック図である。
FIG. 1 is a block diagram showing a functional configuration of a drawing device according to a first embodiment of the present invention.

【図2】二つのカメラ10(#1)、10(#2)の車
両での取り付け位置の一例を示した図である。
FIG. 2 is a diagram showing an example of mounting positions of two cameras 10 (# 1) and 10 (# 2) in a vehicle.

【図3】標準マッピングテーブル1801の一例を示す
図である。
FIG. 3 is a diagram showing an example of a standard mapping table 1801.

【図4】標準マッピングテーブル1081および修正マ
ッピングテーブル1802を直感的に理解するための図
である。
FIG. 4 is a diagram for intuitively understanding a standard mapping table 1081 and a modified mapping table 1802.

【図5】第1の実施形態に係る描画装置100が合成画
像を作成するまでの撮像画像の加工の様子を直感的に理
解するための図ある。
FIG. 5 is a diagram for intuitively understanding how the captured image is processed until the rendering device 100 according to the first embodiment creates a composite image.

【図6】カメラ座標系および車両座標系を説明するため
の図である。
FIG. 6 is a diagram for explaining a camera coordinate system and a vehicle coordinate system.

【図7】第1の実施形態に係る描画装置100の動作を
示したフローチャートである。
FIG. 7 is a flowchart showing an operation of the drawing device 100 according to the first embodiment.

【図8】図7における障害物の座標データ検出処理(ス
テップS102)をより詳しく示したフローチャートで
ある。
FIG. 8 is a flowchart showing in more detail the coordinate data detection process (step S102) of the obstacle in FIG.

【図9】図8におけるステップS203の処理(カメラ
移動量(Rc,Tc)の計測処理)をより詳しく説明す
るための図である。
FIG. 9 is a diagram for explaining in more detail the processing of step S203 in FIG. 8 (camera movement amount (Rc, Tc) measurement processing).

【図10】図8におけるステップS205の処理(カメ
ラ座標でのエッジ対応点の座標の検出処理)をより詳し
く説明するための図である。
10 is a diagram for explaining in more detail the process of step S205 in FIG. 8 (the process of detecting the coordinates of edge corresponding points in camera coordinates).

【図11】図7における面領域抽出処理(ステップS1
03)をより詳しく説明したフローチャートである。
11 is a diagram illustrating a surface area extraction process (step S1 in FIG. 7).
03) is a flow chart explaining in more detail.

【図12】図11におけるステップS302のHoug
h変換による処理をより詳しく説明したフローチャート
である。
12 is a Hough of step S302 in FIG.
It is a flowchart explaining the process by h conversion in more detail.

【図13】ステップS302の処理を具体的に説明する
ための図である。
FIG. 13 is a diagram for specifically explaining the process of step S302.

【図14】図11におけるステップS303の処理をよ
り詳しく説明したフローチャートである。
FIG. 14 is a flowchart illustrating the process of step S303 in FIG. 11 in more detail.

【図15】図11におけるステップS304の平面領域
決定処理をより詳しく説明したフローチャートである。
15 is a flowchart illustrating in more detail the plane area determination process of step S304 in FIG.

【図16】図11におけるステップS305の平面統合
処理をより詳しく説明したフローチャートである。
FIG. 16 is a flowchart illustrating in more detail the plane integration process of step S305 in FIG.

【図17】図7におけるステップS104のマッピング
テーブル修正処理をより詳しく説明するフローチャート
である。
FIG. 17 is a flowchart for explaining the mapping table correction processing in step S104 in FIG. 7 in more detail.

【図18】図17で示すマッピングテーブル修正処理を
直感的に理解するための図である。
FIG. 18 is a diagram for intuitively understanding the mapping table correction process shown in FIG. 17.

【図19】第2の実施形態に係る描画装置200の機能
的な構成を示すブロック図である。
FIG. 19 is a block diagram showing a functional configuration of a drawing device 200 according to a second embodiment.

【図20】第2の実施形態に係る描画装置200が最終
的に作成する合成画像の一例を示した図である。
FIG. 20 is a diagram showing an example of a composite image finally created by the drawing apparatus 200 according to the second embodiment.

【図21】第2の実施形態に係る描画装置200の動作
を示すフローチャートである。
FIG. 21 is a flowchart showing an operation of the drawing device 200 according to the second embodiment.

【図22】第3の実施形態に係る描画装置300の機能
的な構成を示すブロック図である。
FIG. 22 is a block diagram showing a functional configuration of a drawing device 300 according to a third embodiment.

【図23】第3の実施形態に係る描画蔵置300が表示
する合成画像を説明するための図である。
FIG. 23 is a diagram for explaining a composite image displayed by the drawing storage unit 300 according to the third embodiment.

【図24】描画装置300が表示する合成画像の他の一
例を示した図である。
FIG. 24 is a diagram showing another example of a composite image displayed by the drawing device 300.

【図25】描画装置300の動作を示すフローチャート
である。
FIG. 25 is a flowchart showing the operation of the drawing device 300.

【図26】図25の障害物存在領域抽出処理(ステップ
S1003)をより詳しく説明したフローチャートであ
る。
FIG. 26 is a flowchart illustrating the obstacle existing area extraction processing (step S1003) in FIG. 25 in more detail.

【図27】第4の実施形態における描画装置400の機
能的構成を示すブロック図である。
FIG. 27 is a block diagram showing a functional configuration of a drawing device 400 according to a fourth embodiment.

【図28】描画装置400が作成する合成画像の一例を
示す図である。
28 is a diagram showing an example of a composite image created by the drawing device 400. FIG.

【図29】描画装置400の動作を示すフローチャート
である。
29 is a flowchart showing the operation of the drawing apparatus 400. FIG.

【図30】従来の車両監視装置の問題点を説明するため
の図である。
FIG. 30 is a diagram for explaining a problem of the conventional vehicle monitoring device.

【符号の説明】[Explanation of symbols]

100,200,300,400 描画装置 101 撮像部 102 車速センサ 103 操舵角センサ 104 障害物検出部 105 面モデル抽出部 106,206,306,406 画像合成部 107,207,307,407 表示部 108 マッピングテーブル修正部 1081 標準マッピングテーブル 1082 修正マッピングテーブル 10 カメラ 208 CGデータ作成部 209 自車両モデルデータ部 308 領域抽出部 310 CG画像作成部 3081 標準マッピングテーブル部 401 車両領域抽出部 402 車種判定部 403 モデルサイズ変更部 404 車両モデルデータベース部 100, 200, 300, 400 drawing device 101 Imaging unit 102 vehicle speed sensor 103 Steering angle sensor 104 Obstacle detector 105 face model extraction unit 106, 206, 306, 406 Image composition section 107, 207, 307, 407 Display unit 108 Mapping table correction section 1081 Standard mapping table 1082 modified mapping table 10 cameras 208 CG data creation section 209 Own vehicle model data section 308 area extraction unit 310 CG image creation unit 3081 Standard mapping table section 401 Vehicle area extraction unit 402 Vehicle type determination unit 403 Model size change unit 404 Vehicle model database section

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 622 B60R 21/00 622F 622K 622L 622Q 622T 624 624C 626 626G 628 628D G06T 1/00 330 G06T 1/00 330B G08G 1/16 G08G 1/16 C H04N 7/18 H04N 7/18 J V (72)発明者 吉田 崇 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 安井 伸彦 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 中川 雅通 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B057 AA16 CA08 CA12 CA16 CB08 CB12 CB16 CD14 CE08 DB02 DB09 DC16 5C054 CC05 EA01 EA05 FA00 FC01 FD03 FE09 FE12 FF07 GB16 HA30 5H180 AA01 CC04 LL01 LL02 LL04 LL08 LL17 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) B60R 21/00 622 B60R 21/00 622F 622K 622L 622Q 622T 624 624C 626 626G 628 628D G06T 1/00 330 / 00 330B G08G 1/16 G08G 1/16 C H04N 7/18 H04N 7/18 JV (72) Inventor Takashi Yoshida 1006 Kadoma, Kadoma-shi, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. (72) Nobuhiko Yasui 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. (72) Inventor, Masamichi Nakagawa 1006 Kadoma, Kadoma City, Osaka Prefecture F Term (Reference) 5B057 AA16 CA08 CA12 CA16 CB08 CB12 CB16 CD14 CE08 DB02 DB09 DC16 5C054 CC05 EA01 EA05 FA0 0 FC01 FD03 FE09 FE12 FF07 GB16 HA30 5H180 AA01 CC04 LL01 LL02 LL04 LL08 LL17

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 車両の運転支援用の表示画像を作成する
ための描画装置であって、 車両に設置されたカメラから、当該車両の周辺の画像を
取得する撮像画像取得手段と、 前記撮像画像取得手段が取得した画像に基づいて、車両
周辺の立体物の存在領域を検出する立体物検出手段と、 前記立体物検出手段が検出した立体物の存在領域を近似
する平面を抽出する面モデル抽出手段と、 前記面モデル抽出手段が抽出した平面に前記撮像画像取
得手段が取得した画像を投影して、表示すべき合成画像
を作成する画像合成部とを備える、描画装置。
1. A drawing device for creating a display image for driving support of a vehicle, comprising: a captured image acquisition means for acquiring an image of the periphery of the vehicle from a camera installed in the vehicle; Based on the image acquired by the acquisition unit, a three-dimensional object detection unit that detects a three-dimensional object existing region around the vehicle, and a surface model extraction that extracts a plane that approximates the three-dimensional object existing region detected by the three-dimensional object detection unit. A drawing device comprising: a device and an image composition unit that projects an image acquired by the captured image acquisition unit onto a plane extracted by the surface model extraction unit to create a combined image to be displayed.
【請求項2】 前記画像合成部は、 前記面モデル抽出手段が抽出した平面に前記撮像画像取
得手段が取得した画像を投影するためのマッピングテー
ブルと、 前記立体物検出手段によって逐次抽出される平面に基づ
いて、マッピングテーブルを修正していくマッピングテ
ーブル修正手段と、 前記マッピングテーブルに基づいて、合成画像を逐次作
成する画像合成手段とを含む、請求項1に記載の描画装
置。
2. A mapping table for projecting an image acquired by the captured image acquisition means onto the plane extracted by the surface model extraction means, and a plane sequentially extracted by the three-dimensional object detection means. The drawing apparatus according to claim 1, further comprising: a mapping table correcting unit that corrects the mapping table based on the mapping table; and an image synthesizing unit that sequentially creates a synthetic image based on the mapping table.
【請求項3】 前記画像合成部は、 前記マッピングテーブルにおいて、データが存在しない
と扱われている合成画像上の領域に貼り付けるためのC
G画像を作成するCGデータ作成手段をさらに含み、 前記画像合成手段は、前記CGデータ作成手段が作成し
たCG画像を合成画像上においてデータが存在しないと
して扱われている領域に貼り付けて、合成画像を作成す
ることを特徴とする、請求項2に記載の描画装置。
3. The image synthesizing unit C for pasting to a region on a synthetic image in which data is treated as not existing in the mapping table.
The image synthesizing means further includes CG data creating means for creating a G image, wherein the image synthesizing means pastes the CG image created by the CG data creating means onto an area treated as having no data on the synthetic image to synthesize the CG image. The drawing apparatus according to claim 2, wherein an image is created.
【請求項4】 車両の移動量を検出する車両移動量検出
手段をさらに含み、 前記立体物検出手段は、前記車両移動量検出手段が検出
した車両の移動量に基づいて、移動前の画像と移動後の
画像とを比較して、前記撮像画像取得手段が取得した画
像に撮像されている立体物までの距離を算出して、車両
周辺の立体物の存在領域を検出することを特徴とする、
請求項1に記載の描画装置。
4. A vehicle movement amount detection means for detecting the movement amount of the vehicle is further included, wherein the three-dimensional object detection means is based on the movement amount of the vehicle detected by the vehicle movement amount detection means, The present invention is characterized in that a distance to a three-dimensional object imaged in the image acquired by the captured image acquisition means is calculated by comparing the image after the movement, and the existence area of the three-dimensional object around the vehicle is detected. ,
The drawing device according to claim 1.
【請求項5】 前記車両移動量検出手段は、車両に設置
された車速センサおよび操舵角センサの測定値に基づい
て、車両の移動量を検出することを特徴とする、請求項
4に記載の描画装置。
5. The vehicle movement amount detecting means detects the amount of movement of the vehicle based on measured values of a vehicle speed sensor and a steering angle sensor installed in the vehicle. Drawing device.
【請求項6】 前記車両移動量検出手段が検出した車両
の移動量に基づいて、前記立体物検出手段が検出した立
体物の将来の存在領域を予測する予測手段をさらに含
み、 前記面モデル抽出手段は、前記予測手段が予測した立体
物の存在領域に基づいて、平面を抽出することを特徴と
する、請求項4に記載の描画装置。
6. The plane model extraction further includes a prediction unit that predicts a future existence area of the three-dimensional object detected by the three-dimensional object detection unit based on the amount of movement of the vehicle detected by the vehicle movement amount detection unit. The drawing device according to claim 4, wherein the means extracts a plane based on the existence area of the three-dimensional object predicted by the prediction means.
【請求項7】 前記立体物検出手段は、立体物の輪郭を
構成するエッジ上の点の3次元座標を割り出して立体物
の存在領域を検出し、 前記面モデル抽出手段は、前記立体物検出手段が割り出
した前記エッジ上の点の3次元座標に基づいて、立体物
の存在領域を近似する平面を抽出することを特徴とす
る、請求項1に記載の描画装置。
7. The three-dimensional object detection means detects three-dimensional coordinates of points on an edge forming the contour of the three-dimensional object to detect the existence area of the three-dimensional object, and the plane model extraction means detects the three-dimensional object. The drawing apparatus according to claim 1, wherein a plane that approximates a region where a three-dimensional object exists is extracted based on the three-dimensional coordinates of the points on the edge determined by the means.
【請求項8】 前記画像合成部は、自車両を示すモデル
図を貼り付けて合成画像を作成することを特徴とする、
請求項1に記載の描画装置。
8. The image synthesizing unit creates a synthetic image by pasting a model diagram showing the own vehicle.
The drawing device according to claim 1.
【請求項9】 車両の運転支援用の表示画像を作成する
ための描画装置であって、 車両に設置されたカメラから、当該車両の周辺画像を取
得する撮像画像取得手段と、 前記撮像画像取得手段が取得した画像に基づいて、車両
周辺の立体物の存在領域を検出する立体物検出手段と、 前記立体物検出手段が検出した立体物を路面に投影した
ときの領域を抽出する領域抽出手段と、 前記領域抽出手段が抽出した領域に基づいて、路面上に
投影した立体物の存在領域を示すCG画像を作成するC
G画像作成手段と、 前記撮像画像取得手段が取得した画像を路面上に投影
し、投影して得る画像に前記CG画像作成手段が作成し
たCG画像を重ね、表示すべき合成画像を作成する画像
合成部とを備える、描画装置。
9. A drawing device for creating a display image for driving support of a vehicle, comprising: a captured image acquisition means for acquiring a peripheral image of the vehicle from a camera installed in the vehicle; and the captured image acquisition. Based on the image acquired by the means, a three-dimensional object detecting means for detecting a three-dimensional object existing area around the vehicle, and an area extracting means for extracting an area when the three-dimensional object detected by the three-dimensional object detecting means is projected on a road surface. And a CG image showing the existence area of the three-dimensional object projected on the road surface based on the area extracted by the area extracting means C
An image for creating a composite image to be displayed by projecting an image acquired by the captured image acquisition means onto a road surface and superimposing the CG image created by the CG image creation means on the image obtained by projection. A drawing device comprising a combining unit.
【請求項10】 車両の移動量を検出する車両移動量検
出手段をさらに含み、 前記立体物検出手段は、前記車両移動量検出手段が検出
した車両の移動量に基づいて、前記撮像画像取得手段が
取得した画像に撮像されている立体物までの距離を算出
して、車両周辺の立体物の存在領域を検出することを特
徴とする、請求項9に記載の描画装置。
10. A vehicle movement amount detection means for detecting a movement amount of the vehicle is further included, wherein the three-dimensional object detection means is based on the movement amount of the vehicle detected by the vehicle movement amount detection means. 10. The drawing apparatus according to claim 9, wherein a distance to a three-dimensional object captured in the image acquired by is calculated to detect a region where the three-dimensional object exists around the vehicle.
【請求項11】 前記車両移動量検出手段は、車両に設
置された車速センサおよび操舵角センサの測定値に基づ
いて、車両の移動量を検出することを特徴とする、請求
項10に記載の描画装置。
11. The vehicle movement amount detection means detects the amount of movement of the vehicle based on measured values of a vehicle speed sensor and a steering angle sensor installed in the vehicle. Drawing device.
【請求項12】 前記車両移動量検出手段が検出した車
両の移動量に基づいて、前記立体物検出手段が検出した
立体物の存在領域を予測する予測手段をさらに含み、 前記領域抽出手段は、前記予測手段が予測した立体物の
存在領域に基づいて、立体物を路面に投影したときの領
域を抽出することを特徴とする、請求項10に記載の描
画装置。
12. A predicting means for predicting a three-dimensional object existing area detected by the three-dimensional object detecting means based on a moving amount of the vehicle detected by the vehicle moving amount detecting means, the area extracting means, 11. The drawing apparatus according to claim 10, wherein the area when the three-dimensional object is projected on the road surface is extracted based on the existing area of the three-dimensional object predicted by the prediction unit.
【請求項13】 さらに、前記撮像画像取得手段が取得
した画像に基づいて、車両周辺に存在する他車両の存在
領域を抽出する車両領域抽出手段と、 前記車両領域抽出手段が抽出した他車両の存在領域に基
づいて、当該他車両の車種を判定する車種判定手段とを
備え、 前記CG画像作成手段は、立体物の存在領域を示すCG
画像に前記車種判定手段が判定した車種に応じた車両の
モデル図を貼り付けてCG画像を作成することを特徴と
する、請求項9に記載の描画装置。
13. A vehicle area extracting unit that extracts an existing area of another vehicle existing around the vehicle based on the image acquired by the captured image acquiring unit, and another vehicle extracted by the vehicle area extracting unit. A vehicle type determining unit that determines the vehicle type of the other vehicle based on the existing region, wherein the CG image creating unit is a CG indicating the existing region of the three-dimensional object
The drawing apparatus according to claim 9, wherein a CG image is created by pasting a model diagram of a vehicle corresponding to the vehicle type determined by the vehicle type determination means on the image.
【請求項14】 前記立体物検出手段は、立体物の輪郭
を構成するエッジ上の点の3次元座標を割り出して立体
物の存在領域を検出し、 前記領域抽出手段は、前記立体物検出手段が割り出した
前記エッジ上の点の3次元座標に基づいて、立体物を路
面に投影したときの領域を抽出することを特徴とする、
請求項9に記載の描画装置。
14. The three-dimensional object detection means detects three-dimensional coordinates of points on an edge forming the contour of the three-dimensional object to detect the existing area of the three-dimensional object, and the area extraction means includes the three-dimensional object detection means. Is extracted based on the three-dimensional coordinates of the points on the edge determined by
The drawing device according to claim 9.
【請求項15】 車両の運転支援用の表示画像を作成す
るための描画方法であって、 車両に設置されたカメラから、当該車両の周辺画像を取
得する撮像画像取得ステップと、 前記撮像画像取得ステップにおいて取得した画像に基づ
いて、車両周辺の立体物の存在領域を検出する立体物検
出ステップと、 前記立体物検出ステップにおいて検出した立体物の存在
領域を近似する平面を抽出する面モデル抽出ステップ
と、 前記面モデル抽出ステップにおいて抽出した平面に前記
撮像画像取得ステップにおいて取得した画像を投影し
て、表示すべき合成画像を作成する画像合成ステップと
を備える、描画方法。
15. A drawing method for creating a display image for driving support of a vehicle, comprising: a captured image acquisition step of acquiring a peripheral image of the vehicle from a camera installed in the vehicle; and the captured image acquisition. A three-dimensional object detection step of detecting a three-dimensional object existing area around the vehicle based on the image acquired in the step, and a surface model extraction step of extracting a plane that approximates the three-dimensional object existing area detected in the three-dimensional object detecting step. And an image combining step of projecting the image acquired in the captured image acquiring step onto the plane extracted in the surface model extracting step to create a combined image to be displayed.
【請求項16】 車両の運転支援用の表示画像を作成す
るための描画方法であって、 車両に設置されたカメラから、当該車両の周辺画像を取
得する撮像画像取得ステップと、 前記撮像画像取得ステップにおいて取得した画像に基づ
いて、車両周辺の立体物の存在領域を検出する立体物検
出ステップと、 前記立体物検出ステップにおいて検出した立体物を路面
に投影したときの領域を抽出する領域抽出ステップと、 前記領域抽出ステップにおいて抽出した領域に基づい
て、路面上に投影した立体物の存在領域を示すCG画像
を作成するCG画像作成ステップと、 前記撮像画像取得ステップにおいて取得した画像を路面
上に投影し、投影して得る画像に前記CG画像作成ステ
ップにおいて作成したCG画像を重ね、表示すべき合成
画像を作成する画像合成ステップとを備える、描画方
法。
16. A drawing method for creating a display image for driving support of a vehicle, comprising: a captured image acquisition step of acquiring a peripheral image of the vehicle from a camera installed in the vehicle; and the captured image acquisition. Based on the image acquired in the step, a three-dimensional object detection step for detecting a three-dimensional object existing area around the vehicle, and an area extraction step for extracting an area when the three-dimensional object detected in the three-dimensional object detection step is projected on the road And a CG image creating step of creating a CG image showing an existing area of a three-dimensional object projected on a road surface based on the area extracted in the area extracting step, and an image acquired in the captured image acquiring step on the road surface The CG image created in the CG image creating step is superimposed on the image obtained by projecting, and a composite image to be displayed is created. And an image synthesizing step, the drawing method.
【請求項17】 車両の運転支援用の表示画像を作成す
るためのプログラムが記録された記録媒体であって、 車両に設置されたカメラから、当該車両の周辺画像を取
得する撮像画像取得ステップと、 前記撮像画像取得ステップにおいて取得した画像に基づ
いて、車両周辺の立体物の存在領域を検出する立体物検
出ステップと、 前記立体物検出ステップにおいて検出した立体物の存在
領域を近似する平面を抽出する面モデル抽出ステップ
と、 前記面モデル抽出ステップにおいて抽出した平面に前記
撮像画像取得ステップにおいて取得した画像を投影し
て、表示すべき合成画像を作成する画像合成ステップと
を備える、プログラムが記録された記録媒体。
17. A recording medium in which a program for creating a display image for driving assistance of a vehicle is recorded, the captured image obtaining step of obtaining a peripheral image of the vehicle from a camera installed in the vehicle. , A three-dimensional object detection step of detecting a three-dimensional object existing area around the vehicle based on the image acquired in the captured image acquisition step, and a plane approximating the three-dimensional object existing area detected in the three-dimensional object detection step And a surface model extracting step, and an image combining step of projecting the image acquired in the captured image acquiring step onto the plane extracted in the surface model extracting step to create a combined image to be displayed. Recording medium.
【請求項18】 車両の運転支援用の表示画像を作成す
るためのプログラムが記録された記録媒体であって、 車両に設置されたカメラから、当該車両の周辺画像を取
得する撮像画像取得ステップと、 前記撮像画像取得ステップにおいて取得した画像に基づ
いて、車両周辺の立体物の存在領域を検出する立体物検
出ステップと、 前記立体物検出ステップにおいて検出した立体物を路面
に投影したときの領域を抽出する領域抽出ステップと、 前記領域抽出ステップにおいて抽出した領域に基づい
て、路面上に投影した立体物の存在領域を示すCG画像
を作成するCG画像作成ステップと、 前記撮像画像取得ステップにおいて取得した画像を路面
上に投影し、投影して得る画像に前記CG画像作成ステ
ップにおいて作成したCG画像を重ね、表示すべき合成
画像を作成する画像合成ステップとを備える、プログラ
ムが記録された記録媒体。
18. A recording medium in which a program for creating a display image for driving assistance of a vehicle is recorded, the captured image obtaining step of obtaining a peripheral image of the vehicle from a camera installed in the vehicle. A three-dimensional object detection step of detecting a three-dimensional object existing area around the vehicle based on the image acquired in the captured image acquisition step, and an area when the three-dimensional object detected in the three-dimensional object detection step is projected on a road surface. An area extraction step of extracting, a CG image creation step of creating a CG image showing an existing area of a three-dimensional object projected on a road surface based on the area extracted in the area extraction step, and acquired in the captured image acquisition step. The image is projected on the road surface, and the CG image created in the CG image creating step is superimposed and displayed on the image obtained by projection. And an image synthesizing step of generating a composite image to a recording medium on which a program is recorded.
【請求項19】 車両の運転支援用の表示画像を作成す
るためのプログラムであって、 車両に設置されたカメラから、当該車両の周辺画像を取
得する撮像画像取得ステップと、 前記撮像画像取得ステップにおいて取得した画像に基づ
いて、車両周辺の立体物の存在領域を検出する立体物検
出ステップと、 前記立体物検出ステップにおいて検出した立体物の存在
領域を近似する平面を抽出する面モデル抽出ステップ
と、 前記面モデル抽出ステップにおいて抽出した平面に前記
撮像画像取得ステップにおいて取得した画像を投影し
て、表示すべき合成画像を作成する画像合成ステップと
を備える、プログラム。
19. A program for creating a display image for supporting driving of a vehicle, the captured image acquiring step of acquiring a peripheral image of the vehicle from a camera installed in the vehicle, and the captured image acquiring step. Based on the image acquired in, the three-dimensional object detection step of detecting a three-dimensional object existing area around the vehicle, a surface model extraction step of extracting a plane that approximates the three-dimensional object existing area detected in the three-dimensional object detection step, An image composition step of projecting the image acquired in the captured image acquisition step onto the plane extracted in the surface model extraction step to create a composite image to be displayed.
【請求項20】 車両の運転支援用の表示画像を作成す
るためのプログラム、 車両に設置されたカメラから、当該車両の周辺画像を取
得する撮像画像取得ステップと、 前記撮像画像取得ステップにおいて取得した画像に基づ
いて、車両周辺の立体物の存在領域を検出する立体物検
出ステップと、 前記立体物検出ステップにおいて検出した立体物を路面
に投影したときの領域を抽出する領域抽出ステップと、 前記領域抽出ステップにおいて抽出した領域に基づい
て、路面上に投影した立体物の存在領域を示すCG画像
を作成するCG画像作成ステップと、 前記撮像画像取得ステップにおいて取得した画像を路面
上に投影し、投影して得る画像に前記CG画像作成ステ
ップにおいて作成したCG画像を重ね、表示すべき合成
画像を作成する画像合成ステップとを備える、プログラ
ム。
20. A program for creating a display image for driving support of a vehicle, a captured image acquisition step of acquiring a peripheral image of the vehicle from a camera installed in the vehicle, and a captured image acquired in the captured image acquisition step. A three-dimensional object detection step of detecting a three-dimensional object existing area around the vehicle based on the image; an area extraction step of extracting an area when the three-dimensional object detected in the three-dimensional object detection step is projected on a road surface; A CG image creating step of creating a CG image showing the existence area of the three-dimensional object projected on the road surface based on the area extracted in the extracting step; An image for creating a composite image to be displayed by superimposing the CG image created in the CG image creating step on the image obtained by And a forming step, program.
JP2001326591A 2001-10-24 2001-10-24 Drawing equipment Pending JP2003132349A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001326591A JP2003132349A (en) 2001-10-24 2001-10-24 Drawing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001326591A JP2003132349A (en) 2001-10-24 2001-10-24 Drawing equipment

Publications (2)

Publication Number Publication Date
JP2003132349A true JP2003132349A (en) 2003-05-09
JP2003132349A5 JP2003132349A5 (en) 2005-04-14

Family

ID=19142947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001326591A Pending JP2003132349A (en) 2001-10-24 2001-10-24 Drawing equipment

Country Status (1)

Country Link
JP (1) JP2003132349A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213489A (en) * 2003-01-07 2004-07-29 Nissan Motor Co Ltd Driving support device for vehicles
JP2005228136A (en) * 2004-02-13 2005-08-25 Nissan Motor Co Ltd Road area detection device
JP2006333009A (en) * 2005-05-25 2006-12-07 Nissan Motor Co Ltd Overhead image display device and overhead image display method
WO2007000868A1 (en) * 2005-06-27 2007-01-04 Aisin Seiki Kabushiki Kaisha Obstacle detection device
JP2007006051A (en) * 2005-06-23 2007-01-11 Alpine Electronics Inc Solid image display system and vehicle operation support device
WO2007015446A1 (en) * 2005-08-02 2007-02-08 Nissan Motor Co., Ltd. Device for monitoring around vehicle and method for monitoring around vehicle
JP2007087236A (en) * 2005-09-26 2007-04-05 Alpine Electronics Inc Vehicle surroundings monitoring method and device
JP2007510575A (en) * 2003-11-11 2007-04-26 テクニクス エージー Vehicle running and / or traffic condition recording apparatus and recording evaluation method
JP2008177856A (en) * 2007-01-18 2008-07-31 Sanyo Electric Co Ltd Bird's-eye view image provision apparatus, vehicle, and bird's-eye view image provision method
JP2009118416A (en) * 2007-11-09 2009-05-28 Alpine Electronics Inc Vehicle-periphery image generating apparatus and method of correcting distortion of vehicle-periphery image
JP2010028432A (en) * 2008-07-18 2010-02-04 Nissan Motor Co Ltd Parking support system and image display method
US7684593B2 (en) 2004-10-25 2010-03-23 Nissan Motor Co., Ltd. Driving support system and method of producing overhead view image
JP2011151459A (en) * 2010-01-19 2011-08-04 Mitsubishi Electric Corp Composite display device
JP2012156632A (en) * 2011-01-24 2012-08-16 Denso Corp Periphery monitoring device
US9591280B2 (en) 2011-07-29 2017-03-07 Fujitsu Limited Image processing apparatus, image processing method, and computer-readable recording medium
WO2018016274A1 (en) * 2016-07-20 2018-01-25 クラリオン株式会社 Image processing device
JP2018092301A (en) * 2016-12-01 2018-06-14 株式会社ミクシィ Information processing apparatus, information processing apparatus control method, and control program
CN113165657A (en) * 2018-12-04 2021-07-23 株式会社爱信 Road surface detection device and road surface detection program
JP2022151402A (en) * 2021-03-24 2022-10-07 ソニーグループ株式会社 Information processing device, information processing methods, and program
JP2025013519A (en) * 2021-03-24 2025-01-24 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06333200A (en) * 1993-05-21 1994-12-02 Toshiba Corp On-vehicle supervisory system
JPH07186833A (en) * 1993-12-24 1995-07-25 Nissan Motor Co Ltd Surrounding condition display device for vehicles
JPH07250319A (en) * 1994-03-14 1995-09-26 Yazaki Corp Vehicle surroundings monitoring device
JPH07262375A (en) * 1994-03-25 1995-10-13 Toshiba Corp Mobile object detection device
JPH08249472A (en) * 1995-03-15 1996-09-27 Toshiba Corp Moving object detection device and moving object detection method
JPH0954898A (en) * 1995-06-09 1997-02-25 Yazaki Corp Vehicle periphery monitoring device
JPH0986314A (en) * 1995-09-27 1997-03-31 Yazaki Corp Rear side monitoring device for vehicle
JPH09152334A (en) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd Object detection device
JPH10117340A (en) * 1996-10-11 1998-05-06 Yazaki Corp Vehicle periphery monitoring device, alarm display method used in this device, and medium storing this display method
JPH10222665A (en) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd Image recognition device
JPH10246640A (en) * 1997-03-03 1998-09-14 Honda Motor Co Ltd Information display device for vehicles
JPH1116097A (en) * 1997-06-25 1999-01-22 Fuji Heavy Ind Ltd Operation supporting device for vehicle
JPH11151975A (en) * 1997-11-25 1999-06-08 Nissan Motor Co Ltd Blind area display
JPH11321494A (en) * 1998-05-08 1999-11-24 Yazaki Corp Rear side monitoring device
JP2000229547A (en) * 1998-10-08 2000-08-22 Matsushita Electric Ind Co Ltd Driving operation assist device and recording medium
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP2000331279A (en) * 1999-05-25 2000-11-30 Oki Electric Ind Co Ltd Wide area monitoring device
JP2001010427A (en) * 1999-06-29 2001-01-16 Fujitsu Ten Ltd Vehicle parking assist device
JP2001114047A (en) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd Vehicle surrounding situation presentation device
JP2001187553A (en) * 1999-10-21 2001-07-10 Matsushita Electric Ind Co Ltd Parking assistance device
JP2001216520A (en) * 2000-01-31 2001-08-10 Yazaki Corp Surroundings monitor device for vehicle
JP3300334B2 (en) * 1999-04-16 2002-07-08 松下電器産業株式会社 Image processing device and monitoring system
JP2002359838A (en) * 2001-03-28 2002-12-13 Matsushita Electric Ind Co Ltd Driving support device

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06333200A (en) * 1993-05-21 1994-12-02 Toshiba Corp On-vehicle supervisory system
JPH07186833A (en) * 1993-12-24 1995-07-25 Nissan Motor Co Ltd Surrounding condition display device for vehicles
JPH07250319A (en) * 1994-03-14 1995-09-26 Yazaki Corp Vehicle surroundings monitoring device
JPH07262375A (en) * 1994-03-25 1995-10-13 Toshiba Corp Mobile object detection device
JPH08249472A (en) * 1995-03-15 1996-09-27 Toshiba Corp Moving object detection device and moving object detection method
JPH0954898A (en) * 1995-06-09 1997-02-25 Yazaki Corp Vehicle periphery monitoring device
JPH0986314A (en) * 1995-09-27 1997-03-31 Yazaki Corp Rear side monitoring device for vehicle
JPH09152334A (en) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd Object detection device
JPH10117340A (en) * 1996-10-11 1998-05-06 Yazaki Corp Vehicle periphery monitoring device, alarm display method used in this device, and medium storing this display method
JPH10222665A (en) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd Image recognition device
JPH10246640A (en) * 1997-03-03 1998-09-14 Honda Motor Co Ltd Information display device for vehicles
JPH1116097A (en) * 1997-06-25 1999-01-22 Fuji Heavy Ind Ltd Operation supporting device for vehicle
JPH11151975A (en) * 1997-11-25 1999-06-08 Nissan Motor Co Ltd Blind area display
JPH11321494A (en) * 1998-05-08 1999-11-24 Yazaki Corp Rear side monitoring device
JP2000229547A (en) * 1998-10-08 2000-08-22 Matsushita Electric Ind Co Ltd Driving operation assist device and recording medium
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP3300334B2 (en) * 1999-04-16 2002-07-08 松下電器産業株式会社 Image processing device and monitoring system
JP2000331279A (en) * 1999-05-25 2000-11-30 Oki Electric Ind Co Ltd Wide area monitoring device
JP2001010427A (en) * 1999-06-29 2001-01-16 Fujitsu Ten Ltd Vehicle parking assist device
JP2001114047A (en) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd Vehicle surrounding situation presentation device
JP2001187553A (en) * 1999-10-21 2001-07-10 Matsushita Electric Ind Co Ltd Parking assistance device
JP2001216520A (en) * 2000-01-31 2001-08-10 Yazaki Corp Surroundings monitor device for vehicle
JP2002359838A (en) * 2001-03-28 2002-12-13 Matsushita Electric Ind Co Ltd Driving support device

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213489A (en) * 2003-01-07 2004-07-29 Nissan Motor Co Ltd Driving support device for vehicles
JP2007510575A (en) * 2003-11-11 2007-04-26 テクニクス エージー Vehicle running and / or traffic condition recording apparatus and recording evaluation method
JP2005228136A (en) * 2004-02-13 2005-08-25 Nissan Motor Co Ltd Road area detection device
US7684593B2 (en) 2004-10-25 2010-03-23 Nissan Motor Co., Ltd. Driving support system and method of producing overhead view image
JP2006333009A (en) * 2005-05-25 2006-12-07 Nissan Motor Co Ltd Overhead image display device and overhead image display method
JP2007006051A (en) * 2005-06-23 2007-01-11 Alpine Electronics Inc Solid image display system and vehicle operation support device
WO2007000868A1 (en) * 2005-06-27 2007-01-04 Aisin Seiki Kabushiki Kaisha Obstacle detection device
JP2007004697A (en) * 2005-06-27 2007-01-11 Aisin Seiki Co Ltd Obstacle detection device
US7894631B2 (en) 2005-06-27 2011-02-22 Aisin Seiki Kabushiki Kaisha Obstacle detection apparatus
WO2007015446A1 (en) * 2005-08-02 2007-02-08 Nissan Motor Co., Ltd. Device for monitoring around vehicle and method for monitoring around vehicle
JP4760831B2 (en) * 2005-08-02 2011-08-31 日産自動車株式会社 Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
US8885045B2 (en) 2005-08-02 2014-11-11 Nissan Motor Co., Ltd. Device and method for monitoring vehicle surroundings
JP2007087236A (en) * 2005-09-26 2007-04-05 Alpine Electronics Inc Vehicle surroundings monitoring method and device
JP2008177856A (en) * 2007-01-18 2008-07-31 Sanyo Electric Co Ltd Bird's-eye view image provision apparatus, vehicle, and bird's-eye view image provision method
JP2009118416A (en) * 2007-11-09 2009-05-28 Alpine Electronics Inc Vehicle-periphery image generating apparatus and method of correcting distortion of vehicle-periphery image
JP2010028432A (en) * 2008-07-18 2010-02-04 Nissan Motor Co Ltd Parking support system and image display method
JP2011151459A (en) * 2010-01-19 2011-08-04 Mitsubishi Electric Corp Composite display device
JP2012156632A (en) * 2011-01-24 2012-08-16 Denso Corp Periphery monitoring device
US9591280B2 (en) 2011-07-29 2017-03-07 Fujitsu Limited Image processing apparatus, image processing method, and computer-readable recording medium
WO2018016274A1 (en) * 2016-07-20 2018-01-25 クラリオン株式会社 Image processing device
JP2018014583A (en) * 2016-07-20 2018-01-25 クラリオン株式会社 Image processing apparatus
JP2018092301A (en) * 2016-12-01 2018-06-14 株式会社ミクシィ Information processing apparatus, information processing apparatus control method, and control program
CN113165657A (en) * 2018-12-04 2021-07-23 株式会社爱信 Road surface detection device and road surface detection program
JP2022151402A (en) * 2021-03-24 2022-10-07 ソニーグループ株式会社 Information processing device, information processing methods, and program
JP7585123B2 (en) 2021-03-24 2024-11-18 ソニーグループ株式会社 Information processing device, information processing method, and program
JP2025013519A (en) * 2021-03-24 2025-01-24 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2003132349A (en) Drawing equipment
EP3049285B1 (en) Driver assistance system for displaying surroundings of a vehicle
US9834143B2 (en) Enhanced perspective view generation in a front curb viewing system
US9886636B2 (en) Enhanced top-down view generation in a front curb viewing system
US10093247B2 (en) Enhanced front curb viewing system
JP3606853B2 (en) Vehicle ambient condition display device
JP4593070B2 (en) Image processing apparatus for vehicle
JP4899424B2 (en) Object detection device
JP2002083285A (en) Image synthesizing apparatus and image synthesizing method
CN111971682A (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP2002359838A (en) Driving support device
WO2003107273A1 (en) Drive assisting system
US20190100141A1 (en) Ascertainment of Vehicle Environment Data
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP2003132349A5 (en)
JP3301421B2 (en) Vehicle surrounding situation presentation device
JP2003189291A (en) Image processor for area around vehicle and recording medium
JP2010028803A (en) Image displaying method for parking aid
KR20190067578A (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
WO2019198399A1 (en) Image processing device and method
JP6802999B2 (en) Compartment line detection system
Su et al. 3D AVM system for automotive applications
JP4466963B2 (en) Vehicle front image display apparatus and method
TWM591940U (en) Panoramic parking-assistance system and device using the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070821

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070910