JP2010109451A - Vehicle surrounding monitoring device, and vehicle surrounding monitoring method - Google Patents
Vehicle surrounding monitoring device, and vehicle surrounding monitoring method Download PDFInfo
- Publication number
- JP2010109451A JP2010109451A JP2008276893A JP2008276893A JP2010109451A JP 2010109451 A JP2010109451 A JP 2010109451A JP 2008276893 A JP2008276893 A JP 2008276893A JP 2008276893 A JP2008276893 A JP 2008276893A JP 2010109451 A JP2010109451 A JP 2010109451A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional object
- image
- camera
- vehicle
- overhead image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】運転者が車両周囲の立体物の配置関係をより正確に認識することができる車両周囲監視装置及び車両周囲監視方法を提供すること。
【解決手段】車両周囲監視装置100は、車両周囲に存在する立体物を検出する立体物検出部430と、複数のカメラ200の撮影画像に基づき車両周囲の俯瞰画像を合成して合成俯瞰画像を生成し、立体物検出部430による検出結果に基づき、生成した合成俯瞰画像に映る立体物を、所定の視点から見た射影方向に回転させたものに補正する合成俯瞰画像生成部440とを備える。
【選択図】図1A vehicle surroundings monitoring apparatus and a vehicle surroundings monitoring method are provided that allow a driver to more accurately recognize the positional relationship of three-dimensional objects around the vehicle.
A vehicle surroundings monitoring apparatus 100 combines a three-dimensional object detection unit 430 that detects a three-dimensional object existing around the vehicle and a bird's-eye view image around the vehicle based on images taken by a plurality of cameras 200 to generate a combined bird's-eye view image. A composite overhead image generation unit 440 that generates and corrects the solid object reflected in the generated overhead image based on the detection result of the three-dimensional object detection unit 430 to the one rotated in the projection direction viewed from a predetermined viewpoint. .
[Selection] Figure 1
Description
本発明は、車両周囲を撮影する複数のカメラの撮影画像から車両周囲を俯瞰可能な俯瞰画像を合成する車両周囲監視装置及び車両周囲監視方法に関する。 The present invention relates to a vehicle periphery monitoring device and a vehicle periphery monitoring method for synthesizing a bird's-eye view image that enables a bird's-eye view of a vehicle periphery from captured images of a plurality of cameras that capture the vehicle periphery.
近年、車両の上方の仮想視点から車両の周囲を見下ろした俯瞰画像をモニタに表示する車両周囲監視装置の普及が進んでいる。多くの車両周囲監視装置は、車両周囲を広範囲に映し出せるように、複数のカメラを利用して俯瞰画像を生成する(例えば特許文献1,2参照)。
2. Description of the Related Art In recent years, vehicle surroundings monitoring devices that display a bird's-eye view image looking down around a vehicle from a virtual viewpoint above the vehicle have been spreading. Many vehicle surrounding monitoring devices generate a bird's-eye view image using a plurality of cameras so that the vehicle surroundings can be displayed in a wide range (see, for example,
図33は、特許文献1,2に記載の車両周囲監視装置(以下「従来装置」という)におけるカメラ配置及び各カメラの撮影画像から得られる俯瞰画像の一例を示す図である。
FIG. 33 is a diagram illustrating an example of a bird's-eye view image obtained from a camera arrangement and a captured image of each camera in the vehicle surrounding monitoring device (hereinafter referred to as “conventional device”) described in
図33に示すように、車両10には、第1〜第4のカメラ20−1〜20−4が取り付けられる。第1〜第4のカメラ20−1〜20−4は、車両10の前方、後方、左側方、及び右側方の路面を、斜めに見下ろす向きでそれぞれ撮影する。第1〜第4のカメラ20−1〜20−4の撮影画像からは、車両の上方の仮想視点から見下ろしたときの画像に近似した第1〜第4のカメラ俯瞰画像30−1〜30−4を得ることができる。
As shown in FIG. 33, the
表示される俯瞰画像は、できるだけ広い範囲で連続した画像であることが望ましい。そこで、従来装置は、複数のカメラの撮影画像から1つの俯瞰画像を合成するようにしている。以下、複数のカメラの撮影画像から合成された俯瞰画像を、「合成俯瞰画像」という。 It is desirable that the overhead image to be displayed is an image that is continuous over as wide a range as possible. Therefore, the conventional apparatus synthesizes a single bird's-eye view image from images captured by a plurality of cameras. Hereinafter, a bird's-eye view image synthesized from images captured by a plurality of cameras is referred to as a “synthesized bird's-eye view image”.
従来装置は、第1〜第4のカメラ20−1〜20−4の撮影画像を、路面を基準として合成し、車両10の全周で連続した合成俯瞰画像を生成する。また、従来装置では、合成俯瞰画像に抜けを生じさせないために、隣り合うカメラ20の撮影範囲が重複している。以下、撮影範囲が重複する領域を、「重複エリア」という。
The conventional apparatus combines the captured images of the first to fourth cameras 20-1 to 20-4 with the road surface as a reference, and generates a combined overhead image that is continuous over the entire circumference of the
重複エリアの路面標示や木陰など、実質的に高さが無い物体(非立体物)の位置は、両方のカメラ20のカメラ俯瞰画像30において一致する。ところが、重複エリアに位置し高さがある立体物の位置は、カメラ俯瞰画像ごとに異なる。これは、カメラ20から見たときの立体物の射影方向が、カメラ20ごとに異なるためである。 The positions of objects (non-three-dimensional objects) having substantially no height, such as road markings and shades of overlapping areas, coincide in the camera overhead image 30 of both cameras 20. However, the position of the three-dimensional object located in the overlapping area and having a height is different for each camera overhead image. This is because the projection direction of the three-dimensional object when viewed from the camera 20 is different for each camera 20.
図34は、第2のカメラ20−2及び第3のカメラ20−3の重複エリアに、第1及び第2の立体物40−1及び40−2が位置するような状況における、第3のカメラ俯瞰画像30−3を例示する図である。また、図35は、上記と同じ状況における第2のカメラ俯瞰画像30−2の一例を示す図である。 FIG. 34 shows the third state in the situation where the first and second three-dimensional objects 40-1 and 40-2 are located in the overlapping area of the second camera 20-2 and the third camera 20-3. It is a figure which illustrates camera overhead view image 30-3. FIG. 35 is a diagram illustrating an example of the second camera overhead image 30-2 in the same situation as described above.
図34において、第1及び第2の立体物40−1、40−2は、基部41−1、41−2と、立体部分42−1、42−2とに分けられる。基部は、各立体物において、路面を基準とする高さが実質的に無い部分であり、立体部分は、各立体物において、路面を基準として高さ成分を有する部分である。第3のカメラ俯瞰画像30−3において、立体部分42−1、42−2が、基部41−1、41−2から、車両10に対し後方向に伸びた状態で運転者により視認される。すなわち、第3のカメラ俯瞰画像30−3では、第1及び第2の立体物40−1、40−2は、車両10の後方向に向けて倒れ込んだ状態となっている。一方、図35に示すように、第2のカメラ俯瞰画像30−2では、第1及び第2の立体物40−1、40−2は、車両10の左方向に向けて倒れ込んだ状態となっている。
In FIG. 34, the first and second three-dimensional objects 40-1 and 40-2 are divided into base portions 41-1 and 41-2 and solid portions 42-1 and 42-2. The base portion is a portion having substantially no height with respect to the road surface in each three-dimensional object, and the three-dimensional portion is a portion having a height component with respect to the road surface in each three-dimensional object. In the third camera bird's-eye view image 30-3, the three-dimensional parts 42-1 and 42-2 are visually recognized by the driver in a state of extending backward from the bases 41-1 and 41-2 with respect to the
このように、重複エリアの立体物の倒れ込みの方向(射影方向)は、カメラ俯瞰画像ごとに異なる。重複エリアにおいて2つのカメラ俯瞰画像を単純に重ね合わせて合成俯瞰画像を作成すると、1つの立体物に対して2つの立体物が現れ、二重像となってしまう。したがって、重複エリアの立体物をどのように処理するかが問題となる。 As described above, the direction in which the three-dimensional object in the overlapping area falls (projection direction) is different for each camera overhead image. When a composite overhead image is created by simply superimposing two camera overhead images in the overlapping area, two stereoscopic objects appear for one stereoscopic object, resulting in a double image. Therefore, how to process the three-dimensional object in the overlapping area becomes a problem.
そこで、従来装置は、図36及び図37に示すように、境界60を境として一方のカメラ俯瞰画像の立体物40のみを採用して、合成俯瞰画像50を生成するようにしている。また、より具体的には、従来装置は、図38及び図39に示すように、重複エリアの内部に境界60を設定している。これにより、立体物が重複して表示されるのを防ぐことができる。
しかしながら、従来装置では、例えば、図38及び図39に示すように、実際には平行な2つの立体物が、境界60の両側で大きく異なる向きで画像表示されることがある。また、図39に示すように、実際には重なっていない2つの立体物が、境界60において重なった状態で画像表示されることがある。すなわち、実際の複数の立体物の間の配置関係(以下単に「立体物の配置関係」という)とは大きく異なる配置関係で、立体物が表示される場合がある。したがって、従来装置には、運転者に対して、車両周囲の立体物の配置関係を誤って認識させてしまうという課題がある。
However, in the conventional device, for example, as shown in FIGS. 38 and 39, two parallel objects that are actually parallel may be displayed in different directions on both sides of the
なお、上記説明では課題を分かりやすくするために、2つの立体物の例を挙げて説明したが、これに限らず、1つの立体物の場合でも、同様の課題は起こる。 In the above description, the example of two solid objects has been described for easy understanding of the problem. However, the present invention is not limited to this, and the same problem occurs even in the case of one solid object.
本発明は、かかる点に鑑みてなされたものであり、運転者が車両周囲の立体物の配置関係を認識させ易くすることができる車両周囲監視装置及び車両周囲監視方法を提供することを目的とする。 The present invention has been made in view of such a point, and an object of the present invention is to provide a vehicle periphery monitoring device and a vehicle periphery monitoring method that allow a driver to easily recognize the arrangement relationship of three-dimensional objects around the vehicle. To do.
本発明の車両周囲監視装置は、車両周囲に存在する立体物を検出する立体物検出部と、複数のカメラの撮影画像に基づき車両周囲の俯瞰画像を合成して合成俯瞰画像を生成し、立体物検出部による検出結果に基づき、生成した合成俯瞰画像に映る立体物を、所定の視点から見た射影方向に回転させたものに補正する第1の画像生成部とを備える。 The vehicle periphery monitoring device of the present invention generates a combined overhead image by combining a three-dimensional object detection unit that detects a three-dimensional object existing around the vehicle and a bird's-eye view image around the vehicle based on images captured by a plurality of cameras. A first image generation unit configured to correct a three-dimensional object shown in the generated combined overhead image based on a detection result by the object detection unit to a rotation in a projecting direction viewed from a predetermined viewpoint;
本発明の車両周囲監視方法は、車両周囲に存在する立体物を検出する第1のステップと、複数のカメラの撮影画像に基づき車両周囲の俯瞰画像を合成して合成俯瞰画像を生成し、第1のステップにおける検出結果に基づき、生成した合成俯瞰画像に映る立体物を、所定の視点から見た射影方向に回転させたものに補正する第2のステップとを備える。 According to a vehicle surrounding monitoring method of the present invention, a first step of detecting a three-dimensional object existing around a vehicle and a bird's-eye view image around the vehicle based on captured images of a plurality of cameras are generated to generate a combined bird's-eye view image. And a second step of correcting the three-dimensional object shown in the generated synthesized overhead image to the one rotated in the projecting direction viewed from a predetermined viewpoint based on the detection result in the first step.
本発明によれば、立体物の射影方向が揃うので、運転者は車両周囲の立体物の配置関係をより正確に認識することができる。 According to the present invention, since the projection direction of the three-dimensional object is aligned, the driver can more accurately recognize the arrangement relationship of the three-dimensional object around the vehicle.
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施の形態に係る車両周囲監視装置のブロック図である。 FIG. 1 is a block diagram of a vehicle surroundings monitoring apparatus according to an embodiment of the present invention.
図1において、車両周囲監視装置100は、大別して、第1〜第4のカメラ200−1〜200−4、画像処理部400、及びモニタ500を備えている。第1〜第4のカメラ200−1〜200−4は、同一の構成を有しているため、適宜、カメラ200としてまとめて説明を行う。
In FIG. 1, the vehicle surrounding
カメラ200は、車両の周囲を撮影する。カメラ200は、撮像部210と、一対のフレームメモリ220を有するフレーム切替部230とを含んでいる。
The
撮像部210は、固体撮像素子であるCCD(Charge Coupled Device)と、CCDの撮像面に光学像を結像させる光学系とを有し(いずれも図示せず)、CCDで撮像した画像をフレームメモリ220に出力する。フレームメモリ220は、撮像部210で撮像された画像を一時的に格納する。フレーム切替部230は、撮像部210で撮像された画像の入力先と、画像処理部400による参照先とを、2つのフレームメモリ220の間で交互に切り替える。
The
なお、カメラ200は、撮像素子として、CMOS(Complementary Metal Oxide)デバイスを採用してもよい。この場合には、CMOSデバイスにフレームメモリの機能を持たせて、フレームメモリ220を省略することができる。
The
図2は、図1の車両周囲監視装置の第1〜第4のカメラ200−1〜200−4の取り付け位置の一例を示す斜視図である。 FIG. 2 is a perspective view showing an example of attachment positions of the first to fourth cameras 200-1 to 200-4 of the vehicle surrounding monitoring apparatus of FIG.
図2に示すように、第1のカメラ200−1は、車両600の前方を撮影するために、車両600の正面中央に取り付けられている。第2のカメラ200−2は、車両600の後方を撮影するために、車両600の後部中央に取り付けられている。第3のカメラ200−3は、車両600の左側方を撮影するために、車両600の左サイドミラーに取り付けられている。第4のカメラ200−4は、車両600の右側方を撮像するために、車両600の右サイドミラーに取り付けられている。
As shown in FIG. 2, the first camera 200-1 is attached to the front center of the
第1〜第4のカメラ200−1〜200−4の撮像範囲である第1〜第4のカメラ撮像範囲200a−1〜200a−4は、いずれも、車両600の周囲の地面を含む。また、隣り合うカメラ撮像範囲200a(例えば、第3のカメラ撮像範囲200a−3と第2のカメラ撮像範囲200a−2)は重なっている。すなわち、隣り合うカメラ撮像範囲200aには、重複エリアが存在する。これにより、第1〜第4のカメラ200−1〜200−4は、全体で、車両600の周囲360度を撮像することができる。
The first to fourth camera imaging ranges 200a-1 to 200a-4, which are imaging ranges of the first to fourth cameras 200-1 to 200-4, all include the ground around the
図3は、第1〜第4のカメラ200−1〜200−4の撮影画像の一例を示す図である。 FIG. 3 is a diagram illustrating an example of captured images of the first to fourth cameras 200-1 to 200-4.
図3に示すように、第1〜第4のカメラ200−1〜200−4により撮影される第1〜第4のカメラ撮影画像710−1〜710−4には、それぞれ、車両600の前方、後方、左側方、右側方の状況が映っている。第1〜第4のカメラ撮影画像710−1〜710−4は、画像処理部400から読み出し可能な状態で、第1〜第4のカメラ200−1〜200−4のフレームメモリに保持される。
As shown in FIG. 3, first to fourth camera captured images 710-1 to 710-4 captured by the first to fourth cameras 200-1 to 200-4 are respectively in front of the
再度図1を参照する。画像処理部400は、画像処理部400は、マッピングテーブル参照部410、カメラ俯瞰画像生成部420、立体物検出部430、合成俯瞰画像生成部440、及びタイミング生成部450を含んでいる。
Refer to FIG. 1 again. The
マッピングテーブル参照部410は、2種類のマッピングテーブル(MPT:Mapping Table)を格納し、これらマッピングテーブルを参照して、2種類のマッピングデータを生成する。一方のマッピングテーブルは、各カメラ200のフレームメモリ220に格納された撮影画像の画素位置と、後で説明するカメラ俯瞰画像の画素とを対応付けたテーブルである。また、他方のマッピングテーブルは、各カメラ俯瞰画像の画素と、後で説明する合成俯瞰画像の画素とを対応付けたテーブルである。一方のマッピングデータは、各カメラ俯瞰画像の画素ごとに、どの撮影画像のどの画素の値を割り当てるかを指示するデータである。他方のマッピングデータは、合成俯瞰画像の画素ごとに、どのカメラ俯瞰画像におけるどの画素の値を割り当てるかを指示するデータである。マッピングテーブル参照部410は、一方のマッピングデータを、立体物検出部430及びカメラ俯瞰画像生成部420に出力し、また、他方のマッピングデータを、合成俯瞰画像生成部440に出力する。
The mapping
マッピングテーブル参照部410が格納するマッピングテーブルは、手作業で作成されてもよいし、車両周囲監視装置100が幾何変換等の計算を実行することにより作成されてもよい。また、マッピングテーブルが、ファームウェアとして提供される場合には、マッピングテーブル参照部410は、通信回線やディスクドライブなどのデータ転送手段を用いて、外部からマッピングテーブルを取得してもよい。
The mapping table stored in the mapping
カメラ俯瞰画像生成部420は、マッピングテーブル参照部410から出力される一方のマッピングデータに従って、各カメラ200のフレームメモリ220に格納された各撮影画像を読み出してマッピングを行うことにより、カメラ俯瞰画像を生成する。具体的には、カメラ俯瞰画像生成部420は、マッピングテーブル参照部410から出力された一方のマッピングデータに基づき、指定された撮影画像の画素を、カメラ俯瞰画像の画素の値として割り当てて、カメラ撮影画像毎にカメラ俯瞰画像が生成される。
The camera overhead
ここで、カメラ撮影画像には、カメラ視点、つまり、カメラの設置位置から見たときのカメラ撮像範囲の状況が映っている。それとは異なり、カメラ俯瞰画像は、カメラ撮影画像の視点を変換したものであって、カメラ俯瞰画像には、車両上方に設置された仮想的なカメラの視点(仮想視点)から見た場合におけるカメラ撮像範囲の全体又は一部の状況が映っている。 Here, the camera-captured image shows the camera viewpoint, that is, the situation of the camera imaging range when viewed from the camera installation position. On the other hand, the camera overhead view image is obtained by converting the viewpoint of the camera-captured image, and the camera overhead view image is a camera when viewed from the viewpoint of a virtual camera (virtual viewpoint) installed above the vehicle. The whole or part of the imaging range is shown.
ここで、図4は、図3に示す第1〜第4のカメラ撮影画像710−1〜710−4から生成される第1〜第4のカメラ俯瞰画像724−1〜724−4の一例を示す図である。第1〜第4のカメラ俯瞰画像724−1〜724−4はそれぞれ、隣のカメラ俯瞰画像724との間の重複エリアを含む。
Here, FIG. 4 is an example of the first to fourth camera overhead images 724-1 to 724-4 generated from the first to fourth camera captured images 710-1 to 710-4 shown in FIG. 3. FIG. The first to fourth camera overhead images 724-1 to 724-4 each include an overlapping area with the adjacent camera
図1に示す立体物検出部430は、詳細については後述するが、各カメラ200から得られたカメラ撮影画像に対し画像認識処理を行って、カメラ撮影画像から車両周囲に存在する立体物を検出する。また、立体物検出部430は、マッピングテーブル参照部410からの一方のマッピングデータを使うことで、各カメラ撮影画像のどの画素が、カメラ俯瞰画像におけるどの画素に対応するかが分かるので、このマッピングデータを用いて、検出した立体物が、カメラ俯瞰画像で映っているエリア(以下「立体物エリア」という)の座標値の集まりを特定する。立体物検出部430はさらに、検出した立体物エリアにおいて、車両に最も近い位置を、その立体物の基部位置として取得する。立体物エリアの座標値の集まりと、その立体物の基部位置とは、立体物位置情報として、合成俯瞰画像生成部440に送られる。
Although the details will be described later, the three-dimensional
合成俯瞰画像生成部440は、カメラ俯瞰画像生成部420からの各カメラ俯瞰画像を受け取り、マッピングテーブル参照部410より他方のマッピングデータを受け取る。合成俯瞰画像生成部440は、受け取ったマッピングデータに従って、受け取った各カメラ俯瞰画像に対しマッピングを行って、合成俯瞰画像を合成する。具体的には、合成俯瞰画像生成部440は、このマッピングデータに基づき、指定されたカメラ俯瞰画像の画素を、合成俯瞰画像の画素の値として割り当てて、これによって、合成俯瞰画像が生成される。
The combined overhead
ここで、合成俯瞰画像は、カメラ俯瞰画像と比較すると、仮想カメラ視点から見た場合における車両の全周囲を1フレームに収めている点で相違する。 Here, the synthesized bird's-eye view image differs from the camera bird's-eye view image in that the entire periphery of the vehicle when viewed from the virtual camera viewpoint is contained in one frame.
図5は、合成俯瞰画像生成部440によって生成される合成俯瞰画像の一例を示す図である。図5の例では、仮想視点の位置は車両の真上に設定されており、合成俯瞰画像720の中央には車両を示すアイコン721が配置される。また、車両の周囲に立体物が存在する場合には、合成俯瞰画像720において対応する位置に立体物723が描かれる。
FIG. 5 is a diagram illustrating an example of a combined overhead image generated by the combined overhead
ここで、各カメラ俯瞰画像は各カメラ200の位置から撮影されているため、それぞれに映っている立体物の倒れこみの方向が異なる(図4参照)。したがって、このようなカメラ俯瞰画像を基礎として生成される合成俯瞰画像においても、立体物723は倒れこみの方向が相違する(図5参照)。もしこのような合成俯瞰画像がそのまま表示されると、この画像を見る運転者は違和を感じる。特に、重複エリアにおいては、「背景技術」の欄で説明したように、立体物の配置関係が運転者にとっては分かり難くなる。
Here, since each camera bird's-eye view image is taken from the position of each
以上の観点から、合成俯瞰画像生成部440は、まず、立体物検出部430からの立体物位置情報に基づいて、この立体物位置情報に対応する立体物を、カメラ俯瞰画像生成部420から受け取ったカメラ俯瞰画像から切り出し、回転させる(画像回転処理)。その後、合成俯瞰画像生成部440は、自身が生成した合成俯瞰画像に、回転済みの立体物を合成する(立体物合成処理)。
From the above viewpoint, first, the synthesized overhead
画像回転処理は、立体物位置情報を受け取った場合に行われ、カメラ俯瞰画像において、立体物位置情報で特定される立体物エリアから、立体物が抽出される。抽出された立体物は、立体物位置情報で特定される基部位置を中心として、それを撮影したカメラ200の視点から見た射影方向から、所定の視点から見た射影方向に回転させられる。
The image rotation process is performed when the three-dimensional object position information is received, and the three-dimensional object is extracted from the three-dimensional object area specified by the three-dimensional object position information in the camera overhead view image. The extracted three-dimensional object is rotated around the base position specified by the three-dimensional object position information, from the projection direction viewed from the viewpoint of the
また、立体物合成処理において、回転済みの立体物は、合成俯瞰画像上に合成される。ここで、合成俯瞰画像生成部440には、カメラ俯瞰画像と、合成俯瞰画像との対応関係が示される他方のマッピングデータが入力されているので、合成俯瞰画像生成部440は、回転済みの立体物を、合成俯瞰画像上のどの位置に合成するかを、このマッピングデータに基づき特定する。
In the three-dimensional object synthesis process, the rotated three-dimensional object is synthesized on the synthesized overhead image. Here, since the other mapping data indicating the correspondence between the camera overhead image and the synthesized overhead image is input to the synthesized overhead
以上の画像回転処理及び立体物合成処理は、受け取った立体物位置情報毎に行われる。また、特に、重複エリアについては、同じ立体物が複数のカメラ俯瞰画像に映っているが、いずれのカメラ俯瞰画像から立体物を抽出するかについては、後述する。 The above image rotation process and three-dimensional object synthesis process are performed for each received three-dimensional object position information. In particular, for the overlapping area, the same three-dimensional object is shown in a plurality of camera overhead images, and from which camera overhead image the three-dimensional object is extracted will be described later.
そして、合成俯瞰画像生成部440は、フレームごとの合成俯瞰画像から、動画系列を表示するための映像信号を生成し、生成した映像信号をモニタ500へ出力する。
Then, the synthesized overhead
タイミング生成部450は、第1〜第4のカメラ200−1〜200−4のフレーム切り替えのタイミングと、マッピングテーブル参照部410の各マッピングデータ出力タイミングと、合成俯瞰画像生成部440の動作タイミングとを制御するタイミング信号を生成する。このタイミング信号により、車両600の周囲の画像をリアルタイムで映し出す合成俯瞰画像の映像信号が、モニタ500に出力される。
The
モニタ500は、合成俯瞰画像生成部440から受け取った映像信号に従って、合成俯瞰画像を表示する。モニタ500は、例えば、液晶ディスプレイを有する表示装置であり、車両600の運転席から見える位置に取り付けられる。モニタ500は、車両搭載型のGPS(Global Positioning System)端末(いわゆるカーナビゲーションシステム)等の、他のシステム又は装置との間で共有されてもよい。
The
なお、車両周囲監視装置100は、図示しないが、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)及びマッピングテーブルを含む各種データを格納したEEPROM(Electrically Erasable and Programmable Read Only Memory)等の記憶媒体、RAM(Random Access Memory)等の作業用メモリなどを有する。上記各部の機能は、例えば、CPUが制御プログラムを実行することにより実現される。
Although not shown, the vehicle
このような車両周囲監視装置100によれば、合成俯瞰画像を運転者に対して表示することができるとともに、合成俯瞰画像の立体物の射影方向を、所定の視点を基準とした方向に揃えることができる。また、マッピングテーブルを用いるので、合成俯瞰画像を高速に生成することができる。
According to the vehicle surrounding
次に、上述の画像回転処理の詳細について説明する。 Next, details of the above-described image rotation processing will be described.
図6は、画像回転処理を施す前の合成俯瞰画像の一例を示す図である。図6では、車両周囲の路面上に置かれた立体物(例えばパイロン)が複数位置するときの合成俯瞰画像が模式的に示されている。 FIG. 6 is a diagram illustrating an example of a combined overhead image before image rotation processing is performed. FIG. 6 schematically shows a combined overhead image when a plurality of three-dimensional objects (for example, pylon) placed on the road surface around the vehicle are located.
ここで、カメラ200の視点の位置を、「カメラ視点」という。図6に示すように、画像回転処理を施す前の合成俯瞰画像720では、立体物723は、立体物の基部位置732を基点として、その画像を撮影したカメラ200のカメラ視点731から見た射影方向(以下「カメラ射影方向」という)733に倒れ込んだ状態となる。
Here, the position of the viewpoint of the
例えば、第3のカメラ俯瞰画像724−3の、第2のカメラ俯瞰画像724−2に近い部分に位置する第1の立体物723−1は、第3のカメラ200−3のカメラ視点731−3から見た第1の射影方向733−1(後方向)に倒れ込んでいる。一方で、第2のカメラ俯瞰画像724−2の、第3のカメラ俯瞰画像724−3に近い部分に位置する第2の立体物723−2は、第2のカメラ200−2のカメラ視点731−2から見た第2の射影方向733−2(左方向)に倒れ込んでいる。
For example, the first three-dimensional object 723-1 located in the portion close to the second camera overhead image 724-2 of the third camera overhead image 724-3 is the
第1の立体物723−1と第2の立体物723−2とは互いに、近距離に本来位置するので、両立体物723−1及び723−2は同じ方向に倒れこんだ状態で運転者により視認されることが好ましい。しかしながら、第1の立体物723−1及び第2の立体物723−2とは、異なるカメラ視点731−3及び731−2から撮影されたものであるため、画像回転処理前の合成俯瞰画像720においては大きく異なった方向に倒れ込んでいるように運転者により視認される。
Since the first three-dimensional object 723-1 and the second three-dimensional object 723-2 are originally located at a short distance from each other, the compatible objects 723-1 and 723-2 are in a state where the driver falls down in the same direction. Is preferably visually recognized. However, since the first three-dimensional object 723-1 and the second three-dimensional object 723-2 are taken from different camera viewpoints 731-3 and 731-2, the composite
このように、画像回転処理を施さない場合、実際には近距離に位置する2つの立体物であるにもかかわらず、カメラ俯瞰画像724の境界線の付近においてその立体物723の射影方向が大きく異なる。このことは、実際には同一の立体物であるにもかかわらず、カメラ俯瞰画像724の境界線の両側で、その立体物723の射影方向が大きく異なることを意味する。したがって、画像回転処理を施さない合成俯瞰画像720は、上述の通り、運転者の立体物の配置関係に対する認識誤りを引き起こす。また、画像回転処理を施さない合成俯瞰画像720では、立体物723は、車両の移動又は立体物723の移動によって境界線を越えるときに、不連続な動きで表示されることになる。
As described above, when the image rotation process is not performed, the projection direction of the three-
そこで、本実施の形態の車両周囲監視装置100は、カメラ俯瞰画像724から抽出した立体物723を1つの視点から見た射影方向に回転させた後に、合成俯瞰画像720に合成して、各立体物723の射影方向を揃える。これによって、上記認識誤り及び立体物の不連続な動きの低減を図る。以下、回転の基準となる単一の視点を、「合成視点」という。
Therefore, the vehicle surrounding
図7は、画像回転処理を施した後の合成俯瞰画像の一例を示す図であり、図6に対応するものである。 FIG. 7 is a diagram illustrating an example of a synthesized overhead image after image rotation processing is performed, and corresponds to FIG.
図7に示すように、画像回転処理を施した後の合成俯瞰画像720では、立体物723は、基部位置732を基点として、合成視点734から見た射影方向(以下「視点射影方向」という)735に倒れ込んだ状態となっている。ここで、合成視点734は、車両の運転者の視点の位置に設定されている。合成俯瞰画像生成部440は、立体物723を、基部位置732を中心として、カメラ射影方向733から視点射影方向735へと回転させることにより、このような合成俯瞰画像720を生成する。
As shown in FIG. 7, in the synthesized
例えば、第1及び第2の立体物723−1、723−2の射影方向は、ほぼ平行となり、実際の配置関係により近くなる。したがって、上記画像回転処理を行うことにより、境界線における立体物723の不連続な動きや、立体物の配置関係に対する認識誤りを防ぐことができる。
For example, the projection directions of the first and second three-dimensional objects 723-1 and 723-2 are substantially parallel and closer to the actual arrangement relationship. Therefore, by performing the image rotation process, it is possible to prevent a discontinuous movement of the three-
このように、画像回転処理を施すことにより、実際の立体物の配置関係により近い配置関係で立体物723を配置した合成俯瞰画像を、運転者に提供することができる。また、合成視点734を運転者の視点に合わせているので、実際に運転者から立体物を見たときの方向と同じ方向に立体物を倒し込むことができる。したがって、運転者に対して、実際の立体物の配置関係を、より正確に認識させることができる。
As described above, by performing the image rotation process, it is possible to provide the driver with a combined overhead image in which the three-
ここで、車両を基準とし高さ成分を除いた座標系において、カメラ200の設置位置の座標(カメラ視点の座標)をC(Cx,Cy)、立体物の基部位置732の座標をO(Ox,Oy)、合成視点の座標をP(Px,Py)と置く。このとき、カメラ射影方向733から視点射影方向までの回転角θは、カメラ射影方向の方向ベクトルVC(Ox−Cx,Oy−Cy)及び視点射影方向の方向ベクトルVP(Ox−Px,Oy−Py)を用いて、以下の式(1)を用いて算出することができる。
θ = arccos{(VP・VC)/(|VP|・|VC|)} ・・・・・・(1)
Here, in the coordinate system excluding the height component from the vehicle, the coordinates of the installation position of the camera 200 (the coordinates of the camera viewpoint) are C (C x , C y ), and the coordinates of the
θ = arccos {(V P · V C ) / (| V P | · | V C |)} (1)
なお、回転角θは、合成俯瞰画像の座標ごとに一意に決まる。したがって、座標ごとに回転角θを予め算出して記憶しておくことにより、画像回転処理の高速化を図ることができる。 The rotation angle θ is uniquely determined for each coordinate of the synthesized overhead image. Therefore, by calculating and storing the rotation angle θ for each coordinate in advance, the image rotation process can be speeded up.
以下、本実施の形態に係る車両周囲監視装置100の動作について説明する。
Hereinafter, the operation of the vehicle surrounding
図8は、車両周囲監視装置100の動作の一例を示すフローチャートである。
FIG. 8 is a flowchart showing an example of the operation of the vehicle surrounding
まず、ステップS1100において、カメラ俯瞰画像生成部420及び立体物検出部430は、タイミング生成部450からのタイミング信号を受けて、第1〜第4のカメラ200−1〜200−4から、第1〜第4のカメラ撮影画像をそれぞれ取得する(図3参照)。
First, in step S1100, the camera overhead
次に、ステップS1200において、カメラ俯瞰画像生成部420は、マッピングテーブル参照部410から入力される一方のマッピングデータに基づいて、第1〜第4のカメラ撮影画像から、第1〜第4のカメラ俯瞰画像を生成する(図4参照)。そして、カメラ俯瞰画像生成部420は、生成した各カメラ俯瞰画像を、合成俯瞰画像生成部440に出力する。
Next, in step S1200, the camera overhead
次に、ステップS1300において、合成俯瞰画像生成部440は、カメラ俯瞰画像生成部420からの各カメラ俯瞰画像を受け取り、マッピングテーブル参照部410より他方のマッピングデータを受け取る。合成俯瞰画像生成部440は、受け取ったマッピングデータに従って、受け取った各カメラ俯瞰画像に対しマッピングを行って、合成俯瞰画像を合成する。
Next, in step S <b> 1300, the composite overhead
次に、ステップS1400において、立体物検出部430は、ステップS1100で取得された第1〜第4のカメラ撮影画像に対し画像認識処理を行うことにより、立体物の検出処理を行う。
Next, in step S1400, the three-dimensional
画像認識処理としては、例えば、パターンマッチング処理又はエッジ抽出処理、又はステレオ処理を採用することができる。 As the image recognition processing, for example, pattern matching processing, edge extraction processing, or stereo processing can be employed.
パターンマッチング処理の場合、立体物検出部430は、検出対象となる立体物(例えばパイロン、ポール)の外観の形状の特徴を予め記憶しておき、その形状と相関性の高い画像部分を、立体物として検出する。エッジ抽出処理の場合、立体物検出部430は、検出対象となる立体物を構成する線分に特徴的な特定の方向(例えば路面に対する垂直方向)に近い方向の線分のみを抽出し、抽出された線分が集中する画像部分を、立体物として検出する。例えば、人、ポール、箱等の立体物は、垂直方向に近い方向の線分を多く有することから、検出が容易である。ステレオ処理の場合、立体物検出部430は、車両の路面に対する移動と、この移動に伴う第1〜第4のカメラ撮影画像の変化とから、路面画像ではない部分、つまり立体物を抽出する。ステレオ処理の詳細については、後述する。
In the case of pattern matching processing, the three-dimensional
なお、立体物検出部430は、重複エリアについては、複数のカメラ俯瞰画像の間で輝度あるいは色の差分が大きい部分を、立体部と判定し、この画像部分と輝度及び色が連続して整合する画像を立体物と判定する。
Note that the three-dimensional
また、立体物検出部430は、立体物が含まれる大まかな領域を、立体物と判定してもよい。これは、立体物の抽出を行うことができない場合に有効である。この場合には、立体物検出部430は、立体物を、矩形や楕円形等の単純な外形としてもよい。
In addition, the three-dimensional
そして、ステップS1500において、立体物検出部430は、後のステップで画像処理の対象となる少なくとも1つの立体物をステップS1400で検出できたかを判断する。立体物検出部430は、処理対象となる立体物を検出できた場合には(S1500:YES)、ステップS1600へ進む。
In step S1500, the three-dimensional
図9は、処理対象となる立体物が存在する場合の合成俯瞰画像の例を示す図である。ここでは、立体物は路面に対し垂直方向に伸びた棒状部材とする。図9に示すように、立体物723は、その画像を撮影したカメラ視点731を起点としたカメラ射影方向733に倒れ込んでいる。
FIG. 9 is a diagram illustrating an example of a composite overhead image when a three-dimensional object to be processed exists. Here, the three-dimensional object is a rod-shaped member extending in a direction perpendicular to the road surface. As shown in FIG. 9, the three-
図8のステップS1600において、立体物検出部430は、一方のマッピングデータを参照して、第1〜第4のカメラ撮影画像における立体物の位置を、カメラ俯瞰画像における位置情報に変換する。これによって得られた立体物位置情報を、立体物検出部430は、合成俯瞰画像生成部440へ出力する。
In step S1600 of FIG. 8, the three-dimensional
図10は、立体物位置情報を示す図である。立体物位置情報は、上述の通り、立体物エリアの座標の集まり及び基部位置を示す情報である。基部位置732は、立体物723が路面と接する位置である。また、立体物エリア736は、立体物723が描かれた座標の集合で特定される。
FIG. 10 is a diagram illustrating the three-dimensional object position information. As described above, the three-dimensional object position information is information indicating a collection of coordinates of the three-dimensional object area and the base position. The
立体物検出部430は、立体物エリア736のうちカメラ200のカメラ視点731に最も近い位置の座標を、基部位置732として採用する。
The three-dimensional
一方、立体物検出部430は、処理対象となる立体物を検出できなかった場合には(ステップS1500:NO)、ステップS1700へ進む。
On the other hand, if the three-dimensional
ステップS1700において、立体物検出部430は、処理対象となる立体物を検出できなかった旨を示す情報を合成俯瞰画像生成部440に出力し、ステップS1800へ進む。
In step S1700, the three-dimensional
図8のステップS1800において、合成俯瞰画像生成部440は、立体物位置情報を受け取ったか否かを判断する。立体物位置情報を受け取った場合(S1800:YES)には、ステップS1900に進む。
In step S1800 of FIG. 8, the synthesized overhead
次に、ステップS1900において、合成俯瞰画像生成部440は、立体物を回転させるための合成視点を設定する。ここでは、合成俯瞰画像生成部440は、車両の運転席の画像位置に、合成視点を設定するものとする(図7参照)。
Next, in step S1900, the synthesized overhead
そして、ステップS2000において、合成俯瞰画像生成部440は、立体物の基部を中心に、前式(1)で求まるθだけ立体物を回転させた後の、立体物エリアの座標の集まりを算出する。この回転は、図6及び図7で説明したように、基部位置を中心としたカメラ射影方向から視点射影方向への回転である。
In step S2000, the synthesized overhead
図11は、立体物の回転の様子を示す図である。図11に示すように、立体物723は、基部732を中心として、カメラ射影方向733から視点射影方向735へと、それぞれ回転される。
FIG. 11 is a diagram illustrating how the three-dimensional object rotates. As shown in FIG. 11, the three-
なお、重複エリアの立体物は、その生成に際してどちらのカメラ俯瞰画像を用いても、回転後の倒れ込みの方向は同一となる。しかし、立体物の大きさ、つまりカメラ射影方向の長さ(以下「射影長」という)は、どちらのカメラ俯瞰画像を用いたかによって異なる。 Note that the three-dimensional object in the overlapping area has the same tilting direction after rotation, regardless of which camera overhead image is used for generation. However, the size of the three-dimensional object, that is, the length in the camera projection direction (hereinafter referred to as “projection length”) differs depending on which camera overhead image is used.
図12は、第3のカメラ撮影画像を用いた場合の、ある立体物の立体物を示す図である。また、図13は、第2のカメラ俯瞰画像を用いた場合の、同じ立体物を示す図である。図12及び図13に示すように、立体物723−3、723−2の射影長は異なる。これは、カメラ200から立体物までの距離が異なるためである。
FIG. 12 is a diagram illustrating a three-dimensional object of a certain three-dimensional object when a third camera photographed image is used. FIG. 13 is a diagram illustrating the same three-dimensional object when the second camera overhead image is used. As shown in FIGS. 12 and 13, the projection lengths of the three-dimensional objects 723-3 and 723-2 are different. This is because the distance from the
図14は、カメラ200からの距離と射影長との関係を示す図である。図14に示すように、カメラ200から立体物737までの距離dと射影長Lとの比は、立体物737の高さhLと、立体物737の上端からカメラ200の高さまでの距離hUとの比に比例する。したがって、射影長Lは、カメラ200から立体物737までの距離dに比例する。このことは、カメラ200からの距離が長いほど、立体物737の射影長が長くなり、実際の立体物の外観に対する立体物737の歪みが大きくなり、表示範囲からはみ出して消失する部分が多くなることを意味する。
FIG. 14 is a diagram illustrating the relationship between the distance from the
したがって、合成俯瞰画像生成部440は、重複エリアの立体物については、カメラ200の位置までの長さがより短いほうのカメラ画像を用いることが望ましい。距離は、例えば、立体物の基部位置とカメラ200の位置とから求めることができる。
Therefore, it is desirable that the combined overhead
そして、図8のステップS2100において、合成俯瞰画像生成部440は、ステップS2000で算出した回転後のエリアに立体物を合成俯瞰画像に描画する。
Then, in step S2100 of FIG. 8, the synthesized overhead
そして、回転後のエリアに立体物を描画するだけでは、合成俯瞰画像には、同じ立体物であるが回転前のものが描かれたままであるため、ステップS2200において、合成俯瞰画像生成部440は、立体物の回転前のエリアに、路面を描画する。これにより、合成俯瞰画像において立体物は基部位置を中心としてカメラ射影方向から視点射影方向へと回転した状態に補正される。
Then, only by drawing a three-dimensional object in the rotated area, the composite overhead image remains the same three-dimensional object but the one before rotation. In step S2200, the composite overhead
ここで、ステップS2200の詳細な処理の一例について説明する。カメラ200から見て立体物の背後(カメラ射影方向側)は、そのカメラ200にとっては死角となる。したがって、そのカメラ200のカメラ撮影画像においては、回転前のエリアに描画すべき路面の色データが欠落している。一方で、回転前のエリア(以下「データ欠落エリア」という)は、カメラ200の視点の移動(車両の移動)や立体物の移動に伴って変化する。
Here, an example of detailed processing in step S2200 will be described. Behind the three-dimensional object as viewed from the camera 200 (camera projection direction side) is a blind spot for the
そこで、合成俯瞰画像生成部440は、過去に生成された合成俯瞰画像を所定数フレーム分記憶しておき、過去のフレームを用いて、現在のフレームのデータ欠落エリアを補完する。
Therefore, the synthesized overhead
図15は、データ欠落エリアの補完の様子を示す図である。 FIG. 15 is a diagram illustrating how data missing areas are complemented.
図15(A)に示す第nのフレームの合成俯瞰画像720nが取得された後、車両が車庫入れ等のために後退し、図15(B)に示す第n+aのフレームの合成俯瞰画像720n+aが取得されたとする。
After the composite bird's-
第nのフレームの合成俯瞰画像720nにおいて、立体物723は、あるデータ欠落エリア738nから、回転後の領域(以下「回転先領域」という)739nへと回転する。回転先領域739nの路面画像は、基の第nのフレームの合成俯瞰画像720nに含まれている。
In the synthesized bird's-
そして、第n+aのフレームの合成俯瞰画像720n+aにおいて、立体物723は、さらに、データ欠落エリア738n+aから、別の回転先領域739n+aへと回転する。ここで、説明の簡便化のため、第n+aのフレームにおけるデータ欠落エリア738n+aが、第nのフレームにおける回転先領域739nに一致しているものとする。この場合、第n+aのフレームにおけるデータ欠落エリア738n+aの路面画像は、第nのフレームの合成俯瞰画像720nに、回転先領域739nの路面画像として含まれている。
Then, in the combined
したがって、合成俯瞰画像生成部440は、まず、車両の舵角量並びに車速等から得られる車両の移動量並びに移動方向、及び/又はオプティカルフロー等の画像処理に基づいて、フレーム間での合成俯瞰画像の座標の対応付けを行う。そして、合成俯瞰画像生成部440は、矢印740に示すように、第n+aのフレームの合成俯瞰画像720n+aにおけるデータ欠落エリア738n+aを、第nのフレームの合成俯瞰画像720nにおける回転先領域739nの路面画像で補完する。
Therefore, the combined overhead
なお、車両又は立体物の移動がなければ、データ欠落エリアを補完することはできない。したがって、合成俯瞰画像生成部440は、検出対象となる立体物が存在する状態で車両の移動が検出された時、及びカメラ撮影範囲へ立体物の進入が検出してきた時にのみ、データ欠落エリアの補完を行うようにしてもよい。
If there is no movement of the vehicle or the three-dimensional object, the data missing area cannot be complemented. Therefore, the synthesized overhead
また、合成俯瞰画像生成部440は、時間的に後のフレームの合成俯瞰画像を用いて、データ欠落エリアの補完を行うようにしてもよい。但し、数フレーム分の画像をバッファすることになり、モニタ500に表示される合成俯瞰画像に多少の遅れが生じる。
Further, the synthesized overhead
以上のステップS2200の実行後、処理は図8に示すステップS2300に進む。ステップS2300において、合俯瞰画像生成部440は、補正後の合成俯瞰画像を示す映像信号をモニタ500に出力し、合成俯瞰画像を表示させる。表示される合成俯瞰画像は、処理対象となる立体物が存在する場合には、その立体物を回転させた画像となっている。
After execution of step S2200, the process proceeds to step S2300 shown in FIG. In step S2300, the combined overhead
そして、ステップS2400において、タイミング生成部450は、ユーザ操作等により合成俯瞰画像の表示の処理の終了を指示されたか否かを判断する。タイミング生成部450は、処理の終了を指示されていない場合は(S2400:NO)、タイミング信号を出力してステップS1100に戻り、処理の終了を指示された場合は(S2400:YES)、タイミング信号の出力を停止して一連の処理を終了させる。
In step S2400,
また、画像処理の対象となる立体物が存在しない場合には(S1800:NO)、合成俯瞰画像生成部440は、直接にステップS2300へ進み、画像回転処理を行うことなく、合成俯瞰画像をモニタ500に表示させる。
If there is no three-dimensional object to be subjected to image processing (S1800: NO), the synthesized overhead
このような動作により、車両周囲監視装置100は、車両周囲の立体物の射影方向が揃った合成俯瞰画像を、運転者に提供することができる。
By such an operation, the vehicle
なお、以上の実施形態の説明では、立体物検出部430が受け取ったカメラ画像から立体物および立体物までの距離を検出していたが、これに限らず、例えば、アクティブセンサにより立体物および立体物までの距離を検出してもかまわない。
In the above description of the embodiment, the distance from the camera image received by the three-dimensional
なお、複数のカメラ俯瞰画像から成る合成俯瞰画像が用いられる場合には(図4参照)、重複エリアに位置する立体物は、複数のカメラ俯瞰画像に異なる形で映る場合がある。したがって、合成俯瞰画像においては、これら異なる形のもの同士を合成して、1つの立体物が映るようにしてもよい。 In addition, when the synthetic | combination bird's-eye view image which consists of a several camera bird's-eye view image is used (refer FIG. 4), the solid object located in an overlap area may be reflected on a some camera bird's-eye view image in a different form. Therefore, in the synthesized bird's-eye view image, these different shapes may be synthesized so that one solid object is reflected.
また、各カメラ俯瞰画像に映る立体物の射影長を、合成視点から見たときの射影長に補正することにより、より見易い立体物を得ることが可能である。 In addition, it is possible to obtain a three-dimensional object that is easier to see by correcting the projection length of the three-dimensional object shown in each camera overhead image to the projection length when viewed from the combined viewpoint.
また、合成俯瞰画像に映る立体物の配置関係が実際の立体物の配置関係と大きく異なるのは、主に、重複エリアである。したがって、処理対象を重複エリアの付近に位置する立体物に絞ることにより、車両周囲監視装置100の処理負荷を軽減することが可能である。
In addition, it is mainly in the overlapping area that the arrangement relationship of the three-dimensional object shown in the composite bird's-eye view image is significantly different from the actual arrangement relation of the three-dimensional object. Therefore, it is possible to reduce the processing load of the vehicle
また、画像処理を重複エリアに限定して行う場合には、複数のカメラ俯瞰画像から成る合成俯瞰画像を用いることにより、より簡単にデータ欠落エリアの補完を行うことが可能となる。 Further, when image processing is limited to overlapping areas, it is possible to more easily complement the data missing area by using a composite overhead image composed of a plurality of camera overhead images.
また、ある立体物が、他の立体物の陰になって視認し難い場合、合成視点を変えることにより、陰になっていた立体物を視認し易くすることが可能である。 In addition, when a certain three-dimensional object is difficult to see behind the other three-dimensional object, it is possible to make the three-dimensional object that has been shaded easily visible by changing the composite viewpoint.
以下、これらの態様について順に説明する。 Hereinafter, these aspects will be described in order.
まず、異なる形で映る立体物を合成する態様について詳細に説明する。 First, the aspect which synthesize | combines the solid thing reflected in a different form is demonstrated in detail.
図16は、第3のカメラ俯瞰画像から得られる回転後の立体物のみを採用した場合の合成俯瞰画像の一例を示す図であり、図12に対応するものである。図17は、第2のカメラ俯瞰画像から得られる回転後の立体物(図16の立体物と同一のもの)のみを採用した場合の合成俯瞰画像の一例を示す図であり、図13に対応するものである。図18は、図16に示す立体物と、図17に示す立体物とを合成した立体物を採用した場合の合成俯瞰画像の一例を示す図である。 FIG. 16 is a diagram illustrating an example of a combined overhead image when only a three-dimensional object after rotation obtained from the third camera overhead image is employed, and corresponds to FIG. FIG. 17 is a diagram illustrating an example of a composite overhead image when only a three-dimensional object after rotation (same as the three-dimensional object in FIG. 16) obtained from the second camera overhead image is employed. To do. 18 is a diagram illustrating an example of a combined overhead image when a three-dimensional object obtained by combining the three-dimensional object illustrated in FIG. 16 and the three-dimensional object illustrated in FIG. 17 is employed.
図16に示す立体物723−3と、図17に示す立体物723−2は、それぞれ1つの視点から見た画像である。したがって、ある方向からのみ観察したときには全体像を視認し難い立体物において、その方向とカメラの撮影方向とが一致した場合には、立体物723は、その立体物を把握し難い画像となる。例えば、板状の看板を真横から撮影した場合が、これに該当する。
A solid object 723-3 shown in FIG. 16 and a solid object 723-2 shown in FIG. 17 are images viewed from one viewpoint, respectively. Accordingly, in a three-dimensional object in which it is difficult to visually recognize the entire image when observed only from a certain direction, when the direction coincides with the shooting direction of the camera, the three-
そこで、合成俯瞰画像生成部440は、例えば、立体物723−3と立体物723−2とを合成して、図18に示すような立体物723を描画する。これにより、運転者が立体物723をより把握し易くすることができる。なお、合成俯瞰画像生成部440は、回転後の立体物のみを合成してもよいし、立体物を回転させた後のカメラ俯瞰画像を合成してもよい。
Therefore, for example, the synthesized overhead
次に、異なるカメラ俯瞰画像に異なる形で映る同一立体物(以下、便宜上、「2つの立体物」という)の射影長を揃える態様について説明する。 Next, an aspect in which the projection lengths of the same three-dimensional object (hereinafter, referred to as “two three-dimensional objects” for convenience) reflected in different forms in different camera overhead images will be described.
図14を参照して説明する。立体物検出により特定される立体物737の高さhL及び立体物737までの距離dと、カメラ200(又は合成視点734)の高さH=hL+hUとから、立体物737の射影長Lは、以下の式(2)を用いて算出することができる。
L = (hL・d)/(H−hL) ・・・・・・(2)
This will be described with reference to FIG. The projection of the three-
L = (h L · d) / (H−h L ) (2)
合成俯瞰画像生成部440は、例えば、式(2)を用いて、合成する2つの立体物の射影長と、合成視点734から見たときの射影長とを算出する。そして、合成俯瞰画像生成部440は、2つの立体物のそれぞれを、合成視点734から見たときの射影長L1をカメラ200から見たときの射影長L2で除して得られる比率L1/L2で、射影方向に縮小する。これにより、合成視点734から見たときの射影長に、立体物の射影長を揃えることができる。
The synthesized overhead
また、合成視点734の高さをカメラ視点731の高さと同一とした場合には、より簡単に立体物の射影長を揃えることができる。
When the height of the
図19は、立体物の基部位置とカメラ200の画像位置及び合成視点との関係の一例を示す図である。図19に示すように、カメラ俯瞰画像724において、立体物723の基部位置732とカメラ200のカメラ視点731との距離がd1であり、同じ基部位置732と合成視点734との距離がd2であったとする。
FIG. 19 is a diagram illustrating an example of the relationship between the base position of the three-dimensional object, the image position of the
図20は、視点から立体物までの距離と射影長との関係を示す図である。図20に示すように、元の射影長をL1とし、合成視点にカメラ200を水平移動したときの射影長をL2とする。この場合、射影長L1に対する射影長L2の比は、距離d1に対するd2の比と一致する。そこで、合成俯瞰画像生成部440は、例えば、立体物を、射影方向に、以下の式(3)で表される比率rで伸縮させることにより、立体物の射影長を、合成視点から見たときの射影長に補正する。
r = L1・d2/d1 ・・・・・・(3)
FIG. 20 is a diagram illustrating the relationship between the distance from the viewpoint to the three-dimensional object and the projection length. As shown in FIG. 20, the original projection length and L 1, a projection length when the
r = L 1 · d 2 / d 1 (3)
図21は、第3のカメラ俯瞰画像から得られる射影長補正後の立体物の一例を示す図であり、図12に対応するものである。図22は、図21に示す立体物と同一の立体物について第2のカメラ俯瞰画像から得られる射影長補正後の立体物の一例を示す図であり、図13に対応するものである。図23は、図21に示す立体物と図22に示す立体物とを合成した立体物の一例を示す図である。 FIG. 21 is a diagram illustrating an example of a three-dimensional object after projection length correction obtained from the third camera overhead view image, and corresponds to FIG. FIG. 22 is a diagram illustrating an example of a three-dimensional object after projection length correction obtained from the second camera overhead image for the same three-dimensional object as illustrated in FIG. 21, and corresponds to FIG. 13. FIG. 23 is a diagram illustrating an example of a three-dimensional object obtained by synthesizing the three-dimensional object illustrated in FIG. 21 and the three-dimensional object illustrated in FIG. 22.
図21に示すように、合成俯瞰画像生成部440は、例えば、第3のカメラ俯瞰画像から得られる立体物723−3を、合成視点734を基準として、射影長L1'から射影長L2'へと補正する。また、図22に示すように、合成俯瞰画像生成部440は、例えば、第2のカメラ俯瞰画像から得られる立体物723−2を、合成視点734を基準として、射影長L1''から射影長L2''へと補正する。射影長L2'、L2''は、ともに合成視点734を基準として補正されることから、同じ値となる。
As illustrated in FIG. 21, the synthesized overhead
図23に示すように、立体物723−3、723−4を合成して得られる立体物723は、実際の立体物により近い状態となり、かつ、より見易くなる。また、合成視点734から見たときの射影長にそろえることにより、実際の立体物の高さと表示上の射影長との間の相関性が高まり、運転者は、実際の立体物の高さをより正確に認識することが可能となる。
As shown in FIG. 23, the three-
次に、画像処理の対象を重複エリア付近の立体物に絞る態様について説明する。 Next, a mode in which the target of image processing is narrowed down to a three-dimensional object near the overlapping area will be described.
図24は、カメラ俯瞰画像の接合部付近の領域に重なる立体物のみを処理対象とした場合の立体物の回転の様子を示す図であり、図11に対応するものである。このパターンでは、合成俯瞰画像生成部440は、立体物723のうち、隣り合うカメラ俯瞰画像724の間の接合部を取り囲むように設定された領域741に重なる立体物723のみを回転する。
FIG. 24 is a diagram illustrating a state of rotation of the three-dimensional object when only the three-dimensional object overlapping the region near the joint portion of the camera overhead image is a processing target, and corresponds to FIG. In this pattern, the synthesized overhead
図25は、カメラ俯瞰画像の接合部に重なる立体物のみを処理対象とした場合の立体物の回転の様子を示す図であり、図11に対応するものである。このパターンでは、合成俯瞰画像生成部440は、立体物723のうち、隣り合うカメラ俯瞰画像724の間の接合部742に重なる立体物723のみを回転する。
FIG. 25 is a diagram illustrating a state of rotation of the three-dimensional object when only the three-dimensional object overlapping the joint portion of the camera overhead image is a processing target, and corresponds to FIG. 11. In this pattern, the combined overhead
図26は、重複エリアに重なる立体物のみを処理対象とした場合の立体物の回転の様子を示す図であり、図11に対応するものである。このパターンでは、立体物723のうち、カメラ俯瞰画像724の重複エリア743に重なる立体物723のみを回転する。
FIG. 26 is a diagram illustrating a state of rotation of the three-dimensional object when only the three-dimensional object overlapping the overlapping area is a processing target, and corresponds to FIG. 11. In this pattern, of the three-
図27は、重複エリアに基部位置を有する立体物のみを処理対象とした場合の立体物の回転の様子を示す図であり、図11に対応するものである。このパターンでは、立体物723のうち、カメラ俯瞰画像724の重複エリア743に基部位置732を有する立体物723のみを回転する。
FIG. 27 is a diagram illustrating a state of rotation of a three-dimensional object when only a three-dimensional object having a base position in the overlapping area is a processing target, and corresponds to FIG. 11. In this pattern, only the three-
図11、図24〜図27に示す処理対象の決定のパターンを比較すると、車両及び立体物の移動により、車両と立体物との相対位置が変化したときの射影方向の変化は、図11に示すパターンにおいて連続的となり、相対的に滑らかで自然となる。一方で、処理対象の個数が最小となり、装置負荷を最も軽減することができるのは、図27に示すパターンである。また、図27に示すパターンでは、回転前の領域も回転後の領域も重複エリアにあるため、次に説明する態様によるデータ欠落エリアの補完が可能となる。装置負荷に対する許容度と射影方向の変化に対する許容度とのバランスから、適切なパターンを全体的又は部分的に採用することができる。 Comparing the processing target determination patterns shown in FIGS. 11 and 24 to 27, the change in the projection direction when the relative position between the vehicle and the three-dimensional object changes due to the movement of the vehicle and the three-dimensional object is shown in FIG. It will be continuous in the pattern shown and will be relatively smooth and natural. On the other hand, it is the pattern shown in FIG. 27 that minimizes the number of processing targets and can reduce the apparatus load most. In the pattern shown in FIG. 27, since the area before rotation and the area after rotation are in the overlapping area, it is possible to complement the data missing area according to the mode described below. From the balance between the tolerance for the apparatus load and the tolerance for the change in the projection direction, an appropriate pattern can be adopted in whole or in part.
なお、図24〜図27のように、処理対象のエリアを限定する場合には、立体物検出部430は、そのエリアについてのみ立体物を検出する構成としてもよい。
In addition, as shown in FIGS. 24 to 27, when the area to be processed is limited, the three-dimensional
次に、重複エリアのカメラ俯瞰画像を用いてデータ欠落エリアの補完を行う態様について説明する。 Next, a mode of complementing the data missing area using the camera overhead image of the overlapping area will be described.
図28は、重複エリアのカメラ俯瞰画像を用いてデータ欠落エリアの補完の様子を示す図である。図28に示すように、合成俯瞰画像生成部440は、例えば、第3のカメラ俯瞰画像724−3と第2のカメラ俯瞰画像724−2との重複エリア743において、第3のカメラ俯瞰画像724−3の立体物723を用いて回転させる。この場合、第3のカメラ俯瞰画像724−3には、データ欠落エリア738が生じる。ところが、第2のカメラ俯瞰画像724−2のデータ欠落エリア738に対応する領域744には、路面が映し出されている。これは、カメラ俯瞰画像724ごとにカメラ射影方向が異なるためである。
FIG. 28 is a diagram illustrating a state of complementing the data missing area using the camera overhead image of the overlapping area. As illustrated in FIG. 28, the combined overhead
したがって、合成俯瞰画像生成部440は、データ欠落エリア738を、第2のカメラ俯瞰画像724−2の対応する領域744の画像で補完する。1つのフレームの合成俯瞰画像からデータ欠落エリアの補完をすることができるので、図15で説明した補完の手法に比べて、処理負荷及びメモリ負荷を軽減することができる。
Therefore, the synthesized bird's-eye view
次に、合成視点を変化させる態様について説明する。 Next, an aspect of changing the composite viewpoint will be described.
図29は、画像回転処理を施す前の合成俯瞰画像の一例を示す図である。図30は、図29に示す合成俯瞰画像に対して画像回転処理を施した後の合成俯瞰画像の一例を示す図である。図31は、図30に示す合成俯瞰画像から合成視点をずらした合成俯瞰画像の一例を示す図である。 FIG. 29 is a diagram illustrating an example of a composite overhead image before image rotation processing is performed. FIG. 30 is a diagram illustrating an example of a synthesized overhead image after image rotation processing is performed on the synthesized overhead image illustrated in FIG. 29. FIG. 31 is a diagram illustrating an example of a composite overhead image in which the composite viewpoint is shifted from the composite overhead image illustrated in FIG. 30.
図30に示すように、第1の立体物723−1の基部位置732−1と、第2の立体物723−2の基部位置732−2とが、合成視点734に対してほぼ一直線に位置している。この場合、合成視点734から遠い側である第2の立体物723−2は、第1の立体物723−1の陰となり視認し難い状態となることがある。
As shown in FIG. 30, the base position 732-1 of the first three-dimensional object 723-1 and the base position 732-2 of the second three-dimensional object 723-2 are positioned substantially in a straight line with respect to the
そこで、合成俯瞰画像生成部440は、図31に示すように、合成視点734を移動可能とし、陰になっていた第2の立体物723−2を視認し易くすることを可能にする。
Therefore, as shown in FIG. 31, the synthesized overhead
この移動は、画像補正440が合成視点からみて複数の基部位置が直線状に配置されているか否かを判断して自動で行ってもよいし、ユーザ操作を受けて行われるようにしてもよい。また、移動先は、車両中心等の固定位置が予め定められていてもよいし、基部位置の検出結果又はユーザ操作に応じて、任意の位置に設定できるようにしてもよい。これにより、図29に示すように、元は重なっていなかった立体物が、回転処理により重なり、かえって視認性を低下させるといった事態を防ぐことができる。
This movement may be performed automatically by determining whether or not the
次に、カメラ撮影画像に対する画像処理により立体物の検出を行う技術の詳細について説明する。 Next, details of a technique for detecting a three-dimensional object by image processing on a camera photographed image will be described.
画像処理による立体物の検出は、上述の通り、例えば、パターンマッチング処理及びステレオ処理により可能である。 As described above, detection of a three-dimensional object by image processing is possible by, for example, pattern matching processing and stereo processing.
パターンマッチング処理の場合、立体物検出部430は、予め記憶された立体物の外観の形状と相関性の高い画像部分を立体物として検出し、検出した立体物の画像位置から、立体物の位置を検出する。
In the case of pattern matching processing, the three-dimensional
ステレオ処理の場合、立体物検出部430は、異なる位置から撮影された2つの画像を用い、撮影位置の変異と2つの撮影画像の差異とから、立体物の位置を検出する。ステレオ処理には、2眼カメラを用いたステレオ処理と単眼カメラを用いたモーションステレオ処理がある。
In the case of stereo processing, the three-dimensional
ここで、単眼カメラを用いたモーションステレオ処理として、カメラ200の撮影画像を用いて立体物の検出を行う手法について説明する。2眼カメラを用いる場合と異なり、単眼カメラを用いる場合は、ある時刻において、1つの撮影画像しか得られない。したがって、撮影時刻が異なる2つの撮影画像を用いて、同じパターンの特徴点の移動量を求め、車両600の移動量との比計算から、立体物までの距離を算出する。
Here, as a motion stereo process using a monocular camera, a method of detecting a three-dimensional object using a captured image of the
図32は、カメラ撮影画像を用いて立体物の検出を行う手法の概要を示す図である。図32に示すように、車両600が、立体物751を左に見ながら移動したとする。そして、立体物検出部430は、時刻t1に第1の画像752−1を取得し、時刻t2に第2の画像752−2を取得したとする。第1及び第2の画像752−1、752−2は、第3のカメラ撮影画像である。立体物検出部430は、コーナー検出フィルタ処理やエッジ検出フィルタ等を用いて、第1の画像752−1から、立体物の特徴となるような点(エッジ点やコーナー等)を、特徴点753として検出する。そして、検出した特徴点753を、第2の画像752−2で探索する。
FIG. 32 is a diagram illustrating an outline of a technique for detecting a three-dimensional object using a camera image. As shown in FIG. 32, it is assumed that the
立体物検出部430は、第1の画像752−1における特徴点753の位置と、第2の画像752−2における特徴点753の位置との間の画素間距離D[mm]を、これらの画素間距離[pixel]と、第3のカメラ200−3のカメラパラメータとから算出する。カメラパラメータは、カメラ200のレンズ設計時に設定されるパラメータであって、ピクセル単位での画素間距離と長さ単位での画素間距離とを対応付けるパラメータである。そして、立体物検出部430は、第3のカメラ200−3の焦点距離をf、時刻t1から時刻t2までの車両600の移動距離をXとすると、カメラ200から立体物751までの距離dを、以下の式(4)を用いて算出する。
d = f・X/D ・・・・・・(4)
The three-dimensional
d = f · X / D (4)
このように、立体物検出部430は、画像処理のみによって立体物を検出することができる。
Thus, the three-dimensional
また、立体物検出部430は、上述のように立体物の特徴点検出を行う場合には、検出した複数の特徴点をグルーピングすることにより、グルーピングされた特徴点に囲まれた合成俯瞰画像の領域を、立体物の座標として検出してもよい。
Further, when detecting the feature point of the three-dimensional object as described above, the three-dimensional
以上説明したように、本実施の形態によれば、所定の視点を基準として立体物の射影方向が揃うので、運転者は車両周囲の立体物の配置関係をより正確に認識することができる。なお、カメラの台数及び合成俯瞰画像の範囲は、以上説明した実施の形態の内容に限定されるものではない。 As described above, according to the present embodiment, the projection direction of the three-dimensional object is aligned based on the predetermined viewpoint, so that the driver can more accurately recognize the arrangement relation of the three-dimensional object around the vehicle. Note that the number of cameras and the range of the synthesized overhead image are not limited to the contents of the embodiment described above.
本発明に係る車両周囲監視装置及び車両周囲監視方法は、運転者が車両周囲の立体物の配置関係をより正確に認識することができる車両周囲監視装置及び車両周囲監視方法として有用である。 INDUSTRIAL APPLICABILITY The vehicle surrounding monitoring apparatus and the vehicle surrounding monitoring method according to the present invention are useful as a vehicle surrounding monitoring apparatus and a vehicle surrounding monitoring method that allow a driver to more accurately recognize the arrangement relationship of three-dimensional objects around the vehicle.
100 車両周囲監視装置
200 カメラ
210 撮像部
220 フレームメモリ
230 フレーム切替部
400 画像処理部
410 マッピングテーブル参照部
420 カメラ俯瞰画像生成部
430 立体物検出部
440 合成俯瞰画像生成部
450 タイミング生成部
500 モニタ
DESCRIPTION OF
Claims (10)
複数のカメラの撮影画像に基づき車両周囲の俯瞰画像を合成して合成俯瞰画像を生成し、前記立体物検出部による検出結果に基づき、生成した合成俯瞰画像に映る立体物を、所定の視点から見た射影方向に回転させたものに補正する第1の画像生成部と、
を備える、車両周囲監視装置。 A three-dimensional object detection unit for detecting a three-dimensional object existing around the vehicle;
Based on the images taken by a plurality of cameras, a bird's-eye view image around the vehicle is synthesized to generate a synthesized bird's-eye view image, and based on the detection result by the three-dimensional object detection unit, the three-dimensional object shown in the generated synthesized bird's-eye image is viewed from a predetermined viewpoint. A first image generation unit that corrects the image to be rotated in the viewed projection direction;
A vehicle surroundings monitoring device comprising:
請求項1記載の車両周囲監視装置。 The predetermined viewpoint is a viewpoint position of a driver of the vehicle;
The vehicle surrounding monitoring apparatus according to claim 1.
前記第1の画像生成部は、前記合成俯瞰画像において、少なくとも、前記重複エリアに存在する立体物を、所定の視点から見た射影方向に回転させたものに補正する、
請求項1記載の車両周囲監視装置。 There are overlapping areas that overlap each other in the shooting range of the plurality of cameras,
The first image generation unit corrects at least the three-dimensional object existing in the overlap area in the composite overhead image rotated in a projecting direction viewed from a predetermined viewpoint.
The vehicle surrounding monitoring apparatus according to claim 1.
前記第1の画像生成部は、
前記第2の画像生成部により生成された複数のカメラ俯瞰画像に基づき合成俯瞰画像を生成し、さらに、
前記第2の画像生成部により生成された複数のカメラ俯瞰画像から、前記立体物検出部による検出結果に基づき立体物を抽出して、抽出した立体物を所定の視点から見た射影方向に回転させた状態で、生成した合成俯瞰画像に描画する、
請求項1記載の車両周囲監視装置。 A second image generation unit that generates a camera overhead view of the surroundings of the vehicle for each captured image by the plurality of cameras;
The first image generation unit includes:
Generating a combined overhead image based on the plurality of camera overhead images generated by the second image generation unit;
A three-dimensional object is extracted from a plurality of camera overhead images generated by the second image generation unit based on a detection result by the three-dimensional object detection unit, and the extracted three-dimensional object is rotated in a projection direction viewed from a predetermined viewpoint. In the state of letting you draw on the generated synthetic overhead image,
The vehicle surrounding monitoring apparatus according to claim 1.
請求項1記載の車両周囲監視装置。 The first image generation unit further corrects the length of the three-dimensional object shown in the generated composite overhead image so as to be a projection length on the road surface when the three-dimensional object is viewed from the predetermined viewpoint.
The vehicle surrounding monitoring apparatus according to claim 1.
請求項1記載の車両周囲監視装置。 The first image generation unit corrects all three-dimensional objects reflected in the synthesized overhead image to those rotated in a projection direction viewed from a predetermined viewpoint,
The vehicle surrounding monitoring apparatus according to claim 1.
請求項4記載の車両周囲監視装置。 The first image generation unit further draws a road surface using a camera overhead image on the portion of the three-dimensional object originally reflected in the generated synthesized overhead image.
The vehicle surrounding monitoring apparatus according to claim 4.
請求項4記載の車両周囲監視装置。 The first image generation unit further draws a road surface using a composite overhead image generated in the past on a part of the three-dimensional object originally reflected in the currently generated composite overhead image.
The vehicle surrounding monitoring apparatus according to claim 4.
請求項1記載の車両周囲監視装置。 A monitor that displays the combined overhead image generated by the first image generation unit;
The vehicle surrounding monitoring apparatus according to claim 1.
複数のカメラの撮影画像に基づき車両周囲の俯瞰画像を合成して合成俯瞰画像を生成し、前記第1のステップにおける検出結果に基づき、生成した合成俯瞰画像に映る立体物を、所定の視点から見た射影方向に回転させたものに補正する第2のステップと、
を備える、車両周囲監視方法。
A first step of detecting a three-dimensional object existing around the vehicle;
Based on the captured images of the plurality of cameras, a bird's-eye view image around the vehicle is combined to generate a combined bird's-eye view image. Based on the detection result in the first step, a three-dimensional object reflected in the generated combined bird's-eye view image is obtained from a predetermined viewpoint. A second step for correcting to a rotated view in the projected direction;
A vehicle surroundings monitoring method comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008276893A JP5178454B2 (en) | 2008-10-28 | 2008-10-28 | Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008276893A JP5178454B2 (en) | 2008-10-28 | 2008-10-28 | Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010109451A true JP2010109451A (en) | 2010-05-13 |
| JP5178454B2 JP5178454B2 (en) | 2013-04-10 |
Family
ID=42298500
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008276893A Active JP5178454B2 (en) | 2008-10-28 | 2008-10-28 | Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5178454B2 (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102288165A (en) * | 2010-06-21 | 2011-12-21 | 日产自动车株式会社 | Travel distance detection device and travel distance detection method |
| WO2012014627A1 (en) * | 2010-07-29 | 2012-02-02 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
| JP2014085925A (en) * | 2012-10-25 | 2014-05-12 | Fujitsu Ltd | Image processing apparatus, method, and program |
| JP2014197817A (en) * | 2013-03-29 | 2014-10-16 | 富士通テン株式会社 | Image generation apparatus, image display system and image generation method |
| JP2014531078A (en) * | 2011-10-14 | 2014-11-20 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | How to display around the vehicle |
| KR20150089677A (en) * | 2014-01-28 | 2015-08-05 | 엘지이노텍 주식회사 | Camera system, calibration device and calibration method |
| WO2018225791A1 (en) * | 2017-06-09 | 2018-12-13 | 株式会社デンソー | Image creation device |
| US10397544B2 (en) | 2010-08-19 | 2019-08-27 | Nissan Motor Co., Ltd. | Three-dimensional object detection device and three-dimensional object detection method |
| JP2023505379A (en) * | 2019-12-16 | 2023-02-08 | チャンシャ インテリジェント ドライビング インスティテュート コーポレーション リミテッド | Method and Apparatus for Generating Panoramic Lookaround Images of Transportation |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007048071A (en) * | 2005-08-10 | 2007-02-22 | Nissan Motor Co Ltd | Image processing apparatus and image processing method |
| JP2007172501A (en) * | 2005-12-26 | 2007-07-05 | Alpine Electronics Inc | Vehicle driving support apparatus |
| JP2008177856A (en) * | 2007-01-18 | 2008-07-31 | Sanyo Electric Co Ltd | Bird's-eye view image provision apparatus, vehicle, and bird's-eye view image provision method |
| JP2008205914A (en) * | 2007-02-21 | 2008-09-04 | Alpine Electronics Inc | Image processor |
-
2008
- 2008-10-28 JP JP2008276893A patent/JP5178454B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007048071A (en) * | 2005-08-10 | 2007-02-22 | Nissan Motor Co Ltd | Image processing apparatus and image processing method |
| JP2007172501A (en) * | 2005-12-26 | 2007-07-05 | Alpine Electronics Inc | Vehicle driving support apparatus |
| JP2008177856A (en) * | 2007-01-18 | 2008-07-31 | Sanyo Electric Co Ltd | Bird's-eye view image provision apparatus, vehicle, and bird's-eye view image provision method |
| JP2008205914A (en) * | 2007-02-21 | 2008-09-04 | Alpine Electronics Inc | Image processor |
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012003662A (en) * | 2010-06-21 | 2012-01-05 | Nissan Motor Co Ltd | Moving distance detector and moving distance detection method |
| CN102288165A (en) * | 2010-06-21 | 2011-12-21 | 日产自动车株式会社 | Travel distance detection device and travel distance detection method |
| US8854456B2 (en) | 2010-06-21 | 2014-10-07 | Nissan Motor Co., Ltd. | Travel distance detection device and travel distance detection method |
| US8867788B2 (en) | 2010-07-29 | 2014-10-21 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device |
| WO2012014627A1 (en) * | 2010-07-29 | 2012-02-02 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
| CN102985947A (en) * | 2010-07-29 | 2013-03-20 | 本田技研工业株式会社 | Vehicle periphery monitoring device |
| JP5718920B2 (en) * | 2010-07-29 | 2015-05-13 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
| US10397544B2 (en) | 2010-08-19 | 2019-08-27 | Nissan Motor Co., Ltd. | Three-dimensional object detection device and three-dimensional object detection method |
| JP2014531078A (en) * | 2011-10-14 | 2014-11-20 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | How to display around the vehicle |
| US9478061B2 (en) | 2012-10-25 | 2016-10-25 | Fujitsu Limited | Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings |
| US9633266B2 (en) | 2012-10-25 | 2017-04-25 | Fujitsu Limited | Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings |
| JP2014085925A (en) * | 2012-10-25 | 2014-05-12 | Fujitsu Ltd | Image processing apparatus, method, and program |
| JP2014197817A (en) * | 2013-03-29 | 2014-10-16 | 富士通テン株式会社 | Image generation apparatus, image display system and image generation method |
| KR20150089677A (en) * | 2014-01-28 | 2015-08-05 | 엘지이노텍 주식회사 | Camera system, calibration device and calibration method |
| KR102234376B1 (en) | 2014-01-28 | 2021-03-31 | 엘지이노텍 주식회사 | Camera system, calibration device and calibration method |
| WO2018225791A1 (en) * | 2017-06-09 | 2018-12-13 | 株式会社デンソー | Image creation device |
| JP2018207448A (en) * | 2017-06-09 | 2018-12-27 | 株式会社Soken | Image creation device |
| US10986286B2 (en) | 2017-06-09 | 2021-04-20 | Denso Corporation | Image creation device |
| JP2023505379A (en) * | 2019-12-16 | 2023-02-08 | チャンシャ インテリジェント ドライビング インスティテュート コーポレーション リミテッド | Method and Apparatus for Generating Panoramic Lookaround Images of Transportation |
| JP7335446B2 (en) | 2019-12-16 | 2023-08-29 | チャンシャ インテリジェント ドライビング インスティテュート コーポレーション リミテッド | Method and Apparatus for Generating Panoramic Lookaround Images of Transportation |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5178454B2 (en) | 2013-04-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2010109452A (en) | Vehicle surrounding monitoring device and vehicle surrounding monitoring method | |
| JP5178454B2 (en) | Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method | |
| JP5491235B2 (en) | Camera calibration device | |
| JP5223811B2 (en) | Image correction apparatus, image correction method, and conversion map creation method used therefor | |
| JP6029306B2 (en) | Perimeter monitoring equipment for work machines | |
| JP5049300B2 (en) | Obstacle detection display | |
| JP6310652B2 (en) | Video display system, video composition device, and video composition method | |
| JP2009100095A (en) | Image processing apparatus and image processing method | |
| JP2008102620A (en) | Image processing device | |
| KR20150115488A (en) | Apparatus and method for peripheral image generation of vehicle | |
| JP2014225803A (en) | Periphery monitoring device for work machine | |
| JP2014224410A (en) | Periphery monitoring device for work machine | |
| JP6167824B2 (en) | Parking assistance device | |
| WO2018134897A1 (en) | Position and posture detection device, ar display device, position and posture detection method, and ar display method | |
| JP2013246606A (en) | Data derivation device and data derivation method | |
| CN104735403A (en) | vehicle obstacle detection display system | |
| JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
| JPWO2015129280A1 (en) | Image processing apparatus and image processing method | |
| JP7074546B2 (en) | Image processing equipment and methods | |
| JP5805574B2 (en) | Perimeter monitoring equipment for work machines | |
| JP4581512B2 (en) | Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method | |
| US20140049540A1 (en) | Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device | |
| JP2016021712A (en) | Image processing system and operation support system | |
| JP6257918B2 (en) | Excavator | |
| JP2009077022A (en) | Driving support system and vehicle |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110928 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121005 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121016 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121121 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121211 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130108 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5178454 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |