JP3838884B2 - Vehicle periphery display device, program, and recording medium - Google Patents
Vehicle periphery display device, program, and recording medium Download PDFInfo
- Publication number
- JP3838884B2 JP3838884B2 JP2001096349A JP2001096349A JP3838884B2 JP 3838884 B2 JP3838884 B2 JP 3838884B2 JP 2001096349 A JP2001096349 A JP 2001096349A JP 2001096349 A JP2001096349 A JP 2001096349A JP 3838884 B2 JP3838884 B2 JP 3838884B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- bird
- eye view
- view image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 84
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 66
- 238000000034 method Methods 0.000 claims description 45
- 239000013598 vector Substances 0.000 claims description 23
- 239000002131 composite material Substances 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 101100012983 Arabidopsis thaliana FLA1 gene Proteins 0.000 description 7
- 101100227198 Campylobacter jejuni flaA gene Proteins 0.000 description 7
- 101100227197 Arabidopsis thaliana FLA2 gene Proteins 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000009434 installation Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、車両の周辺を撮影して車両周辺画像をモニタに表示する車両周辺表示装置、コンピュータを車両周辺表示装置の各手段として機能させるためのプログラムおよび記録媒体に関するものである。
【0002】
【従来の技術】
従来より、車両の周辺を撮影して、車内に備えられる表示装置に表示する車両周辺表示装置としては、例えば、車両の後部に取り付けたカメラで車両後方の様子を撮影し、カメラで撮影した後方カメラ画像をそのままモニタに出力(表示)する車両周辺表示装置が知られている。
【0003】
そして、後方カメラ画像を表示する車両周辺表示装置は、例えば、車両を後進させて駐車場(駐車枠内)に車両を入れる後進駐車操作の際に、運転者からの死角に存在する車両後方の障害物を表示できることから、後進駐車操作を行う運転者を支援することが可能である。
【0004】
また、後方カメラ画像を表示する車両周辺表示装置としては、後進駐車操作の際に、車両の後進予測進路を車両カメラ画像にスーパーインポーズ表示する装置が提案されている(特開2000−168475号公報参照)。そして、車両の後進予測進路の予測方法については、車両に備えられたステアリング舵角センサにより操舵輪の舵角を検出し、検出した操舵輪の舵角に基づいて予測する方法が知られている。
【0005】
このように後進予測進路が表示可能な車両周辺表示装置を用いることで、運転者は後進予測進路を知ることができ、障害物等を避けて車両を後進させることができることから、後進駐車操作が不得意な運転者であっても、比較的容易に後進駐車操作を行うことができる。
【0006】
【発明が解決しようとする課題】
しかし、上述の車両周辺表示装置においては、後進予測進路を予測するためにステアリング舵角センサを備える必要があるため、部品点数が増大して装置のコストが高くなるという問題がある。
【0007】
また、ステアリング舵角センサを備えていない既存の車両に対して、ステアリング舵角センサを追加設置することは容易ではないことから、既存の車両に対して後進予測進路が表示可能な車両周辺表示装置を搭載することは困難であるとともに、センサを追加設置する際には高額の設置費用が必要となる。
【0008】
なお、駐車操作時における車両周辺の表示は、後進駐車操作時に限らず、前進駐車操作時にも、運転者を支援することができる。例えば、運転者が初心者であり、壁に囲まれた幅の狭い駐車領域に右折(あるいは左折)しながら進入して駐車する場合には、車両前方角部と駐車領域を囲む壁との距離を正確に把握できずに衝突する可能性が高い。このような状況下で、車両と壁の位置を鳥瞰図画像で表示することで、初心者である運転者は、車両と壁との位置関係を容易に把握することができ、前進駐車操作を支援することが可能となる。
【0009】
そこで、本発明は上記問題に鑑みなされたものであり、車両の操舵輪の舵角を検出するためのセンサ等を備えることなく車両の予測進路を予測でき、安価で既存の車両への搭載が容易である車両周辺表示装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
かかる目的を達成するためになされた請求項1に記載の発明は、撮影手段により撮影された車両周辺の画像を処理して表示手段に表示する車両周辺表示装置であり、撮影時刻の異なる車両周辺画像における一致領域の移動距離および移動方向に基づいて、車両の予測進路を予測する点に特徴がある。
【0011】
つまり、請求項1に記載の車両周辺表示装置は、撮影手段で撮影した車両周辺の画像を処理して表示手段に表示するにあたり、まず、鳥瞰図画像生成手段が、撮影手段で撮影した画像を撮影手段を視点として投影した地上面座標系のデータに変換して鳥瞰図画像を生成する。次に、進路予測手段が、時間的に連続する少なくとも2つの鳥瞰図画像における一致領域の移動距離および移動方向を表す移動ベクトルを求めるとともに蓄積し、この蓄積した複数の移動ベクトルに基づき車両の移動状態を表す車両移動パラメータを算出し、車両移動パラメータに基づき車両の予測進路を予測する。そして、表示処理手段が、進路予測手段にて予測した予測進路を表示手段に表示している。
【0012】
ここで、2つの鳥瞰図画像における一致領域とは、同一の撮影対象を表示している表示領域のことであり、この一致領域は、車両の移動に応じて移動することになる。よって、時間的に連続する少なくとも2つの鳥瞰図画像における一致領域の移動距離および移動方向は、車両の移動距離および移動方向と密接に関係することから、移動ベクトルに基づいて車両の移動距離および移動方向を判別することが可能である。なお、移動方向に関しては、一致領域の移動方向と車両の移動方向とは反対方向となる。
【0013】
このため、車両周辺表示装置は、蓄積された移動ベクトルを用いることで車両の過去の移動軌跡を判別でき、また、判別した過去の移動軌跡に基づいて未来の移動軌跡である予測進路を予測することが可能となる。なお、予測進路は、たとえば、線形予測法などを用いて予測することができる。
【0014】
このように、撮影時刻の異なる画像に基づいて車両の予測進路を予測することで、ステアリング舵角センサ等を車両に設けることなく、車両の予測進路を予測することができる。
したがって、本発明(請求項1)の車両周辺表示装置によれば、車両の予測進路を予測するにあたり、ステアリング舵角センサ等のセンサを車両に設ける必要が無くなることから、装置の部品点数の増大を抑制でき、コスト上昇を抑えることができる。また、ステアリング舵角センサ等のセンサが不要であることから、この車両周辺表示装置は、既存の車両に対する追加設置を比較的容易に実現することができる。
【0015】
そして、上述(請求項1)の車両周辺表示装置においては、請求項2に記載のように、領域判別手段が、鳥瞰図画像生成手段により生成された第1鳥瞰図画像と、この第1鳥瞰図画像の生成時よりも後に生成された第2鳥瞰図画像とを比較して、その一致領域と不一致領域とを判別し、周辺画像作成手段が、領域判別手段により判別された不一致領域を第2鳥瞰図画像に加味した車両周辺鳥瞰画像を作成して、表示処理手段が、予測進路を車両周辺鳥瞰画像に重ね合わせた予測進路合成画像を表示手段に表示するとよい。
【0016】
つまり、車両周辺鳥瞰画像は、最新の車両周辺状況を表す最新情報である第2鳥瞰図画像に対して、過去の車両周辺状況を表す第1鳥瞰図画像における不一致領域を加味したものであり、車両周辺のより広域な範囲の状況を表すことができる。このため、車両周辺鳥瞰画像を表示装置に表示することで、運転者に対して車両周辺に関するより多くの情報を提供することができる。
【0017】
そして、車両周辺鳥瞰画像に対して予測進路を重ね合わせた予測進路合成画像は、広域な車両周辺の状況に加えて、車両の予測進路と車両周辺の障害物等との位置関係に関する情報を、運転者に対して提供することができる。
よって、本発明(請求項2)の車両周辺表示装置によれば、運転者は、車両の予測進路と車両周辺の障害物等との位置関係を容易に把握でき、衝突の危険を回避してより安全に車両を運転することができる。
【0018】
ここで、上述(請求項1または請求項2)の車両周辺表示装置においては、撮影手段の設置位置が車両の前後左右のいずれであっても、車両の移動に伴い一致領域が移動することから、移動ベクトルを求めることは可能である。しかし、運転者が、車両の予測進路および車両周囲の画像を必要とする状況の一つとしては、車両を後進させながら所定の駐車領域に車両を移動させる後進駐車操作時が挙げられる。
【0019】
そこで、上述(請求項1または請求項2)の車両周辺表示装置においては、請求項3に記載のように、撮影手段により撮影される画像が車両の後方の画像であるとよい。
つまり、車両後方の画像を撮影することで、運転者は車両後方の障害物などを早期に発見することが可能となるとともに、予測進路と障害物等との位置関係をより正確に把握することができ、この結果、後進駐車操作時における運転者の負担を軽減することができる。
【0020】
よって、請求項3に記載の車両周辺表示装置によれば、運転者に対して車両の後進予測進路の周囲状況を提供することができ、運転者はより安全に後進駐車操作を行うことができる。
また、上述(請求項1から請求項3のいずれか)の車両周辺表示装置は、請求項4に記載のように、表示手段に予測進路合成画像を表示する場合に、自車両を示す画像を加えて表示するとよい。
【0021】
これにより、自車両と周囲配置物との相対位置関係が画像として明確に表示されることになり、運転者は、自車両の位置を容易に把握することができる。
よって、本発明(請求項4)の車両周辺表示装置によれば、運転者が自車両の位置を容易に把握でき、駐車操作時等における運転者の負担をさらに軽減することが可能となる。
【0022】
次に、請求項5に記載の発明は、コンピュータを、請求項1から請求項4のいずれかに記載の車両周辺表示装置における各手段として機能させるためのプログラムである。
つまり、上述した車両周辺表示装置の各手段(鳥瞰図画像生成手段、進路予測手段、表示処理手段、領域判別手段、周辺画像作成手段)をコンピュータシステムにて実現する機能は、例えば、コンピュータシステム側で起動するプログラムとして備えることができる。従って、このプログラムを利用することにより、好適な車両周辺表示を行うことができる。
【0023】
さらに、請求項6に記載の発明は、コンピュータを、請求項1から請求項4のいずれかに記載の車両周辺表示装置における各手段として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。
コンピュータシステムで実行されるプログラムは、例えば、フロッピーディスク、光磁気ディスク、CD−ROM、ハードディスク等のコンピュータ読み取り可能な記録媒体に記録し、必要に応じてコンピュータシステムにロードして起動することにより用いることができる。この他、ROMやバックアップRAMをコンピュータ読み取り可能な記録媒体として前記プログラムを記録しておき、このROMあるいはバックアップRAMをコンピュータシステムに組み込んで用いても良い。
【0024】
【発明の実施の形態】
以下に、本発明を適用した車両周辺表示装置1の実施例を説明する。
本実施例の基本的なシステム構成を図1および図2を用いて説明する。
図1に示す様に、本実施例の車両周辺表示装置1は、自動車(以下、車両Cという)の後部に配置されたカメラ2(例えばCCDカメラ)と、車内のダッシュボード等に配置された車載モニタ3(例えば液晶ディスプレイ)と、画像処理を行う画像処理ユニット5を備えている。
【0025】
そして、画像処理ユニット5は、マイクロコンピュータを主要部とする画像データの処理を行う電子装置であり、機能ブロック図は図2に示すように表すことができる。図2に示すように、画像処理ユニット5は、機能的には、カメラ2で撮影した画像データの座標変換を行って鳥瞰図画像を生成する座標変換部11と、時間的に連続した2つの鳥瞰図画像を取り込んでその比較を行うマッチング部13と、その2つの鳥瞰図画像の不一致部分からカメラ2の視野から外れた領域を推定する領域推定部15と、前記2つの鳥瞰図画像の一致部分から車両の予測経路を予測する進路予測部17と、車載モニタ3に表示する画像を描画する描画部19と、を備えている。なお、画像処理ユニット5は、カメラ2と一体の構造となっていてもよい。
【0026】
座標変換部11は、カメラ2で撮影した車両周辺の実際の映像を鳥瞰図画像に変換する処理を行っており、従来技術(例えば、特願平10−211849号公報に記載の技術)である透視変換を用いて画像の座標変換を行うことで、鳥瞰図画像を生成する。
【0027】
マッチング部13は、後述するブロックマッチング法により、撮影時刻の異なる2つの鳥瞰図画像の比較を行い、それぞれの画像が一致する領域(以下、一致領域)と画像が一致しない領域(不一致領域)とを判別すると共に、一致領域に基づいて移動ベクトルを算出している。そして、マッチング部13は、一致領域と不一致領域に関する情報を領域推定部15に送り、移動ベクトルに関する情報を進路予測部17に送るように処理を行う。
【0028】
領域推定部15は、マッチング部13で比較を行った2つの鳥瞰図画像のうちの撮影時刻が古い鳥瞰図画像における不一致領域を、撮影時刻の新しい鳥瞰図画像に付加した車両周辺鳥瞰画像を生成する。生成した車両周辺鳥瞰画像の情報は、描画部19に送信される。
【0029】
進路予測部17は、後述する予測進路算出処理を実行することで、マッチング部13で算出された移動ベクトルに基づき、車両の予測進路を予測する。そして、予測進路の情報を描画部19に送信する。
描画部19は、領域推定部15から受信する車両周辺鳥瞰画像に進路予測部17から受信する予測進路を重ね合わせた予測進路合成画像を生成すると共に、車載モニタ3に予測進路合成画像を表示する。
【0030】
ここで、第1鳥瞰図画像FL1と第1鳥瞰図画像FL1の生成時よりも後に生成された第2鳥瞰図画像FL2とを比較して、移動ベクトルMVを算出する方法を、図3に示す説明図に基づき説明する。
本実施例での移動ベクトルの算出は、いわゆるブロックマッチング法を用いている。ブロックマッチング法は、例えば、第2鳥瞰図画像FL2の表示領域の一部であるマクロブロックMBL(図3では、16×16画素)と、第1鳥瞰図画像FL1の表示領域のうちマクロブロックMBLよりも大きい探索範囲SA(図3では、32×32画素)とを比較し、探索範囲SAのうち、マクロブロックMBLに最も似ている部分を特定する方法である。
【0031】
具体的には、図3に示すように、第2鳥瞰図画像FL2の表示領域の一部であるマクロブロックMBLと、第1鳥瞰図画像FL1の探索範囲SAのうちマクロブロックMBLと同じ大きさの比較領域CAとの間で、対応する各画素をすべて比較し、各画素の比較差分値の合計値を算出する。そして、探索範囲SAにおける比較領域CAを1画素ずつ上下方向および左右方向に順次移動させながら、探索範囲SAのすべての領域における比較差分合計値を算出し、比較差分合計値が最も小さい比較領域CAを、マクロブロックMBLとの一致領域と判断する。この結果、第1鳥瞰図画像FL1における一致領域の位置から第2鳥瞰図画像におけるマクロブロックMBLの位置にかけての移動方向および移動距離が判明し、この移動方向および移動距離を移動ベクトルMVとする。
【0032】
そして、第2鳥瞰図画像FL2においてマクロブロックMBLを複数箇所に設定して、それぞれのマクロブロックMBLごとに移動ベクトルMVを算出し、これら複数の移動ベクトルMVに基づき、第1鳥瞰図画像FL1から第2鳥瞰図画像FL2にかけての車両移動パラメータMVAを算出する。なお、車両の移動は、ある地点を中心とする回転移動と見なすことができるため、本実施例における車両移動パラメータは、回転中心、回転角度および回転半径で表される。
【0033】
なお、本実施例の車両周辺表示装置1では、第2鳥瞰図画像FL2におけるマクロブロックMBLを15箇所に設定している。
このようにして、車両移動パラメータMVAを算出する処理は、マッチング部13にて実行される。
【0034】
次に、車両Cが円周方向に移動した場合における、鳥瞰図画像に含まれる画像領域の移動概念を示す説明図を図4に示す。なお、図4(a)は、移動前の車両Cおよび移動前の鳥瞰図画像に含まれる第1画像領域FLA1を示し、図4(b)は、移動後の車両C、第1画像領域FLA1および移動後の鳥瞰図画像に含まれる第2画像領域FLA2を示している。
【0035】
そして、車両Cは、図4(a)に示す状態から点Oを回転中心とし、回転半径Rとして回転角度θだけ回転移動すると、図4(b)に示す位置に移動することになる。このとき、移動前の第1画像領域FLA1と、移動後の第2画像領域FLA2とにおける同一格子点は、図4(b)に示す矢印のように移動することになり、画像領域における複数の格子点の移動距離および移動方向は、車両Cの回転中心、回転角度および回転半径に応じて、各格子点毎にそれぞれ異なるものとなる。換言すれば、複数の格子点のそれぞれの移動距離および移動方向が定まれば、車両移動パラメータMVAを特定することができことになり、複数の移動ベクトルを用いることで、複数の格子点のそれぞれの移動距離および移動方向に基づき、車両移動パラメータMVAを特定することができる。
【0036】
なお、複数の格子点が、前述の図3に示すマクロブロックMBLに相当するものである。また、画像領域における複数の格子点の移動距離および移動方向は、車両の実際の移動方向とは方向が反対となることを考慮して、車両移動パラメータMVAを算出する。
【0037】
次に、車両Cを後進させて駐車区画PAに駐車する後進駐車操作時における鳥瞰図画像についての説明図を、図5(a)および図5(b)に示す。なお、図5(a)は、後進駐車操作の開始直後である時刻t1における第1鳥瞰図画像FL1であり、図5(b)は、時刻t1から一定時間が経過した時刻t2における第2鳥瞰図画像FL2である。
【0038】
また、図5(a)には、時刻t1における撮影領域である第1画像領域FLA1を点線で囲まれた領域として示し、図5(b)には、第1画像領域FLA1を点線で、時刻t2における撮影領域である第2画像領域FLA2を一点鎖線で囲まれた領域として示している。さらに、図5(b)において、第1画像領域FLA1と第2画像領域FLA2とが重なり合う領域が一致領域ACであり、第1画像領域FLA1および第2画像領域FLA2のうち一致領域AC以外の領域が不一致領域である。このうち、一致領域ACは、網掛け模様を付して表している。
【0039】
そして、図5(a)および図5(b)から判るように、最新の撮影領域である第2画像領域FLA2のみでなく、不一致領域を付加することにより、車両周辺における広い範囲の鳥瞰図画像を表示することができる。
また、図5(a)および図5(b)から判るように、車両の移動に応じて画像領域の位置が変化することから、この画像領域の位置の変化について、前述したブロックマッチング法を用いることで、第1鳥瞰図画像FL1から第2鳥瞰図画像FL2にかけての複数の移動ベクトルMVを算出できることが判る。そして、算出した複数の移動ベクトルMVを用いることで、車両が移動した際の車両移動パラメータMVAを求めることができる。
【0040】
次に、画像処理ユニット5の進路予測部17にて実行される予測進路算出処理の処理内容を、図6に示すフローチャートを用いて説明する。なお、予測進路算出処理は、画像処理ユニット5が起動されると共に進路予測部17にて処理が開始される。
【0041】
なお、画像処理ユニット5が起動されるのは、後進駐車操作の開始時期であり、例えば、車両Cのシフトレンジがリバース(後進)であるか否かを判断し、シフトレンジがリバースとなった時点を後進駐車操作の開始時期である判定する。また、画像処理ユニット5が起動されると、進路予測部17の他に、座標変換部11、マッチング部13、領域推定部15および描画部19がそれぞれの処理を開始する。
【0042】
そして、予測進路算出処理が開始されると、まず、S110(Sはステップを表す)では、カウンタnを初期化(カウンタnに0を代入)する。なお、このカウンタnは、蓄積した車両移動パラメータMVAの個数をカウントするためのものである。
【0043】
次のS120では、マッチング部13で生成された最新の車両移動パラメータMVAのデータを、第n車両移動パラメータMVAnとして取り込む処理を行う。なお、第n車両移動パラメータMVAnにおける「n」は、カウンタnと同じ数字を表している。
【0044】
続くS130では、カウンタnをインクリメント(1加算)する。
次のS140では、カウンタnが所定データ数Fより大きいか否かを判断しており、カウンタnが所定データ数Fより大きい場合には肯定判定されてS150に移行し、カウンタnが所定データ数F以下である場合には否定判定されてS160に移行する。なお、所定データ数Fには、進路予測に必要な移動ベクトルの個数(例えば、10個以上)が設定されている。
【0045】
そして、S140で肯定判定されてS150に移行すると、S150では、最新のF個の車両移動パラメータ(VMAn-F+1 からVMAnまで)を用いて、線形予測法に基づき、車両Cの予測進路を予測する。なお、進路予測には、線形予測法以外の予測方法を用いても良い。
【0046】
また、S140で否定判定されるか、あるいはS150の処理が終了すると、S160に移行し、S160では、S120で取り込んだ最新の第n車両移動パラメータMVAnを、画像処理ユニット5の内部に備えられる図示しない記憶領域(メモリ)に蓄積する処理を行う。この時、記憶領域には、最大でF個の車両移動パラメータが蓄積可能であり、(F+1)個目の車両移動パラメータを蓄積する際には、最も古い車両移動パラメータを消去して最新の車両移動パラメータを蓄積している。この結果、記憶領域に蓄積されるF個の車両移動パラメータは、常に最新の状態となる。
【0047】
そして、S160の処理が終了すると、S120に移行し、再び車両移動パラメータを取り込む処理を行う。この後は、S120からS160までの処理を繰り返し実行することで、最新のF個の車両移動パラメータに基づき車両Cの予測進路を更新する。
【0048】
このあと、進路予測部17では、画像処理ユニット5が停止するまで、上述した予測進路算出処理が継続して実行され、画像処理ユニット5の停止とともに予測進路算出処理も停止する。
なお、画像処理ユニット5が停止されるのは、後進駐車操作の終了時期であり、例えば、車両Cのシフトレンジがリバース(後進)から他のレンジに変更されると後進駐車操作が終了したと判定する。
【0049】
ここで、予測進路を車両周辺鳥瞰画像に重ね合わせた予測進路合成画像MFLは、例えば、図5(c)に示すように車載モニタ3に表示される。このように、駐車区画PAに対して予測進路DLが重なることで、運転者は車両Cが的確に駐車区画PAに進入することを確認でき、後進駐車操作時の運転者の負担を軽減することが可能となる。
【0050】
なお、このとき、領域推定部15は、最新の鳥瞰図画像に基づき車両Cの現在位置を判定し、車両Cの現在位置に関する情報を描画部19に送っており、描画部19は、車両Cの現在位置を予測進路合成画像に対して重ね合わせて、車載モニタ3に表示する。
【0051】
以上、説明したように、本実施例の車両周辺表示装置1によれば、撮影時刻の異なる2つの鳥瞰図画像を用いて移動ベクトルを算出すると共に蓄積し、蓄積した移動ベクトルに基づき車両の過去の移動軌跡を判別して、判別した過去の移動軌跡に基づいて未来の移動軌跡である予測進路を予測している。つまり、撮影した画像の変化に基づき、車両の未来の移動軌跡である予測進路を予測している。
【0052】
よって、本実施例の車両周辺表示装置1を用いる場合には、車両の予測進路を予測するにあたり、ステアリング舵角センサ等のセンサを車両に設ける必要が無くなることから、装置の部品点数の増大を抑制でき、コスト上昇を抑えることができる。また、ステアリング舵角センサ等のセンサが不要であることから、この車両周辺表示装置1は、既存の車両に対する追加設置を比較的容易に実現することができる。
【0053】
また、本実施例の車両周辺表示装置1は、領域推定部15にて生成した車両周辺鳥瞰画像を表示するため、運転者に対してより広域な車両周辺に関する情報を提供することができる。さらに、予測進路を重ね合わせた予測進路合成画像を表示するため、運転者は、車両の予測進路と車両周辺の障害物等との位置関係を容易に把握でき、衝突の危険を回避してより安全に車両を運転することができる。
【0054】
そして、本実施例の車両周辺表示装置1は、カメラ2が車両後部に配置されていることから、運転者は車両後方の障害物などを早期に発見することが可能となるとともに、予測進路と車両後方の障害物等との位置関係をより正確に把握することができ、この結果、後進駐車操作時における運転者の負担を軽減することができる。
【0055】
また、本実施例の車両周辺表示装置1は、車両Cの現在位置が、予測進路合成画像に対して重ね合わせ表示されることから、車両Cと周囲配置物との相対位置関係を画像として明確に表示することができる。これにより、運転者は、周囲配置物に対する自車両の位置を容易に把握することができ、駐車操作時等における負担がさらに軽減される。
【0056】
なお、本実施例の車両周辺表示装置においては、カメラ2が特許請求の範囲における撮影手段に相当し、車載モニタ3が表示手段に相当し、座標変換部11が鳥瞰図画像生成手段に相当し、マッチング部13および進路予測部17が進路予測手段に相当し、描画部19が表示処理手段に相当し、マッチング部13が領域判別手段に相当し、周辺画像作成手段が描画部19に相当するものである。
【0057】
以上、本発明の実施例について説明したが、本発明は、上記実施例に限定されることはなく、種々の態様をとることができる。
例えば、コンピュータを、車両周辺表示装置の画像処理ユニット5での各処理(画像の座標変換処理、予測進路や移動ベクトルの算出処理など)の実行手段として機能させるためのプログラムについても、本発明の範囲に含まれる。このプログラムを利用することにより、コンピュータシステムを用いた好適な車両周辺表示を行うことができる。
【0058】
また、コンピュータを、車両周辺表示装置の画像処理ユニット5での各処理の実行手段として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体についても、本発明の範囲に含まれる。コンピュータシステムで実行されるプログラムは、例えば、フロッピーディスク、光磁気ディスク、CD−ROM、ハードディスク等のコンピュータ読み取り可能な記録媒体に記録することができる。そして、記録媒体に記録したプログラムを必要に応じてコンピュータシステムにロードして起動することにより、コンピュータシステムを用いた好適な車両周辺表示を行うことができる。
【0059】
なお、ROMやバックアップRAMをコンピュータ読み取り可能な記録媒体として前記プログラムを記録しておき、このROMあるいはバックアップRAMをコンピュータシステムに組み込んで用いても良い。
そして、マッチング部は、撮影時刻の異なる2つの鳥瞰図画像の比較を行い、それぞれの画像が一致する領域(以下、一致領域)と画像が一致しない領域(不一致領域)とを判別すると共に、一致領域に基づき移動ベクトルを算出できれば良く、判別方法は、ブロックマッチング法に限定されることなく、他の判別方法を用いても良い。
【0060】
また、領域推定部は、2個以上の鳥瞰図画像を用いて車両周辺鳥瞰画像を生成するよう構成しても良い。例えば、車両周辺鳥瞰画像と最新の鳥瞰図画像との不一致領域を判別し、車両周辺鳥瞰画像に対して最新の鳥瞰図画像における不一致領域を付加する処理を繰り返し行うことで、最新の車両周辺鳥瞰画像を生成しても良い。つまり、前回の車両周辺鳥瞰画像に対して、新たな不一致領域を逐次付加することで、最新の鳥瞰図画像を生成するのである。この場合、車両周辺鳥瞰図像は、過去の全ての鳥瞰図画像に基づき生成されることになり、不一致領域が付加されるに従い表示可能な領域が広がることから、更に広範囲の車両周辺の状況を運転者に提供することが可能となる。
【0061】
さらに、車両周辺表示装置は、コンピュータを用いて構成されたカーナビゲーション装置と一体に構成してもよい。つまり、後進駐車操作時には、カーナビゲーションシステムとしての処理は少なく、コンピュータの処理負荷が低くなることから、車両周辺表示装置としての各処理を実行することができる。この結果、1台のコンピュータを無駄なく有効に利用することができ、車両周辺表示装置とカーナビゲーション装置とを別個独立に備える場合に比べて車載機器を設置するスペースを縮小することができる。
【図面の簡単な説明】
【図1】 車両周辺表示装置の主要構成を示す説明図である。
【図2】 車両周辺表示装置の主要構成および画像処理ユニットの機能ブロックを示す説明図である。
【図3】 2つの画像の一致領域を検出する方法を示す説明図である。
【図4】 (a)は、移動前の車両および移動前の第1画像領域を示す説明図であり、(b)は、移動後の車両、移動前の第1画像領域および移動後の第2画像領域を示す説明図である。
【図5】 (a)は、時刻t1における第1鳥瞰図画像であり、(b)は、時刻t2における第2鳥瞰図画像であり、(c)は、予測進路合成画像である。
【図6】 画像処理ユニットの進路予測部にて実行される予測進路算出処理の処理内容を、示すフローチャートである。
【符号の説明】
1…車両周辺表示装置、2…カメラ、3…車載モニタ、5…画像処理ユニット、11…座標変換部、13…マッチング部、15…領域推定部、17…進路予測部、19…描画部、C…車両。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle periphery display device that captures a vehicle periphery and displays a vehicle periphery image on a monitor, a program for causing a computer to function as each unit of the vehicle periphery display device, and a recording medium.
[0002]
[Prior art]
Conventionally, as a vehicle periphery display device that captures the periphery of the vehicle and displays it on a display device provided in the vehicle, for example, the rear of the vehicle is photographed with a camera attached to the rear of the vehicle and photographed with the camera. A vehicle periphery display device that outputs (displays) a camera image as it is on a monitor is known.
[0003]
And the vehicle periphery display apparatus which displays a rear camera image, for example in the case of reverse parking operation which puts a vehicle backward and puts a vehicle in a parking lot (inside a parking frame) Since the obstacle can be displayed, it is possible to assist the driver who performs the reverse parking operation.
[0004]
Further, as a vehicle periphery display device that displays a rear camera image, there has been proposed a device that superimposes and displays a vehicle's reverse travel prediction path on a vehicle camera image during a reverse parking operation (Japanese Patent Laid-Open No. 2000-168475). See the official gazette). As a method for predicting the vehicle's backward predicted course, a method is known in which a steering angle of a steered wheel is detected by a steering rudder angle sensor provided in the vehicle, and a prediction is made based on the detected steered angle of the steered wheel. .
[0005]
In this way, by using the vehicle periphery display device that can display the predicted backward path, the driver can know the predicted backward path and can move the vehicle backward while avoiding obstacles. Even a poor driver can perform the reverse parking operation relatively easily.
[0006]
[Problems to be solved by the invention]
However, in the above-described vehicle periphery display device, since it is necessary to provide a steering angle sensor in order to predict the reverse predicted course, there is a problem that the number of parts increases and the cost of the device increases.
[0007]
Further, since it is not easy to additionally install a steering angle sensor with respect to an existing vehicle that does not include a steering angle sensor, a vehicle periphery display device that can display a predicted backward course on an existing vehicle Is difficult to install, and additional installation costs are required when additional sensors are installed.
[0008]
The display around the vehicle at the time of the parking operation can assist the driver not only at the time of reverse parking operation but also at the time of forward parking operation. For example, when the driver is a beginner and enters and parks while turning right (or left) into a narrow parking area surrounded by walls, the distance between the vehicle front corner and the wall surrounding the parking area There is a high possibility of a collision without being accurately grasped. Under such circumstances, by displaying the position of the vehicle and the wall as a bird's eye view image, a novice driver can easily grasp the positional relationship between the vehicle and the wall, and supports forward parking operation. It becomes possible.
[0009]
Accordingly, the present invention has been made in view of the above problems, and can predict the predicted course of the vehicle without providing a sensor or the like for detecting the steering angle of the steering wheel of the vehicle, and can be mounted on an existing vehicle at low cost. An object of the present invention is to provide a vehicle periphery display device that is easy.
[0010]
[Means for Solving the Problems]
The invention according to
[0011]
That is, in the vehicle periphery display device according to
[0012]
Here, the coincidence area in the two bird's-eye view images is a display area displaying the same photographing object, and the coincidence area moves according to the movement of the vehicle. Therefore, since the movement distance and movement direction of the matching region in at least two bird's eye view images that are temporally continuous are closely related to the movement distance and movement direction of the vehicle, the movement distance and movement direction of the vehicle based on the movement vector. Can be determined. As for the moving direction, the moving direction of the coincidence area is opposite to the moving direction of the vehicle.
[0013]
For this reason, the vehicle periphery display device can discriminate the past movement trajectory of the vehicle by using the accumulated movement vector, and predicts a predicted course that is a future movement trajectory based on the discriminated past movement trajectory. It becomes possible. Note that the predicted course can be predicted using, for example, a linear prediction method.
[0014]
Thus, by predicting the predicted course of the vehicle based on images with different shooting times, the predicted course of the vehicle can be predicted without providing a steering angle sensor or the like in the vehicle.
Therefore, according to the vehicle periphery display device of the present invention (Claim 1), since it is not necessary to provide a sensor such as a steering angle sensor in the vehicle in predicting the predicted course of the vehicle, the number of parts of the device is increased. Can be suppressed, and an increase in cost can be suppressed. Further, since a sensor such as a steering angle sensor is not required, this vehicle periphery display device can realize additional installation with respect to an existing vehicle relatively easily.
[0015]
In the vehicle periphery display device described above (claim 1), as described in claim 2, the area determination unit includes a first bird's-eye view image generated by the bird's-eye view image generation unit, and the first bird's-eye view image. The second bird's-eye view image generated after the generation is compared to determine the matching region and the mismatching region, and the peripheral image creating unit converts the mismatching region determined by the region determining unit into the second bird's-eye view image. A vehicle periphery bird's-eye view image that has been taken into account may be created, and the display processing unit may display a predicted route composite image in which the predicted route is superimposed on the vehicle periphery bird's-eye view image on the display unit.
[0016]
That is, the vehicle periphery bird's-eye view image is obtained by adding a mismatch area in the first bird's-eye view image representing the past vehicle surrounding situation to the second bird's-eye view image that is the latest information representing the latest vehicle surrounding situation. Can represent a wider range of situations. For this reason, more information regarding the vehicle periphery can be provided to the driver by displaying the vehicle periphery bird's-eye view image on the display device.
[0017]
The predicted route composite image obtained by superimposing the predicted route on the bird's-eye view around the vehicle includes information on the positional relationship between the predicted route of the vehicle and obstacles around the vehicle in addition to the situation around the wide area vehicle. It can be provided to the driver.
Therefore, according to the vehicle periphery display device of the present invention (Claim 2), the driver can easily grasp the positional relationship between the predicted course of the vehicle and the obstacles around the vehicle and avoid the danger of collision. The vehicle can be driven more safely.
[0018]
Here, in the vehicle periphery display device described above (
[0019]
Therefore, in the vehicle periphery display device described above (
In other words, by taking an image of the rear of the vehicle, the driver can detect obstacles behind the vehicle at an early stage, and more accurately grasp the positional relationship between the predicted course and the obstacles. As a result, the burden on the driver at the time of reverse parking operation can be reduced.
[0020]
Therefore, according to the vehicle periphery display device of the third aspect, it is possible to provide the driver with the surrounding situation of the vehicle's predicted reverse course, and the driver can perform the reverse parking operation more safely. .
In addition, the vehicle periphery display device described above (any one of
[0021]
Accordingly, the relative positional relationship between the host vehicle and the surrounding objects is clearly displayed as an image, and the driver can easily grasp the position of the host vehicle.
Therefore, according to the vehicle periphery display device of the present invention (Claim 4), the driver can easily grasp the position of the host vehicle, and the burden on the driver at the time of parking operation or the like can be further reduced.
[0022]
Next, the invention according to
That is, the function of realizing each means (bird's eye view image generation means, course prediction means, display processing means, area determination means, and peripheral image creation means) of the vehicle periphery display device described above in the computer system is, for example, on the computer system side. It can be provided as a program to be started. Therefore, a suitable vehicle periphery display can be performed by using this program.
[0023]
Furthermore, the invention described in claim 6 is a computer-readable recording medium in which a program for causing a computer to function as each means in the vehicle periphery display device according to any one of
The program executed in the computer system is recorded on a computer-readable recording medium such as a floppy disk, a magneto-optical disk, a CD-ROM, or a hard disk, and is used by loading the computer system and starting it as necessary. be able to. In addition, the ROM or backup RAM may be recorded as a computer-readable recording medium, and the ROM or backup RAM may be incorporated into a computer system and used.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Below, the Example of the vehicle
A basic system configuration of this embodiment will be described with reference to FIGS.
As shown in FIG. 1, the vehicle
[0025]
The
[0026]
The coordinate conversion unit 11 performs a process of converting an actual video around the vehicle photographed by the camera 2 into a bird's eye view image, and is a perspective technique that is a conventional technique (for example, a technique described in Japanese Patent Application No. 10-211849). A bird's eye view image is generated by performing coordinate conversion of the image using the conversion.
[0027]
The matching unit 13 compares two bird's-eye view images with different shooting times by a block matching method described later, and determines a region where the images match (hereinafter referred to as a match region) and a region where the images do not match (disagreement region). While determining, the movement vector is calculated based on the coincidence area. Then, the matching unit 13 performs processing so as to send information on the matching region and the mismatching region to the region estimation unit 15 and send information on the movement vector to the
[0028]
The region estimation unit 15 generates a vehicle-peripheral bird's-eye view image in which the mismatched region in the bird's-eye view image with the oldest shooting time is added to the new bird's-eye view image with the shooting time among the two bird's-eye view images compared by the matching unit 13. Information about the generated vehicle periphery bird's-eye view image is transmitted to the
[0029]
The
The
[0030]
Here, a method for calculating the movement vector MV by comparing the first bird's-eye view image FL1 and the second bird's-eye view image FL2 generated after the generation of the first bird's-eye view image FL1 is shown in the explanatory diagram of FIG. This will be explained based on this.
The so-called block matching method is used for the calculation of the movement vector in the present embodiment. The block matching method is, for example, a macroblock MBL (16 × 16 pixels in FIG. 3) that is a part of the display area of the second bird's-eye view image FL2 and a macroblock MBL in the display area of the first bird's-eye view image FL1. This is a method in which a large search range SA (32 × 32 pixels in FIG. 3) is compared, and a portion most similar to the macroblock MBL is specified in the search range SA.
[0031]
Specifically, as shown in FIG. 3, the macroblock MBL that is a part of the display area of the second bird's-eye view image FL2 is compared with the macroblock MBL in the search range SA of the first bird's-eye view image FL1. All the corresponding pixels are compared with the area CA, and the total value of the comparison difference values of each pixel is calculated. Then, the comparison area CA in the search range SA is calculated by calculating the comparison difference total value in all the areas of the search range SA while sequentially moving the comparison area CA in the vertical direction and the left-right direction pixel by pixel. Is determined as a matching area with the macroblock MBL. As a result, the moving direction and moving distance from the position of the matching region in the first bird's-eye view image FL1 to the position of the macroblock MBL in the second bird's-eye view image are found, and this moving direction and moving distance are set as a movement vector MV.
[0032]
Then, the macroblock MBL is set at a plurality of locations in the second bird's-eye view image FL2, a movement vector MV is calculated for each macroblock MBL, and the second bird's-eye view image FL1 to the second one are calculated based on the plurality of movement vectors MV. A vehicle movement parameter MVA over the bird's eye view image FL2 is calculated. In addition, since the movement of the vehicle can be regarded as a rotational movement around a certain point, the vehicle movement parameter in the present embodiment is expressed by the rotation center, the rotation angle, and the rotation radius.
[0033]
In the vehicle
In this way, the process of calculating the vehicle movement parameter MVA is executed by the matching unit 13.
[0034]
Next, FIG. 4 is an explanatory diagram showing a concept of moving the image area included in the bird's eye view image when the vehicle C moves in the circumferential direction. 4A shows the first image area FLA1 included in the vehicle C before movement and the bird's-eye view image before movement, and FIG. 4B shows the vehicle C after movement, the first image area FLA1 and A second image area FLA2 included in the bird's eye view image after movement is shown.
[0035]
Then, when the vehicle C rotates from the state shown in FIG. 4A with the point O as the rotation center and the rotation radius R by the rotation angle θ, the vehicle C moves to the position shown in FIG. 4B. At this time, the same grid point in the first image area FLA1 before the movement and the second image area FLA2 after the movement moves as indicated by arrows in FIG. The moving distance and moving direction of the grid points are different for each grid point according to the rotation center, rotation angle, and rotation radius of the vehicle C. In other words, if the moving distance and moving direction of each of the plurality of grid points are determined, the vehicle movement parameter MVA can be specified. By using a plurality of movement vectors, each of the plurality of grid points can be specified. The vehicle movement parameter MVA can be specified based on the movement distance and the movement direction.
[0036]
A plurality of lattice points correspond to the macro block MBL shown in FIG. Further, the vehicle movement parameter MVA is calculated in consideration that the moving distance and moving direction of the plurality of grid points in the image region are opposite to the actual moving direction of the vehicle.
[0037]
Next, FIG. 5A and FIG. 5B are explanatory views of bird's-eye view images at the time of reverse parking operation in which the vehicle C is moved backward and parked in the parking section PA. 5A is the first bird's-eye view image FL1 at time t1 immediately after the start of the reverse parking operation, and FIG. 5B is the second bird's-eye view image at time t2 when a certain time has elapsed from time t1. FL2.
[0038]
Further, FIG. 5A shows the first image area FLA1 that is the imaging area at time t1 as an area surrounded by a dotted line, and FIG. 5B shows the first image area FLA1 by a dotted line at time A second image area FLA2 that is an imaging area at t2 is shown as an area surrounded by a one-dot chain line. Further, in FIG. 5B, the area where the first image area FLA1 and the second image area FLA2 overlap is the coincidence area AC, and the area other than the coincidence area AC among the first image area FLA1 and the second image area FLA2. Is a mismatch area. Among these, the coincidence area AC is shown with a shaded pattern.
[0039]
Then, as can be seen from FIGS. 5A and 5B, not only the second image area FLA2 which is the latest photographing area but also a mismatch area is added, so that a wide range of bird's-eye view images around the vehicle can be obtained. Can be displayed.
Further, as can be seen from FIG. 5A and FIG. 5B, the position of the image area changes according to the movement of the vehicle, so the above-described block matching method is used for the change of the position of the image area. Thus, it can be seen that a plurality of movement vectors MV from the first bird's-eye view image FL1 to the second bird's-eye view image FL2 can be calculated. And the vehicle movement parameter MVA when a vehicle moves can be calculated | required by using the calculated several movement vector MV.
[0040]
Next, the processing content of the predicted course calculation process executed by the
[0041]
The
[0042]
When the predicted course calculation process is started, first, in S110 (S represents a step), the counter n is initialized (0 is substituted for the counter n). The counter n is for counting the number of accumulated vehicle movement parameters MVA.
[0043]
In the next S120, the latest vehicle movement parameter MVA data generated by the matching unit 13 is fetched as the nth vehicle movement parameter MVAn. Note that “n” in the n-th vehicle movement parameter MVAn represents the same number as the counter n.
[0044]
In subsequent S130, the counter n is incremented (added by 1).
In the next S140, it is determined whether or not the counter n is larger than the predetermined data number F. If the counter n is larger than the predetermined data number F, an affirmative determination is made and the process proceeds to S150. If it is F or less, a negative determination is made, and the process proceeds to S160. The predetermined number of data F is set with the number of movement vectors (for example, 10 or more) necessary for course prediction.
[0045]
When an affirmative determination is made in S140 and the process proceeds to S150, the predicted course of the vehicle C is predicted based on the linear prediction method using the latest F vehicle movement parameters (from VMAn-F + 1 to VMAn) in S150. . For the course prediction, a prediction method other than the linear prediction method may be used.
[0046]
When a negative determination is made at S140 or when the process at S150 is completed, the process proceeds to S160. At S160, the latest n-th vehicle movement parameter MVAn captured at S120 is provided inside the
[0047]
Then, when the process of S160 ends, the process proceeds to S120, and a process of taking in the vehicle movement parameters is performed again. Thereafter, the predicted course of the vehicle C is updated based on the latest F vehicle movement parameters by repeatedly executing the processing from S120 to S160.
[0048]
Thereafter, in the
The
[0049]
Here, the predicted course composite image MFL obtained by superimposing the predicted course on the vehicle periphery bird's-eye view image is displayed on the in-
[0050]
At this time, the region estimation unit 15 determines the current position of the vehicle C based on the latest bird's-eye view image, and sends information related to the current position of the vehicle C to the
[0051]
As described above, according to the vehicle
[0052]
Therefore, when the vehicle
[0053]
Moreover, since the vehicle
[0054]
And since the vehicle
[0055]
Further, in the vehicle
[0056]
In the vehicle periphery display device of the present embodiment, the camera 2 corresponds to the photographing means in the claims, the in-
[0057]
As mentioned above, although the Example of this invention was described, this invention is not limited to the said Example, It can take a various aspect.
For example, a program for causing a computer to function as an execution unit of each process (image coordinate conversion process, predicted course or movement vector calculation process, etc.) in the
[0058]
Further, a computer-readable recording medium that records a program for causing a computer to function as an execution unit of each process in the
[0059]
The ROM or backup RAM may be recorded as a computer-readable recording medium, and the ROM or backup RAM may be incorporated into a computer system.
The matching unit compares two bird's-eye view images having different shooting times, determines a region where the images match (hereinafter referred to as a matching region) and a region where the images do not match (disagreement region), and matches the matching region. As long as the movement vector can be calculated based on the above, the determination method is not limited to the block matching method, and other determination methods may be used.
[0060]
Further, the region estimation unit may be configured to generate a vehicle periphery bird's-eye view image using two or more bird's-eye view images. For example, by discriminating an inconsistent area between the vehicle periphery bird's-eye view image and the latest bird's-eye view image, and repeatedly adding a mismatch area in the latest bird's-eye view image to the vehicle periphery bird's-eye view image, the latest vehicle periphery bird's-eye view image is obtained. It may be generated. That is, the latest bird's-eye view image is generated by sequentially adding new inconsistent areas to the previous vehicle periphery bird's-eye image. In this case, the vehicle-peripheral bird's-eye view image is generated based on all the past bird's-eye view images, and the displayable area widens as the inconsistent area is added. Can be provided.
[0061]
Furthermore, the vehicle periphery display device may be configured integrally with a car navigation device configured using a computer. That is, at the time of reverse parking operation, there are few processes as a car navigation system, and the processing load of the computer is reduced, so that each process as a vehicle periphery display device can be executed. As a result, one computer can be used effectively without waste, and the space for installing the in-vehicle device can be reduced as compared with the case where the vehicle periphery display device and the car navigation device are provided separately and independently.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a main configuration of a vehicle periphery display device.
FIG. 2 is an explanatory diagram showing a main configuration of a vehicle periphery display device and functional blocks of an image processing unit.
FIG. 3 is an explanatory diagram illustrating a method for detecting a matching area between two images.
4A is an explanatory diagram showing a vehicle before movement and a first image area before movement; FIG. 4B is a diagram showing a vehicle after movement, a first image area before movement, and a first image area after movement; It is explanatory drawing which shows 2 image area | regions.
5A is a first bird's-eye view image at time t1, FIG. 5B is a second bird's-eye view image at time t2, and FIG. 5C is a predicted course synthesis image;
FIG. 6 is a flowchart showing the processing contents of a predicted course calculation process executed by a course prediction unit of the image processing unit.
[Explanation of symbols]
DESCRIPTION OF
Claims (6)
前記撮影手段で撮影した画像を、前記撮影手段を視点として投影した地上面座標系のデータに変換して鳥瞰図画像を逐次生成する鳥瞰図画像生成手段と、
該鳥瞰図画像生成手段により生成された前記鳥瞰図画像のうち、時間的に連続する少なくとも2つの鳥瞰図画像における一致領域の移動距離および移動方向を表す移動ベクトルを求めるとともに蓄積し、該蓄積した複数の移動ベクトルに基づき当該車両の移動状態を表す車両移動パラメータを算出し、前記車両移動パラメータに基づき当該車両の予測進路を予測する進路予測手段と、
該進路予測手段にて予測した前記予測進路を前記表示手段に表示する表示処理手段と、
を備えたことを特徴とする車両周辺表示装置。In a vehicle including an imaging unit that captures an image around a vehicle and a display unit that displays an image, the vehicle periphery display device that processes an image captured by the imaging unit and displays the image on the display unit,
A bird's-eye view image generation means for sequentially generating a bird's-eye view image by converting the image photographed by the photographing means into data on a ground surface coordinate system projected from the photographing means as a viewpoint;
Among the bird's eye view images generated by the bird's eye view image generation means, obtain and accumulate a movement vector representing the movement distance and movement direction of the matching region in at least two temporally continuous bird's eye view images, and store the plurality of accumulated movements. A route prediction means for calculating a vehicle movement parameter representing a movement state of the vehicle based on a vector, and predicting a predicted route of the vehicle based on the vehicle movement parameter ;
Display processing means for displaying the predicted course predicted by the course prediction means on the display means;
A vehicle periphery display device comprising:
該領域判別手段により判別された前記不一致領域を前記第2鳥瞰図画像に加味した車両周辺鳥瞰画像を作成する周辺画像作成手段と、を備え、
前記表示処理手段が、前記予測進路を前記車両周辺鳥瞰画像に重ね合わせた予測進路合成画像を、前記表示手段に表示すること、
を特徴とする請求項1に記載の車両周辺表示装置。An area for comparing the first bird's eye view image generated by the bird's eye view image generating means with the second bird's eye view image generated after the generation of the first bird's eye view image and discriminating between the matching area and the mismatch area Discrimination means;
Peripheral image creation means for creating a vehicle peripheral bird's-eye view image in which the mismatch region determined by the region determination means is added to the second bird's-eye view image,
The display processing means displaying on the display means a predicted course composite image in which the predicted course is superimposed on the vehicle periphery bird's-eye view image;
The vehicle periphery display device according to claim 1.
を特徴とする請求項1から請求項3のいずれかに記載の車両周辺表示装置。When displaying the predicted course composite image on the display means, adding an image showing the host vehicle,
The vehicle periphery display device according to any one of claims 1 to 3, wherein:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001096349A JP3838884B2 (en) | 2001-03-29 | 2001-03-29 | Vehicle periphery display device, program, and recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001096349A JP3838884B2 (en) | 2001-03-29 | 2001-03-29 | Vehicle periphery display device, program, and recording medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002283913A JP2002283913A (en) | 2002-10-03 |
| JP3838884B2 true JP3838884B2 (en) | 2006-10-25 |
Family
ID=18950271
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001096349A Expired - Fee Related JP3838884B2 (en) | 2001-03-29 | 2001-03-29 | Vehicle periphery display device, program, and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3838884B2 (en) |
Families Citing this family (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006085285A (en) * | 2004-09-14 | 2006-03-30 | Matsushita Electric Ind Co Ltd | Dangerous vehicle prediction device |
| JP4557712B2 (en) * | 2004-12-28 | 2010-10-06 | 三洋電機株式会社 | Driving support system |
| JP2006268076A (en) * | 2005-03-22 | 2006-10-05 | Sanyo Electric Co Ltd | Driving assistance system |
| JP4682809B2 (en) | 2005-11-04 | 2011-05-11 | 株式会社デンソー | Parking assistance system |
| JP4548322B2 (en) * | 2005-11-28 | 2010-09-22 | 株式会社デンソー | Parking assistance system |
| JP2007168675A (en) * | 2005-12-23 | 2007-07-05 | Alpine Electronics Inc | Parking assist device |
| JP2007235642A (en) * | 2006-03-02 | 2007-09-13 | Hitachi Ltd | Obstacle detection system |
| JP4914726B2 (en) * | 2007-01-19 | 2012-04-11 | クラリオン株式会社 | Current position calculation device, current position calculation method |
| JP2009017462A (en) * | 2007-07-09 | 2009-01-22 | Sanyo Electric Co Ltd | Driving support system and vehicle |
| KR100939761B1 (en) * | 2008-10-02 | 2010-01-29 | 삼성전기주식회사 | Camera unit for a vehicle, method for display outside a vehicle, and system for generating driving corridor markers |
| JP5213803B2 (en) * | 2009-07-07 | 2013-06-19 | 日立建機株式会社 | Roadside crash risk monitoring device and transport vehicle |
| DE102011077555A1 (en) * | 2011-06-15 | 2012-12-20 | Robert Bosch Gmbh | Retrofit kit for park guidance |
| EP2851870B1 (en) * | 2013-09-20 | 2019-01-23 | Application Solutions (Electronics and Vision) Limited | Method for estimating ego motion of an object |
| WO2015045567A1 (en) * | 2013-09-27 | 2015-04-02 | 日産自動車株式会社 | Predicted-route presentation device and predicted-route presentation method |
| CN105059219A (en) * | 2015-08-26 | 2015-11-18 | 邓孝梅 | Precise driving guiding instrument and vehicle with precise guiding |
| US20250189979A1 (en) * | 2022-03-29 | 2025-06-12 | Sony Group Corporation | Data processing method, data processing device, program, and moving body control system |
-
2001
- 2001-03-29 JP JP2001096349A patent/JP3838884B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2002283913A (en) | 2002-10-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3838884B2 (en) | Vehicle periphery display device, program, and recording medium | |
| EP1050866B1 (en) | Parking assistance device and method | |
| JP4604703B2 (en) | Parking assistance device | |
| EP2981077B1 (en) | Periphery monitoring device and program | |
| JP4863791B2 (en) | Vehicle peripheral image generation apparatus and image switching method | |
| US11648932B2 (en) | Periphery monitoring device | |
| JP2003063340A (en) | Drive auxiliary device | |
| JP4844323B2 (en) | Parking assistance device and parking assistance method | |
| JP2003072495A (en) | Parking assistance device and parking assistance method | |
| JP7167655B2 (en) | Road deterioration information collection device | |
| JP2021054267A (en) | Parking support device | |
| JP2012056428A (en) | Driving support device | |
| CN110546047A (en) | Parking assist apparatus | |
| JP5092330B2 (en) | Parking assistance device and parking assistance method | |
| JP2009248765A (en) | Parking support device and parking support method | |
| JP5900683B2 (en) | Driving assistance device | |
| JP2003252151A (en) | Parking assistance system | |
| JP2007331548A (en) | Parking assistance device | |
| JP2019022110A (en) | Display control device | |
| JP7283514B2 (en) | display controller | |
| JP5987948B2 (en) | Driving assistance device | |
| JP4156181B2 (en) | Parking assistance device | |
| JP7468794B2 (en) | Driving assistance device and driving assistance method | |
| JP7452479B2 (en) | display control device | |
| GB2416901A (en) | Vehicle parking assistant that calculates and displays to the driver the position needed to reverse the steering lock when parallel parking |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060315 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060411 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060612 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060725 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060801 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090811 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100811 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100811 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110811 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120811 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130811 Year of fee payment: 7 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |