[go: up one dir, main page]

JP2003189291A - Image processor for area around vehicle and recording medium - Google Patents

Image processor for area around vehicle and recording medium

Info

Publication number
JP2003189291A
JP2003189291A JP2001384587A JP2001384587A JP2003189291A JP 2003189291 A JP2003189291 A JP 2003189291A JP 2001384587 A JP2001384587 A JP 2001384587A JP 2001384587 A JP2001384587 A JP 2001384587A JP 2003189291 A JP2003189291 A JP 2003189291A
Authority
JP
Japan
Prior art keywords
image
eye view
bird
vehicle
view image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001384587A
Other languages
Japanese (ja)
Other versions
JP3778849B2 (en
Inventor
Katsuyuki Imanishi
勝之 今西
Hirohiko Yanagawa
博彦 柳川
Tetsutoshi Ishikawa
哲理 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2001384587A priority Critical patent/JP3778849B2/en
Publication of JP2003189291A publication Critical patent/JP2003189291A/en
Application granted granted Critical
Publication of JP3778849B2 publication Critical patent/JP3778849B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor used for the area around a vehicle and capable of displaying a conspicuous image by converting a birds-eye view image to an image similar to that photographed with a camera or the like and a recording medium. <P>SOLUTION: Step 140 moves a first birds-eye view image stored in an image memory B based on the degree of the movement of a vehicle to obtain the birds-eye view image obtained after moving the vehicle. Step 160 composites the birds-eye view image obtained after moving the vehicle and a second birds- eye view image to prepare a composite birds-eye view image. Step 180 applies reverse birds-eye view conversion to the composite birds-eye view image to prepare a projected image. Step 190 stores the projected image in an image memory C. Step 200 adds an image displaying the vehicle to display the projected image stored in the image memory C on a monitor 3. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば車両の周辺
を撮影してモニタに表示できる車両周辺画像処理装置及
び記録媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle periphery image processing apparatus and a recording medium capable of photographing the periphery of a vehicle and displaying it on a monitor.

【0002】[0002]

【従来の技術】従来より、車両の後方の様子を表示する
装置として、車両の後部に取り付けたカメラの画像を、
そのままモニタに出力する表示装置が知られている。こ
の表示装置では、車両後方の状態が有る程度分かるが、
自車両とモニタに表示されている対象物(例えば駐車
枠)の画像の相対位置関係が分かりに難いという問題が
ある。
2. Description of the Related Art Conventionally, as an apparatus for displaying the state of the rear of a vehicle, an image of a camera attached to the rear of the vehicle is
2. Description of the Related Art A display device is known which outputs the information to a monitor as it is. With this display, you can see how far behind the vehicle is,
There is a problem that it is difficult to understand the relative positional relationship between the image of the subject vehicle (for example, a parking frame) displayed on the monitor.

【0003】また、これとは別に、特開平10−211
849号公報には、後方カメラで撮影した画像(後方カ
メラ画像)を鳥瞰図に変換し、自車両をその中に表示す
るという技術が提案されている。
Separately from this, Japanese Patent Laid-Open No. 10-111
Japanese Patent No. 849 proposes a technique of converting an image captured by a rear camera (rear camera image) into a bird's-eye view and displaying the own vehicle therein.

【0004】[0004]

【発明が解決しようとする課題】この技術の場合には、
鳥瞰図の中に自車両を示すので、画像に表示された対象
物と自車両の位置関係は、撮影した画像をそのままモニ
タに表示するものより分かり易くなっているが、カメラ
の現在の視野の外にあるものは表示できないという別の
問題があった。
In the case of this technique,
Since the own vehicle is shown in the bird's-eye view, the positional relationship between the target object and the own vehicle displayed in the image is easier to understand than the one in which the captured image is displayed on the monitor as it is, but outside the current visual field of the camera. There was another problem that I couldn't display what was in.

【0005】そのため、例えば車両を後退させて駐車枠
に入れるような場合には、カメラの視野外に出た駐車枠
を表示できないので、依然として、車両を駐車枠に入れ
る操作が容易ではないという問題があった。これに対し
て、既に本願発明者らにより、車両後部に取り付けたカ
メラから、車両後方の画像を撮影し、画像処理でこれら
を上から見た鳥瞰画像に変換し、変換した画像の時間的
変化から車両の動きを算出して、カメラの視野外に消え
て行く画像領域を算出し、更に現時刻の変換画像を貼り
付けて(合成画像を作成し)、従来より広い範囲を表示
する技術が開発されている。
Therefore, for example, when the vehicle is retracted and put in the parking frame, the parking frame outside the field of view of the camera cannot be displayed, so that it is still not easy to put the vehicle in the parking frame. was there. On the other hand, the inventors of the present application have already taken images of the rear of the vehicle from a camera attached to the rear of the vehicle, converted these into bird's-eye-view images viewed from above by image processing, and temporal changes in the converted images. There is a technology to display a wider range than before by calculating the movement of the vehicle from, calculating the image area that disappears outside the field of view of the camera, and pasting the converted image at the current time (creating a composite image). Being developed.

【0006】ところが、上述した鳥瞰図画像は上空から
見た画像であり、通常ドライバーが見慣れている画像
(即ちカメラで撮影したままの状態の画像)とは異なっ
ているので、見にくさを感じるドライバーがいるという
問題があった。本発明は、前記課題を解決するためにな
されたものであり、鳥瞰図画像を変換してカメラ等で撮
影したような画像とすることにより、見やすい画像を表
示することができる車両周辺画像処理装置及び記録媒体
を提供することを目的とする。
However, the above-mentioned bird's-eye view image is an image viewed from the sky and is different from an image that a driver is usually used to (that is, an image as it is taken by a camera). There was a problem that The present invention has been made to solve the above problems, and by converting a bird's-eye view image into an image taken by a camera or the like, a vehicle peripheral image processing device capable of displaying an easily viewable image, The purpose is to provide a recording medium.

【0007】[0007]

【課題を解決するための手段及び発明の効果】(1)請
求項1の発明は、車両周辺の画像を撮影する撮影手段
(例えばカメラ)と、画像を表示する表示手段(例えば
モニタ)とを備えた車両に対して、撮影手段により撮影
された画像を処理して表示手段に表示する車両周辺画像
処理装置に関するものである。
[Means for Solving the Problems and Effects of the Invention] (1) The invention of claim 1 includes a photographing means (for example, a camera) for photographing an image of the surroundings of a vehicle and a display means (for example, a monitor) for displaying the image. The present invention relates to a vehicle peripheral image processing device that processes an image captured by an image capturing unit and displays the image on a display unit of a provided vehicle.

【0008】本発明では、撮影手段により撮影した画像
を、例えば撮影手段を視点として投影した地上面座標系
のデータに変換して鳥瞰図画像の画像データを順次作成
する。これにより、画像は、例えばカメラで撮影したま
まの歪んだ画像ではなく、地面の上方より見たような見
やすい鳥瞰図画像となる。
In the present invention, an image photographed by the photographing means is converted into, for example, data of the ground plane coordinate system projected from the photographing means as viewpoint, and the image data of the bird's-eye view image is sequentially created. As a result, the image is not a distorted image as it was captured by a camera, but a bird's-eye view image that is easy to see as seen from above the ground.

【0009】そして、車両の移動状態に対応して、(例
えば前回得られた鳥瞰図画像や前回の合成鳥瞰図画像の
様な)第1鳥瞰図画像を移動させて移動後鳥瞰図画像の
画像データを作成し、この移動後鳥瞰図画像の画像デー
タと、(第1鳥瞰図画像より)新しい第2鳥瞰図画像の
画像データとを合成して合成鳥瞰図画像の画像データを
作成する。
Then, the first bird's-eye view image (such as the bird's-eye view image obtained last time or the last combined bird's-eye view image) is moved in accordance with the moving state of the vehicle to create image data of the moved bird's-eye view image. The image data of the post-movement bird's-eye view image and the image data of the new second bird's-eye view image (from the first bird's-eye view image) are combined to create the image data of the combined bird's-eye view image.

【0010】つまり、車両が移動するにつれて、例えば
カメラの視野が変化するので、当然、撮影した時間が異
なる第1鳥瞰図画像と第2鳥瞰図画像では、画像のずれ
(撮影された部分の違い)が発生する。そこで、第2鳥
瞰図画像に、そのずれの部分(即ち過去に視野内であっ
たが現在視野から消えている部分)の移動後鳥瞰図画像
を適宜加味することにより、モニタ等にカメラの視野か
ら消えた部分を表示するのである。
In other words, as the vehicle moves, for example, the field of view of the camera changes. Therefore, naturally, there is a difference between the first bird's-eye view image and the second bird's-eye view image at different shooting times (difference between the shot parts). Occur. Therefore, the second bird's-eye view image disappears from the camera's field of view on the monitor or the like by appropriately adding the moved bird's-eye view image of the shifted portion (that is, the part that was in the field of view in the past but disappears from the current field of view). The part that is displayed is displayed.

【0011】特に本発明では、上述した合成鳥瞰図画像
をそのままモニタ等に表示するのではなく、合成鳥瞰図
画像を所定の視点(例えば車室内のルームミラーに取り
付けた仮想のカメラ位置)からの投影画像に変換し、そ
の投影画像をモニタ等に表示する。
In particular, in the present invention, the above-mentioned combined bird's-eye view image is not displayed as it is on a monitor or the like, but the combined bird's-eye view image is projected from a predetermined viewpoint (for example, a virtual camera position attached to a room mirror in the vehicle interior). And the projected image is displayed on a monitor or the like.

【0012】つまり、例えばカメラで撮影した画像を鳥
瞰図変換する手法とは逆に、鳥瞰図画像をカメラで撮影
したような投影画像に変換し、あたかも、カメラで撮影
した様な画像をモニタ等に表示するのである。これによ
り、モニタ等には、通常ドライバーが見慣れている画像
が表示されるので、見にくさを感じ難いという効果があ
る。
That is, for example, contrary to the method of converting an image captured by a camera into a bird's-eye view, the bird's-eye view image is converted into a projected image as if it was captured by a camera, and the image as if it was captured by the camera is displayed on a monitor or the like. To do. As a result, an image that is normally used by the driver is displayed on the monitor or the like, which has the effect of making it difficult to see.

【0013】また、カメラで撮影したままの画像データ
を用いて、車両の移動に伴って変化する周囲の画像の合
成を行う場合には、各画像が歪んでいることもあり、各
画像中の各画素の距離を計測する必要があるが、これを
精度良く計測できるセンサが無いという問題がある。
Further, in the case of synthesizing the surrounding images that change with the movement of the vehicle using the image data as taken by the camera, each image may be distorted. It is necessary to measure the distance of each pixel, but there is a problem that there is no sensor that can measure this with high accuracy.

【0014】本発明では、平面的な鳥瞰図画像を用いる
ことで距離が分かり、これより合成された鳥瞰図画像を
もとの投影画像に変更するので、測距センサ等を用いず
に、容易に合成された投影画像を作成できるという利点
がある。 (2)請求項2の発明では、視点を撮影手段の撮影位置
とは異なる仮想の位置に移動し、その仮想の位置を視点
として投影画像を求める。
In the present invention, the distance is known by using the planar bird's-eye view image, and the bird's-eye view image synthesized from this is changed to the original projection image. Therefore, the distance can be easily synthesized without using a distance measuring sensor or the like. There is an advantage that a projected image can be created. (2) In the invention of claim 2, the viewpoint is moved to a virtual position different from the shooting position of the shooting means, and the projection image is obtained with the virtual position as the viewpoint.

【0015】通常、後方カメラは車両の後端側に配置さ
れているので、例えば実際のカメラの位置を視点として
投影画像を求める場合に、駐車場にて車両がバックして
壁に近接したときには、殆ど壁の画像が表示されてしま
い、あまり有用とは言えない。
Normally, the rear camera is arranged on the rear end side of the vehicle. Therefore, for example, when the projected image is obtained by using the actual position of the camera as a viewpoint, when the vehicle is backed and approaches the wall at the parking lot. , The image of the wall is almost displayed, which is not very useful.

【0016】この様な場合には、例えばカメラの位置
を、仮想的に車両の前端等に移動して投影画像を作製す
ることにより、駐車枠全体を表示可能であるので、例え
ば車両の現在位置を重ねて表示することにより、駐車枠
内における車両位置を分かりやすく表示することができ
る。
In such a case, for example, the entire parking frame can be displayed by virtually moving the position of the camera to the front end of the vehicle or the like to create a projected image. By overlapping and displaying, the vehicle position in the parking frame can be displayed in an easy-to-understand manner.

【0017】(3)請求項3の発明では、視点の仮想の
位置を、ユーザにより変更可能としている。従って、ユ
ーザは、例えば駐車枠内での車両の位置が分かり易いよ
うに視点を移動させることにより、駐車時等における車
両の操作が容易になる。
(3) According to the invention of claim 3, the virtual position of the viewpoint can be changed by the user. Therefore, the user can easily operate the vehicle at the time of parking, for example, by moving the viewpoint so that the position of the vehicle in the parking frame can be easily understood.

【0018】(4)請求項4の発明では、表示手段に表
示する画像を、合成鳥瞰図画像と投影画像とにユーザに
より変更可能としている。従って、ユーザは、自分の見
やすい表示を選択できるので、車両操作が容易になる。
(4) According to the invention of claim 4, the image displayed on the display means can be changed by the user to a composite bird's-eye view image and a projected image. Therefore, the user can select a display that is easy for him to see, which facilitates vehicle operation.

【0019】(5)請求項5の発明では、表示手段に投
影画像を表示する場合には、自車両を示す画像を加えて
表示する。本発明では、車両の周囲の状況を示す投影画
像に自車両を示す画像を加えて表示することにより、自
車両と例えば駐車枠との位置関係が明瞭となるので、車
両の操作が容易になる。
(5) In the fifth aspect of the invention, when the projection image is displayed on the display means, the image showing the own vehicle is additionally displayed. In the present invention, by displaying an image showing the own vehicle in addition to the projected image showing the situation around the vehicle, the positional relationship between the own vehicle and, for example, the parking frame becomes clear, so that the operation of the vehicle becomes easy. .

【0020】尚、自車両は、車両の写真のような画像、
車両の形状をした絵、枠等のシンボルで表示することが
できる。 (6)請求項6の発明では、第1鳥瞰図画像として、今
回の合成鳥瞰図画像より前に作成した合成鳥瞰図画像を
用いる。
Incidentally, the own vehicle is an image such as a photograph of the vehicle,
It can be displayed with a symbol in the shape of a vehicle, such as a frame. (6) In the invention of claim 6, as the first bird's-eye view image, the combined bird's-eye view image created before the current combined bird's-eye view image is used.

【0021】これにより、モニタには、過去に撮影した
画像の鳥瞰図画像(車両の移動に合わせて移動させた画
像)を逐次加えた連続した合成鳥瞰図画像を変換した投
影画像を表示することができる。 (7)請求項7の発明では、合成鳥瞰図画像は、第2鳥
瞰図画像を表示する表示領域以外に、移動後鳥瞰図画像
を加入した画像である。
As a result, the monitor can display a projected image obtained by converting a continuous synthetic bird's-eye view image in which bird's-eye view images (images moved according to the movement of the vehicle) of images taken in the past are sequentially added. . (7) In the invention of claim 7, the combined bird's-eye view image is an image to which the moved bird's-eye view image is added in addition to the display area for displaying the second bird's-eye view image.

【0022】本発明は、合成鳥瞰図画像の形成方法を例
示したものである。これにより、車両の周囲の画像を連
続して表示することができる。つまり、例えばカメラに
より現在撮影されている画像は、第2鳥瞰図画像部分の
投影画像としてモニタに表示可能であるので、それ以前
のモニタから消えてしまう画像を、移動後鳥瞰図画像部
分の投影画像として第2鳥瞰図画像部分の投影画像の表
示領域以外に加えることにより、カメラの視野から消え
た過去の周囲の状況をもモニタに表示することができ
る。
The present invention exemplifies a method of forming a synthetic bird's-eye view image. Thereby, images around the vehicle can be continuously displayed. That is, for example, the image currently captured by the camera can be displayed on the monitor as a projection image of the second bird's-eye view image portion, and therefore an image that disappears from the monitor before that is used as the projection image of the moved bird's-eye view image portion. By adding to the area other than the display area of the projection image of the second bird's-eye view image portion, it is possible to display the past surrounding situation disappeared from the field of view of the camera on the monitor.

【0023】尚、合成鳥瞰図画像に用いる第2鳥瞰図画
像として、通常、最新の鳥瞰図画像が用いられる。 (8)請求項8の発明は、上述した車両周辺画像処理装
置による処理を実行させる手段を記憶している記録媒体
である。
The latest bird's-eye view image is usually used as the second bird's-eye view image used for the composite bird's-eye view image. (8) The invention according to claim 8 is a recording medium storing a means for executing the processing by the vehicle peripheral image processing device described above.

【0024】つまり、上述した車両周辺画像処理装置の
処理を実行させることができる例えばプログラム等の手
段を記憶したものであれば、特に限定はない。例えば記
録媒体としては、マイクロコンピュータとして構成され
る電子制御装置、マイクロチップ、フロッピィディス
ク、ハードディスク、光ディスク等の各種の記録媒体が
挙げられる。
That is, there is no particular limitation as long as it stores means such as a program that can execute the processing of the above-described vehicle peripheral image processing apparatus. Examples of the recording medium include various recording media such as an electronic control device configured as a microcomputer, a microchip, a floppy disk, a hard disk, and an optical disk.

【0025】[0025]

【発明の実施の形態】以下に、本発明の車両周辺画像処
理装置及び記録媒体の実施の形態の例(実施例)を説明
する。 (実施例) a)本実施例の基本的なシステム構成を図1及び図2を
用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an example (embodiment) of an embodiment of a vehicle peripheral image processing apparatus and a recording medium of the present invention will be described. (Example) a) The basic system configuration of the present example will be described with reference to FIGS. 1 and 2.

【0026】図1に示す様に、本実施例の車両周辺画像
処理装置は、自動車の後部に配置されたカメラ(例えば
CCDカメラ)1と、ダッシュボードに配置された車載
モニタ(例えば液晶ディスプレイ)3と、車速を検出す
る車速センサ5と、ヨーレイトを検出するヨーレイトセ
ンサ7と、画像処理を行う画像処理ユニット9とを備え
ている。
As shown in FIG. 1, the vehicle peripheral image processing apparatus of the present embodiment has a camera (for example, a CCD camera) 1 arranged at the rear part of an automobile and an in-vehicle monitor (for example, a liquid crystal display) arranged on a dashboard. 3, a vehicle speed sensor 5 that detects a vehicle speed, a yaw rate sensor 7 that detects a yaw rate, and an image processing unit 9 that performs image processing.

【0027】前記画像処理ユニット9は、図2に示す様
に、マイクロコンピュータを主要部とする画像データの
処理を行う電子装置であり、カメラ1で撮影した画像デ
ータの座標変換(鳥瞰図変換)を行って鳥瞰図画像を作
成する鳥瞰図変換回路11と、作成された鳥瞰図画像の
画像データを一時的に蓄える画像メモリAと、画像メモ
リAの鳥瞰図画像を移動(例えば回転移動)して合成す
る等の画像処理などの演算を行うCPU13と、CPU
13にて処理した画像データを保存する画像メモリB
と、画像メモリBに記憶した鳥瞰図画像の画像データの
座標変換(逆鳥瞰図変換)を行って鳥瞰図画像を投影画
像に戻す逆鳥瞰図変換回路15と、(モニタCに表示す
る)投影画像の画像データを記憶する画像メモリCとを
備えている。
As shown in FIG. 2, the image processing unit 9 is an electronic device mainly for processing image data of a microcomputer, and performs coordinate conversion (bird's eye view conversion) of image data taken by the camera 1. A bird's-eye view conversion circuit 11 for performing a bird's-eye view image by performing an image memory A for temporarily storing the image data of the created bird's-eye view image and a bird's-eye view image in the image memory A are moved (for example, rotationally moved) to be combined. A CPU 13 for performing calculations such as image processing, and a CPU
Image memory B for storing the image data processed in 13
And a reverse bird's-eye view conversion circuit 15 that performs coordinate conversion (reverse bird's-eye view conversion) of the image data of the bird's-eye view image stored in the image memory B to return the bird's-eye view image to a projection image, and image data of the projection image (displayed on the monitor C). And an image memory C for storing.

【0028】前記画像処理ユニット9には、車速信号を
入力する車速信号入力回路17と、ヨーレイト信号を入
力するヨーレイト信号入力回路19とが接続され、各信
号はCPU13に入力される。ここで、画像メモリBに
記憶する鳥瞰図画像の画像データとは、後述する様に、
前回(例えば時刻Tに)カメラ1にて撮影され、その画
像データに基づいて作成された鳥瞰図画像(第1鳥瞰図
画像)を移動させた鳥瞰図画像(移動後鳥瞰図画像)
と、新たに(例えば時刻T+1に)カメラ1にて撮影さ
れ、その画像データに基づいて作成された鳥瞰図画像
(第2鳥瞰図画像)とを合成した鳥瞰図画像(合成鳥瞰
図画像)の画像データである。
A vehicle speed signal input circuit 17 for inputting a vehicle speed signal and a yaw rate signal input circuit 19 for inputting a yaw rate signal are connected to the image processing unit 9, and each signal is input to the CPU 13. Here, the image data of the bird's-eye view image stored in the image memory B is, as described later,
A bird's-eye view image (post-movement bird's-eye view image) obtained by moving the bird's-eye view image (first bird's-eye view image) that was captured by the camera 1 last time (for example, at time T) and created based on the image data.
And a bird's-eye view image (second bird's-eye view image) newly captured on the camera 1 (for example, at time T + 1) and created based on the image data, are image data of a bird's-eye view image (composite bird's-eye view image). .

【0029】また、画像メモリCに記憶する投影画像の
画像データとは、後述する様に、画像メモリBに記憶し
た合成鳥瞰図画像を、所定の視点(本実施例では、カメ
ラ1の位置ではなく車両の先端側に移動させた仮想位
置)から見た画像であるカメライメージに変換した投影
画像である。
The image data of the projected image stored in the image memory C is, as will be described later, the synthetic bird's-eye view image stored in the image memory B at a predetermined viewpoint (in this embodiment, not at the position of the camera 1). It is a projected image converted into a camera image which is an image viewed from a virtual position moved to the front end side of the vehicle).

【0030】尚、画像処理ユニット9は、カメラ1と一
体の構造となっていてもよく、画像処理ユニット9内の
各構成は、一部又は全体で一体化してLSIで構成して
もよい。い。 b)次に、本実施例における画像処理の手順等を、図3
〜図7に基づいて説明する。
The image processing unit 9 may have a structure integrated with the camera 1, and each of the components in the image processing unit 9 may be partially or wholly integrated into an LSI. Yes. b) Next, referring to FIG.
~ It demonstrates based on FIG.

【0031】ここでは、車両を後退(バック)させて駐
車枠内に入れる場合を例に挙げる。 最初に、カメラ1から入力された画像を、鳥瞰図変換
回路11で上空から見た鳥瞰図画像に変換し、画像メモ
リAに保存する手順を説明する。まず、カメラ1から出
力される原画像(出力画像)を、図3(a)に示すが、
この原画像は、車両の後部の上部に配置されたカメラ1
により、地上に描かれた駐車枠及びその周囲を撮影した
画像であるので、自車両(従ってカメラ1)と駐車枠の
各線の位置との距離などに応じて、本来矩形である駐車
枠が歪んで表示されている。
Here, the case where the vehicle is moved backward (back) and put in the parking frame will be described as an example. First, a procedure for converting an image input from the camera 1 into a bird's-eye view image viewed from the sky by the bird's-eye view conversion circuit 11 and storing the image in the image memory A will be described. First, the original image (output image) output from the camera 1 is shown in FIG.
This original image is taken by the camera 1 placed at the upper rear part of the vehicle.
Is an image of the parking frame drawn on the ground and its surroundings, the originally rectangular parking frame is distorted depending on the distance between the vehicle (and therefore camera 1) and the position of each line of the parking frame. Is displayed.

【0032】よって、後ににて詳述する様に、原画像
の画像データを座標変換して、図3(b)に示す様な歪
みのない鳥瞰図画像を作成し、この鳥瞰図画像の画像デ
ータを画像メモリAに記憶する。 次に、前記カメラ1で撮影された原画像を鳥瞰図画像
に変換する手順を説明する。尚、この手順は、以下に説
明する様に、従来技術(例えば特開平10−21184
9号公報)を利用できる。
Therefore, as will be described later in detail, the image data of the original image is subjected to coordinate conversion to create a bird's-eye view image without distortion as shown in FIG. 3B, and the image data of this bird's-eye view image is converted into image data. It is stored in the image memory A. Next, a procedure for converting an original image captured by the camera 1 into a bird's-eye view image will be described. It should be noted that, as will be described below, this procedure is performed by a conventional technique (for example, Japanese Unexamined Patent Publication No. 10-21184).
No. 9) can be used.

【0033】ここでは、通常の透視変換の逆の処理を行
うことにより、地上平面における画像(例えば駐車枠)
の位置を鳥瞰図として求める。具体的には、図4に示す
様に、地上の画像の位置データをカメラ位置Rからの焦
点距離fにあるスクリーン平面Tに投影するときの透視
変換を実行する。
Here, an image on the ground plane (for example, a parking frame) is obtained by performing the reverse processing of the normal perspective transformation.
Position is obtained as a bird's-eye view. Specifically, as shown in FIG. 4, perspective transformation is performed when the position data of the image on the ground is projected on the screen plane T at the focal length f from the camera position R.

【0034】詳しくは、カメラ1は、Z軸上の点R
(0,0,H)に位置し(カメラ高さ:H)、カメラ焦
点距離f、見下ろし角(カメラのレンズの軸中心の俯
角)τにて、地上面(xy座標面)における画像をモニ
タしているとすると、スクリーン平面Tの画像上の座標
(X、Y)と実空間上(鳥瞰図上)の座標(x、y)と
の関係は、下記式(1)にて与えられる。 X=f・x/(y・SINπ+H・COSπ) ・・・(1) Y=f・(−y・COSπ+H・SINπ) /(y・SINπ+H・COSπ) つまり、上記式(1)を用いることにより、投影画像デ
ータを(鳥瞰図画像を示す)モニタ3の画面に対応した
画像データに変換してモニタ表示することができる。
Specifically, the camera 1 has a point R on the Z axis.
It is located at (0,0, H) (camera height: H), the camera focal length f, and the view angle (depression angle of the axial center of the camera lens) τ, monitor the image on the ground plane (xy coordinate plane). If so, the relationship between the coordinates (X, Y) on the image of the screen plane T and the coordinates (x, y) on the real space (on the bird's eye view) is given by the following equation (1). X = f · x / (y · SINπ + H · COSπ) (1) Y = f · (−y · COSπ + H · SINπ) / (y · SINπ + H · COSπ) That is, by using the above formula (1) The projected image data can be converted into image data corresponding to the screen of the monitor 3 (showing a bird's eye view image) and displayed on the monitor.

【0035】次に、車速信号とヨーレイト信号を用
い、車両の動き量(移動量)に応じて、前記画像メモリ
Aに記憶した鳥瞰図画像を移動(例えば回転移動)させ
る手順を説明する。ここでは、図5に時刻Tの車両位置
を示すが、時刻T+1になるまでの車両の移動距離は
L、時刻T+1になるまでに車両が動いた角度はθ1
(=回転中心における回転角度θC)とする。
Next, a procedure for moving (for example, rotating) the bird's-eye view image stored in the image memory A according to the amount of movement (movement amount) of the vehicle using the vehicle speed signal and the yaw rate signal will be described. Here, the vehicle position at time T is shown in FIG. 5, but the travel distance of the vehicle up to time T + 1 is L, and the angle the vehicle has moved up to time T + 1 is θ1.
(= Rotation angle θC at the center of rotation).

【0036】・まず、カメラ1のサンプリング時間が1
00[ms]の場合、車速信号から得られる車速S[km
/h]を用いて、下記式(2)から、車両が移動した距
離L[m]を算出できる。 L[m]=S[km/h]×1000[m/km]÷3600[S/h] ×100[ms]÷1000[ms/s] ・・・(2) また、図5に示す図形の関係があるので、ヨーレイト信
号から得られるヨーレイトθ0[度/s]を用いて、下記
式(3)から、車両が動いた角度θ1を算出できる。 θ1[度]=θ0[度/s]×100[ms]÷1000[ms/s]・・・(3) 更に、ここでは、車両の回転中心は後輪車軸の延長線上
にあるとしているので、その回転中心は、カメラ位置を
原点として算出し、車両の進行方向をY、これに垂直な
方向をXとすると、X方向の回転中心位置XC[m]は、
下記式(4)から算出できる。 XC[m]=L[m]÷TAN(θ1) ・・・(4) 一方、Y方向の中心位置は、後輪車軸上であるので、カ
メラ1と後輪車軸までの距離はYC[cm]である。
First, the sampling time of the camera 1 is 1
In the case of 00 [ms], the vehicle speed S [km obtained from the vehicle speed signal
/ H] can be used to calculate the distance L [m] traveled by the vehicle from the following equation (2). L [m] = S [km / h] × 1000 [m / km] / 3600 [S / h] × 100 [ms] ÷ 1000 [ms / s] (2) Also, the figure shown in FIG. Therefore, using the yaw rate θ0 [degrees / s] obtained from the yaw rate signal, the angle θ1 at which the vehicle has moved can be calculated from the following equation (3). θ1 [degree] = θ0 [degree / s] × 100 [ms] ÷ 1000 [ms / s] (3) Further, here, since the center of rotation of the vehicle is on the extension line of the rear wheel axle, , The rotation center is calculated with the camera position as the origin, the traveling direction of the vehicle is Y, and the direction perpendicular to this is X, the rotation center position XC [m] in the X direction is
It can be calculated from the following formula (4). XC [m] = L [m] ÷ TAN (θ1) (4) On the other hand, since the center position in the Y direction is on the rear wheel axle, the distance between the camera 1 and the rear wheel axle is YC [cm]. ].

【0037】また、回転中心における回転角度θCは、
図5に示す図形の関係から、車両が動いた角度θ1に一
致する。 ・次に、上述した様にして求めた回転中心位置(XC、
YC)、回転角度θCを用いて、下記の様にして、鳥瞰
図画像を移動する。
The rotation angle θC at the center of rotation is
From the relationship of the figures shown in FIG. 5, it matches the angle θ1 at which the vehicle has moved. -Next, the rotation center position (XC,
YC) and the rotation angle θC are used to move the bird's-eye view image as follows.

【0038】画像メモリAに記憶された鳥瞰図画像の画
像データは、一旦、画像メモリBにも記憶される。尚、
画像メモリAに記憶された画像データを用いてモニタ3
に表示すると図6(a)の様になる。従って、ここで
は、画像メモリBに記憶された鳥瞰図画像の画像データ
を、CPU13の内部メモリに転送し、前記回転中心位
置(XC、YC)及び回転角度θCを用いて、鳥瞰図画
像を回転移動する。
The image data of the bird's-eye view image stored in the image memory A is once stored in the image memory B as well. still,
The monitor 3 using the image data stored in the image memory A
When it is displayed at, it becomes as shown in FIG. Therefore, here, the image data of the bird's-eye view image stored in the image memory B is transferred to the internal memory of the CPU 13, and the bird's-eye view image is rotationally moved using the rotation center position (XC, YC) and the rotation angle θC. .

【0039】この回転移動を行うための変換式を、下記
式(5)に示すが、この変換式を用いたCPU13の内
部処理により、回転角度θにて移動させた移動後の座標
(XB、YB)に対して、移動前の対応する点(XA、
YA)を算出し、(XA、YA)の画素値を(XB、Y
B)のアドレスメモリに保存する。 XA=XB・COSθ+YB・SINθ ・・・(5) YA=YB・COSθ−XB・SINθ 但し、(XA、YB):移動前の座標 (XB、YB):移動後の座標 θ :回転角度 ・そして、全ての座標についてこれらの演算を行うこと
により、画像メモリAに記憶された鳥瞰図画像(時刻T
における第1鳥瞰図画像)から、移動後の鳥瞰図画像
(時刻Tにおける移動後鳥瞰図画像)を作成する。
The conversion formula for this rotational movement is shown in the following formula (5). The internal processing of the CPU 13 using this conversion formula causes the coordinates (XB, XB, X) after the movement at the rotation angle θ. YB), the corresponding point (XA,
YA) and calculate the pixel value of (XA, YA) as (XB, Y
Save in B) address memory. XA = XB / COSθ + YB / SINθ (5) YA = YB / COSθ-XB / SINθ However, (XA, YB): coordinates before movement (XB, YB): coordinates after movement θ: rotation angle, and , The bird's-eye view image stored in the image memory A (at time T
From the first bird's-eye view image in (1) to a post-movement bird's-eye view image (post-movement bird's-eye view image at time T).

【0040】それとともに、新たにカメラ1により撮影
した画像に基づいて作成した鳥瞰図画像、即ち、現在の
鳥瞰図画像(時刻T+1における第2鳥瞰図画像)を、
新たに画像メモリAよりCPU13に転送する。よっ
て、CPU13では、第2鳥瞰図画像を時刻Tと位置関
係が対応する位置(移動後鳥瞰図画像との画像のずれが
生じない位置)に書き込み、それによって、移動後鳥瞰
図画像と第2鳥瞰図画像とを合成した合成鳥瞰図画像の
画像データを作成し、画像メモリBに上書して記憶す
る。
At the same time, the bird's-eye view image created based on the image newly captured by the camera 1, that is, the current bird's-eye view image (the second bird's-eye view image at time T + 1),
It is newly transferred from the image memory A to the CPU 13. Therefore, the CPU 13 writes the second bird's-eye view image at a position having a positional relationship with the time T (a position where the image does not deviate from the post-movement bird's-eye view image), whereby the post-movement bird's-eye view image and the second bird's-eye view image are written. The image data of the synthetic bird's-eye view image is synthesized, and the image data is overwritten and stored in the image memory B.

【0041】尚、この段階で、画像メモリBに記憶した
合成鳥瞰図画像の画像データを用いて、モニタ3に表示
すると、例えば図6(b)の後に図6(c)の様にな
る。 次に、合成鳥瞰図画像を投影画像に変換する逆鳥瞰図
変換の手順について説明する。
At this stage, when the image data of the combined bird's-eye view image stored in the image memory B is used for display on the monitor 3, for example, after FIG. 6 (b), it becomes as shown in FIG. 6 (c). Next, a procedure of reverse bird's-eye view conversion for converting a synthetic bird's-eye view image into a projection image will be described.

【0042】この逆鳥瞰図変換とは、基本的には、上述
したカメラ1にて撮影した画像を鳥瞰図画像に変換する
処理の逆の処理である。ここでは、図7に示す様に、合
成鳥瞰図画像が見える仮想的なカメラ(仮想カメラ)1
kの位置を設定し、この仮想カメラ1kで撮影したよう
な画像をモニタ3に表示する。
This reverse bird's-eye view conversion is basically the reverse of the above-mentioned processing for converting the image photographed by the camera 1 into a bird's-eye view image. Here, as shown in FIG. 7, a virtual camera (virtual camera) 1 in which a composite bird's-eye view image can be seen.
The position of k is set, and an image as taken by the virtual camera 1k is displayed on the monitor 3.

【0043】例えば、仮想カメラ1kの高さHk、カメ
ラ俯角τk、焦点距離fkとし、仮想カメラ1kの前後方
向の位置を、実際のカメラ1の位置よりZk前方(フロ
ントバンパの上空)とすると、実空間座標(鳥瞰図座
標)(x、y)と仮想カメラ画像座標(Xk、Yk)との
関係は、上記式(1)を変形した下記式(6)にて示さ
れる。 x=Xk・(y・SINπk+Hk・COSπk)/fk ・・・(6) y=Hk・(fk・SINπk−y・SINπk) /(fk・COSπk+Y・SINπk) これにより、仮想カメラ画像座標(Xk、Yk)の画像デ
ータ(即ち投影画像の画像データ)は、実空間座標(鳥
瞰図座標)(x、y)の画像データ(即ち合成鳥瞰図画
像の画像データ)を、上記式(6)に代入することによ
り得られることになる。
For example, assuming that the height Hk of the virtual camera 1k, the camera depression angle τk, and the focal length fk, and the position of the virtual camera 1k in the front-back direction is Zk ahead of the actual position of the camera 1 (above the front bumper). The relationship between the real space coordinates (bird's eye view coordinates) (x, y) and the virtual camera image coordinates (Xk, Yk) is expressed by the following expression (6) which is a modification of the above expression (1). x = Xk · (y · SINπk + Hk · COSπk) / fk (6) y = Hk · (fk · SINπk−y · SINπk) / (fk · COSπk + Y · SINπk) As a result, the virtual camera image coordinates (Xk, The image data of Yk) (that is, the image data of the projected image) is obtained by substituting the image data of the real space coordinates (bird's-eye view coordinates) (x, y) (that is, the image data of the synthetic bird's-eye view image) into the above formula (6). Will be obtained by.

【0044】従って、この様にして、合成鳥瞰図画像を
投影画像に変換し、その画像データを画像メモリCに記
憶する。そして、この画像メモリCに記憶した画像デー
タに基づいた投影画像を、モニタ3に表示するのであ
る。
Therefore, the composite bird's-eye view image is converted into a projection image in this way, and the image data is stored in the image memory C. Then, the projection image based on the image data stored in the image memory C is displayed on the monitor 3.

【0045】例えば図7の駐車開始図面に示す様に、実
際のカメラ1の画像は、同図の上方の三角形内の画像に
過ぎないが、仮想カメラ1kの様に、車両の先端側に視
点を移動させることにより、車両の周囲の画像も表示す
ることができる。尚、投影画像を作成する際には、自車
両の位置やカメラ1の視野角の画像なども加入して画像
メモリCに記憶し、その投影画像をモニタ3の画面に表
示してもよいが、自車両の位置やカメラ1の視野角の画
像などは画像メモリCに記憶せずに、モニタ3に画像メ
モリCに記憶した投影画像を描画する際に、自車両の位
置やカメラ1の視野角の画像など加えて描画してもよ
い。
For example, as shown in the parking start drawing of FIG. 7, the actual image of the camera 1 is only the image within the upper triangle of the same figure, but like the virtual camera 1k, the view point is on the front side of the vehicle. An image around the vehicle can also be displayed by moving the. When the projection image is created, the position of the vehicle and the image of the viewing angle of the camera 1 may be added and stored in the image memory C, and the projection image may be displayed on the screen of the monitor 3. When the projection image stored in the image memory C is drawn on the monitor 3 without storing the image of the position of the own vehicle or the viewing angle of the camera 1 in the image memory C, the position of the own vehicle and the field of view of the camera 1 are drawn. It may be drawn in addition to a corner image.

【0046】c)次に、前記画像処理ユニット9等にて
行われる処理を、図8のフローチャートに基づいて説明
する。図8に示す様に、まず、ステップ100にて、シ
フト位置がバックであるか否かを判定する。ここで肯定
判断されるとステップ110に進み、一方否定判断され
るとステップ210に進む。
C) Next, the processing performed by the image processing unit 9 and the like will be described with reference to the flowchart of FIG. As shown in FIG. 8, first, at step 100, it is determined whether or not the shift position is the back position. If an affirmative judgment is made here, the routine proceeds to step 110, while if a negative judgment is made, the routine proceeds to step 210.

【0047】尚、シフト位置は、シフト位置検出センサ
(図示せず)からの信号や、他の電子制御装置からの信
号により検出することができる。ステップ210では、
以前に描画したカメラの視野外の領域の画像を消去し、
即ち、現在のカメラの画像(鳥瞰図画像)のみを表示
し、前記ステップ100に戻る。
The shift position can be detected by a signal from a shift position detection sensor (not shown) or a signal from another electronic control unit. In step 210,
Erase the image of the area outside the field of view of the camera drawn previously,
That is, only the current camera image (bird's eye view image) is displayed, and the process returns to step 100.

【0048】一方、ステップ110では、カメラ1で撮
影した画像の座標変換(前記鳥瞰図変換)を行って、鳥
瞰図画像を作成する。続くステップ120では、前記鳥
瞰図画像を画像メモリAに記憶する。尚、このときに
は、画像メモリBにも同様な鳥瞰図画像を記憶する。
On the other hand, in step 110, coordinate conversion of the image photographed by the camera 1 (the bird's-eye view conversion) is performed to create a bird's-eye view image. In the following step 120, the bird's-eye view image is stored in the image memory A. At this time, a similar bird's-eye view image is also stored in the image memory B.

【0049】続くステップ130では、車速信号及びヨ
ーレイト信号に基づいて、移動距離L及び回転角度θC
で示される車両の動き量(移動量)を求める。続くステ
ップ140では、車両の移動量に基づいて、前記画像メ
モリBに記憶されている鳥瞰図画像(時刻Tの第1鳥瞰
図画像)を移動させて、移動後の鳥瞰図画像(時刻Tの
移動後鳥瞰図画像)を求める。
In the following step 130, the moving distance L and the rotation angle θC are calculated based on the vehicle speed signal and the yaw rate signal.
The movement amount (movement amount) of the vehicle indicated by is calculated. In the following step 140, the bird's-eye view image (first bird's-eye view image at time T) stored in the image memory B is moved based on the amount of movement of the vehicle, and the bird's-eye view image after movement (the bird's-eye view after movement at time T) is moved. Image).

【0050】続くステップ150では、新たに撮影され
て画像メモリAに記憶された(時刻T+1における)第
2鳥瞰図画像を、画像メモリAから読み込む。続くステ
ップ160では、移動後鳥瞰図画像と第2鳥瞰図画像と
を合成して合成鳥瞰図画像を作成する。
In the following step 150, the second bird's-eye view image (at time T + 1) newly captured and stored in the image memory A is read from the image memory A. In the following step 160, the moved bird's-eye view image and the second bird's-eye view image are combined to create a combined bird's-eye view image.

【0051】具体的には、移動後鳥瞰図画像上で対応す
る座標位置に画像メモりAの画像を全て上書きする。続
くステップ170では、合成鳥瞰図画像を、画像メモリ
Bに記憶する。続くステップ180では、合成鳥瞰図画
像を逆鳥瞰図変換して投影画像を作成する。
Specifically, all the images in the image memory A are overwritten at the corresponding coordinate positions on the moved bird's-eye view image. In the following step 170, the composite bird's-eye view image is stored in the image memory B. In the following step 180, a reverse bird's-eye view conversion is performed on the synthetic bird's-eye view image to create a projection image.

【0052】続くステップ190では、投影画像を画像
メモリCに記憶する。続くステップ200では、車両を
示す画像や視野角を示す画像などを加味して、画像メモ
リCに記憶した投影画像をモニタ3に表示し、一旦本処
理を終了する。
In the following step 190, the projected image is stored in the image memory C. In the following step 200, the projection image stored in the image memory C is displayed on the monitor 3 in consideration of the image showing the vehicle, the image showing the viewing angle, and the like, and the present processing is temporarily ended.

【0053】以後同様な処理を、新たにカメラ1で撮影
された画像が取り込まれる毎に実施する。つまり、次回
には、合成鳥瞰図画像を車両の移動に応じて移動させて
移動後鳥瞰図画像を作成し、その移動後鳥瞰図画像と新
たな第2鳥瞰図画像とを合成し、その合成鳥瞰図画像か
ら投影画像を作成してモニタ3に表示し、以後同様な処
理を繰り返してゆく。
Thereafter, similar processing is performed every time an image newly captured by the camera 1 is captured. That is, next time, the combined bird's-eye view image is moved according to the movement of the vehicle to create the moved bird's-eye view image, the moved bird's-eye view image and the new second bird's-eye view image are combined, and the combined bird's-eye view image is projected. An image is created and displayed on the monitor 3, and thereafter, similar processing is repeated.

【0054】d)この様に、本実施例では、カメラ1で
撮影した画像を鳥瞰図画像に変換し、車両信号に基づい
て車両の移動量を検出し、その車両の移動量に応じて鳥
瞰図画像を移動させて移動後鳥瞰図画像を作成する。そ
して、移動後鳥瞰図画像と新たに読み込んだ鳥瞰図画像
とを合成して合成鳥瞰図画像を作成し、その合成鳥瞰図
画像を投影画像に変換し、モニタ3の画面に表示してい
る。
D) As described above, in this embodiment, the image photographed by the camera 1 is converted into a bird's-eye view image, the moving amount of the vehicle is detected based on the vehicle signal, and the bird's-eye view image is detected according to the moving amount of the vehicle. Is moved to create a bird's-eye view image after movement. Then, the moved bird's-eye view image and the newly read bird's-eye view image are combined to create a combined bird's-eye view image, and the combined bird's-eye view image is converted into a projection image and displayed on the screen of the monitor 3.

【0055】つまり、本実施例では、合成鳥瞰図画像を
そのままモニタ3に表示するのではなく、合成鳥瞰図画
像をカメラ1で撮影したような投影画像に逆鳥瞰図変換
し、あたかも、カメラ1で撮影した様な画像をモニタ3
に表示するのである。これにより、モニタ3には、通常
ドライバーが見慣れている画像が表示されるので、見に
くさを感じることがないという効果がある。
That is, in this embodiment, the synthetic bird's-eye view image is not displayed on the monitor 3 as it is, but the synthetic bird's-eye view image is converted into a reverse bird's-eye view image into a projected image as if it was taken by the camera 1, and the image is taken by the camera 1. Monitor 3
It is displayed in. As a result, the image that is normally used by the driver is displayed on the monitor 3, which is advantageous in that it is not difficult to see.

【0056】また、本実施例では、平面的な鳥瞰図画像
を用いて画像の合成を行い、合成された鳥瞰図画像をも
との投影画像に変更するので、画像処理の負担やメモリ
の負担が少なくて済むという利点がある。更に、本実施
例では、平面的な鳥瞰図画像を用いることで距離が分か
り、これより合成された鳥瞰図画像をもとの投影画像に
変更するので、測距センサ等を用いずに、容易に合成さ
れた投影画像を作成できるという利点がある。
Further, in this embodiment, since the images are combined using the planar bird's-eye view image and the combined bird's-eye view image is changed to the original projection image, the load of image processing and the load of memory are reduced. The advantage is that Further, in the present embodiment, the distance is known by using the planar bird's-eye view image, and the bird's-eye view image synthesized from this is changed to the original projection image, so that the stitching can be easily performed without using a distance measuring sensor or the like. There is an advantage that a projected image can be created.

【0057】その上、本実施例では、投影画像を作成す
る際の視点を、カメラ1の位置ではなく、車両の先端側
の上方の仮想の位置に移動するので、例えば車両を駐車
する際の操作が容易になる。例えば、カメラ1が車両の
後端に配置されている場合には、駐車場にて車両がバッ
クして壁に近接したときには、カメラ1で撮影したまま
の画像を表示すると、図9(a)に示す様に、モニタ3
には殆ど壁の画像が表示されてしまい、また、この合成
鳥瞰図画像を表示した場合でも、図9(b)に示す様
に、壁と地面とが表面的に表示されるので、あまり見や
すいものではない。
Moreover, in the present embodiment, the viewpoint at the time of creating the projected image is moved not to the position of the camera 1 but to the virtual position above the front end side of the vehicle, so that, for example, when the vehicle is parked. Operation becomes easy. For example, when the camera 1 is arranged at the rear end of the vehicle, when the vehicle is backed up in the parking lot and approaches the wall, the image captured by the camera 1 is displayed. As shown in, monitor 3
Most of the images of the walls are displayed on the screen, and even when this composite bird's-eye view image is displayed, the walls and the ground are displayed superficially as shown in FIG. is not.

【0058】そこで、この合成鳥瞰図画像に対して視点
を仮想位置にずらして逆鳥瞰図変換して投影画像を求
め、その投影画像をモニタ3に表示すると、図9(b)
に示す様に、きわめて見やすい違和感のないものとな
る。尚、本発明は前記実施例になんら限定されるもので
はなく、本発明を逸脱しない範囲において種々の態様で
実施しうることはいうまでもない。
Therefore, when the viewpoint is shifted to a virtual position with respect to this composite bird's-eye view image to perform a reverse bird's-eye view conversion to obtain a projection image, and the projection image is displayed on the monitor 3, FIG.
As shown in, it is extremely easy to see and has no discomfort. Needless to say, the present invention is not limited to the above-mentioned embodiments, and can be carried out in various modes without departing from the present invention.

【0059】(1)例えば、前記実施例では、車両周辺
画像処理装置について述べたが、この装置による処理を
実行させる手段を記憶している記録媒体も、本発明の範
囲である。この記録媒体としては、マイクロコンピュー
タとして構成される電子制御装置、マイクロチップ、フ
ロッピィディスク、ハードディスク、光ディスク等の各
種の記録媒体が挙げられる。
(1) For example, the vehicle peripheral image processing apparatus has been described in the above embodiments, but a recording medium storing means for executing processing by this apparatus is also within the scope of the present invention. Examples of this recording medium include various recording media such as an electronic control unit configured as a microcomputer, a microchip, a floppy disk, a hard disk, and an optical disk.

【0060】つまり、上述した車両周辺画像処理装置の
処理を実行させることができる例えばプログラム等の手
段を記憶したものであれば、特に限定はない。 (2)また、視点の仮想の位置(仮想カメラの位置)
は、予め設定された固定の位置でもよいが、ユーザによ
り任意に変更可能としてもよい。これにより、各ユーザ
にとって最も見やすい画像を表示することができる。
That is, there is no particular limitation as long as it stores means such as a program that can execute the processing of the above-described vehicle peripheral image processing apparatus. (2) Also, the virtual position of the viewpoint (the position of the virtual camera)
May be a fixed position set in advance, but may be arbitrarily changed by the user. As a result, it is possible to display the image that is most easy for each user to see.

【0061】(3)更に、モニタに表示する画像として
は、合成鳥瞰図画像と投影画像とを、ユーザにより任意
に変更可能としてもより。これにより、各ユーザにとっ
て最も見やすい画像を表示することができる。 (4)その上、前記実施例では、車両の移動状態を車速
センサやヨーレートセンサを用いて検出し、その情報に
基づいて移動後鳥瞰図画像を作成する様にしたが、例え
ばカメラで撮影した画像(鳥瞰図画像)の動きベクトル
を求め、この動きベクトルから車両の移動状態を推定し
て、移動後鳥瞰図画像を求めてもよい。
(3) Further, as the image displayed on the monitor, the composite bird's-eye view image and the projection image may be arbitrarily changed by the user. As a result, it is possible to display the image that is most easy for each user to see. (4) In addition, in the above-described embodiment, the moving state of the vehicle is detected by using the vehicle speed sensor and the yaw rate sensor, and the post-movement bird's-eye view image is created based on the information. The motion vector of (bird's eye view image) may be obtained, the moving state of the vehicle may be estimated from this motion vector, and the bird's eye view image after movement may be obtained.

【0062】例えばいわゆる画像のマッチングの処理に
より、第1鳥瞰図画像とそれより後の第2鳥瞰図画像と
の移動状態を検出し、その画像の移動状態から車両の移
動状態を求めるようにしてもよい。
For example, the moving state of the first bird's-eye view image and the second bird's-eye view image after that may be detected by so-called image matching processing, and the moving state of the vehicle may be obtained from the moving state of the image. .

【図面の簡単な説明】[Brief description of drawings]

【図1】 実施例の車両周辺画像処理装置の主要構成を
示す説明図である。
FIG. 1 is an explanatory diagram illustrating a main configuration of a vehicle peripheral image processing device according to an embodiment.

【図2】 実施例の車両周辺画像処理装置の電気的構成
を示す説明図である。
FIG. 2 is an explanatory diagram showing an electrical configuration of a vehicle peripheral image processing device of the embodiment.

【図3】 実施例の車両周辺画像処理装置により用いら
れる画像を示し、(a)はカメラにより撮影された画像
の説明図、(b)は鳥瞰図画像を示す説明図である。
3A and 3B show images used by the vehicle peripheral image processing apparatus of the embodiment, FIG. 3A is an explanatory view of an image captured by a camera, and FIG. 3B is an explanatory view showing a bird's-eye view image.

【図4】 実施例の車両周辺画像処理装置による座標変
換の際の位置関係を示す説明図である。
FIG. 4 is an explanatory diagram showing a positional relationship at the time of coordinate conversion by the vehicle peripheral image processing device of the embodiment.

【図5】 実施例の車両周辺画像処理装置による車両の
移動量を求めるための手法を示す説明図である。
FIG. 5 is an explanatory diagram showing a method for obtaining the movement amount of the vehicle by the vehicle peripheral image processing device of the embodiment.

【図6】 実施例の車両周辺画像処理装置のよる画像作
成の手順を示す説明図である。
FIG. 6 is an explanatory diagram showing a procedure of image creation by the vehicle periphery image processing apparatus of the embodiment.

【図7】 実施例の車両周辺画像処理装置のよる画像作
成の方法を示し、(a)はカメラの位置等を示す説明
図、(b)は駐車開始時の画像を示す説明図、(c)は
駐車中の画像を示す説明図、(d)は駐車終了の画像を
示す説明図である。
7A and 7B show a method of creating an image by the vehicle peripheral image processing apparatus of the embodiment, FIG. 7A is an explanatory diagram showing a position of a camera, FIG. 7B is an explanatory diagram showing an image at the start of parking, and FIG. ) Is an explanatory view showing an image during parking, and (d) is an explanatory view showing an image after parking.

【図8】 実施例の車両周辺画像処理装置の処理を示す
フローチャートである。
FIG. 8 is a flowchart showing the processing of the vehicle peripheral image processing device of the embodiment.

【図9】 実施例の車両周辺画像処理装置のよる画像作
成の手順を示す説明図である。
FIG. 9 is an explanatory diagram showing an image creating procedure performed by the vehicle periphery image processing apparatus according to the embodiment.

【符号の説明】[Explanation of symbols]

1…カメラ 3…車載モニタ(モニタ) 5…車速センサ 7…ヨーレイトセンサ 9…画像処理ユニット 1 ... Camera 3 ... In-vehicle monitor (monitor) 5 ... Vehicle speed sensor 7 ... Yaw rate sensor 9 ... Image processing unit

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 330 G06T 1/00 330A 3/00 100 3/00 100 (72)発明者 柳川 博彦 愛知県刈谷市昭和町1丁目1番地 株式会 社デンソー内 (72)発明者 石川 哲理 愛知県刈谷市昭和町1丁目1番地 株式会 社デンソー内 Fターム(参考) 5B057 AA16 BA02 CA12 CA16 CC01 CD20 CE08 5C054 AA01 FD01 FE01 FE12 GB12 GB15 HA30 Front page continuation (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 1/00 330 G06T 1/00 330A 3/00 100 3/00 100 (72) Inventor Hirohiko Yanagawa Showa Kariya, Aichi Prefecture 1-Chome 1-Densha Stock Company Denso (72) Inventor Tetsuri Ishikawa 1-1-Showa-cho Kariya City, Aichi F-Term inside DENSO Stock Company 5B057 AA16 BA02 CA12 CA16 CC01 CD20 CE08 5C054 AA01 FD01 FE01 FE12 GB12 GB15 HA30

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 車両周辺の画像を撮影する撮影手段と、
画像を表示する表示手段とを備えた車両に対して、前記
撮影手段により撮影された画像を処理して前記表示手段
に表示する車両周辺画像処理装置において、 前記撮影手段により撮影された画像に基づいて作成され
た第1鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、 前記第1鳥瞰図画像を、前記車両の移動状態に応じて移
動させて、移動後鳥瞰図画像を作成する移動後鳥瞰図画
像作成手段と、 前記第1鳥瞰図画像より後に撮影されて作成された第2
鳥瞰図画像と、前記移動後鳥瞰図画像とを合成して、合
成鳥瞰図画像を作成する合成鳥瞰図画像作成手段と、 前記合成鳥瞰図画像を所定の視点からの投影画像に変換
する画像変換手段と、 を備え、 前記投影画像を前記表示手段に表示することを特徴とす
る車両周辺画像処理装置。
1. A photographing means for photographing an image of a periphery of a vehicle,
A vehicle peripheral image processing device for processing an image captured by the image capturing unit and displaying the image on the display unit for a vehicle including a display unit displaying an image, based on the image captured by the image capturing unit. A bird's-eye view image storage unit for storing the first bird's-eye view image created by the above; and a moved bird's-eye view image creation unit for moving the first bird's-eye view image according to the moving state of the vehicle to create a moved bird's-eye view image. , A second image created after the first bird's-eye view image
A bird's-eye view image and the moved bird's-eye view image are combined to create a composite bird's-eye view image creating means; and an image converting means for converting the composite bird's-eye view image into a projection image from a predetermined viewpoint. A vehicle peripheral image processing apparatus, wherein the projection image is displayed on the display means.
【請求項2】 前記視点を前記撮影手段の撮影位置とは
異なる仮想の位置に移動し、その仮想の位置を視点とし
て前記投影画像を求めることを特徴とする前記請求項1
に記載の車両周辺画像処理装置。
2. The projection image is obtained by moving the viewpoint to a virtual position different from a photographing position of the photographing means, and using the virtual position as the viewpoint.
The image processing apparatus for a vehicle periphery according to.
【請求項3】 前記視点の仮想の位置を、ユーザにより
変更可能としたことを特徴とする前記請求項1又は2に
記載の車両周辺画像処理装置。
3. The vehicle peripheral image processing apparatus according to claim 1, wherein the virtual position of the viewpoint can be changed by a user.
【請求項4】 前記表示手段に表示する画像を、前記合
成鳥瞰図画像と前記投影画像とに、ユーザにより変更可
能としたことを特徴とする前記請求項1〜3のいずれか
に記載の車両周辺画像処理装置。
4. The vehicle periphery according to claim 1, wherein the image displayed on the display means can be changed to the composite bird's-eye view image and the projection image by a user. Image processing device.
【請求項5】 前記表示手段に前記投影画像を表示する
場合には、自車両を示す画像を加えて表示することを特
徴とする前記請求項1〜4のいずれかに記載の車両周辺
画像処理装置。
5. The vehicle peripheral image processing according to claim 1, wherein when the projection image is displayed on the display means, an image showing the own vehicle is additionally displayed. apparatus.
【請求項6】 前記第1鳥瞰図画像として、今回の合成
鳥瞰図画像より前に作成した合成鳥瞰図画像を用いるこ
とを特徴とする前記請求項1〜5のいずれかに記載の車
両周辺画像処理装置。
6. The vehicle peripheral image processing device according to claim 1, wherein a synthetic bird's-eye view image created prior to the present synthetic bird's-eye view image is used as the first bird's-eye view image.
【請求項7】 前記合成鳥瞰図画像は、前記第2鳥瞰図
画像を表示する表示領域以外に、前記移動後鳥瞰図画像
を加入した画像であることを特徴とする前記請求項1〜
6のいずれかに記載の車両周辺画像処理装置。
7. The composite bird's-eye view image is an image to which the post-movement bird's-eye view image is added, in addition to the display area for displaying the second bird's-eye view image.
6. The vehicle peripheral image processing device according to any one of 6.
【請求項8】 前記請求項1〜7のいずれかに記載の車
両周辺画像処理装置による処理を実行させる手段を記憶
していることを特徴とする記録媒体。
8. A recording medium storing means for executing processing by the vehicle peripheral image processing device according to claim 1.
JP2001384587A 2001-12-18 2001-12-18 Vehicle periphery image processing apparatus and recording medium Expired - Fee Related JP3778849B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001384587A JP3778849B2 (en) 2001-12-18 2001-12-18 Vehicle periphery image processing apparatus and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001384587A JP3778849B2 (en) 2001-12-18 2001-12-18 Vehicle periphery image processing apparatus and recording medium

Publications (2)

Publication Number Publication Date
JP2003189291A true JP2003189291A (en) 2003-07-04
JP3778849B2 JP3778849B2 (en) 2006-05-24

Family

ID=27594282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001384587A Expired - Fee Related JP3778849B2 (en) 2001-12-18 2001-12-18 Vehicle periphery image processing apparatus and recording medium

Country Status (1)

Country Link
JP (1) JP3778849B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2416901A (en) * 2004-08-03 2006-02-08 Denso Corp Vehicle parking assistant that calculates and displays to the driver the position needed to reverse the steering lock when parallel parking
JP2007269060A (en) * 2006-03-30 2007-10-18 Aisin Aw Co Ltd Drive assisting method and drive assisting device
WO2009132054A3 (en) * 2008-04-24 2009-12-17 Gm Global Technology Operations, Inc. Vehicle clear path detection
CN101808236A (en) * 2009-02-12 2010-08-18 株式会社电装 Vehicle periphery displaying apparatus
DE102010016064A1 (en) 2009-03-25 2010-09-30 Denso Corporation, Kariya-City A vehicle peripheral display device and method for a vehicle peripheral image
CN101963509A (en) * 2009-05-08 2011-02-02 通用汽车环球科技运作公司 Clear path detection through road modeling
US8332134B2 (en) 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
US8421859B2 (en) 2008-04-24 2013-04-16 GM Global Technology Operations LLC Clear path detection using a hierachical approach
US8452053B2 (en) 2008-04-24 2013-05-28 GM Global Technology Operations LLC Pixel-based texture-rich clear path detection
US8487991B2 (en) 2008-04-24 2013-07-16 GM Global Technology Operations LLC Clear path detection using a vanishing point
US8605947B2 (en) 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8611585B2 (en) 2008-04-24 2013-12-17 GM Global Technology Operations LLC Clear path detection using patch approach
US8634593B2 (en) 2008-04-24 2014-01-21 GM Global Technology Operations LLC Pixel-based texture-less clear path detection
US8670592B2 (en) 2008-04-24 2014-03-11 GM Global Technology Operations LLC Clear path detection using segmentation-based method
US8699754B2 (en) 2008-04-24 2014-04-15 GM Global Technology Operations LLC Clear path detection through road modeling
US8751154B2 (en) 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8803966B2 (en) 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
US8890951B2 (en) 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
CN106063258A (en) * 2014-03-05 2016-10-26 株式会社电装 Vehicle peripheral image display device and method for displaying vehicle peripheral image
WO2019093378A1 (en) * 2017-11-10 2019-05-16 株式会社デンソー Display processing device
CN115402299A (en) * 2021-05-26 2022-11-29 丰田自动车株式会社 Parking assist apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10576892B2 (en) * 2016-03-24 2020-03-03 Ford Global Technologies, Llc System and method for generating a hybrid camera view in a vehicle

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2416901A (en) * 2004-08-03 2006-02-08 Denso Corp Vehicle parking assistant that calculates and displays to the driver the position needed to reverse the steering lock when parallel parking
GB2416901B (en) * 2004-08-03 2008-05-07 Denso Corp Vehicle parking assisting system
JP2007269060A (en) * 2006-03-30 2007-10-18 Aisin Aw Co Ltd Drive assisting method and drive assisting device
US8890951B2 (en) 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
US8803966B2 (en) 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
US9852357B2 (en) 2008-04-24 2017-12-26 GM Global Technology Operations LLC Clear path detection using an example-based approach
US9652980B2 (en) 2008-04-24 2017-05-16 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8634593B2 (en) 2008-04-24 2014-01-21 GM Global Technology Operations LLC Pixel-based texture-less clear path detection
CN102076531A (en) * 2008-04-24 2011-05-25 通用汽车环球科技运作公司 Vehicle clear path detection
US8332134B2 (en) 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
CN102076531B (en) * 2008-04-24 2013-03-27 通用汽车环球科技运作公司 Vehicle clear path detection
US8421859B2 (en) 2008-04-24 2013-04-16 GM Global Technology Operations LLC Clear path detection using a hierachical approach
US8428305B2 (en) 2008-04-24 2013-04-23 GM Global Technology Operations LLC Method for detecting a clear path through topographical variation analysis
WO2009132054A3 (en) * 2008-04-24 2009-12-17 Gm Global Technology Operations, Inc. Vehicle clear path detection
US8452053B2 (en) 2008-04-24 2013-05-28 GM Global Technology Operations LLC Pixel-based texture-rich clear path detection
US8487991B2 (en) 2008-04-24 2013-07-16 GM Global Technology Operations LLC Clear path detection using a vanishing point
US8611585B2 (en) 2008-04-24 2013-12-17 GM Global Technology Operations LLC Clear path detection using patch approach
US8751154B2 (en) 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8605947B2 (en) 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8917904B2 (en) 2008-04-24 2014-12-23 GM Global Technology Operations LLC Vehicle clear path detection
US8670592B2 (en) 2008-04-24 2014-03-11 GM Global Technology Operations LLC Clear path detection using segmentation-based method
US8699754B2 (en) 2008-04-24 2014-04-15 GM Global Technology Operations LLC Clear path detection through road modeling
CN101808236A (en) * 2009-02-12 2010-08-18 株式会社电装 Vehicle periphery displaying apparatus
US8441536B2 (en) 2009-02-12 2013-05-14 Denso Corporation Vehicle periphery displaying apparatus
DE102010000385A1 (en) 2009-02-12 2010-08-19 Denso Corporation, Kariya-City Vehicle periphery display device
US8514282B2 (en) 2009-03-25 2013-08-20 Denso Corporation Vehicle periphery display device and method for vehicle periphery image
DE102010016064A1 (en) 2009-03-25 2010-09-30 Denso Corporation, Kariya-City A vehicle peripheral display device and method for a vehicle peripheral image
CN101963509A (en) * 2009-05-08 2011-02-02 通用汽车环球科技运作公司 Clear path detection through road modeling
CN106063258A (en) * 2014-03-05 2016-10-26 株式会社电装 Vehicle peripheral image display device and method for displaying vehicle peripheral image
CN106063258B (en) * 2014-03-05 2018-12-25 株式会社电装 Vehicle-surroundings image display device, vehicle-surroundings image display method
WO2019093378A1 (en) * 2017-11-10 2019-05-16 株式会社デンソー Display processing device
JP2019087980A (en) * 2017-11-10 2019-06-06 株式会社デンソー Display processing device
CN115402299A (en) * 2021-05-26 2022-11-29 丰田自动车株式会社 Parking assist apparatus

Also Published As

Publication number Publication date
JP3778849B2 (en) 2006-05-24

Similar Documents

Publication Publication Date Title
JP2003189291A (en) Image processor for area around vehicle and recording medium
JP2002373327A (en) Apparatus for processing image around vehicle and recording medium
JP5182042B2 (en) Image processing apparatus, image processing method, and computer program
CN107021015B (en) System and method for image processing
US20110210868A1 (en) Parking assistance apparatus
CN103770706B (en) Dynamic reversing mirror indicating characteristic
WO2003107273A1 (en) Drive assisting system
JP5914114B2 (en) Parking assistance device and parking assistance method
CN102934427A (en) Image processing device, image processing system, and image processing method
JP2002354467A (en) Vehicle surrounding information display device
JP2004254219A (en) Vehicular surrounding image processing apparatus and program, and recording medium
JP2007102798A (en) Vehicle circumference monitoring system
JP2008213647A (en) Parking assist method and parking assist system
JP4071463B2 (en) Vehicle periphery image processing apparatus
JP3796417B2 (en) Vehicle peripheral image processing apparatus and recording medium
JP3900415B2 (en) Vehicle peripheral image processing apparatus, program, and recording medium
JP2002330428A (en) Image display control method and device for vehicle-mounted camera
JP4857159B2 (en) Vehicle driving support device
JP2006252577A (en) Map data generating apparatus
CN118266207A (en) Image processing method, image display method, image processing device, and image display device
JP2012046124A (en) Image display system, image processing device and image display method
CN113065999B (en) Vehicle-mounted panorama generation method and device, image processing equipment and storage medium
US12384299B2 (en) Vehicle camera system for view creation of viewing locations
US20240426623A1 (en) Vehicle camera system for view creation of viewing locations
JP2002293196A (en) Image display method of vehicle-mounted camera and its device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060228

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120310

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120310

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130310

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140310

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees