[go: up one dir, main page]

JP2007278869A - Ranging device, vehicle periphery monitoring device, ranging method, and ranging program - Google Patents

Ranging device, vehicle periphery monitoring device, ranging method, and ranging program Download PDF

Info

Publication number
JP2007278869A
JP2007278869A JP2006106094A JP2006106094A JP2007278869A JP 2007278869 A JP2007278869 A JP 2007278869A JP 2006106094 A JP2006106094 A JP 2006106094A JP 2006106094 A JP2006106094 A JP 2006106094A JP 2007278869 A JP2007278869 A JP 2007278869A
Authority
JP
Japan
Prior art keywords
captured image
image
distance
area
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006106094A
Other languages
Japanese (ja)
Other versions
JP2007278869A5 (en
JP4762774B2 (en
Inventor
Masato Watanabe
正人 渡辺
Shinji Nagaoka
伸治 長岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006106094A priority Critical patent/JP4762774B2/en
Publication of JP2007278869A publication Critical patent/JP2007278869A/en
Publication of JP2007278869A5 publication Critical patent/JP2007278869A5/ja
Application granted granted Critical
Publication of JP4762774B2 publication Critical patent/JP4762774B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】2つの撮像装置の撮像画像から対象物を抽出する領域を可変的に設定するようにしつつ、視差に基づく対象物の距離の測定を精度よく行うことを可能とする。
【解決手段】2つの撮像装置2R,2Lの撮像画像のそれぞれに対象物を抽出するための対象物抽出領域を設定する。各撮像画像における基準画像領域の位置データと、基準画像領域における対象物の視差と距離との関係を規定する基準パラメータとがあらかじめ記憶手段に記憶保持されている。設定された対象物抽出領域における対象物の視差と距離との関係を規定するパラメータを、各撮像画像における対象物抽出領域と基準画像領域との位置関係と、基準パラメータとに基づいて決定し、この決定したパラメータを基に、対象物の視差から対象物の距離を算出する。
【選択図】図1
An object of the present invention is to accurately measure a distance of an object based on parallax while variably setting a region for extracting an object from captured images of two imaging devices.
An object extraction area for extracting an object is set in each of the captured images of two image pickup apparatuses 2R and 2L. The position data of the reference image area in each captured image and the reference parameter that defines the relationship between the parallax and distance of the object in the reference image area are stored and held in advance in the storage unit. A parameter that defines the relationship between the parallax and distance of the object in the set object extraction region is determined based on the positional relationship between the object extraction region and the reference image region in each captured image and the reference parameter, Based on the determined parameters, the distance of the object is calculated from the parallax of the object.
[Selection] Figure 1

Description

本発明は、車両に搭載された2つの撮像画像における対象物の視差を基に、該対象物の距離(車両からの相対距離)を測定する測距装置、測距方法および測距用プログラムに関する。さらに、この測距装置を搭載した車両の周辺監視装置に関する。   The present invention relates to a distance measuring device, a distance measuring method, and a distance measuring program for measuring the distance (relative distance from a vehicle) of an object based on the parallax of the object in two captured images mounted on the vehicle. . Furthermore, it is related with the periphery monitoring apparatus of the vehicle carrying this distance measuring device.

従来、車両に搭載した撮像装置の撮像画像を基に、車両の周辺に存在する人などの対象物を監視する車両の周辺監視装置としては、例えば特許文献1に見られるものが本願出願人により提案されている。   2. Description of the Related Art Conventionally, as a vehicle periphery monitoring device for monitoring an object such as a person existing around a vehicle based on a captured image of an image pickup device mounted on the vehicle, for example, the one shown in Patent Document 1 is disclosed by the present applicant. Proposed.

この特許文献1に見られる技術では、車両の前部に左右一対の撮像装置(赤外線カメラ)を搭載して、これらの撮像装置の撮像画像から人などの対象物を抽出すると共に、左右の撮像画像にそれぞれ含まれる同一の対象物の視差、すなわち、右側の撮像画像中での該対象物の位置(該撮像画像中での横方向位置)と左側の撮像画像中での該対象物の位置(該撮像画像中での横方向位置)との差を基に、車両から該対象物までの相対距離を検出するようにしている。この場合、各撮像画像中での対象物の横方向位置は、該撮像画像の中心点を通る縦方向の直線(以下、横方向中心線という)から、該対象物の重心点までの間隔(横方向中心線の右側または左側を正とする間隔)により表される。そして、その検出した相対距離を基に、対象物の実空間位置(車両に対する相対位置)を認識し、その認識した実空間位置などを基に、対象物が車両との接触を回避すべき回避対象であるか否かを判定して、回避対象であると判定した場合に運転者に対する警報を行なうようにしている。   In the technique shown in Patent Document 1, a pair of left and right imaging devices (infrared cameras) are mounted on the front portion of a vehicle, and an object such as a person is extracted from images captured by these imaging devices, and left and right imaging is performed. Parallax of the same object included in each image, that is, the position of the object in the right captured image (lateral position in the captured image) and the position of the object in the left captured image The relative distance from the vehicle to the object is detected based on the difference from (the lateral position in the captured image). In this case, the horizontal position of the object in each captured image is the distance from the vertical straight line passing through the center point of the captured image (hereinafter referred to as the horizontal center line) to the center of gravity of the object ( (Interval with the right or left side of the horizontal center line being positive). Based on the detected relative distance, the real space position of the object (relative position with respect to the vehicle) is recognized, and the object should avoid contact with the vehicle based on the recognized real space position. It is determined whether or not the vehicle is a target, and when it is determined that the vehicle is to be avoided, a warning is given to the driver.

また、特許文献2に見られる装置も知られている。この装置では、機構的なズーム動作が可能な撮像装置を車両に搭載し、その撮像画像をヘッドアップディスプレイ装置により、フロントウィンドウに表示するようにしている。そして、撮像装置の画角(ズーム量)を、車両の車速や、車両のステアリング舵角、レーダ装置によって検出された前走車との車間距離などに応じて変更するようにしている。
特開2001−6096号公報 特開2005−81860号公報
An apparatus found in Patent Document 2 is also known. In this device, an imaging device capable of mechanical zoom operation is mounted on a vehicle, and the captured image is displayed on a front window by a head-up display device. Then, the angle of view (zoom amount) of the imaging device is changed according to the vehicle speed of the vehicle, the steering angle of the vehicle, the inter-vehicle distance detected by the radar device, and the like.
JP 2001-6096 A Japanese Patent Laying-Open No. 2005-81860

ところで、特許文献1に見られるように、2つの撮像画像から求められる対象物の視差を利用して、対象物の相対距離の算出を行なうようにした車両の周辺監視装置において、車両の走行環境(車両の運転状況や、車両の周辺の状況)に応じて適宜、撮像範囲を拡縮できるようにすることが望まれる。例えば画像処理の演算処理の負荷を軽減するために、通常は、撮像範囲を狭くしておく。そして、車両からの対象物の距離が比較的近距離となり、狭い撮像範囲では、2つの撮像画像内に、該対象物の全体を含ませることができないような場合に、撮像範囲を広げることが望ましいと考えられる。   By the way, as can be seen in Patent Document 1, in a vehicle periphery monitoring device that calculates the relative distance of an object using the parallax of the object obtained from two captured images, the traveling environment of the vehicle It is desirable to be able to expand and contract the imaging range as appropriate according to (the driving situation of the vehicle and the situation around the vehicle). For example, in order to reduce the processing load of image processing, the imaging range is usually narrowed. Then, when the distance from the vehicle to the object is relatively short and the entire image of the object cannot be included in two captured images in a narrow imaging range, the imaging range can be expanded. It is considered desirable.

そして、このように撮像範囲を拡縮する場合、特許文献2に見られるように、各撮像装置に機構的なズーム機能を備え、各撮像画像の撮像範囲を変更できるようにすることが考えられる。   And when expanding and reducing the imaging range in this way, as seen in Patent Document 2, it is conceivable that each imaging device has a mechanical zoom function so that the imaging range of each captured image can be changed.

しかしながら、各撮像装置にズーム機能を備えると、そのズーム機能の機構的な動作によって、各撮像装置の光軸や焦点距離の経時的な変化を生じやすい。このため、特許文献1に見られるように、2つの撮像画像における同一の対象物の視差を利用して該対象物の相対距離の検出を行なう場合には、その相対距離の検出を精度よく行なうことが困難となりやすい。これは、各撮像装置の光軸や焦点距離の変化によって、視差と相対距離との関係が変化すると共に、その光軸や焦点距離の変化を検出することが困難であるためである。   However, if each imaging device is provided with a zoom function, the optical axis and focal length of each imaging device are likely to change over time due to the mechanical operation of the zoom function. For this reason, as can be seen in Patent Document 1, when the relative distance of the target object is detected using the parallax of the same target object in the two captured images, the relative distance is accurately detected. It tends to be difficult. This is because the relationship between parallax and relative distance changes due to changes in the optical axis and focal length of each imaging device, and it is difficult to detect changes in the optical axis and focal length.

そこで、各撮像画像に、対象物を抽出するための画像領域を可変的に設定するようにして、各撮像装置に機構的なズーム機能を備えることなく、実質的な撮像範囲を拡縮することが考えられる。   In view of this, it is possible to variably set an image area for extracting an object in each captured image so that the substantial imaging range can be expanded or reduced without providing each image capturing device with a mechanical zoom function. Conceivable.

この場合、左右の2つの撮像装置の光軸が互いに平行で、且つ、それらの光軸の高さが同一である場合には、特許文献1に見られる如く、右側および左側の撮像画像に含まれる同一対象物の、各撮像画像の横方向中心線からの間隔の差を該対象物の視差として求め、その求めた視差に基づいて対象物の相対距離を算出するようにすればよい。   In this case, when the optical axes of the left and right imaging devices are parallel to each other and the heights of the optical axes are the same, as shown in Patent Document 1, they are included in the right and left captured images. What is necessary is just to obtain | require the difference of the space | interval from the horizontal direction center line of each captured image as the parallax of the said target object, and to calculate the relative distance of a target object based on the calculated | required parallax.

しかるに、2つの撮像装置の光軸の向きや高さを正確に上記の如く揃えて、車両に搭載することは、撮像装置の車両への組付け位置もしくは姿勢の誤差などに起因して、実際には極めて難しい。また、撮像装置を車両に組付けた後に、両撮像装置の光軸を調整することは非常に手間を要するものとなる。   However, when the orientation and height of the optical axes of the two imaging devices are accurately aligned as described above and mounted on the vehicle, it is actually caused by errors in the position or orientation of the imaging device mounted on the vehicle. It is extremely difficult. In addition, it is very time-consuming to adjust the optical axes of both imaging devices after the imaging devices are assembled to the vehicle.

そして、2つの撮像装置の光軸が揃っていない場合には、対象物を抽出するための画像領域の設定の仕方などによっては、算出された視差から求められる対象物の相対速度の精度が低下する恐れがあった。   If the optical axes of the two imaging devices are not aligned, the accuracy of the relative speed of the target obtained from the calculated parallax decreases depending on how the image area is set for extracting the target. There was a fear.

本発明はかかる背景に鑑みてなされたものであり、2つの撮像装置の撮像画像から対象物を抽出する領域を可変的に設定するようにしつつ、視差に基づく対象物の距離の測定を精度よく行うことを可能とする測距装置、測距方法および測距用プログラムを提供することを目的とする。さらに、そのような測距装置を備えた車両の周辺監視装置を提供することを目的とする。   The present invention has been made in view of such a background, and accurately measures the distance of an object based on parallax while variably setting an area for extracting an object from captured images of two imaging devices. An object of the present invention is to provide a distance measuring device, a distance measuring method, and a distance measuring program that can be performed. Furthermore, it aims at providing the periphery monitoring apparatus of a vehicle provided with such a ranging device.

本発明の測距装置の第1の態様である第1発明は、前記の目的を達成するために、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距装置において、前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データとをあらかじめ記憶保持した記憶手段と、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する対象物抽出領域設定手段と、前記第1の撮像画像および第2の撮像画像のそれぞれにおける前記設定された対象物抽出領域の位置と前記位置データが表す前記基準画像領域の位置との間の位置関係と、前記基準パラメータとに基づいて、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを決定するパラメータ決定手段と、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出されたとき、該対象物抽出領域に対応して前記パラメータ決定手段により決定されたパラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する距離算出手段とを備えたことを特徴とする。   According to a first aspect of the first aspect of the distance measuring device of the present invention, in order to achieve the above object, a first captured image and a second captured image respectively obtained from two image capturing devices mounted on a vehicle. The same object included in each captured image is extracted from the image, and the difference between the position of the object on the first captured image and the position of the object on the second captured image In the distance measuring device that calculates the distance of the object to the vehicle based on the parallax, the reference image area is predetermined in the entire area of each of the first captured image and the second captured image. Reference parameters defining the relationship between the parallax of the target object and the distance of the target object when the same target object is extracted, and position data representing the position of the reference image area in each captured image are stored and held in advance. Storage means; An object extraction area setting means for variably setting an object extraction area for extracting an object for each of the first captured image and the second captured image, the first captured image, and the second captured image. Based on the positional relationship between the position of the set object extraction region set in each captured image and the position of the reference image region represented by the position data, and the reference parameter, the first captured image and Parameter determining means for determining a parameter that defines the relationship between the parallax of the object and the distance of the object when the same object is extracted in the object extraction region set in each of the second captured images When the same object is extracted in the object extraction area set for each of the first captured image and the second captured image, the parameter determination is performed corresponding to the object extraction area. Based on the relationship defined by the determined parameters by means, characterized in that a distance calculating means for calculating the distance of the object from the disparity of the object in the object extraction area.

かかる第1発明によれば、前記第1の撮像画像および第2の撮像画像のそれぞれにおける前記設定された対象物抽出領域の位置と前記位置データが表す前記基準画像領域の位置との間の位置関係と、前記基準パラメータとに基づいて、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを決定するので、前記対象物抽出領域設定手段により可変的に設定される各種類の対象物抽出領域に対して、各撮像画像の該対象物抽出領域で抽出される同一の対象物の視差と距離との関係を規定する適切なパラメータを設定できる。なお、基準画像領域や、この基準画像領域に対応する前記基準パラメータおよび位置データは、例えば車両の製造時や保守・点検時などに実験的に決定しておけばよい。この場合、第1および第2の撮像画像のそれぞれにおける基準画像領域の位置は、各撮像画像の光軸の向きのずれなどに起因して、一般には、第1の撮像画像と第2の撮像画像とで相違する。   According to the first invention, the position between the position of the set object extraction region and the position of the reference image region represented by the position data in each of the first captured image and the second captured image. Based on the relationship and the reference parameter, the parallax of the object when the same object is extracted in the object extraction region set in each of the first captured image and the second captured image, and the parallax Since the parameter that defines the relationship with the distance of the object is determined, for each type of object extraction area variably set by the object extraction area setting means, the object extraction area of each captured image It is possible to set an appropriate parameter that defines the relationship between the parallax and the distance of the same object extracted in step (1). The reference image area and the reference parameters and position data corresponding to the reference image area may be determined experimentally, for example, at the time of manufacturing the vehicle or during maintenance / inspection. In this case, the position of the reference image region in each of the first and second captured images is generally due to a shift in the direction of the optical axis of each captured image and the like, and generally the first captured image and the second captured image. It differs from the image.

従って、対象物抽出領域設定手段により可変的に設定される各種類の対象物抽出領域に対して、上記の如く決定したパラメータにより規定される視差と距離との関係に基づいて、該対象物抽出領域における対象物の視差から該対象物の距離を求めることにより、該距離を精度よく適切に求めることが可能となる。   Therefore, for each type of object extraction area variably set by the object extraction area setting means, the object extraction is performed based on the relationship between the parallax and the distance defined by the parameters determined as described above. By obtaining the distance of the object from the parallax of the object in the region, it is possible to obtain the distance accurately and appropriately.

よって、第1発明によれば、2つの撮像装置の撮像画像から対象物を抽出する領域を可変的に設定するようにしつつ、視差に基づく対象物の距離(車両からの相対距離)の測定を精度よく行うことが可能となる。   Therefore, according to the first aspect of the present invention, the distance of the object based on the parallax (relative distance from the vehicle) is measured while the region for extracting the object from the captured images of the two imaging devices is variably set. It becomes possible to carry out with high accuracy.

なお、第1発明は、第1および第2の各撮像画像に設定する対象物抽出領域の位置(各撮像画像に対する相対位置)が、第1の撮像画像と第2の撮像画像とで同じである場合に好適である。また、対象物抽出領域における対象物の視差を求めるときには、第1の撮像画像の対象物抽出領域に対する対象物の相対位置(該対象物抽出領域に対して固定された基準点に対する相対位置)と、第2の撮像画像の対象物抽出領域に対する対象物の相対位置(該対象物抽出領域に対して固定された基準点に対する相対位置)との差を該対象物の視差として求めればよい。同様に、前記基準パラメータに係わる視差については、第1の撮像画像の基準画像領域に対する対象物の相対位置と、第2の撮像画像の基準画像領域に対する対象物の相対位置との差を該対象物の視差として求めればよい。   In the first invention, the position of the object extraction region set in each of the first and second captured images (relative position with respect to each captured image) is the same between the first captured image and the second captured image. It is suitable in some cases. Further, when obtaining the parallax of the object in the object extraction area, the relative position of the object with respect to the object extraction area of the first captured image (relative position with respect to the reference point fixed with respect to the object extraction area) and The difference between the relative position of the object with respect to the object extraction area of the second captured image (relative position with respect to the reference point fixed with respect to the object extraction area) may be obtained as the parallax of the object. Similarly, for the parallax related to the reference parameter, the difference between the relative position of the object with respect to the reference image area of the first captured image and the relative position of the object with respect to the reference image area of the second captured image is determined as the target. What is necessary is just to obtain | require as a parallax of an object.

また、本発明の測距装置の第2の態様である第2発明は、前記の目的を達成するために、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距装置において、前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データとをあらかじめ記憶保持した記憶手段と、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する対象物抽出領域設定手段と、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記基準パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する距離算出手段とを備え、前記対象物抽出領域設定手段は、前記第1の撮像画像および第2の撮像画像のそれぞれに設定する前記対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係が前記基準パラメータにより規定される関係に等しくなるように、前記位置データが表す前記基準画像領域の位置に応じて前記対象物抽出領域を設定することを特徴とする。   In order to achieve the above object, a second invention, which is a second aspect of the distance measuring device of the present invention, includes a first captured image and a second captured image respectively obtained from two imaging devices mounted on a vehicle. The same object included in each captured image is extracted from each captured image, and the position of the object on the first captured image and the position of the target on the second captured image are In a distance measuring device that calculates the distance of the object to the vehicle based on a parallax that is a difference between the reference image, a reference image that is predetermined within the entire area of each of the first captured image and the second captured image Reference parameters that define the relationship between the parallax of the target object and the distance of the target object when the same target object is extracted in the area and position data that represents the position of the reference image area in each captured image are stored in advance. Retained hand Object extraction area setting means for variably setting an object extraction area for extracting an object for each of the first captured image and the second captured image, and the first captured image and the first captured image. When the same object is extracted in the object extraction area set in each of the two captured images, the object is determined from the parallax of the object in the object extraction area based on the relationship defined by the reference parameter. Distance calculating means for calculating the distance of the object, and the object extraction area setting means extracts the same object in the object extraction area set in each of the first captured image and the second captured image. The position of the reference image area represented by the position data so that the relationship between the parallax of the object and the distance of the object is equal to the relationship defined by the reference parameter. And sets the object extraction area Te.

かかる第2発明では、前記対象物抽出領域設定手段は、前記第1の撮像画像および第2の撮像画像のそれぞれに設定する前記対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係が前記基準パラメータにより規定される関係に等しくなるように、前記位置データが表す前記基準画像領域の位置に応じて前記対象物抽出領域を設定するので、対象物抽出領域設定手段により可変的に設定される各種類の対象物抽出領域に対して、前記基準パラメータが、各撮像画像の該対象物抽出領域で抽出される同一の対象物の視差と距離との関係を規定する適切なパラメータとなる。なお、基準画像領域の設定の仕方は、第1発明と同様でよい。   In the second invention, the object extraction area setting means is configured to extract the object when the same object is extracted in the object extraction area set in each of the first captured image and the second captured image. Since the object extraction region is set according to the position of the reference image region represented by the position data so that the relationship between the parallax of the object and the distance of the object is equal to the relationship defined by the reference parameter For each type of object extraction area variably set by the object extraction area setting means, the reference parameter is the parallax of the same object extracted in the object extraction area of each captured image It is an appropriate parameter that defines the relationship with distance. The method for setting the reference image area may be the same as in the first invention.

従って、対象物抽出領域設定手段により可変的に設定される各種類の対象物抽出領域に対して、前記基準パラメータにより規定される視差と距離との関係に基づいて、該対象物抽出領域における対象物の視差から該対象物の距離を求めることにより、該距離を精度よく適切に求めることが可能となる。   Therefore, for each type of object extraction area variably set by the object extraction area setting means, the object in the object extraction area is based on the relationship between the parallax and the distance defined by the reference parameter. By obtaining the distance of the object from the parallax of the object, the distance can be obtained appropriately with high accuracy.

よって、第2発明によれば、2つの撮像装置の撮像画像から対象物を抽出する領域を可変的に設定するようにしつつ、視差に基づく対象物の距離(車両からの相対距離)の測定を精度よく行うことが可能となる。   Therefore, according to the second invention, the distance (relative distance from the vehicle) of the object based on the parallax is measured while the region for extracting the object from the captured images of the two imaging devices is variably set. It becomes possible to carry out with high accuracy.

なお、第2発明では、第1および第2の各撮像画像に設定する対象物抽出領域は、より具体的には、例えば第1の撮像画像における対象物抽出領域と基準画像領域との間の位置関係と、第2の撮像画像における対象物抽出領域と基準画像領域との間の位置関係とが一致するように各撮像画像に設定すればよい。また、対象物抽出領域における対象物の視差を求めるときには、第1の撮像画像の対象物抽出領域に対する対象物の相対位置(該対象物抽出領域に対して固定された基準点に対する相対位置)と、第2の撮像画像の対象物抽出領域に対する対象物の相対位置(該対象物抽出領域に対して固定された基準点に対する相対位置)との差を該対象物の視差として求めればよい。同様に、前記基準パラメータに係わる視差については、第1の撮像画像の基準画像領域に対する対象物の相対位置と、第2の撮像画像の基準画像領域に対する対象物の相対位置との差を該対象物の視差として求めればよい。   In the second invention, more specifically, the object extraction area set in each of the first and second captured images is, for example, between the object extraction area and the reference image area in the first captured image. What is necessary is just to set to each captured image so that a positional relationship and the positional relationship between the target object extraction area | region and reference | standard image area | region in a 2nd captured image may correspond. Further, when obtaining the parallax of the object in the object extraction area, the relative position of the object with respect to the object extraction area of the first captured image (relative position with respect to the reference point fixed with respect to the object extraction area) and The difference between the relative position of the object with respect to the object extraction area of the second captured image (relative position with respect to the reference point fixed with respect to the object extraction area) may be obtained as the parallax of the object. Similarly, for the parallax related to the reference parameter, the difference between the relative position of the object with respect to the reference image area of the first captured image and the relative position of the object with respect to the reference image area of the second captured image is determined as the target. What is necessary is just to obtain | require as a parallax of an object.

次に、本発明の測距装置の第3の態様である第3発明は、前記の目的を達成するために、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距装置において、前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた複数種類の画像領域のそれぞれに対し、各種類の画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを各種類の画像領域に対応づけてあらかじめ記憶保持した記憶手段と、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を前記複数種類の画像領域から選択的に設定する対象物抽出領域設定手段と、前記第1撮像画像および第2の撮像画像のそれぞれに設定された前記対象物抽出領域で同一対象物が抽出されたとき、該対象物抽出領域に対応する前記パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する距離算出手段とを備えたことを特徴とする。   Next, in order to achieve the above object, a third invention, which is a third aspect of the distance measuring device of the present invention, includes a first captured image and a second captured image respectively obtained from two imaging devices mounted on a vehicle. The same target object included in each captured image is extracted from the two captured images, and the position of the target object on the first captured image and the position of the target object on the second captured image are extracted. In the distance measuring device that calculates the distance of the object to the vehicle based on the parallax that is the difference between the first captured image and the second captured image, a plurality of predetermined numbers are determined in the entire area of each of the first captured image and the second captured image. For each type of image area, a parameter that defines the relationship between the parallax of the target and the distance of the target when the same target is extracted in each type of image area is set for each type of image area. Corresponding notes that are stored in advance Means, and object extraction area setting means for selectively setting an object extraction area for extracting an object from the plurality of types of image areas in each of the first captured image and the second captured image. When the same object is extracted in the object extraction area set in each of the first captured image and the second captured image, based on the relationship defined by the parameter corresponding to the object extraction area And a distance calculating means for calculating the distance of the object from the parallax of the object in the object extraction area.

かかる第3発明では、第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた複数種類の画像領域のそれぞれに対し、各種類の画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータをあらかじめ決定して記憶保持しておき、対象物抽出領域設定手段は、その複数種類の画像領域から選択的に対象物抽出領域を設定する。このため、選択された各種類の対象物抽出領域に対して、これに対応する前記パラメータは、対象物の視差と距離との関係を表すものとして適切なものとすることができる。すなわち、前記パラメータは、各種類の対象物抽出領域に対して、視差と距離との関係が適切になるように実験的に定めておけばよいので、該パラメータを適切に設定できる。   In the third aspect of the invention, the same object is extracted in each type of image area for each of a plurality of types of image areas determined in advance in the entire areas of the first captured image and the second captured image. In this case, a parameter that defines the relationship between the parallax of the target object and the distance of the target object is determined and stored in advance, and the target object extraction area setting means selectively selects from the plurality of types of image areas. The object extraction area is set in. For this reason, for each type of object extraction region selected, the corresponding parameter can be appropriate as representing the relationship between the parallax and distance of the object. In other words, the parameters need only be determined experimentally so that the relationship between the parallax and the distance is appropriate for each type of object extraction region, so that the parameters can be set appropriately.

従って、対象物抽出領域設定手段により選択的に設定される各種類の対象物抽出領域に対して、これに対応する前記パラメータにより規定される視差と距離との関係に基づいて、該対象物抽出領域における対象物の視差から該対象物の距離を求めることにより、該距離を精度よく適切に求めることが可能となる。   Therefore, for each type of object extraction area selectively set by the object extraction area setting means, the object extraction is performed based on the relationship between the parallax and the distance defined by the corresponding parameter. By obtaining the distance of the object from the parallax of the object in the region, it is possible to obtain the distance accurately and appropriately.

よって、第3発明によれば、2つの撮像装置の撮像画像から対象物を抽出する領域を可変的に設定するようにしつつ、視差に基づく対象物の距離(車両からの相対距離)の測定を精度よく行うことが可能となる。   Therefore, according to the third aspect of the invention, measurement of the distance of the object (relative distance from the vehicle) based on the parallax is performed while variably setting the area for extracting the object from the captured images of the two imaging devices. It becomes possible to carry out with high accuracy.

なお、第3発明は、第1発明の場合と同様に、第1および第2の各撮像画像に設定する対象物抽出領域の位置(各撮像画像に対する相対位置)が、第1の撮像画像と第2の撮像画像とで同じである場合に好適である。また、各種類の対象物抽出領域における視差の求め方は、第1発明の場合と同様でよい。   In the third invention, as in the case of the first invention, the position of the object extraction region set in each of the first and second captured images (relative position with respect to each captured image) is the same as that of the first captured image. This is suitable when the second captured image is the same. Moreover, the method of obtaining the parallax in each type of object extraction region may be the same as in the case of the first invention.

また、本発明の測距装置の第4の態様である第4発明は、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距装置において、前記第1の撮像画像および第2の撮像画像のそれぞれにおける対象物の位置の基準とする基準点の位置を示す基準点位置データと、該第1の撮像画像および第2の撮像画像のそれぞれで同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータとをあらかじめ記憶保持した記憶手段と、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する対象物抽出領域設定手段と、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記第1の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置と、前記第2の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置との差を該対象物の視差として求め、その求めた視差から、前記基準パラメータにより規定される関係に基づき、該対象物の距離を算出する距離算出手段とを備えたことを特徴とする。   In addition, according to a fourth aspect of the fourth aspect of the distance measuring device of the present invention, each captured image is obtained from the first captured image and the second captured image respectively obtained from the two image capturing devices mounted on the vehicle. Based on the parallax that is the difference between the position of the target object on the first captured image and the position of the target object on the second captured image. In a distance measuring device that calculates a distance of the object to the vehicle, reference point position data indicating a position of a reference point as a reference of the position of the object in each of the first captured image and the second captured image; In addition, a reference parameter that defines the relationship between the parallax of the target object and the distance of the target object when the same target object is extracted in each of the first captured image and the second captured image is stored and held in advance. Storage means and the first Object extraction area setting means for variably setting an object extraction area for extracting an object for each of the image image and the second captured image, and each of the first captured image and the second captured image When the same object is extracted in the object extraction area set to, the relative position of the object with respect to the reference point indicated by the reference point position data on the first captured image, and the second imaging A difference between the relative position of the object with respect to the reference point indicated by the reference point position data on the image is obtained as a parallax of the object, and the parallax is obtained from the obtained parallax based on the relationship defined by the reference parameter. A distance calculating means for calculating the distance of the object is provided.

かかる第4発明によれば、対象物抽出領域設定手段により設定される各種類の対象物抽出領域に対し、前記第1の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置と、前記第2の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置との差を該対象物の視差として求め、その求めた視差から、前記基準パラメータにより規定される関係に基づき、該対象物の距離を算出するので、各種類の対象物抽出領域に対して、前記基準パラメータを、各撮像画像の該対象物抽出領域で抽出される同一の対象物の視差と距離との関係を規定する適切なパラメータとすることができる。すなわち、前記基準点は、第1および第2の各撮像画像に対して定めれた点であるので、上記のように視差を求めたとき、その視差の値は、対象物抽出領域に依存しない。そして、基準点位置データや基準パラメータは、実験的に定めればよいので、適切に設定できる。   According to the fourth aspect of the invention, for each type of object extraction area set by the object extraction area setting means, the object relative to the reference point indicated by the reference point position data on the first captured image. Between the relative position of the object and the relative position of the object with respect to the reference point indicated by the reference point position data on the second captured image is obtained as the parallax of the object, and from the obtained parallax, the reference Since the distance of the object is calculated based on the relationship defined by the parameters, the same reference parameter is extracted in the object extraction area of each captured image for each type of object extraction area. An appropriate parameter that defines the relationship between the parallax and the distance of the object can be used. That is, since the reference point is a point determined for each of the first and second captured images, when the parallax is obtained as described above, the parallax value does not depend on the object extraction region. . Since the reference point position data and the reference parameters may be determined experimentally, they can be set appropriately.

従って、対象物抽出領域設定手段により可変的に設定される各種類の対象物抽出領域に対して、上記の如く対象物の視差を求め、その求めた視差から、前記基準パラメータにより規定される視差と距離との関係に基づいて、該対象物の距離を求めることにより、該距離を精度よく適切に求めることが可能となる。   Accordingly, the parallax of the object is obtained as described above for each type of object extraction area variably set by the object extraction area setting means, and the parallax defined by the reference parameter is determined from the obtained parallax. By obtaining the distance of the object based on the relationship between the distance and the distance, the distance can be obtained appropriately and accurately.

よって、第4発明によれば、2つの撮像装置の撮像画像から対象物を抽出する領域を可変的に設定するようにしつつ、視差に基づく対象物の距離(車両からの相対距離)の測定を精度よく行うことが可能となる。   Therefore, according to the fourth invention, the distance of the object based on the parallax (relative distance from the vehicle) is measured while the region for extracting the object from the captured images of the two imaging devices is variably set. It becomes possible to carry out with high accuracy.

なお、第4発明では、対象物抽出領域は任意に設定できる。   In the fourth invention, the object extraction area can be set arbitrarily.

また、本発明の車両の周辺監視装置(第5発明)は、前記した本発明の測距装置を備えた車両の周辺監視装置であり、前記対象物抽出領域設定手段は、前記車両の走行環境に応じて前記対象物抽出領域を可変的に設定する手段であることを特徴とする。   Further, the vehicle periphery monitoring device (the fifth invention) of the present invention is a vehicle periphery monitoring device provided with the distance measuring device of the present invention described above, and the object extraction area setting means is a travel environment of the vehicle. The object extraction area is variably set according to the above.

かかる第5発明によれば、車両の走行環境に応じて対象物抽出領域を設定するので、車両の走行環境に適した範囲の空間的領域で対象物を抽出して監視することが可能となる。   According to the fifth aspect of the invention, since the object extraction area is set according to the traveling environment of the vehicle, it is possible to extract and monitor the object in a spatial area in a range suitable for the traveling environment of the vehicle. .

なお、走行環境としては、例えば前記車両の車速や、車両の進行方向の状態(例えば直進状態であるか、右方向への旋回状態であるか、左方向への旋回状態であるかなどの状態)、車両と対象物との接近度合いなどが挙げられる。   Note that the travel environment includes, for example, the vehicle speed and the state of the vehicle in the traveling direction (for example, whether the vehicle is traveling straight, turning right, turning left) ), The degree of approach between the vehicle and the object.

次に、本発明の測距方法の第1の態様である第6発明は、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距方法において、前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データとをあらかじめ決定しておき、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定するステップと、前記第1の撮像画像および第2の撮像画像のそれぞれにおける前記設定された対象物対象物抽出領域の位置と前記位置データが表す前記基準画像領域の位置との間の位置関係と、前記基準パラメータとに基づいて、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを決定するステップと、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出されたとき、該対象物抽出領域に対応して前記パラメータ決定手段により決定されたパラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出するステップとを備えたことを特徴とする。   Next, according to a sixth aspect of the first aspect of the distance measuring method of the present invention, each of the first captured image and the second captured image respectively obtained from the two imaging devices mounted on the vehicle is captured. The same object included in the image is extracted, and based on the parallax that is the difference between the position of the object on the first captured image and the position of the object on the second captured image In the distance measuring method for calculating the distance of the object to the vehicle, the same object is extracted in a reference image area determined in advance in the entire area of each of the first captured image and the second captured image. In this case, a reference parameter that defines the relationship between the parallax of the target object and the distance of the target object and position data representing the position of the reference image area in each captured image are determined in advance, and the first Captured image and second shot A step of variably setting an object extraction region in which an object is to be extracted in each of the images; and the set target object extraction region in each of the first captured image and the second captured image The object extraction set for each of the first captured image and the second captured image based on the positional relationship between the position of the reference image region represented by the position data and the position of the reference image region and the reference parameter Determining a parameter that defines the relationship between the parallax of the target object and the distance of the target object when the same target object is extracted in the region; and for each of the first captured image and the second captured image When the same object is extracted in the set object extraction area, the function defined by the parameter determined by the parameter determination means corresponding to the object extraction area Based on, characterized by comprising the step of calculating the distance of the object from the disparity of the object in the object extraction area.

かかる第6発明によれば、前記第1発明と同様に、可変的に設定される各種類の対象物抽出領域に対して、前記パラメータにより規定される視差と距離との関係に基づいて、該対象物抽出領域における対象物の視差から該対象物の距離を求めることにより、該距離を精度よく適切に求めることが可能となる。ひいては、2つの撮像装置の撮像画像から対象物を抽出する領域を可変的に設定するようにしつつ、視差に基づく対象物の距離(車両からの相対距離)の測定を精度よく行うことが可能となる。   According to the sixth invention, as in the first invention, for each type of object extraction region that is variably set, based on the relationship between the parallax and the distance defined by the parameter, By obtaining the distance of the object from the parallax of the object in the object extraction region, the distance can be obtained appropriately with high accuracy. As a result, it is possible to accurately measure the distance of the object (relative distance from the vehicle) based on the parallax while variably setting the area for extracting the object from the captured images of the two imaging devices. Become.

また、本発明の測距方法の第2の態様である第7発明は、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距装置において、前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データとをあらかじめ決定しておき、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定するステップと、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記基準パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出するステップとを備え、前記対象物抽出領域を設定するステップは、前記第1の撮像画像および第2の撮像画像のそれぞれに設定する前記対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係が前記基準パラメータにより規定される関係に等しくなるように、前記位置データが表す前記基準画像領域の位置に応じて前記対象物抽出領域を設定することを特徴とする。   In addition, according to a seventh aspect of the second aspect of the distance measuring method of the present invention, each captured image is obtained from the first captured image and the second captured image respectively obtained from the two imaging devices mounted on the vehicle. Based on the parallax that is the difference between the position of the target object on the first captured image and the position of the target object on the second captured image. In the distance measuring device that calculates the distance of the object to the vehicle, the same object is extracted in a predetermined reference image area in each of the entire areas of the first captured image and the second captured image. In this case, a reference parameter that defines the relationship between the parallax of the target object and the distance of the target object and position data representing the position of the reference image area in each captured image are determined in advance, and the first imaging Image and second shot A step of variably setting an object extraction area for extracting an object for each of the images, and the same object in the object extraction area set for each of the first captured image and the second captured image And calculating the distance of the object from the parallax of the object in the object extraction area based on the relationship defined by the reference parameter, and setting the object extraction area The step is a relationship between the parallax of the target object and the distance of the target object when the same target object is extracted in the target object extraction region set in each of the first captured image and the second captured image. The object extraction region is set in accordance with the position of the reference image region represented by the position data so that is equal to the relationship defined by the reference parameter. .

かかる第7発明によれば、前記第2発明と同様に、上記の如く、対象物抽出領域を可変的に設定して、その各種類の対象物抽出領域に対して、前記基準パラメータにより規定される視差と距離との関係に基づいて、該対象物抽出領域における対象物の視差から該対象物の距離を求めることにより、該距離を精度よく適切に求めることが可能となる。ひいては、2つの撮像装置の撮像画像から対象物を抽出する領域を可変的に設定するようにしつつ、視差に基づく対象物の距離(車両からの相対距離)の測定を精度よく行うことが可能となる。   According to the seventh invention, similarly to the second invention, as described above, the object extraction area is variably set, and each kind of object extraction area is defined by the reference parameter. By calculating the distance of the target object from the parallax of the target object in the target object extraction area based on the relationship between the parallax and the distance, it is possible to determine the distance accurately and appropriately. As a result, it is possible to accurately measure the distance of the object (relative distance from the vehicle) based on the parallax while variably setting the area for extracting the object from the captured images of the two imaging devices. Become.

また、本発明の測距方法の第3の態様である第8発明は、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距方法において、前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた複数種類の画像領域のそれぞれに対し、各種類の画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを各種類の画像領域に対応づけてあらかじめ決定しておき、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を前記複数種類の画像領域から選択的に設定するステップと、前記第1撮像画像および第2の撮像画像のそれぞれに設定された前記対象物抽出領域で同一対象物が抽出されたとき、該対象物抽出領域に対応する前記パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出するステップとを備えたことを特徴とする。   In addition, according to an eighth aspect of the third aspect of the distance measuring method of the present invention, each captured image is obtained from the first captured image and the second captured image respectively obtained from the two imaging devices mounted on the vehicle. Based on the parallax that is the difference between the position of the target object on the first captured image and the position of the target object on the second captured image. In the distance measuring method for calculating the distance of the object to the vehicle, for each of a plurality of types of image areas determined in advance in the entire areas of the first captured image and the second captured image, Parameters that define the relationship between the parallax of the object and the distance of the object when the same object is extracted in the image area of the type are determined in advance in association with each type of image area, First captured image and second In each of the captured images, a step of selectively setting an object extraction region from which the object is to be extracted from the plurality of types of image regions, and the first captured image and the second captured image are set. When the same object is extracted in the object extraction area, the distance of the object from the parallax of the object in the object extraction area based on the relationship defined by the parameter corresponding to the object extraction area And a step of calculating.

かかる第8発明によれば、前記第3発明と同様に、複数種類の対象物抽出領域それぞれに対応して、前記パラメータを決定しておき、選択的に設定される各種類の対象物抽出領域に対して、これに対応する前記パラメータにより規定される視差と距離との関係に基づいて、該対象物抽出領域における対象物の視差から該対象物の距離を求めることにより、該距離を精度よく適切に求めることが可能となる。ひいては、2つの撮像装置の撮像画像から対象物を抽出する領域を可変的に設定するようにしつつ、視差に基づく対象物の距離(車両からの相対距離)の測定を精度よく行うことが可能となる。   According to the eighth invention, similarly to the third invention, the parameters are determined corresponding to each of a plurality of types of object extraction areas, and each type of object extraction area set selectively. On the other hand, by obtaining the distance of the target object from the parallax of the target object in the target object extraction region based on the relationship between the parallax and the distance defined by the corresponding parameter, the distance can be accurately determined. It becomes possible to ask appropriately. As a result, it is possible to accurately measure the distance of the object (relative distance from the vehicle) based on the parallax while variably setting the area for extracting the object from the captured images of the two imaging devices. Become.

また、本発明の測距方法の第4の態様である第9発明は、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距方法において、前記第1の撮像画像および第2の撮像画像のそれぞれにおける対象物の位置の基準とする基準点の位置を示す基準点位置データと、該第1の撮像画像および第2の撮像画像のそれぞれで同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータとをあらかじめ決定しておき、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定するステップと、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記第1の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置と、前記第2の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置との差を該対象物の視差として求め、その求めた視差から、前記基準パラメータにより規定される関係に基づき、該対象物の距離を算出するステップとを備えたことを特徴とする。   In addition, according to a ninth aspect of the fourth aspect of the distance measuring method of the present invention, each captured image is obtained from the first captured image and the second captured image respectively obtained from the two imaging devices mounted on the vehicle. Based on the parallax that is the difference between the position of the target object on the first captured image and the position of the target object on the second captured image. In a distance measuring method for calculating a distance of the object to the vehicle, reference point position data indicating a position of a reference point as a reference of the position of the object in each of the first captured image and the second captured image; And a reference parameter that prescribes the relationship between the parallax of the object and the distance of the object when the same object is extracted in each of the first captured image and the second captured image. The first captured image is And a step of variably setting an object extraction region for extracting an object for each of the second captured images, and an object extraction set for each of the first captured image and the second captured image When the same object is extracted in a region, the relative position of the object with respect to the reference point indicated by the reference point position data on the first captured image, and the reference point on the second captured image The difference between the relative position of the object with respect to the reference point indicated by the position data is obtained as the parallax of the object, and the distance of the object is calculated from the obtained parallax based on the relationship defined by the reference parameter. And a step.

この第9発明によれば、前記第4発明と同様に、可変的に設定される各種類の対象物抽出領域に対して、上記の如く対象物の視差を求め、その求めた視差から、前記基準パラメータにより規定される視差と距離との関係に基づいて、該対象物の距離を求めることにより、該距離を精度よく適切に求めることが可能となる。ひいては、2つの撮像装置の撮像画像から対象物を抽出する領域を可変的に設定するようにしつつ、視差に基づく対象物の距離(車両からの相対距離)の測定を精度よく行うことが可能となる。   According to the ninth aspect, as in the fourth aspect, the parallax of the object is obtained as described above for each type of object extraction region that is variably set, and the parallax is obtained from the obtained parallax. By obtaining the distance of the object based on the relationship between the parallax and the distance defined by the reference parameter, it is possible to obtain the distance accurately and appropriately. As a result, it is possible to accurately measure the distance of the object (relative distance from the vehicle) based on the parallax while variably setting the area for extracting the object from the captured images of the two imaging devices. Become.

また、本発明の測距用プログラムの第1の態様である第10発明は、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から抽出された同一の対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する処理をコンピュータに実行させる測距用プログラムであって、前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データと記憶手段から読み込む処理と、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する処理と、前記第1の撮像画像および第2の撮像画像のそれぞれにおける前記設定された対象物対象物抽出領域の位置と前記位置データが表す前記基準画像領域の位置との間の位置関係と、前記基準パラメータとに基づいて、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを決定する処理と、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出されたとき、該対象物抽出領域に対応して前記パラメータ決定手段により決定されたパラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する処理とをコンピュータに実行させる機能を備えることを特徴とする。   The tenth aspect of the first aspect of the distance measuring program of the present invention is the same extracted from the first captured image and the second captured image respectively obtained from the two imaging devices mounted on the vehicle. Processing for calculating the distance of the object to the vehicle based on the parallax that is the difference between the position of the object on the first captured image and the position of the object on the second captured image When the same object is extracted in a predetermined reference image area in each of the entire areas of the first captured image and the second captured image. A reference parameter that defines the relationship between the parallax of the object and the distance of the object, position data representing the position of the reference image area in each captured image, a process of reading from the storage means, the first captured image, A process of variably setting an object extraction region for extracting an object for each of the second captured images, and the set object in each of the first captured image and the second captured image Based on the positional relationship between the position of the object extraction area and the position of the reference image area represented by the position data, and the reference parameter, each of the first captured image and the second captured image is set. A process for determining a parameter that defines a relationship between a parallax of the target object and a distance of the target object when the same target object is extracted in the target object extraction region, the first captured image, and the second captured image When the same object is extracted in the object extraction area set in each of the images, it is defined by the parameter determined by the parameter determination means corresponding to the object extraction area Based on engagement, characterized in that the parallax of the object in the object extraction area comprises a function to execute a process of calculating the distance of the object in the computer.

この第10発明によれば、前記第1発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。   According to the tenth aspect of the present invention, it is possible to cause a computer to execute processing that can achieve the effects described with respect to the first aspect of the present invention.

また、本発明の測距用プログラムの第2の態様である第11発明は、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から抽出された同一の対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する処理をコンピュータに実行させる測距用プログラムであって、前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データとを記憶手段から読込む処理と、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する処理と、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記基準パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する処理とをコンピュータに実行させる機能を備え、前記対象物抽出領域を設定する処理をコンピュータに実行させる機能は、前記第1の撮像画像および第2の撮像画像のそれぞれに設定する前記対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係が前記基準パラメータにより規定される関係に等しくなるように、前記位置データが表す前記基準画像領域の位置に応じて前記対象物抽出領域を設定する処理をコンピュータに実行させる機能であることを特徴とする。   The eleventh aspect of the second aspect of the distance measuring program of the present invention is the same extracted from the first captured image and the second captured image respectively obtained from the two imaging devices mounted on the vehicle. Processing for calculating the distance of the object to the vehicle based on the parallax that is the difference between the position of the object on the first captured image and the position of the object on the second captured image When the same object is extracted in a predetermined reference image area in each of the entire areas of the first captured image and the second captured image. Processing for reading from the storage means a reference parameter that defines the relationship between the parallax of the object and the distance of the object, and position data representing the position of the reference image area in each captured image; and the first captured image And Processing for variably setting an object extraction region for extracting an object in each of the second captured images, and an object extraction region set for each of the first captured image and the second captured image A function of causing a computer to execute a process of calculating the distance of the object from the parallax of the object in the object extraction region based on the relationship defined by the reference parameter when the same object is extracted in And the function of causing the computer to execute the process of setting the object extraction area is such that the same object is extracted in the object extraction area set in each of the first captured image and the second captured image. The reference image region represented by the position data so that the relationship between the parallax of the target object and the distance of the target object is equal to the relationship defined by the reference parameter. Characterized in that depending on the position is a function of executing a process of setting the object extraction area to the computer.

かかる第11発明によれば、前記第2発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。   According to the eleventh aspect of the invention, it is possible to cause a computer to execute a process that can achieve the effects described with respect to the second aspect of the invention.

また、本発明の測距用プログラムの第3の態様である第12発明は、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から抽出された同一の対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する処理をコンピュータに実行させる測距用プログラムであって、前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた複数種類の画像領域のそれぞれに対し、各種類の画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを記憶手段から読み込み処理と、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を前記複数種類の画像領域から選択的に設定する処理と、前記第1撮像画像および第2の撮像画像のそれぞれに設定された前記対象物抽出領域で同一対象物が抽出されたとき、該対象物抽出領域に対応する前記パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する処理とをコンピュータに実行させる機能を備えることを特徴とする。   Further, the twelfth aspect of the third aspect of the distance measuring program of the present invention is the same extracted from the first captured image and the second captured image respectively obtained from the two imaging devices mounted on the vehicle. Processing for calculating the distance of the object to the vehicle based on the parallax that is the difference between the position of the object on the first captured image and the position of the object on the second captured image Is a distance measurement program for causing a computer to execute each type of image for each of a plurality of types of image areas determined in advance in the entire area of each of the first captured image and the second captured image. Processing for reading parameters defining the relationship between the parallax of the target object and the distance of the target object when the same target object is extracted from the area, the first captured image, and the second captured image It's In addition, a process for selectively setting an object extraction area to be extracted from the plurality of types of image areas, and the object set for each of the first captured image and the second captured image. When the same object is extracted in the extraction area, the distance of the object is calculated from the parallax of the object in the object extraction area based on the relationship defined by the parameter corresponding to the object extraction area A function of causing a computer to execute processing is provided.

この第12発明によれば、前記第3発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。   According to the twelfth aspect of the present invention, it is possible to cause a computer to execute processing that can achieve the effects described with respect to the third aspect of the present invention.

また、本発明の測距用プログラムの第4の態様である第13発明は、車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から抽出された同一の対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する処理をコンピュータに実行させる測距用プログラムにおいて、前記第1の撮像画像および第2の撮像画像のそれぞれにおける対象物の位置の基準とする基準点の位置を示す基準点位置データと、該第1の撮像画像および第2の撮像画像のそれぞれで同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータとを記憶手段から読み込む処理と、前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する処理と、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記第1の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置と、前記第2の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置との差を該対象物の視差として求め、その求めた視差から、前記基準パラメータにより規定される関係に基づき、該対象物の距離を算出する処理とをコンピュータに実行させる機能を有することを特徴とする。   Further, the thirteenth aspect of the fourth aspect of the distance measuring program of the present invention is the same extracted from the first captured image and the second captured image respectively obtained from the two imaging devices mounted on the vehicle. Processing for calculating the distance of the object to the vehicle based on the parallax that is the difference between the position of the object on the first captured image and the position of the object on the second captured image In the distance measuring program for causing the computer to execute, the reference point position data indicating the position of the reference point as the reference of the position of the object in each of the first captured image and the second captured image, and the first A process of reading from the storage means a reference parameter that defines the relationship between the parallax of the target object and the distance of the target object when the same target object is extracted in each of the captured image and the second captured image; First A process of variably setting an object extraction region for extracting an object for each of the captured image and the second captured image, and an object set for each of the first captured image and the second captured image When the same object is extracted in the object extraction area, the relative position of the object with respect to the reference point indicated by the reference point position data on the first captured image and the second captured image on the second captured image The difference between the relative position of the object with respect to the reference point indicated by the reference point position data is obtained as the parallax of the object, and the distance of the object is calculated from the obtained parallax based on the relationship defined by the reference parameter. It has the function to make a computer perform the process to calculate.

この第13発明によれば、前記第4発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。   According to the thirteenth aspect, it is possible to cause a computer to execute processing that can achieve the effects described with respect to the fourth aspect.

[第1実施形態]
本発明の第1実施形態を以下に図面を参照して説明する。この第1実施形態は、本願の第1発明、第5発明、第6発明、第10発明の実施形態である。まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両(車両)の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。
[First Embodiment]
A first embodiment of the present invention will be described below with reference to the drawings. This first embodiment is an embodiment of the first invention, the fifth invention, the sixth invention, and the tenth invention of the present application. First, with reference to FIG. 1 and FIG. 2, the system configuration | structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated. FIG. 1 is a block diagram showing the overall configuration of the periphery monitoring device, and FIG. 2 is a perspective view showing the appearance of a vehicle (vehicle) equipped with the periphery monitoring device. In FIG. 2, illustration of some components of the periphery monitoring device is omitted.

図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、車両1の前方の画像を撮像する2つの撮像装置としての赤外線カメラ2R,2Lが接続されると共に、車両10の走行状態を検出するセンサとして、車両10のヨーレートを検出するヨーレートセンサ3と、車両10の走行速度(車速)を検出する車速センサ4と、車両10のブレーキ操作(詳しくはブレーキペダルが操作されているか否か)を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な警報情報を出力するためのスピーカ6と、前記赤外線カメラ2R,2Lにより撮像された画像や視覚的な警報情報を表示するための表示装置7とが接続されている。   With reference to FIGS. 1 and 2, the periphery monitoring device of the present embodiment includes an image processing unit 1. The image processing unit 1 is connected to infrared cameras 2R and 2L as two imaging devices that capture an image in front of the vehicle 1, and the yaw rate of the vehicle 10 is used as a sensor that detects the traveling state of the vehicle 10. A yaw rate sensor 3 for detecting, a vehicle speed sensor 4 for detecting a traveling speed (vehicle speed) of the vehicle 10, and a brake sensor 5 for detecting a brake operation (specifically, whether or not a brake pedal is operated) of the vehicle 10 are connected. Has been. Further, the image processing unit 1 includes a speaker 6 for outputting auditory alarm information such as sound, and a display device for displaying images taken by the infrared cameras 2R and 2L and visual alarm information. 7 is connected.

画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM)、画像メモリなどを含む電子回路により構成され、前記赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5の出力(アナログ信号)がA/D変換回路を介してデジタル化されて入力される。さらに、図示は省略するが、画像処理ユニット1には、車両10の右左折用方向指示器(いわゆるウィンカー)の操作信号(右左折用方向指示器が操作されているか否かを示すON・OFF信号)も入力される。そして、画像処理ユニット1は、入力されたデータを基に、人(歩行者)などの対象物を検出する処理や、その検出した対象物の車両10に対する実空間位置(車両10からの距離を含む)を検出する処理、該対象物に関する警報を、適宜、前記スピーカ6や表示装置7を介して運転者に対して発する処理などをマイクロコンピュータにより実行する。これらの処理は、マイクロコンピュータのROMにあらかじめ実装されたプログラムを該マイクロコンピュータにより実行することにより実現され、そのプログラムは、本発明の測距用プログラムを含んでいる。   Although not shown in detail, the image processing unit 1 is composed of an electronic circuit including an A / D conversion circuit, a microcomputer (CPU, RAM, ROM), an image memory, and the like. The infrared cameras 2R and 2L, the yaw rate sensor 3. Outputs (analog signals) of the vehicle speed sensor 4 and the brake sensor 5 are digitized and inputted via an A / D conversion circuit. Further, although not shown in the figure, the image processing unit 1 includes an ON / OFF signal indicating whether or not the operation signal of the right / left turn direction indicator (so-called blinker) of the vehicle 10 is operated. Signal) is also input. Then, the image processing unit 1 performs processing for detecting an object such as a person (pedestrian) based on the input data, and the real space position of the detected object with respect to the vehicle 10 (the distance from the vehicle 10). And the like, a process for issuing a warning regarding the object to the driver via the speaker 6 and the display device 7 and the like are executed by the microcomputer. These processes are realized by the microcomputer executing a program pre-installed in the ROM of the microcomputer, and the program includes the distance measuring program of the present invention.

補足すると、画像処理ユニット1は、本発明の測距装置としての機能と車両の周辺監視装置としての機能とを含んでいる。   Supplementally, the image processing unit 1 includes a function as a distance measuring device of the present invention and a function as a vehicle periphery monitoring device.

図2に示すように、前記赤外線カメラ2R,2Lは、車両10の前方を撮像するために、車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それらの位置は、車両10の車幅方向の中心に対して左右対称である。そして、該赤外線カメラ2R,2Lは、基本的には、それらの光軸が互いに平行に車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように車両10の前部に固定されている。ただし、実際には、赤外線カメラ2R,2Lの構造的なばらつきや、車両10に対する組付け位置のばらつきなどに起因して、赤外線カメラ2R,2Lの光軸の向きや高さは、ある程度のばらつきを生じる。なお、各赤外線カメラ2R,2Lは、遠赤外域に感度を有する撮像装置であり、それにより撮像される物体の温度が高いほど、その物体の画像の出力信号のレベルが高くなる(該物体の画像の輝度が高くなる)特性を有している。   As shown in FIG. 2, the infrared cameras 2 </ b> R and 2 </ b> L are attached to the front portion of the vehicle 10 (the front grill portion in the figure) in order to image the front of the vehicle 10. In this case, the infrared cameras 2R and 2L are respectively arranged at a position on the right side and a position on the left side of the center of the vehicle 10 in the vehicle width direction. Their positions are symmetrical with respect to the center of the vehicle 10 in the vehicle width direction. The infrared cameras 2R and 2L basically have their optical axes extending in the front-rear direction of the vehicle 10 in parallel with each other, and the heights of the respective optical axes from the road surface are equal to each other. It is fixed to the front part of the vehicle 10. In practice, however, the orientation and height of the optical axes of the infrared cameras 2R and 2L vary to some extent due to structural variations of the infrared cameras 2R and 2L and variations in the assembly position with respect to the vehicle 10. Produce. Each infrared camera 2R, 2L is an imaging device having sensitivity in the far-infrared region, and the higher the temperature of the object imaged by the infrared camera 2R, 2L, the higher the level of the output signal of the object image (the object's image). (The brightness of the image is increased).

また、前記表示装置7は、本実施形態では、例えば車両10のフロントウィンドウに画像などの情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7は、HUD7aの代わりに、もしくは、HUD7aと共に、車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを含んでもよい。   In the present embodiment, the display device 7 includes a head-up display 7a (hereinafter referred to as HUD 7a) that displays information such as an image on the front window of the vehicle 10, for example. The display device 7 includes a display provided integrally with a meter that displays a traveling state such as the vehicle speed of the vehicle 10 in place of the HUD 7a or together with the HUD 7a, or a display provided in an in-vehicle navigation device. But you can.

次に、本実施形態の周辺監視装置の全体的動作(画像処理ユニット1の処理)を図3および図4のフローチャートを参照して説明する。なお、図3および図4のフローチャートの処理のうち、前記特許文献1に記載されている処理と同じ処理については、本明細書での詳細な説明は省略する。補足すると、図3および図4のフローチャートの処理は、画像処理ユニット1のマイクロコンピュータが実行するプログラムにより実現される処理である。   Next, the overall operation (processing of the image processing unit 1) of the periphery monitoring device of the present embodiment will be described with reference to the flowcharts of FIGS. Of the processes in the flowcharts of FIGS. 3 and 4, the same processes as those described in Patent Document 1 are not described in detail in this specification. Supplementally, the processes in the flowcharts of FIGS. 3 and 4 are processes realized by a program executed by the microcomputer of the image processing unit 1.

画像処理ユニット1は、所定の演算処理周期で、STEP1〜STEP20の処理を繰り返し実行する。以下、説明すると、画像処理ユニット1は、まず、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像を取得して(STEP1)、A/D変換し(STEP2)、それぞれの画像を画像メモリに格納する(STEP3)。これにより、各赤外線カメラ2R,2Lにより撮像された画像が画像処理ユニット1に取り込まれる。以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像という。これらの右画像および左画像は、いずれもグレースケール画像である。なお、右画像および左画像の全体は、いずれも方形状の2次元画像で、そのサイズ(縦方向および横方向の寸法)および画素数は互いに同一である。また、右画像および左画像は、本発明における第1の撮像画像、第2の撮像画像に相当するものである。   The image processing unit 1 repeatedly executes the processing of STEP1 to STEP20 at a predetermined arithmetic processing cycle. In the following, the image processing unit 1 first acquires infrared images, which are output signals of the infrared cameras 2R and 2L (STEP 1), performs A / D conversion (STEP 2), and stores each image in the image memory. (STEP 3). As a result, images captured by the infrared cameras 2R and 2L are taken into the image processing unit 1. Hereinafter, an image obtained from the infrared camera 2R is referred to as a right image, and an image obtained from the infrared camera 2L is referred to as a left image. These right image and left image are both grayscale images. Note that the entire right image and left image are both rectangular two-dimensional images, and their sizes (vertical and horizontal dimensions) and the number of pixels are the same. The right image and the left image correspond to the first captured image and the second captured image in the present invention.

補足すると、STEP1〜3の処理は、前記特許文献1の図3のS11〜S13の処理と同じである。   Supplementally, the processes of STEP 1 to 3 are the same as the processes of S 11 to S 13 of FIG.

次いで、画像処理ユニット1は、車両10の走行環境に応じて、右画像と左画像とに対象物を抽出すべき対象物抽出領域を設定する(STEP4)。この場合、対象物抽出領域の設定に際して考慮される走行環境として、本実施形態では、車両10の車速(前記車速センサ4により検出される車速)と、ウィンカーの動作の有無と、画像処理ユニット1の過去の演算処理周期(前回の演算処理周期)で抽出された対象物の車両10に対する相対距離(車両10の前後方向における対象物の相対距離)とが含まれる。   Next, the image processing unit 1 sets an object extraction region in which an object is to be extracted in the right image and the left image according to the traveling environment of the vehicle 10 (STEP 4). In this case, as the traveling environment considered when setting the object extraction area, in this embodiment, the vehicle speed of the vehicle 10 (the vehicle speed detected by the vehicle speed sensor 4), the presence / absence of the blinker operation, the image processing unit 1 And the relative distance of the object extracted in the past calculation processing cycle (previous calculation processing cycle) with respect to the vehicle 10 (the relative distance of the object in the front-rear direction of the vehicle 10).

本実施形態では、STEP4で設定される対象物抽出領域は、比較的大きめの面積の領域である拡大領域Sbと比較的小さめの面積の領域である標準領域Ssとの2種類があり、そのいずれかの領域に設定される。ここで、これらの拡大領域Sbおよび標準領域Ssを図5を参照して説明する。図5は右画像と左画像とを上下に並列させて示している。   In the present embodiment, there are two types of object extraction areas set in STEP 4; an enlarged area Sb that is a relatively large area area and a standard area Ss that is a relatively small area area. Is set in the area. Here, the enlarged region Sb and the standard region Ss will be described with reference to FIG. FIG. 5 shows the right image and the left image arranged side by side in the vertical direction.

右画像および左画像のそれぞれに設定される拡大領域Sbは、いずれも各画像と同じ形状の領域(方形領域)で、且つ、そのサイズ(横方向の寸法FHbおよび縦方向の寸法FVb)が互いに同一の領域である。本実施形態では、右画像および左画像のそれぞれの拡大領域Sbは、各々、右画像、左画像の全体領域と同一サイズ(同一面積)の方形領域である。また、右画像および左画像のそれぞれに設定される標準領域Ssは、いずれも右画像および左画像の全体領域よりも小さい面積の方形領域で、且つ、そのサイズ(横方向の寸法FHsおよび縦方向の寸法FVs)が互いに同一の領域である。   The enlargement area Sb set for each of the right image and the left image is an area (square area) having the same shape as each image, and the sizes (the horizontal dimension FHb and the vertical dimension FVb) are mutually equal. It is the same area. In the present embodiment, each enlarged region Sb of the right image and the left image is a rectangular region having the same size (the same area) as the entire region of the right image and the left image. Further, the standard area Ss set for each of the right image and the left image is a square area having an area smaller than the entire area of the right image and the left image, and its size (the horizontal dimension FHs and the vertical direction). , Dimensions FVs) are the same region.

この場合、右画像および左画像のそれぞれでの拡大領域Sbの位置(左右の各画像に対して互いに同一の位置関係で固定された座標系(例えば図5のxy座標系Cb)での拡大領域Sbの位置)は、右画像と左画像とで同じである。本実施形態では、拡大領域Sbのサイズは、左右の各画像の全体領域と同一であるので、拡大領域Sbは、左右の各画像において、該画像の全体領域と一致する。補足すると、「領域の位置」は、該領域に固定された代表点(該領域の中心点や頂点など)の位置を意味する。   In this case, the position of the enlarged region Sb in each of the right image and the left image (enlarged region in a coordinate system (for example, the xy coordinate system Cb in FIG. 5) fixed in the same positional relationship with respect to the left and right images). The position of Sb is the same for the right image and the left image. In the present embodiment, since the size of the enlarged area Sb is the same as the entire area of each of the left and right images, the enlarged area Sb matches the entire area of the left and right images. Supplementally, “region position” means the position of a representative point (such as the center point or vertex of the region) fixed to the region.

一方、左右の各画像での標準領域Ssの位置(左右の各画像に対して互いに同一の位置関係で固定された座標系(例えば図5のxy座標系Cb)での標準領域Ssの位置)は、図5に示す例の如く一般には相違する。すなわち、標準領域Ssの代表点を例えば該標準領域Ssの左上の頂点とし、図5に示すように、右画像の座標系Cbでの標準領域Ssの左上の頂点の位置(座標)を(xrb,yrb)とし、左画像の座標系Cbでの標準領域Ssの左上の頂点の位置(座標)を(xlb,ylb)とおくと、一般には、xrb≠xlbまたはyrb≠ylbである。この標準領域Ssは、その各画像での配置位置が、車両10の製造時や保守・点検時などに作業者によってあらかじめ設定される領域である。左右の各画像における標準領域Ssの位置の設定の仕方については後述する。   On the other hand, the position of the standard area Ss in each of the left and right images (the position of the standard area Ss in the coordinate system (for example, the xy coordinate system Cb in FIG. 5) fixed to the left and right images in the same positional relationship) Are generally different as in the example shown in FIG. That is, the representative point of the standard area Ss is, for example, the upper left vertex of the standard area Ss, and the position (coordinates) of the upper left vertex of the standard area Ss in the coordinate system Cb of the right image is (xrb) as shown in FIG. , Yrb), and the position (coordinates) of the upper left vertex of the standard area Ss in the coordinate system Cb of the left image is (xlb, ylb), generally xrb ≠ xlb or yrb ≠ ylb. The standard area Ss is an area in which an arrangement position in each image is set in advance by an operator when the vehicle 10 is manufactured, maintained, or inspected. How to set the position of the standard area Ss in the left and right images will be described later.

なお、図5において、画像内の点に関する位置の座標成分値の符号における添え字「b」は、図5の座標系Cbでの座標成分値であることを示しており、添え字「s」は図5の座標系Csにおける位置を示すことを意味する。座標系Csは標準領域Ssに対して固定された座標系である。いずれの座標系Cb,Csでもx軸は画像の横方向の軸、y軸は画像の縦方向の軸である。補足すると、本実施形態では、左右の各画像の全体領域と、拡大領域Sbとは一致するので、座標系Cbは、各画像に対して固定された座標系としての意味を持つと同時に、拡大領域Sbに対して固定された座標系としての意味を持つ。   In FIG. 5, the subscript “b” in the sign of the coordinate component value of the position regarding the point in the image indicates the coordinate component value in the coordinate system Cb of FIG. 5, and the subscript “s”. Means to indicate a position in the coordinate system Cs of FIG. The coordinate system Cs is a coordinate system fixed with respect to the standard area Ss. In any of the coordinate systems Cb and Cs, the x axis is the horizontal axis of the image, and the y axis is the vertical axis of the image. Supplementally, in this embodiment, since the entire area of each of the left and right images and the enlarged area Sb coincide with each other, the coordinate system Cb has a meaning as a coordinate system fixed to each image and at the same time enlarges It has a meaning as a coordinate system fixed to the region Sb.

上記STEP4では、例えば車両10の車速が、あらかじめ定めた所定速度以下である(比較的低速である)という要件と、車両10の右左折用方向指示器が動作しているといういう要件(車両10のウィンカースイッチがONになっているという要件)と、過去(例えば前回の演算処理周期)に抽出された対象物のうちに、車両10に対する相対距離(車両10の前後方向での距離)があらかじめ定めた所定値以下となる対象物(車両10との距離が比較的短い対象物)が存在するという要件とのうちのいずれかの要件が満たされる場合には、対象物抽出領域として拡大領域Sbが設定される。また、上記のいずれの要件も満たされない場合には、対象物抽出領域として標準領域Ssが設定される。   In STEP4, for example, the vehicle speed of the vehicle 10 is equal to or lower than a predetermined speed (relatively low), and the requirement that the turn indicator for turning right and left of the vehicle 10 is operating (vehicle 10). And the relative distance to the vehicle 10 (the distance in the front-rear direction of the vehicle 10) among the objects extracted in the past (for example, the previous calculation processing cycle) in advance. When any one of the requirements that there is an object (an object having a relatively short distance from the vehicle 10) that is equal to or less than the predetermined value is satisfied, the enlarged area Sb is used as the object extraction area. Is set. When none of the above requirements is satisfied, the standard area Ss is set as the object extraction area.

なお、STEP4の処理は、本発明における対象物抽出領域設定手段を構成するものである。   Note that the processing of STEP 4 constitutes the object extraction area setting means in the present invention.

補足すると、車両10の前方に存在する対象物は、後述するように右画像および左画像の対象物抽出領域内で検出されるので、該対象物抽出領域を変更するということは、赤外線カメラ2R,2Lの視野角(画角)を変更することと同等の効果を奏する。この場合、対象物抽出領域の横方向の寸法が、赤外線カメラ2R,2Lの水平方向の視野角(画角)に相当し、対象物抽出領域の縦方向の寸法が赤外線カメラ2R,2Lの垂直方向の視野角(画角)に相当する。従って、各対象物抽出領域Sb,Ssの横方向の寸法および縦方向の寸法は、それぞれに対応して要求される画角に応じて設定すればよい。   Supplementally, since an object existing in front of the vehicle 10 is detected in the object extraction area of the right image and the left image as described later, changing the object extraction area means that the infrared camera 2R is changed. , The same effect as changing the viewing angle (view angle) of 2L. In this case, the horizontal dimension of the object extraction region corresponds to the horizontal viewing angle (angle of view) of the infrared cameras 2R and 2L, and the vertical dimension of the object extraction region is vertical to the infrared cameras 2R and 2L. This corresponds to the viewing angle (view angle) of the direction. Accordingly, the horizontal dimension and the vertical dimension of each of the object extraction regions Sb and Ss may be set according to the angle of view required corresponding to each.

また、本実施形態では、右画像および左画像のそれぞれの拡大領域Sbは、各画像の全体領域に一致させたが、該全体領域よりも小さい面積の領域であってもよい。例えば図5の仮想線の領域Sb’で示すような領域を拡大領域としてもよい。ただし、本実施形態で対象物の距離を算出する手法では、左右の各画像での拡大領域の横方向位置は、右画像と左画像とで同じ位置になるように設定される。その場合、図5の座標系Cbでの拡大領域の左上の頂点の位置を(xb,yb)とし、左右の画像の全体領域の横方向のサンプリング数をFHm、縦方向のサンプリング数をFVmとしたとき、xb、ybの値(ピクセル単位での値)が、例えばそれぞれ次式(1),(2)により与えられる値となるように、拡大領域を左右の各画像に設定すればよい。ここで、「横方向のサンプリング数」および「縦方向のサンプリング数」は、それぞれ、横方向における画像の全体領域の分割数[ピクセル]、縦方向における画像の全体領域の分割数[ピクセル]を意味する。   In the present embodiment, the enlarged regions Sb of the right image and the left image are matched with the entire region of each image, but may be a region having an area smaller than the entire region. For example, an area indicated by an imaginary line area Sb ′ in FIG. 5 may be an enlarged area. However, in the method of calculating the distance of the object in the present embodiment, the horizontal position of the enlarged region in each of the left and right images is set to be the same position in the right image and the left image. In this case, the position of the upper left vertex of the enlarged area in the coordinate system Cb of FIG. 5 is (xb, yb), the horizontal sampling number of the entire area of the left and right images is FHm, and the vertical sampling number is FVm. Then, the enlarged regions may be set in the left and right images so that the values of xb and yb (values in units of pixels) are values given by the following equations (1) and (2), respectively. Here, the “sampling number in the horizontal direction” and the “sampling number in the vertical direction” are respectively the number of divisions [pixel] of the entire area of the image in the horizontal direction and the number of divisions [pixel] of the entire area of the image in the vertical direction. means.


xb=(1/2)×FHm×(1−RHfov/MHfov) ……(1)
yb=(1/2)×FVm×(1−RVfov/MVfov) ……(2)

なお、式(1),(2)におけるRHfovは、赤外線カメラ2R,2Lの水平方向(横方向)の要求画角、RVfovは、赤外線カメラ2R,2Lの垂直方向(縦方向)の要求画角、MHfovは、赤外線カメラ2R,2Lの水平方向の最大画角、RVfovは、赤外線カメラ2R,2Lの垂直方向の最大画角である。

xb = (1/2) * FHm * (1-RHfov / MHfov) (1)
yb = (1/2) * FVm * (1-RVfov / MVfov) (2)

In the equations (1) and (2), RHfov is a required field angle in the horizontal direction (lateral direction) of the infrared cameras 2R and 2L, and RVfov is a required field angle in the vertical direction (vertical direction) of the infrared cameras 2R and 2L. , MHfov is the maximum horizontal field angle of the infrared cameras 2R and 2L, and RVfov is the maximum vertical field angle of the infrared cameras 2R and 2L.

図3および図4のフローチャートの説明に戻って、画像処理ユニット1は、次に、前記右画像および左画像のうちの一方を基準画像とし、この基準画像を2値化する(STEP5)。基準画像は、本実施形態では右画像である。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。また、上記2値化処理は、基準画像のうちの、前記STEP4で設定された対象物抽出領域で行なわれる。   Returning to the description of the flowcharts of FIGS. 3 and 4, the image processing unit 1 then uses one of the right image and the left image as a reference image, and binarizes the reference image (STEP 5). The reference image is a right image in the present embodiment. In this binarization process, the luminance value of each pixel of the reference image is compared with a predetermined luminance threshold value, and an area (relatively bright area) having a luminance value higher than the predetermined luminance threshold value in the reference image. This is a process of setting “1” (white) and setting an area having a luminance value lower than the luminance threshold (a relatively dark area) to “0” (black). Hereinafter, an image (monochrome image) obtained by the binarization process is referred to as a binarized image. In the binarized image, an area “1” is referred to as a high luminance area. The binarized image is stored in the image memory separately from the grayscale image (right image and left image). The binarization process is performed in the object extraction area set in STEP 4 in the reference image.

次いで、画像処理ユニット1は、前記2値化画像に対してSTEP6〜9の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像部分)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP6)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP7)、そのライン群のそれぞれを対象物として抽出する(STEP8)。これにより、基準画像の対象物抽出領域内で、対象物が抽出される。   Next, the image processing unit 1 performs the processing of STEP 6 to 9 on the binarized image, and extracts an object (more precisely, an image portion corresponding to the object) from the binarized image. That is, the pixel group constituting the high luminance area of the binarized image is classified into lines having a width of one pixel in the vertical direction (y direction) of the reference image and extending in the horizontal direction (x direction). Each line is converted into run-length data composed of the coordinates and length (number of pixels) of the position (two-dimensional position on the reference image) (STEP 6). A label (identifier) is assigned to each line group that overlaps in the vertical direction of the reference image among the lines represented by the run-length data (STEP 7), and each line group is extracted as an object. (STEP 8). Thereby, the object is extracted within the object extraction area of the reference image.

なお、STEP6〜8の処理により抽出される対象物には、一般には、人(歩行者)だけでなく、他車両などの人工構造物なども含まれる。また、同一の物体の複数の局所部分が対象物として抽出される場合もある。   Note that the objects extracted by the processing in STEPs 6 to 8 generally include not only people (pedestrians) but also artificial structures such as other vehicles. In addition, a plurality of local parts of the same object may be extracted as the target object.

前記図5には、夜間において赤外線カメラ2R,2Lから得られる右画像および左画像の模式的な例を示している。この例では、車両10の前方に他車両が存在しており、他車両の全体が、概略的に破線で示すように右画像および左画像に捉えられている。この場合、図5で参照符号T1〜T5を付した部分が高輝度領域となり、これらの部分T1〜T5のうちの対象物抽出領域に存在するものが対象物として抽出される。T1,T2は他車両のテールランプに相当する部分であり、T4,T5は他車両の後輪に相当する部分であり、T3は他車両の排気管に相当する部分である。なお、図5では、T1〜T5を実線で模式的に示している。実際の画像から抽出される対象物の形状は、一般には、図5のように整った形状とはならない。   FIG. 5 shows a schematic example of a right image and a left image obtained from the infrared cameras 2R and 2L at night. In this example, another vehicle exists in front of the vehicle 10, and the entire other vehicle is captured in the right image and the left image as schematically indicated by a broken line. In this case, the portions denoted by reference symbols T1 to T5 in FIG. 5 are high luminance regions, and those existing in the object extraction region among these portions T1 to T5 are extracted as the objects. T1 and T2 are portions corresponding to the tail lamp of the other vehicle, T4 and T5 are portions corresponding to the rear wheels of the other vehicle, and T3 is a portion corresponding to the exhaust pipe of the other vehicle. In FIG. 5, T1 to T5 are schematically shown by solid lines. In general, the shape of an object extracted from an actual image does not have a uniform shape as shown in FIG.

補足すると、前記STEP5の2値化処理は、STEP4で設定された対象物抽出領域によらずに、基準画像の全体領域で行なうようにしてもよい。この場合には、STEP6〜8の処理をSTEP4で設定された対象物抽出領域内で行なうようにすればよい。また、STEP5〜8の処理は、これらの処理を行なう対象物抽出領域を除いて、前記特許文献1の図3のS14〜S17の処理と同じである。   Supplementally, the binarization processing in STEP 5 may be performed in the entire area of the reference image, not in the object extraction area set in STEP 4. In this case, the processing of STEPs 6 to 8 may be performed within the object extraction area set in STEP 4. Moreover, the processing of STEP5-8 is the same as the processing of S14-S17 of the said patent document 1 of FIG. 3 except the target object extraction area | region which performs these processes.

次いで、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP9)。なお、各対象物の重心の位置は、該対象物に含まれるランレングスデータの各ラインの位置(各ラインの中心位置)の座標に該ラインの長さを乗じたものを、該対象物に含まれるランレングスデータの全てのラインについて加算し、その加算結果を該対象物の面積により除算することにより求められる。また、各対象物の重心の代わりに、該対象物の外接四角形の重心(中心)の位置を求めてもよい。   Next, the image processing unit 1 obtains the position of the center of gravity of each object extracted as described above (position on the reference image), the area, and the aspect ratio of the circumscribed rectangle (STEP 9). The position of the center of gravity of each object is obtained by multiplying the coordinates of the position of each line (the center position of each line) of the run length data included in the object by the length of the line. It is obtained by adding all the lines of included run length data and dividing the addition result by the area of the object. Further, instead of the center of gravity of each object, the position of the center (center) of the circumscribed rectangle of the object may be obtained.

次いで、画像処理ユニット1は、前記STEP8で抽出した対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP10)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP8の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP8の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの対象物A,Bが互いに同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベル(STEP7で付したラベル)が対象物Aのラベルと同じラベルに変更される。   Next, the image processing unit 1 traces the object extracted in STEP 8 during the time, that is, recognizes the same object for each calculation processing cycle of the image processing unit 1 (STEP 10). In this process, when the object A is extracted by the processing of STEP 8 at a time (discrete system time) k in a certain arithmetic processing cycle, and the object B is extracted by the processing of STEP 8 at the time k + 1 of the next arithmetic processing cycle. The identity of these objects A and B is determined. This identity determination may be performed based on, for example, the shape and size of the objects A and B on the binarized image, the correlation of the luminance distribution on the reference image (grayscale image), and the like. . When it is determined that the objects A and B are the same, the label of the object B extracted at time k + 1 (the label attached in STEP 7) is changed to the same label as the label of the object A. The

次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読み込む(STEP11)。なお、このSTEP11では、読込んだヨーレートの検出値を積分することにより、車両10の回頭角(方位角)の算出も行なわれる。補足すると、STEP9〜11の処理は、前記特許文献1のS18〜S20の処理と同じである。   Next, the image processing unit 1 reads the outputs (the detected vehicle speed value and the detected yaw rate value) of the vehicle speed sensor 4 and the yaw rate sensor 5 (STEP 11). In STEP 11, the turning angle (azimuth angle) of the vehicle 10 is also calculated by integrating the read detected yaw rate value. Supplementally, the processing of STEPs 9 to 11 is the same as the processing of S18 to S20 of Patent Document 1.

一方、画像処理ユニット1は、STEP10,11の処理と並行して、STEP12〜14の処理を実行する。このSTEP12〜14の処理は、STEP8で抽出した各対象物の車両10からの距離(相対距離)を求めるための処理である。その処理を概略的に説明すると、まず、右画像(基準画像)のうち、各対象物を含む領域を探索画像R1として抽出する(STEP12)。探索画像R1は、例えば該対象物の外接四角形の領域である。   On the other hand, the image processing unit 1 executes the processes of STEPs 12 to 14 in parallel with the processes of STEPs 10 and 11. The processing of STEPs 12 to 14 is processing for obtaining the distance (relative distance) of each object extracted in STEP 8 from the vehicle 10. The process will be schematically described. First, an area including each object is extracted as a search image R1 from the right image (reference image) (STEP 12). The search image R1 is, for example, a circumscribed square area of the object.

次いで、STEP4で設定された左画像の対象物抽出領域内で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域(探索画像R1よりも広い領域)である探索領域R2が設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域(探索画像R1と同じ形状および寸法の領域)が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP13)。   Next, a search that is an area for searching for the same object as the object included in the search image R1 of the right image within the object extraction area of the left image set in STEP 4 (an area wider than the search image R1). A region R2 is set, and a region having the highest correlation with the search image R1 (region having the same shape and size as the search image R1) within the search region R2 is an image corresponding to the search image R1 (with the search image R1). (Corresponding image) is extracted as the corresponding image R3 (STEP 13).

具体的には、左画像の探索領域R2内の複数の位置に、探索画像R1と同じ形状および寸法の領域が相関性判定領域として設定され、その各位置の相関性判定領域の輝度分布と探索画像R1の輝度分布との一致度合いを表す特徴量が算出される。該特徴量としては、例えば、相関性判定領域の各画素の輝度値と該画素に対応する探索画像R1の画素の輝度値との差の絶対値を、該相関性判定領域の全ての画素について積算してなる絶対差分和が用いられる。この場合、該特徴量(絶対差分和)の値が小さいほど、相関性判定領域の輝度分布と探索画像R1の輝度分布との一致度合いが高いことを意味する。そして、該特徴量(絶対差分和)の値が最小となる相関性判定領域が、探索画像R1との相関性が最も高い領域とされ、その領域が対応画像R3として抽出される。なお、STEP13の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。   Specifically, regions having the same shape and size as the search image R1 are set as correlation determination regions at a plurality of positions in the search region R2 of the left image, and the luminance distribution and search of the correlation determination region at each position are searched. A feature amount representing the degree of coincidence with the luminance distribution of the image R1 is calculated. As the feature amount, for example, the absolute value of the difference between the luminance value of each pixel in the correlation determination area and the luminance value of the pixel of the search image R1 corresponding to the pixel is obtained for all the pixels in the correlation determination area. An absolute difference sum obtained by integration is used. In this case, the smaller the feature value (absolute difference sum) is, the higher the degree of coincidence between the luminance distribution of the correlation determination region and the luminance distribution of the search image R1 is. Then, the correlation determination area where the value of the feature amount (absolute difference sum) is the smallest is the area having the highest correlation with the search image R1, and that area is extracted as the corresponding image R3. Note that the processing in STEP 13 is performed using a grayscale image, not a binarized image.

補足すると、探索領域R2は、その内部に、対応画像R3が存在する可能性が高い領域に設定すればよく、探索画像R1が過去から時系列的に抽出されている対象物に対応するものである場合には、該対象物の距離(車両10からの相対距離)の過去履歴などを基に、探索領域R2の設定位置や寸法を適宜変更するようにしてもよい。対応画像R3の探索をできるだけ短時間で行う上では、探索領域R2を狭めに設定することが望ましい。   Supplementally, the search area R2 may be set in an area where there is a high possibility that the corresponding image R3 exists in the search area R2, and corresponds to an object from which the search image R1 is extracted in time series from the past. In some cases, the set position and dimensions of the search region R2 may be changed as appropriate based on the past history of the distance of the object (relative distance from the vehicle 10). In order to search the corresponding image R3 in as short a time as possible, it is desirable to set the search region R2 narrower.

次いで、右画像の対象物抽出領域における前記探索画像R1の重心の位置(あるいは探索画像R1に含まれる対象物(高輝度領域)の重心の位置)と、左画像の対象物抽出領域における前記対応画像R3の重心の位置(あるいは対応画像R3に含まれる対象物(高輝度領域)の重心の位置)との横方向の差分の画素数を視差Δdとして算出し、その視差Δdを基に、対象物の車両10からの距離z(車両10の前後方向における距離)が算出される(STEP14)。なお、視差の算出と距離の算出処理の詳細は後述する。   Next, the position of the center of gravity of the search image R1 in the object extraction area of the right image (or the position of the center of gravity of the object (high luminance area) included in the search image R1) and the correspondence in the object extraction area of the left image The number of pixels in the lateral difference from the position of the center of gravity of the image R3 (or the position of the center of gravity of the target object (high luminance region) included in the corresponding image R3) is calculated as the parallax Δd, and the target A distance z of the object from the vehicle 10 (a distance in the front-rear direction of the vehicle 10) is calculated (STEP 14). Details of the parallax calculation and the distance calculation processing will be described later.

以上がSTEP12〜14の処理の概要である。なお、STEP12〜14の処理は、前記STEP8で抽出された各対象物に対して実行される。補足すると、STEP14の処理には、本発明におけるパラメータ決定手段、距離算出手段としての機能が含まれる。   The above is the outline of the processing of STEPs 12 to 14. In addition, the processing of STEP12-14 is performed with respect to each target object extracted by said STEP8. Supplementally, the processing of STEP 14 includes functions as parameter determination means and distance calculation means in the present invention.

前記STEP11およびSTEP14の処理の終了後、画像処理ユニット1は、次に、各対象物の実空間上での位置(車両10に対する相対位置)である実空間位置を算出する(STEP15)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向およびY方向は、それぞれ車両10の車幅方向、上下方向であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(3)、(4)、(5)により算出される。   After the processing of STEP 11 and STEP 14, the image processing unit 1 next calculates a real space position that is a position (relative position with respect to the vehicle 10) of each object in the real space (STEP 15). Here, as shown in FIG. 2, the real space position is a position (X, Y, Z) in the real space coordinate system (XYZ coordinate system) set with the midpoint of the attachment position of the infrared cameras 2R, 2L as the origin. ). The X direction and Y direction of the real space coordinate system are the vehicle width direction and the vertical direction of the vehicle 10, respectively. These X direction and Y direction are the x direction (lateral direction) and y direction of the right image and the left image, respectively. (Vertical direction) and the same direction. The Z direction in the real space coordinate system is the front-rear direction of the vehicle 10. Then, the real space position (X, Y, Z) of the object is calculated by the following equations (3), (4), (5).


X=x×z×p/f ……(3)
Y=y×z×p/f ……(4)
Z=z ……(5)

なお、x、yは基準画像上での対象物のx座標、y座標である。ただし、この場合の座標系は、図示は省略するが、基準画像の中心点の付近に原点を有するxy座標系である。その原点は、前記実空間座標系のZ軸上に対象物が存在するときに、該対象物の基準画像上でのx座標、y座標が共に0となるようにあらかじめ定められた点である。

X = x × z × p / f (3)
Y = y × z × p / f (4)
Z = z (5)

Note that x and y are the x-coordinate and y-coordinate of the object on the reference image. However, the coordinate system in this case is an xy coordinate system having an origin in the vicinity of the center point of the reference image, although illustration is omitted. The origin is a point determined in advance so that the x coordinate and the y coordinate on the reference image of the target object are both zero when the target object exists on the Z axis of the real space coordinate system. .

次いで、画像処理ユニット1は、車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを上記式(3)により求めた値から、前記STEP10で求めた回頭角の時系列データに応じて補正する(STEP16)。これにより、最終的に対象物の実空間位置が求められる。以降の説明では、「対象物の実空間位置」は、この補正を施した対象物の実空間位置を意味する。   Next, the image processing unit 1 compensates for the influence of the change in the turning angle of the vehicle 10 and increases the accuracy of the real space position of the object, out of the real space position (X, Y, Z) of the object. The position X in the X direction is corrected according to the time-series data of the turning angle obtained in STEP 10 from the value obtained by the above equation (3) (STEP 16). Thereby, the real space position of the object is finally obtained. In the following description, “the real space position of the object” means the real space position of the object subjected to this correction.

次に、画像処理ユニット1は、対象物の車両10に対する移動ベクトルを求める(STEP17)。具体的には、同一対象物についての実空間位置の、所定期間(現在時刻から所定時間前までの期間。以下、モニタ期間という)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(点)から、現在時刻における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。この移動ベクトルは、対象物の車両10に対する相対速度ベクトルに比例する。なお、STEP15〜17の処理は、前記特許文献1の図3のS21〜S23の処理と同じである。   Next, the image processing unit 1 obtains a movement vector of the object with respect to the vehicle 10 (STEP 17). Specifically, a straight line approximating time series data in a predetermined period (a period from the current time to a predetermined time before, hereinafter referred to as a monitoring period) of the real space position for the same object is obtained, and the time before the predetermined time is obtained. A vector from the position (point) of the object on the straight line to the position (point) of the object on the straight line at the current time is obtained as a movement vector of the object. This movement vector is proportional to the relative velocity vector of the object with respect to the vehicle 10. Note that the processing of STEPs 15 to 17 is the same as the processing of S21 to S23 of FIG.

次に、画像処理ユニット1は、前記STEP8で抽出された各対象物が、車両10との接触を回避すべき回避対象であるか否かを判定する回避対象判定処理を実行する(STEP18)。この回避対象判定処理を図6および図7を参照して以下に説明する。図6はSTEP18の回避対象判定処理を示すフローチャート、図7はこの回避対象判定処理で使用する領域を説明するための図である。   Next, the image processing unit 1 executes an avoidance target determination process for determining whether or not each object extracted in STEP 8 is an avoidance object that should avoid contact with the vehicle 10 (STEP 18). This avoidance target determination process will be described below with reference to FIGS. FIG. 6 is a flowchart showing the avoidance target determination process in STEP 18, and FIG. 7 is a diagram for explaining an area used in this avoidance target determination process.

図6を参照して、回避対象判定処理では、まず、対象物の実空間位置に関する第1の判定処理としての第1対象物位置判定処理が実行される(STEP31)。この第1対象物位置判定処理は、車両10と対象物との接触を車両10の操舵やブレーキ操作によって余裕をもって回避できるか否かを判定するための処理である。具体的には、該第1対象物位置判定処理では、前記STEP4で設定した対象物抽出領域に対応する赤外線カメラ2R,2Lの視野角内の領域(以下、撮像監視領域という)のうち、車両10からのZ方向の距離(車両10の前後方向の距離)が、所定値以下となる領域(以下、第1領域という)に対象物の現在の実空間位置(実空間位置の今回値)が存在するか否かが判定される。   Referring to FIG. 6, in the avoidance target determination process, first, a first object position determination process is executed as a first determination process related to the real space position of the target object (STEP 31). The first object position determination process is a process for determining whether or not contact between the vehicle 10 and the object can be avoided with sufficient margin by steering or braking operation of the vehicle 10. Specifically, in the first object position determination process, the vehicle within the area within the viewing angle of the infrared cameras 2R and 2L corresponding to the object extraction area set in STEP 4 (hereinafter referred to as an imaging monitoring area) The current real space position of the object (current value of the real space position) is in an area where the distance in the Z direction from 10 (the distance in the front-rear direction of the vehicle 10) is a predetermined value or less (hereinafter referred to as the first area). It is determined whether or not it exists.

この場合、車両10からの距離に関する所定値は、対象物毎に設定される。具体的には、前記STEP17で移動ベクトルを求めるための前記モニタ期間の時間で、該移動ベクトルのZ方向成分を除算することにより、該モニタ期間での対象物の平均速度Vz(車両10の前後方向での対象物の相対速度の平均値Vz)が求められ、この平均速度Vzに所定の定数T(時間の次元の定数)を乗じてなる値Vz・Tが前記第1領域の、Z方向の境界を規定する上記所定値として設定される。   In this case, the predetermined value related to the distance from the vehicle 10 is set for each object. Specifically, by dividing the Z direction component of the movement vector by the time of the monitoring period for obtaining the movement vector in STEP 17, the average speed Vz of the object in the monitoring period (before and after the vehicle 10) Average value Vz) of the relative velocity of the object in the direction is obtained, and a value Vz · T obtained by multiplying this average velocity Vz by a predetermined constant T (constant of time dimension) is the Z direction of the first region. Is set as the predetermined value that defines the boundary.

ここで、前記第1領域を図7を参照して説明する。図7において、対象物抽出領域が前記拡大領域Sbに設定されている場合における前記撮像監視領域は、平面視で図中の直線L1b,L2bの間の領域により表され、対象物抽出領域が前記標準領域Ssに設定されている場合における前記撮像監視領域は、平面視で図中の直線L1s,L2sの間の領域で表される。従って、前記第1領域は、平面視で、図7の三角形abcまたはadeで囲まれた領域となる。なお、第1領域abcまたはadeは、上下方向では、所定の高さ(例えば車両10の高さの2倍程度の高さ)を有する領域である。   Here, the first region will be described with reference to FIG. In FIG. 7, the imaging monitoring area when the object extraction area is set to the enlarged area Sb is represented by an area between the straight lines L1b and L2b in the drawing in plan view, and the object extraction area is The imaging monitoring area in the case where the standard area Ss is set is represented by an area between the straight lines L1s and L2s in the drawing in plan view. Accordingly, the first region is a region surrounded by the triangle abc or ade in FIG. 7 in plan view. Note that the first region abc or ade is a region having a predetermined height (for example, about twice the height of the vehicle 10) in the vertical direction.

STEP31の第1対象物位置判定処理は、このような第1領域abcまたはadeに対象物が存在するか否かを判定する処理であり、対象物の現在の実空間位置のZ方向位置がVz・T以下で、且つ、Y方向位置が所定の高さ以下の位置であるときに、該対象物が第1領域に存在すると判定される。なお、車両10の前後方向における対象物の相対速度Vzが車両10から遠ざかる向きの相対速度である場合には、該対象物は第1領域に存在しないと判定される。   The first object position determination process in STEP 31 is a process for determining whether or not the object exists in the first region abc or ade, and the Z-direction position of the current real space position of the object is Vz. When it is T or less and the Y-direction position is a position not more than a predetermined height, it is determined that the object is present in the first region. When the relative speed Vz of the object in the front-rear direction of the vehicle 10 is a relative speed away from the vehicle 10, it is determined that the object does not exist in the first region.

STEP31において、対象物が第1領域abcまたはade内に存在しないと判定された場合(STEP31の判定結果がNOとなる場合)は、車両10の操舵やブレーキ操作によって該対象物と車両10との接触を余裕をもって回避し得る状況である。そして、この場合には、画像処理ユニット1は、STEP36において、該対象物が回避対象で無いと判定し、該対象物についての回避対象判定処理を終了する。   In STEP 31, when it is determined that the object does not exist in the first region abc or ade (when the determination result in STEP 31 is NO), the object and the vehicle 10 are moved by steering or braking operation of the vehicle 10. This is a situation where contact can be avoided with a margin. In this case, the image processing unit 1 determines in STEP 36 that the object is not an avoidance target, and ends the avoidance target determination process for the object.

一方、STEP31において、対象物が第1領域abcまたはade内に存在すると判定された場合(STEP31の判断結果がYESとなる場合)には、画像処理ユニット1はさらに、対象物の実空間位置に関する第2の判定処理としての第2対象物位置判定処理を実行する(STEP32)。この第2対象物位置判定処理は、対象物の実空間位置が現在位置に維持されたとした場合に、車両10と対象物との接触の可能性が高いか否かを判定するための処理である。具体的には、該第2対象物位置判定処理では、対象物が、図7に示すように車両10の両側で前後方向に延在する(車両10の車幅中心線L0と平行に延在する)ように設定された一対の境界線L3,L4の間の領域AR2(以下、第2領域AR2という)に存在するか否かが判定される。   On the other hand, when it is determined in STEP 31 that the object is present in the first region abc or ade (when the determination result in STEP 31 is YES), the image processing unit 1 further relates to the real space position of the object. A second object position determination process as a second determination process is executed (STEP 32). This second object position determination process is a process for determining whether or not the possibility of contact between the vehicle 10 and the object is high when the real space position of the object is maintained at the current position. is there. Specifically, in the second object position determination process, the object extends in the front-rear direction on both sides of the vehicle 10 as shown in FIG. 7 (extending in parallel with the vehicle width center line L0 of the vehicle 10). It is determined whether or not it exists in an area AR2 (hereinafter referred to as a second area AR2) between a pair of boundary lines L3 and L4 set as follows.

この場合、第2領域AR2の左右の境界線L3,L4は、それらの間隔をWとしたとき、図7に示すように、車両10の車幅中心線L0から左右に同じ間隔W/2を有する位置に設定される。そして、境界線L3,L4の間隔Wは、車両10の車幅αよりも若干広い間隔に設定される。なお、対象物が第2領域AR2に存在するか否かは、対象物の現在の実空間位置のX方向成分の値が、境界線L3のX方向位置と境界線L4のX方向位置との間の値であるか否によって判定される。   In this case, the left and right boundary lines L3 and L4 of the second area AR2 have the same distance W / 2 left and right from the vehicle width center line L0 of the vehicle 10, as shown in FIG. It is set to the position to have. The interval W between the boundary lines L3 and L4 is set to be slightly wider than the vehicle width α of the vehicle 10. Whether or not the object exists in the second area AR2 depends on whether the value of the X direction component of the current real space position of the object is the X direction position of the boundary line L3 and the X direction position of the boundary line L4. It is determined by whether the value is between.

補足すると、第2領域AR2の幅Wは、前記STEP4で対象物抽出領域を設定するために考慮した車両10の走行環境(車両10の車速や、ウィンカーの動作など)に応じて変化させるようにしてもよい。この場合、対象物抽出領域として前記拡大領域Sbが設定されるような走行環境では、標準領域Ssが設定されるような走行環境よりも、第2の領域AR2の幅を広くすることが好ましい。   Supplementally, the width W of the second area AR2 is changed in accordance with the traveling environment of the vehicle 10 (the vehicle speed of the vehicle 10, the operation of the blinker, etc.) considered for setting the object extraction area in STEP4. May be. In this case, in the traveling environment in which the enlarged region Sb is set as the object extraction region, it is preferable that the width of the second area AR2 is made wider than in the traveling environment in which the standard region Ss is set.

STEP32において、対象物の実空間位置が第2領域AR2に存在すると判定された場合(STEP32の判定結果がYESとなる場合)は、対象物が現在の実空間位置に留まったとした場合に、該対象物が車両10と接触する可能性が高い。この場合には、画像処理ユニット1は、次に、対象物が歩行者(人)であるか(より正確には人である可能性が高いか否か)の判定処理を行なう(STEP33)。対象物が歩行者であるか否かの判定は、公知の手法(例えば特開2003−284057号公報に記載されている手法)を使用すればよく、グレースケール画像上での対象物の形状や大きさ、輝度分布等の特徴に基づいて行なうことができる。   In STEP 32, when it is determined that the real space position of the object exists in the second area AR2 (when the determination result in STEP 32 is YES), the object remains at the current real space position. There is a high possibility that the object comes into contact with the vehicle 10. In this case, the image processing unit 1 next performs a process of determining whether the object is a pedestrian (person) (more accurately, whether or not there is a high possibility of being a person) (STEP 33). A determination as to whether or not the object is a pedestrian may be made using a known method (for example, a method described in Japanese Patent Application Laid-Open No. 2003-284057), and the shape of the object on the grayscale image This can be done based on features such as size and luminance distribution.

このSTEP33の歩行者判定処理で、対象物が歩行者である可能性が高いと判断した場合には、対象物が歩行者であるとの判定の信頼性を高めるために、STEP34に進み、該対象物が他車両や電柱などの人工構造物であるか否かの判定処理(人工構造物判定処理)が行なわれる。対象物が人工構造物であるか否かの判定は、公知の手法(例えば特開2003−16429号公報や特開2003−230134号公報に記載されている手法)を使用すればよく、対象物の画像(グレースケール画像または2値化画像)における直線部分や直角部分の有無、他車両のウィンドウシールド部分の有無などに基づいて行うことができる。あるいは、パターンマッチングの手法により対象物が人工構造物であるか否かの判定を行なうようにしてもよい。   In this pedestrian determination process of STEP 33, if it is determined that the object is likely to be a pedestrian, the process proceeds to STEP 34 in order to increase the reliability of the determination that the object is a pedestrian. A determination process (artificial structure determination process) is performed as to whether or not the object is an artificial structure such as another vehicle or a utility pole. Whether or not the object is an artificial structure may be determined by using a known method (for example, a method described in JP2003-16429A or JP2003-230134A). The image (grayscale image or binarized image) can be performed based on the presence or absence of a straight line portion or a right angle portion, the presence or absence of a window shield portion of another vehicle, or the like. Alternatively, it may be determined whether or not the object is an artificial structure by a pattern matching method.

そして、STEP34で、対象物が人工構造物でないと判定された場合(STEP34の判定結果がNOとなる場合)には、画像処理ユニット1は、STEP35において、対象物が回避対象であると判定し、回避対象判定処理を終了する。従って、対象物が前記第1領域abcまたはade内の第2領域AR2に存在し、且つ、対象物が歩行者である可能性が高く、且つ、人工構造物でないと判定された場合には、対象物が回避対象であると判定される。   When it is determined in STEP 34 that the object is not an artificial structure (when the determination result in STEP 34 is NO), the image processing unit 1 determines in STEP 35 that the object is an avoidance target. Then, the avoidance target determination process ends. Therefore, when it is determined that the object is present in the second area AR2 in the first area abc or ade and the object is a pedestrian and is not an artificial structure, It is determined that the object is an avoidance target.

また、STEP33で対象物が歩行者でないと判定され、あるいは、STEP34で対象物が人工構造物であると判定された場合には、前記STEP36に進んで、対象物が回避対象で無いと判定され、回避対象判定処理が終了する。   If it is determined in STEP 33 that the object is not a pedestrian, or if it is determined in STEP 34 that the object is an artificial structure, the process proceeds to STEP 36 and it is determined that the object is not an avoidance target. The avoidance target determination process ends.

一方、前記STEP32において、対象物が第2領域AR2に存在しないと判定された場合(STEP32の判定結果がNOとなる場合)には、画像処理ユニット1は、次に、対象物の移動方向に関する進入接触判定処理を実行する(STEP37)。この進入接触判定処理は、対象物が前記第2領域AR2に進入し、且つ、車両10と接触する可能性が高いか否かを判定する処理である。具体的には、対象物の移動ベクトルが現状に維持されると仮定し、この移動ベクトルを含む直線と、車両10の前端位置における実空間座標系のXY平面との交点のX方向位置が求められる。そして、この求めたX方向位置が、車両10の車幅中心線L0のX方向位置を中心とする所定範囲(車両10の車幅よりも若干広い範囲)に存在することを要件(以下、進入接触要件という)として、この進入接触要件が満たされるか否かが判定される。   On the other hand, when it is determined in STEP 32 that the object does not exist in the second area AR2 (when the determination result in STEP 32 is NO), the image processing unit 1 next relates to the moving direction of the object. An approach contact determination process is executed (STEP 37). This approach contact determination process is a process for determining whether or not an object enters the second area AR2 and is highly likely to come into contact with the vehicle 10. Specifically, assuming that the movement vector of the object is maintained as it is, the position in the X direction of the intersection point between the straight line including this movement vector and the XY plane of the real space coordinate system at the front end position of the vehicle 10 is obtained. It is done. Then, the obtained X-direction position must be within a predetermined range (a range slightly wider than the vehicle width of the vehicle 10) centered on the X-direction position of the vehicle width center line L0 of the vehicle 10 (hereinafter referred to as an approach). It is determined whether or not this approach contact requirement is satisfied.

STEP37において、対象物が前記進入接触要件を満たす場合(STEP37の判定結果がYESとなる場合)には、対象物が将来、車両10と接触する可能性が高い。そこで、この場合には、画像処理ユニット1は、前記STEP35において、該対象物が回避対象であると判定し、回避対象判定処理を終了する。   In STEP 37, when the object satisfies the entry contact requirement (when the determination result in STEP 37 is YES), the object is highly likely to come into contact with the vehicle 10 in the future. Therefore, in this case, the image processing unit 1 determines in STEP 35 that the target object is an avoidance target, and ends the avoidance target determination process.

また、STEP37において、対象物が前記進入接触要件を満たさない場合(STEP37の判定結果がNOとなる場合)には、対象物が車両10と接触する可能性が低いので、画像処理ユニット1は、前記STEP36おいて、該対象物が回避対象で無いと判定し、回避対象判定処理を終了する。   In STEP 37, when the object does not satisfy the entry contact requirement (when the determination result in STEP 37 is NO), the object is less likely to come into contact with the vehicle 10, so the image processing unit 1 In STEP 36, it is determined that the object is not an avoidance target, and the avoidance target determination process is terminated.

以上がSTEP18の回避対象判定処理の詳細である。   The above is the details of the avoidance target determination process of STEP18.

図3および図4のフローチャートの説明に戻って、STEP18の回避対象判定処理において、対象物が回避対象でないと判定された場合(回避対象であると判定された対象物が存在しない場合)には、STEP18の判定結果がNOとなる。この場合には、画像処理ユニット1の今回の演算処理周期の処理は終了して、次回の演算処理周期でSTEP1からの処理を再開する。   Returning to the description of the flowcharts of FIGS. 3 and 4, when it is determined in STEP 18 that the target is not an avoidance target (when there is no target determined to be an avoidance target). The determination result of STEP18 is NO. In this case, the processing of the current processing cycle of the image processing unit 1 ends, and the processing from STEP 1 is restarted at the next processing cycle.

また、STEP18の回避対象判定処理において、対象物が回避対象であると判定された場合(回避対象であると判定された対象物が存在する場合)には、STEP18の判定結果がYESとなる。この場合には、STEP19に進んで、画像処理ユニット1は、回避対象であると判定された対象物に関する実際の警報を行なうべきか否かの判定を行なう警報出力判定処理を実行する。この警報出力判定処理では、前記ブレーキセンサ5の出力から、運転者による車両10のブレーキ操作がなされていることが確認され、且つ、車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、警報を行なわないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、車両10の減速加速度が所定の閾値以下である場合には、警報を行なうべきと判定される。   Further, in the avoidance target determination process of STEP 18, when the target is determined to be the avoidance target (when there is an target determined to be the avoidance target), the determination result of STEP 18 is YES. In this case, proceeding to STEP 19, the image processing unit 1 executes an alarm output determination process for determining whether or not an actual alarm regarding an object determined to be an avoidance target should be performed. In this alarm output determination process, it is confirmed from the output of the brake sensor 5 that the driver has operated the brake of the vehicle 10, and the deceleration acceleration of the vehicle 10 (acceleration in the vehicle speed decreasing direction is positive). ) Is larger than a predetermined threshold (> 0), it is determined that no alarm is given. Further, when the driver does not perform a brake operation or when the deceleration acceleration of the vehicle 10 is equal to or less than a predetermined threshold even if the brake operation is performed, it is determined that an alarm should be issued.

そして、画像処理ユニット1は、警報を行なうべきと判定した場合(STEP19の判断結果がYESとなる場合)には、前記スピーカ6と表示装置7とによる警報を車両10の運転者に対して発する警報発生処理を実行する(STEP20)。そして、この警報発生処理の後、今回の演算処理周期の処理が終了して、次回の演算処理周期でSTEP1からの処理が再開される。上記警報発生処理では、例えば表示装置7に前記基準画像を表示すると共に、その基準画像中の、回避対象の対象物の画像を強調的に表示する。さらに、そのような対象物が存在することをスピーカ6から運転者に音声案内する。これにより、該対象物に対する運転者の注意が喚起される。なお、運転者に対する警報は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。また、車両10が自動操舵を行い得る車両である場合には、STEP18で回避対象であると判定された対象物との接触を回避するように車両10の操舵制御を実行するようにしてもよい。   If the image processing unit 1 determines that an alarm should be issued (when the determination result in STEP 19 is YES), the image processing unit 1 issues an alarm by the speaker 6 and the display device 7 to the driver of the vehicle 10. An alarm generation process is executed (STEP 20). Then, after this alarm generation process, the process in the current calculation process cycle is completed, and the process from STEP 1 is resumed in the next calculation process cycle. In the alarm generation process, for example, the reference image is displayed on the display device 7 and the image of the target object to be avoided in the reference image is highlighted. Furthermore, a voice guidance is provided from the speaker 6 to the driver that such an object exists. This alerts the driver to the object. Note that the warning for the driver may be performed by only one of the speaker 6 and the display device 7. When the vehicle 10 is a vehicle that can perform automatic steering, the steering control of the vehicle 10 may be executed so as to avoid contact with an object that is determined to be an avoidance object in STEP 18. .

また、STEP19で警報を行なわないと判断したとき(全ての対象物について警報を行なわないと判断したとき)には、STEP21の判断結果がNOとなり、この場合には、そのまま今回の演算処理周期の処理が終了して、次回の演算処理周期でSTEP1からの処理が再開される。   Further, when it is determined in STEP 19 that no warning is given (when it is determined that no warning is given for all objects), the determination result in STEP 21 is NO, and in this case, the current calculation processing cycle is continued as it is. The processing is completed, and the processing from STEP1 is resumed in the next calculation processing cycle.

以上が本実施形態の周辺監視装置の全体的作動である。   The above is the overall operation of the periphery monitoring device of this embodiment.

次に、説明を後回しにしたSTEP14の処理(対象物の視差および距離の算出処理)と、標準領域Ssの設定とに関して詳細に説明する。   Next, the processing of STEP 14 (processing for calculating the parallax and distance of the target object) and the setting of the standard area Ss, which will be described later, will be described in detail.

本実施形態では、前記標準領域Ssは、本発明における基準画像領域に相当している。この標準領域Ssは、車両10の製造時や保守・点検時などに、作業者によってあらかじめ設定される領域であり、その設定は次のように行なわれる。   In the present embodiment, the standard area Ss corresponds to the reference image area in the present invention. The standard area Ss is an area that is set in advance by an operator at the time of manufacturing the vehicle 10 or during maintenance / inspection. The setting is performed as follows.

すなわち、車両10の製造時や保守・点検時などに、車両10を停止させた状態で、エイミング用対象物が車両10の正面前方に配置される。この場合、エイミング用対象物の車両10に対する相対位置は既定の位置である。そして、この状態で、各赤外線カメラ2R,2Lの撮像画像(右画像および左画像)中のエイミング用対象物と各画像の標準領域Ssとの相対的な位置関係(標準領域Ssに対して固定された基準点(例えば標準領域Ssの左上の頂点)との位置関係)が既定の位置関係になるように、各画像中での標準領域Ssの位置が設定される。換言すれば、各画像の標準領域Ssに対して固定された座標系(2次元座標系)でのエイミング用対象物の位置(該対象物の重心点または中心の位置)の座標値が、既定の座標値になるように各画像中での標準領域Ssの位置が設定される。この場合、標準領域Ssに対するエイミング用対象物の、縦方向での既定位置は、左右の画像で同じであるが、標準領域Ssに対するエイミング用対象物の、横方向での既定位置は、左右の画像で相違する。   That is, the aiming object is arranged in front of the vehicle 10 in a state where the vehicle 10 is stopped at the time of manufacturing or maintenance / inspection of the vehicle 10. In this case, the relative position of the aiming object with respect to the vehicle 10 is a predetermined position. In this state, the relative positional relationship between the object for aiming in the captured images (right image and left image) of the infrared cameras 2R and 2L and the standard area Ss of each image (fixed with respect to the standard area Ss). The position of the standard region Ss in each image is set so that the determined reference point (for example, the positional relationship with the upper left vertex of the standard region Ss) has a predetermined positional relationship. In other words, the coordinate value of the position of the object for aiming (the center of gravity or the position of the center of the object) in the coordinate system (two-dimensional coordinate system) fixed with respect to the standard region Ss of each image is a predetermined value. The position of the standard area Ss in each image is set so that the coordinate value becomes. In this case, the predetermined position in the vertical direction of the object for aiming with respect to the standard area Ss is the same in the left and right images, but the predetermined position in the horizontal direction of the object for aiming with respect to the standard area Ss is It is different in the image.

ここで、赤外線カメラ2R,2Lの光軸が正確に、車両10の前後方向に平行に延在し、且つ、それらの光軸の間隔と高さとが設計値どおりになっている状態(以降、赤外線カメラ2R,2Lの理想組付け状態)では、上記のように標準領域Ssを設定したとき、該標準領域Ssは、その中心点が、左画像および右画像の中心点と一致する位置で各画像に設定される。   Here, the optical axes of the infrared cameras 2R and 2L are accurately extended in parallel with the longitudinal direction of the vehicle 10, and the distance and the height of the optical axes are as designed (hereinafter referred to as the design values). In the ideal assembled state of the infrared cameras 2R and 2L), when the standard area Ss is set as described above, each of the standard areas Ss is located at a position where the center point coincides with the center point of the left image and the right image. Set to image.

しかるに、一般には、赤外線カメラ2R,2Lの組付け状態は、理想組付け状態に対してずれ(光軸の向きや高さのずれ)を生じている。このため、一般には、標準領域Ssは、左右の各画像の中央には設定されず、例えば前記図5に示したように、各画像の中央からずれた位置に設定される。   However, in general, the assembled state of the infrared cameras 2R and 2L is deviated from the ideal assembled state (shift of the optical axis and height). Therefore, in general, the standard region Ss is not set at the center of the left and right images, but is set at a position shifted from the center of each image, for example, as shown in FIG.

さらに、上記のように標準領域Ssを設定した後、左画像の標準領域Ssに対するエイミング用対象物の相対位置と右画像の標準領域Ssに対するエイミング用対象物の相対位置との横方向の差分の画素数Δdsをエイミング用対象物の視差として求め、この視差Δd0と、車両10の前後方向(Z方向)でのエイミング用対象物の相対距離z0(これは既定値である)とが、次式(5)の関係を満たすように、基準視差オフセット量Ldisp(画素数単位の量)を決定する。   Further, after the standard area Ss is set as described above, the lateral difference between the relative position of the aiming object with respect to the standard area Ss of the left image and the relative position of the aiming object with respect to the standard area Ss of the right image The number of pixels Δds is obtained as the parallax of the aiming object, and the parallax Δd0 and the relative distance z0 of the aiming object in the front-rear direction (Z direction) of the vehicle 10 (this is a default value) The reference parallax offset amount Ldisp (amount in units of the number of pixels) is determined so as to satisfy the relationship (5).


z0=(f×D)/((Δd0+Ldisp)×p) ……(5)

なお、式(5)におけるfは、赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの光軸の間隔である基線長、pは画素間隔(互いに隣接する画素の間隔)である。f,Dは前記理想組付け状態における設計値である。また、標準領域Ssに対するエイミング用対象物の相対位置は、一般的には、標準領域Ssに対して固定された基準点(標準領域Ssに対して所定の位置関係を有する基準点)に対するエイミンング用対象物の相対位置である。換言すれば、標準領域Ssに対して固定された座標系(2次元座標系)でのエイミング用対象物の位置である。本実施形態では、左右の各画像における標準領域Ssに対する対象物の相対位置は、例えば、図5に示すように、標準領域Ssの左上の頂点を原点とする座標系Csでの対象物の位置(これは、標準領域Ssの左上の頂点を基準点としたときの該基準点に対する対象物の相対位置を意味する)として求められる。

z0 = (f × D) / ((Δd0 + Ldisp) × p) (5)

In Expression (5), f is the focal length of the infrared cameras 2R and 2L, D is the base length that is the distance between the optical axes of the infrared cameras 2R and 2L, and p is the pixel interval (interval between adjacent pixels). . f and D are design values in the ideal assembled state. Further, the relative position of the aiming object with respect to the standard area Ss is generally for aiming with respect to a reference point (reference point having a predetermined positional relationship with respect to the standard area Ss) fixed with respect to the standard area Ss. The relative position of the object. In other words, it is the position of the aiming object in the coordinate system (two-dimensional coordinate system) fixed with respect to the standard region Ss. In the present embodiment, the relative position of the object with respect to the standard area Ss in the left and right images is, for example, as shown in FIG. 5, the position of the object in the coordinate system Cs with the upper left vertex of the standard area Ss as the origin. (This means the relative position of the object with respect to the reference point when the upper left vertex of the standard area Ss is used as the reference point).

ここで、左右の各画像での対象物の位置、ひいては、視差は、画素単位でしか算出できないので、算出し得る視差は、長さの単位([m]、[cm]など)では離散値となる。このため、仮に式(5)のLdispを0とすると、式(5)の右辺の演算により求められる相対距離は、実際の相対距離に対して誤差を生じる。この誤差を補償するための補正パラメータが、前記基準視差オフセット量Ldispである。   Here, since the position of the object in each of the left and right images, and thus the parallax, can be calculated only in units of pixels, the parallax that can be calculated is a discrete value in units of length ([m], [cm], etc.). It becomes. For this reason, assuming that Ldisp in Expression (5) is 0, the relative distance obtained by the calculation of the right side of Expression (5) causes an error with respect to the actual relative distance. A correction parameter for compensating for this error is the reference parallax offset amount Ldisp.

本実施形態では、車両10の製造時や保守・点検時に、上述のように決定された基準視差オフセット量Ldispが、標準領域Ss上で抽出される対象物の視差と相対距離との関係を規定する基準パラメータの1つとして、画像処理ユニット1に備えたEEPROMなどの図示しない不揮発性メモリ(書き込み・消去可能な不揮発性メモリ)に記憶保持される。
この不揮発性メモリは、本発明における記憶手段に相当するものである。
In the present embodiment, the reference parallax offset amount Ldisp determined as described above at the time of manufacturing or maintenance / inspection of the vehicle 10 defines the relationship between the parallax of the object extracted on the standard area Ss and the relative distance. One of the reference parameters is stored and held in a non-illustrated non-volatile memory (writeable / erasable non-volatile memory) such as an EEPROM provided in the image processing unit 1.
This nonvolatile memory corresponds to the storage means in the present invention.

なお、式(5)の右辺のf、D、pも、標準領域Ss上で抽出される対象物の視差と相対距離との関係を規定する基準パラメータであるが、これらは、本実施形態では固定値であり、画像処理ユニット1のROMもしくはEEPROMにあらかじめ記憶保持されている。また、左右の各画像における標準領域Ssの位置を示すデータも、基準視差オフセット量Ldispと共に不揮発性メモリに記憶保持される。左右の各画像における標準領域Ssの位置を示すデータは、各画像に固定された座標系での標準領域Ssの代表点の位置である。本実施形態では、例えば、左右の各画像の全体領域(本実施形態ではこれは拡大領域Sbに一致する)の左上の頂点を原点とする座標系Cbでの、標準領域Ssの左上の頂点(標準領域Ssの代表点)の位置(座標)が各画像における標準領域Ssの位置を表す位置データとして、不揮発性メモリに記憶保持される。   Note that f, D, and p on the right side of Expression (5) are also reference parameters that define the relationship between the parallax of the object extracted on the standard region Ss and the relative distance. It is a fixed value and is stored and held in advance in the ROM or EEPROM of the image processing unit 1. Data indicating the position of the standard area Ss in the left and right images is also stored and held in the nonvolatile memory together with the reference parallax offset amount Ldisp. Data indicating the position of the standard area Ss in the left and right images is the position of the representative point of the standard area Ss in the coordinate system fixed to each image. In the present embodiment, for example, the upper left vertex of the standard region Ss in the coordinate system Cb with the upper left vertex of the entire area of each of the left and right images (in the present embodiment, this corresponds to the enlarged region Sb) as the origin ( The position (coordinates) of the representative point of the standard area Ss is stored and held in the nonvolatile memory as position data representing the position of the standard area Ss in each image.

次に、前記STEP14における視差および距離の算出処理を以下に詳細に説明する。
この処理は、マイクロコンピュータのROMにあらかじめ実装されたサブルーチンプログラムを該マイクイロコンピュータにより実行することによって実現される処理である。
Next, the parallax and distance calculation processing in STEP 14 will be described in detail below.
This processing is realized by executing a subroutine program pre-installed in the ROM of the microcomputer by the microphone computer.

本実施形態では、前記STEP8で抽出された各対象物の視差Δdは、対象物抽出領域が標準領域Ssおよび拡大領域Sbのいずれに設定されている場合であっても、右画像における対象物抽出領域に対する対象物の相対位置(横方向の相対位置)と、左画像における対象物抽出領域に対する対象物の相対位置(横方向の相対位置)との差分の画素数として算出される。この場合、右画像における拡大領域Sbと標準領域Saとの間の位置関係と、左画像における拡大領域Sbと標準領域Sbとの間の位置関係とは、一般には互いに異なるので、対象物の視差の値は、一般には、対象物抽出領域に依存するものとなる。   In the present embodiment, the parallax Δd of each object extracted in STEP 8 is the object extraction in the right image regardless of whether the object extraction area is set to the standard area Ss or the enlarged area Sb. It is calculated as the number of pixels of the difference between the relative position of the object relative to the area (lateral relative position) and the relative position of the object relative to the object extraction area (lateral relative position) in the left image. In this case, the positional relationship between the enlarged region Sb and the standard region Sa in the right image and the positional relationship between the enlarged region Sb and the standard region Sb in the left image are generally different from each other. The value of generally depends on the object extraction area.

具体的には、図5を参照して、対象物抽出領域が標準領域Ssに設定されている場合には、右画像における対象物の標準領域Ssに対する相対位置は、該右画像の標準領域Ssの左上の頂点を原点とする座標系Csでの該対象物の位置(座標)として求められる。左画像についても同様である。従って、対象物抽出領域が標準領域Ssに設定されている場合における対象物の視差は、右画像における座標系Csでの対象物の横方向位置(座標系Csでのx座標)と、左画像における座標系Csでの対象物の横方向位置(座標系Csでのx座標)との差分の画素数として求められる。例えば、右画像内の対象物T3の座標系Csでの位置(座標)を(x3rs,y3rs)とし、左画像内の対象物T3の座標系Csでの位置(座標)を(x3ls,y3ls)とすると、対象物抽出領域が標準領域Ssに設定されている場合における対象物T3の視差Δd3sは、|x3rs−x3ls|の画素数として算出される。   Specifically, referring to FIG. 5, when the object extraction area is set to the standard area Ss, the relative position of the object to the standard area Ss in the right image is the standard area Ss of the right image. As the position (coordinates) of the object in the coordinate system Cs with the origin at the upper left vertex. The same applies to the left image. Therefore, the parallax of the target object when the target object extraction area is set to the standard area Ss is the lateral position of the target object in the coordinate system Cs in the right image (x coordinate in the coordinate system Cs) and the left image. In the coordinate system Cs in the horizontal direction position (x coordinate in the coordinate system Cs). For example, the position (coordinates) of the object T3 in the right image in the coordinate system Cs is (x3rs, y3rs), and the position (coordinates) of the object T3 in the left image in the coordinate system Cs is (x3ls, y3ls). Then, the parallax Δd3s of the object T3 when the object extraction area is set to the standard area Ss is calculated as the number of pixels of | x3rs−x3ls |.

なお、左右の各座標系Csは、前記した如く、不揮発性メモリに記憶保持された標準領域Ssの位置データを基に、各画像上で設定される。   The left and right coordinate systems Cs are set on each image based on the position data of the standard area Ss stored and held in the nonvolatile memory as described above.

また、対象物抽出領域が前記拡大領域Sbに設定されている場合には、右画像における対象物の標準領域Ssに対する相対位置は、該右画像の拡大領域Sbの左上の頂点(本実施形態では、これは右画像の全体領域の左上の頂点)を原点とする座標系Cbでの該対象物の位置(座標)として求められる。左画像についても同様である。従って、対象物抽出領域が拡大領域Sbに設定されている場合における対象物の視差は、右画像における座標系Cbでの対象物の横方向位置(座標系Cbでのx座標)と、左画像における座標系Cbでの対象物の横方向位置(座標系Cbでのx座標)との差分の画素数として求められる。例えば、右画像の対象物T3の座標系Cbでの位置(座標)を(x3rb,y3rb)とし、左画像の対象物T3の座標系Cbでの位置(座標)を(x3lb,y3lb)とすると、対象物抽出領域が拡大領域Sbに設定されている場合における対象物T3の視差Δd3bは、|x3rb−x3lb|の画素数として算出される。   When the object extraction area is set to the enlarged area Sb, the relative position of the object in the right image with respect to the standard area Ss is the upper left vertex of the enlarged area Sb of the right image (in this embodiment, This is obtained as the position (coordinates) of the object in the coordinate system Cb with the origin at the top left vertex of the entire area of the right image. The same applies to the left image. Therefore, the parallax of the target object when the target object extraction area is set to the enlarged area Sb is the horizontal position of the target object in the coordinate system Cb in the right image (x coordinate in the coordinate system Cb) and the left image. In the coordinate system Cb in the horizontal direction position (x coordinate in the coordinate system Cb). For example, if the position (coordinates) of the object T3 of the right image in the coordinate system Cb is (x3rb, y3rb) and the position (coordinates) of the object T3 of the left image in the coordinate system Cb is (x3lb, y3lb). The parallax Δd3b of the object T3 when the object extraction area is set to the enlarged area Sb is calculated as the number of pixels of | x3rb−x3lb |.

以降、対象物抽出領域が標準領域Ssに設定された場合に、左右の画像のそれぞれの標準領域Ssで抽出された同一の対象物(例えば図のT3)の視差を一般的にΔdsで表す。同様に、対象物抽出領域が拡大領域Sbに設定された場合に、左右の画像のそれぞれの拡大領域Sbで抽出された同一の対象物(例えば図のT1〜T5)の視差を一般的にΔdbで表す。   Hereinafter, when the object extraction area is set to the standard area Ss, the parallax of the same object (for example, T3 in the figure) extracted in the respective standard areas Ss of the left and right images is generally represented by Δds. Similarly, when the object extraction area is set to the enlarged area Sb, the parallax of the same object (for example, T1 to T5 in the figure) extracted in the enlarged areas Sb of the left and right images is generally Δdb Represented by

そして、上記の如く求めた視差Δds,Δdbから、次のように、対象物の車両10に対する相対距離が算出される。   Then, the relative distance of the object to the vehicle 10 is calculated from the parallax Δds and Δdb obtained as described above.

すなわち、対象物抽出領域が標準領域Ssに設定されている場合には、該標準領域Ssが基準画像領域に一致するので、画像処理ユニット1は、前記した如く不揮発性メモリに記憶保持された、焦点距離f、基線長D、画素間隔p、および基準視差オフセットLdispを対象物の視差と相対距離との関係を規定するパラメータとして決定する。   That is, when the object extraction area is set to the standard area Ss, the standard area Ss matches the reference image area, so that the image processing unit 1 is stored and held in the nonvolatile memory as described above. The focal length f, the baseline length D, the pixel interval p, and the reference parallax offset Ldisp are determined as parameters that define the relationship between the parallax of the object and the relative distance.

そして、上記の如く求めた視差から、前記式(5)と同等の次式(6)により対象物の相対距離zを算出する。   Then, the relative distance z of the object is calculated from the parallax obtained as described above by the following equation (6) equivalent to the equation (5).


z=(f×D)/((Δds+Ldisp)×p) ……(6)

一方、対象物抽出領域が拡大領域Sbに設定されている場合には、右画像および左画像のそれぞれにおける拡大領域Sbの位置関係と、標準領域Ss(基準画像領域)に位置関係とが一般には相違しているため、対象物抽出領域が拡大領域Sbに設定されている場合における対象物の視差と距離との関係は、対象物抽出領域が拡大領域Sbに設定されている場合における対象物の視差と距離との関係と一般には相違する。従って、上記の如くもとめた視差Δdbを前記式(6)にそのまま適用しても、対象物の相対距離を正しく算出することができない。

z = (f × D) / ((Δds + Ldisp) × p) (6)

On the other hand, when the object extraction area is set as the enlarged area Sb, the positional relationship between the enlarged area Sb in each of the right image and the left image and the positional relation in the standard area Ss (reference image area) are generally set. Since there is a difference, the relationship between the parallax and the distance of the target object when the target object extraction area is set to the enlarged area Sb is the relationship between the target object when the target object extraction area is set to the enlarged area Sb. In general, the relationship between parallax and distance is different. Therefore, even if the parallax Δdb determined as described above is applied to the equation (6) as it is, the relative distance of the object cannot be calculated correctly.

そこで、この場合には、画像処理ユニット1は、基準パラメータのうちの基準視差オフセット量Ldispを次のように補正して、視差と相対距離との関係を規定するパラメータを決定する。   Therefore, in this case, the image processing unit 1 corrects the reference parallax offset amount Ldisp among the reference parameters as follows, and determines a parameter that defines the relationship between the parallax and the relative distance.

すなわち、不揮発性メモリに記憶保持された標準領域Ss(基準画像領域)の位置データを基に、右画像の座標系Cbでの標準領域Ssの横方向位置と、左画像の座標系Cbでの標準領域Sbの横方向位置との偏差Δx(=xrb−xlb)を算出する。そして、この偏差Δxを不揮発性メモリに記憶保持された前記基準視差オフセット量Ldispに加えることによって、拡大領域Sbに対応する視差オフセット量Sdispを算出する。   That is, based on the position data of the standard area Ss (reference image area) stored and held in the nonvolatile memory, the horizontal position of the standard area Ss in the coordinate system Cb of the right image and the coordinate system Cb of the left image A deviation Δx (= xrb−xlb) from the horizontal position of the standard area Sb is calculated. Then, by adding this deviation Δx to the reference parallax offset amount Ldisp stored in the nonvolatile memory, the parallax offset amount Sdisp corresponding to the enlarged region Sb is calculated.

すなわち、次式(7)により、視差オフセット量Sdispを算出する。   That is, the parallax offset amount Sdisp is calculated by the following equation (7).


Sdisp=(xrb−xlb)+Ldisp
=Δx+Ldisp ……(7)

そして、このようにして求めた視差オフセット量Sdispと前記焦点距離f、基線長Dおよび画素間隔pとの組を、視差と距離との関係を表すパラメータとして決定する。

Sdisp = (xrb−xlb) + Ldisp
= Δx + Ldisp (7)

Then, the set of the parallax offset amount Sdisp and the focal length f, the base length D, and the pixel interval p obtained in this way is determined as a parameter representing the relationship between the parallax and the distance.

ここで、xrbは、右画像の座標系Cbでの標準領域Ss(基準画像領域)の横方向位置を示すものであるから、右画像における拡大領域Sbと標準領域Ssとの位置関係を表すものとなる。また、xlbは、左画像の座標系Cbでの標準領域Ss(基準画像領域)の横方向位置を示すものであるから、左画像における拡大領域Sbと標準領域Ssとの位置関係を表すものとなる。   Here, xrb indicates the horizontal position of the standard area Ss (reference image area) in the coordinate system Cb of the right image, and represents the positional relationship between the enlarged area Sb and the standard area Ss in the right image. It becomes. Further, xlb indicates the horizontal position of the standard area Ss (reference image area) in the coordinate system Cb of the left image, and thus represents the positional relationship between the enlarged area Sb and the standard area Ss in the left image. Become.

従って、視差オフセット量Sdispは、左右の各画像における拡大領域Sbと標準領域Ssとの位置関係と、基準視差オフセット量Ldispとを基に決定されることとなる。   Therefore, the parallax offset amount Sdisp is determined based on the positional relationship between the enlarged region Sb and the standard region Ss in the left and right images and the reference parallax offset amount Ldisp.

そして、上記の如く拡大領域Sbに対応するパラメータ(視差オフセット量Sdispを含む)を決定した後、対象物の視差Δdbから、次式(8)により、対象物の距離zを算出する。   Then, after determining the parameters (including the parallax offset amount Sdisp) corresponding to the enlarged region Sb as described above, the distance z of the object is calculated from the parallax Δdb of the object by the following equation (8).


z=(f×D)/((Δdb+Sdisp)×p) ……(8)

以上が、STEP14の処理の詳細である。

z = (f × D) / ((Δdb + Sdisp) × p) (8)

The above is the details of the processing of STEP14.

補足すると、各対象物抽出領域に対応して、視差と距離との関係を規定するパラメータ(特に視差オフセット量)を決定する処理が、本発明におけるパラメータ決定手段の処理に相当する。そして、式(6)または(8)により、対象物の距離zを算出する処理が、本発明における距離算出手段の処理に相当する。   Supplementally, the process of determining a parameter (particularly the amount of parallax offset) that defines the relationship between the parallax and the distance corresponding to each object extraction region corresponds to the process of the parameter determination unit in the present invention. And the process which calculates the distance z of a target object by Formula (6) or (8) is equivalent to the process of the distance calculation means in this invention.

以上のように視差を求めて対象物の距離を算出することにより、対象物抽出領域を拡大領域Sbおよび標準領域Ssのいずれに設定した場合であっても、対象物の距離を精度よく算出することができる。   By calculating the distance of the object by obtaining the parallax as described above, the distance of the object is accurately calculated regardless of whether the object extraction area is set to the enlarged area Sb or the standard area Ss. be able to.

また、本実施形態では、車両10の前記した走行環境に応じて対象物抽出領域を設定することにより、走行環境に適した対象物抽出領域を設定できる。例えば、図5に示すように、車両10の前方の他車両が車両10に近い場合に、対象物抽出領域を拡大領域Sbに設定することにより、標準領域Ssでは捉えきれない他車両の全体を拡大領域Sb内で捉えることができるので、例えば前記STEP34の人工構造物判定処理において、対象物T1〜T5が他車両の構成要素であることを認識しやすくなる。また、車両10のウィンカーが動作しているとき、すなわち、車両10が左右いずれかに旋回しようとしているときには、対象物抽出領域は、拡大領域Sbに設定されるので、車両10の前方の広い領域(車幅方向に広い領域)で、対象物を抽出することが可能となる。このため、車両10の前方の広範囲にわたって、運転者に注意を喚起することが可能となる。   Moreover, in this embodiment, the target object extraction area | region suitable for a driving environment can be set by setting a target object extraction area | region according to the above-mentioned driving environment of the vehicle 10. FIG. For example, as shown in FIG. 5, when the other vehicle in front of the vehicle 10 is close to the vehicle 10, by setting the object extraction region to the enlarged region Sb, the entire other vehicle that cannot be captured in the standard region Ss. Since it can be captured in the enlarged region Sb, for example, in the artificial structure determination process of STEP 34, it is easy to recognize that the objects T1 to T5 are components of another vehicle. In addition, when the winker of the vehicle 10 is operating, that is, when the vehicle 10 is about to turn left or right, the object extraction area is set to the enlarged area Sb, so a wide area in front of the vehicle 10 It is possible to extract the object in (a wide area in the vehicle width direction). For this reason, it is possible to alert the driver over a wide range in front of the vehicle 10.

補足すると、本実施形態では、基準画像領域としての前記標準領域Ssは、前記したように、エイミング用対象物の標準領域Ssに対する縦方向の位置(高さ)が左右の画像で同じなるように、該標準領域Ssが設定される。このため、各画像における標準領域Ssの縦方向の位置は、一般には左右の画像で異なるものの、両画像の標準領域Ssに同一の対象物が存在する場合、その対象物の標準領域Ss上での高さはほぼ同一となる。従って、前記STEP13で、左画像の標準領域Ss上で対応画像を探索する場合、右画像の標準領域Ss上での探索画像の高さと同じ高さ位置で対応画像を探索するようにすることで、その探索を効率よく行なうことができる。   Supplementally, in the present embodiment, as described above, the standard region Ss as the reference image region has the same vertical position (height) of the aiming object with respect to the standard region Ss in the left and right images. The standard area Ss is set. Therefore, although the vertical position of the standard area Ss in each image is generally different between the left and right images, if the same object exists in the standard area Ss of both images, the standard area Ss of the object is on the standard area Ss. Are substantially the same height. Therefore, when searching for the corresponding image on the standard area Ss of the left image in STEP 13, the corresponding image is searched at the same height position as the height of the search image on the standard area Ss of the right image. The search can be performed efficiently.

一方、左右の各画像の拡大領域Sbの相互の縦方向の位置関係は、左右の各画像の標準領域Ssの相互の縦方向の位置関係と一般には異なるので、両画像の拡大領域Sbに同一の対象物が存在する場合、その対象物の拡大領域Sb上での高さは一般には異なる。この場合、前記STEP13で、左画像の標準領域Ss上で対応画像を探索する場合、右画像における標準領域Ssの縦方向の位置(例えば図5の座標系Cbでの縦方向位置「yrb」)と左画像における標準領域Ssの縦方向の位置(例えば図5の座標系Cbでの縦方向位置「ylb」)との差分だけ、右画像の拡大領域Ss上での探索画像の高さと異なる高さ位置(左画像の拡大領域Ss上での高さ位置)で対応画像を探索するようにすることで、その探索を効率よく行なうことができる。なお、拡大領域Sbを各画像の全体領域よりも小さい領域に設定する場合には、各画像における拡大領域Sbの縦方向の位置の差分が、標準領域Ssの縦方向の位置の差分と同じになるように、各画像における拡大領域Sbを設定すれば、左右の各画像の拡大領域Sb上での同一の対象物の高さが左右の画像でほぼ同じになる。
[第2実施形態]
次に、本発明の第2実施形態を図8を参照して説明する。この第2実施形態は、本願の第2発明、第5発明、第7発明、第11発明の実施形態である。図8は、本実施形態で設定される対象物抽出領域を示す図である。なお、本実施形態は、対象物抽出領域の設定の仕方と、対象物の距離の算出の仕方だけが前記第1実施形態と相違するものであるので、第1実施形態と同一の構成部分もしくは同一の処理部分については説明を省略し、相違点部分を中心に説明する。
On the other hand, since the vertical positional relationship between the enlarged regions Sb of the left and right images is generally different from the vertical positional relationship of the standard regions Ss of the left and right images, it is the same as the enlarged regions Sb of both images. In general, the height of the object on the enlarged region Sb is different. In this case, when searching for a corresponding image on the standard area Ss of the left image in STEP 13, the vertical position of the standard area Ss in the right image (for example, the vertical position “yrb” in the coordinate system Cb of FIG. 5). And a height different from the height of the search image on the enlarged region Ss of the right image by the difference between the vertical position of the standard area Ss in the left image (for example, the vertical position “ylb” in the coordinate system Cb of FIG. 5). By searching for the corresponding image at the vertical position (the height position of the left image on the enlarged region Ss), the search can be performed efficiently. When the enlarged area Sb is set to be smaller than the entire area of each image, the difference in the vertical position of the enlarged area Sb in each image is the same as the difference in the vertical position of the standard area Ss. As described above, if the enlarged region Sb in each image is set, the height of the same object on the enlarged region Sb in each of the left and right images becomes substantially the same in the left and right images.
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG. This second embodiment is an embodiment of the second invention, fifth invention, seventh invention, and eleventh invention of the present application. FIG. 8 is a diagram showing the object extraction area set in the present embodiment. The present embodiment is different from the first embodiment only in the method of setting the object extraction region and the method of calculating the distance of the object. Therefore, the same components as in the first embodiment or The description of the same processing portion will be omitted, and the description will focus on the difference portion.

本実施形態では、前記STEP4で設定される対象物抽出領域は、第1実施形態と同様に標準領域Ssと拡大領域S2bとの2種類があり、第1実施形態と同様に、車両10の走行環境に応じて設定される。この場合、標準領域Ssは、基準画像領域に相当し、その形状およびサイズと、左右の各画像での位置の設定の仕方は、前記第1実施形態と同じである。また、標準領域Ssに係わる前記基準視差オフセット量Ldispも第1実施形態と同じで、車両10の製造時や保守・点検時に第1実施形態で説明した如く求められる。そして、この基準視差オフセット量Ldispが、焦点距離f、基線長Dおよび画素間隔pと共に、視差と距離との関係を規定する基準パラメータとして、EEPROMなどの不揮発性メモリ(記憶手段)に記憶保持される。また、該不揮発性メモリには、左右の各画像における標準領域Ssの位置を表す位置データも、第1実施形態と同様に記憶保持される。   In the present embodiment, there are two types of object extraction areas set in STEP4, the standard area Ss and the enlarged area S2b, as in the first embodiment, and the traveling of the vehicle 10 as in the first embodiment. Set according to the environment. In this case, the standard area Ss corresponds to the reference image area, and the shape and size of the standard area Ss and how to set the positions in the left and right images are the same as those in the first embodiment. Further, the reference parallax offset amount Ldisp related to the standard region Ss is the same as that in the first embodiment, and is obtained as described in the first embodiment at the time of manufacturing or maintenance / inspection of the vehicle 10. The reference parallax offset amount Ldisp is stored and held in a non-volatile memory (storage means) such as an EEPROM as a reference parameter that defines the relationship between the parallax and the distance, together with the focal length f, the base line length D, and the pixel interval p. The The nonvolatile memory also stores and holds position data representing the position of the standard area Ss in the left and right images, as in the first embodiment.

一方、本実施形態では、前記STEP4において、図8に示す如く、拡大領域S2bは、右画像および左画像の全体領域ではなく、右画像における拡大領域S2bと標準領域Ssとの間の位置関係と、左画像における拡大領域S2bと標準領域Ssとの間の位置関係とが一致するように、左右の各画像における拡大領域S2bの位置が設定される。   On the other hand, in the present embodiment, in STEP 4, as shown in FIG. 8, the enlarged region S2b is not the entire region of the right image and the left image, but the positional relationship between the enlarged region S2b and the standard region Ss in the right image. The position of the enlarged region S2b in each of the left and right images is set so that the positional relationship between the enlarged region S2b and the standard region Ss in the left image matches.

具体的には、本実施形態では、図8に示す如く、拡大領域S2bは、方形状の領域で、且つ、そのサイズ(縦方向の寸法FV2bおよび横方向の寸法FH2b)が、左右の画像の全体領域のサイズよりも、多少小さい領域に定められている。そして、右画像における拡大領域S2bは、その中心点Prが右画像の標準領域Ssの中心点と一致するような位置に設定される。同様に、左画像における拡大領域S2bは、その中心点Plが左画像の標準領域Ssの中心点と一致するような位置に設定される。なお、左右の各画像の標準領域Ssの中心点は、前記不揮発性メモリに記憶保持された標準領域Ssの位置データを基に決定される。   Specifically, in the present embodiment, as shown in FIG. 8, the enlarged region S2b is a rectangular region, and its size (vertical dimension FV2b and horizontal dimension FH2b) is that of the left and right images. It is determined to be a slightly smaller area than the size of the entire area. Then, the enlarged area S2b in the right image is set at a position where the center point Pr coincides with the center point of the standard area Ss of the right image. Similarly, the enlarged area S2b in the left image is set at a position where the center point Pl coincides with the center point of the standard area Ss of the left image. Note that the center point of the standard area Ss of each of the left and right images is determined based on the position data of the standard area Ss stored and held in the nonvolatile memory.

補足すると、左右の各画像における拡大領域S2bの中心点Pr,Plの縦方向の位置は、標準領域Ssの中心点の縦方向の位置と一致していなくてもよい。ただし、左右の各画像の拡大領域S2bに同一の対象物が捉えられている場合に、各拡大領域S2b上での該対象物の縦方向の位置が同じになるようにする上では、拡大領域S2bの中心点と標準領域Ssの中心点との縦方向の位置ずれ量は、左右の画像で同じであることが好ましい。   Supplementally, the vertical positions of the center points Pr and Pl of the enlarged region S2b in the left and right images may not coincide with the vertical position of the center point of the standard region Ss. However, when the same object is captured in the enlarged areas S2b of the left and right images, the vertical areas of the objects on the enlarged areas S2b are the same. The amount of vertical displacement between the center point of S2b and the center point of the standard area Ss is preferably the same in the left and right images.

上記のように拡大領域S2bを設定したとき、右画像における拡大領域S2bと標準領域Ssとの間の位置関係と、左画像における拡大領域S2bと標準領域Ssとの間の位置関係とが一致する。このため、対象物抽出領域が拡大領域S2bに設定されていて、各拡大領域S2bに同一の対象物が捕らえられている場合に、右画像の拡大領域S2bに対する該対象物の相対位置(例えば該拡大領域S2bの左上の頂点を原点とする座標系Cbでの対象物の座標)と、左画像の拡大領域S2bに対する該対象物の相対位置(例えば該拡大領域S2bの左上の頂点を原点とする座標系Cbでの対象物の座標)との横方向の差分の画素数を該対象物の視差として算出したとき、その視差と該対象物の距離との関係は、前記式(6)により表されることとなる。すなわち、不揮発性メモリに記憶保持された前記基準パラメータが、標準領域Ssにおける視差と距離との関係を規定するだけでなく、拡大領域Sbにおける視差と距離との関係を規定するものとなる。これは、標準領域Ssに対して固定された座標系での対象物の視差と、拡大領域S2bに対して固定された座標系での対象物の視差とが同じ値になるからである。   When the enlarged region S2b is set as described above, the positional relationship between the enlarged region S2b and the standard region Ss in the right image matches the positional relationship between the enlarged region S2b and the standard region Ss in the left image. . For this reason, when the object extraction area is set to the enlargement area S2b and the same object is captured in each enlargement area S2b, the relative position of the object with respect to the enlargement area S2b of the right image (for example, the The coordinates of the object in the coordinate system Cb with the upper left vertex of the enlarged area S2b as the origin) and the relative position of the object with respect to the enlarged area S2b of the left image (for example, the upper left vertex of the enlarged area S2b is the origin) When the number of pixels in the lateral direction with respect to the coordinates of the object in the coordinate system Cb is calculated as the parallax of the object, the relationship between the parallax and the distance of the object is expressed by the above equation (6). Will be. That is, the reference parameter stored and held in the nonvolatile memory not only defines the relationship between the parallax and the distance in the standard area Ss but also defines the relationship between the parallax and the distance in the enlarged area Sb. This is because the parallax of the object in the coordinate system fixed with respect to the standard area Ss and the parallax of the object in the coordinate system fixed with respect to the enlarged area S2b have the same value.

そして、本実施形態では、前記STEP14の処理において、対象物抽出領域が標準領域Ssに設定されている場合には、前記第1実施形態と同一の手法で、対象物の視差と、距離とが算出される。   In the present embodiment, when the object extraction area is set to the standard area Ss in the processing of STEP 14, the parallax and the distance of the object are obtained by the same method as in the first embodiment. Calculated.

一方、対象物抽出領域が拡大領域S2bに設定されている場合には、上記の如く、右画像の拡大領域S2bの左上の頂点を原点とする座標系Cbでの対象物の位置(座標)と、左画像の拡大領域S2bの左上の頂点を原点とする座標系Cbでの対象物の位置(座標)との横方向の差分の画素数を該対象物の視差として算出する。この視差の算出の仕方は、第1実施形態と同じである。ただし、本実施形態では、その視差から、対象物の距離を算出するときには、前記式(6)により、対象物の距離zが算出される。   On the other hand, when the object extraction area is set to the enlargement area S2b, as described above, the position (coordinates) of the object in the coordinate system Cb having the origin at the upper left vertex of the enlargement area S2b of the right image Then, the number of pixels in the lateral difference from the position (coordinates) of the object in the coordinate system Cb with the upper left vertex of the enlarged area S2b of the left image as the origin is calculated as the parallax of the object. The method of calculating the parallax is the same as in the first embodiment. However, in the present embodiment, when calculating the distance of the object from the parallax, the distance z of the object is calculated by the above equation (6).

従って、対象物抽出領域が拡大領域S2bと標準領域Ssとのいずれに設定されている場合であっても、前記した如く不揮発性メモリに記憶保持された基準視差オフセット量Ldisp、焦点距離f、基線長Dおよび画素間隔pからなる基準パラメータを基に、前記式(6)により、対象物の視差から対象物の距離zが算出される。   Therefore, regardless of whether the object extraction region is set to the enlarged region S2b or the standard region Ss, the reference parallax offset amount Ldisp, the focal length f, the baseline stored in the nonvolatile memory as described above is used. Based on the reference parameter composed of the length D and the pixel interval p, the distance z of the object is calculated from the parallax of the object according to the equation (6).

以上説明した以外の構成および処理は、前記第1実施形態と同じである。かかる本実施形態においても、第1実施形態と同様の効果を奏することができる。
[第3実施形態]
次に本発明の第3実施形態を説明する。この第3実施形態は、本願の第3発明、第6発明、第8発明、第12発明の実施形態である。なお、本実施形態は、第1実施形態とSTEP14の処理の一部だけが相違するものであるので、その相違点を中心に説明し、第1実施形態と同一構成部分および同一処理部分については説明を省略する。
The configuration and processing other than those described above are the same as those in the first embodiment. In this embodiment, the same effect as that of the first embodiment can be obtained.
[Third Embodiment]
Next, a third embodiment of the present invention will be described. This third embodiment is an embodiment of the third invention, sixth invention, eighth invention, and twelfth invention of the present application. Note that this embodiment is different from the first embodiment only in part of the processing of STEP 14, so the description will focus on the differences, and the same components and processing parts as those of the first embodiment will be described. Description is omitted.

本実施形態では、STEP4における対象物抽出領域の設定の仕方は、第1実施形態と同じであり、図5に示したように、拡大領域Sbと標準領域Ssとのいずれかに設定される。   In the present embodiment, the method of setting the object extraction area in STEP 4 is the same as in the first embodiment, and is set to either the enlarged area Sb or the standard area Ss as shown in FIG.

ここで、前記第1実施形態では、拡大領域Sbを設定したときに、標準領域Ss(基準画像領域)における視差と距離との関係を規定する基準パラメータ(基準視差オフセット量Ldisp、焦点距離f、基線長Dおよび画素間隔p)を基に、前記STEP14において、拡大領域Sbにおける視差と距離との関係を規定するパラメータ(前記視差オフセット量Sdisp、焦点距離f、基線長Dおよび画素間隔p)のうちの視差オフセット量Sdispを算出して、該パラメータを決定するようにした。   Here, in the first embodiment, when the enlarged region Sb is set, the reference parameters (reference parallax offset amount Ldisp, focal length f, and so on) that define the relationship between the parallax and the distance in the standard region Ss (reference image region) are set. Based on the base line length D and the pixel interval p), in STEP 14, the parameters (the parallax offset amount Sdisp, the focal length f, the base line length D, and the pixel interval p) that define the relationship between the parallax and the distance in the enlarged region Sb are set. Among them, the parallax offset amount Sdisp is calculated and the parameter is determined.

これに対して本実施形態では、車両10の製造時や保守・点検時に前記基準視差オフセット量Ldispを求めるだけでなく、拡大領域Sbに対応する視差オフセット量Sdispも前記式(7)に従って算出しておき、それを、基準視差オフセット量Ldsipと共に不揮発性メモリ(記憶手段)に記憶保持しておく。これにより、対象物抽出領域として設定される各種類の領域である標準領域Ssと拡大領域Sbとのそれぞれに対応して、対象物の視差と距離との関係を規定するパラメータが、あらかじめ不揮発性メモリに記憶保持されることとなる。なお、左右の各画像における標準領域Ssの位置と拡大領域Sbの位置とをそれぞれ表す位置データも、不揮発性メモリに記憶保持される。そして、STEP4では、対象物抽出領域は、それに対応して不揮発性メモリに記憶保持されている位置データにより表される位置に設定される。   On the other hand, in the present embodiment, not only the reference parallax offset amount Ldisp is obtained at the time of manufacturing or maintenance / inspection of the vehicle 10, but also the parallax offset amount Sdisp corresponding to the enlarged region Sb is calculated according to the equation (7). It is stored and held in a non-volatile memory (storage means) together with the reference parallax offset amount Ldsip. As a result, parameters that define the relationship between the parallax and the distance of the object in advance corresponding to each of the standard area Ss and the enlarged area Sb, which are each type of area set as the object extraction area, are nonvolatile. It will be stored in memory. Note that position data representing the position of the standard area Ss and the position of the enlarged area Sb in the left and right images is also stored in the nonvolatile memory. In STEP 4, the object extraction area is set at a position represented by the position data stored and held in the nonvolatile memory correspondingly.

そして、本実施形態では、STEP14の処理において、対象物抽出領域が標準領域Ssに設定されている場合には、対象物の視差から距離を算出するときに、標準領域Ssに対応するパラメータである基準視差オフセット量Ldispと用いて、前記式(6)により、対象物の距離を算出する。また、対象物抽出領域が拡大領域Sbに設定されている場合には、対象物の視差から距離を算出するときに、拡大領域Sbに対応するパラメータである視差オフセット量Sdispと用いて、前記式(8)により、対象物の距離を算出する。なお、いずれの場合であっても、視差の算出の仕方は、第1実施形態と同じである。   In the present embodiment, when the object extraction area is set to the standard area Ss in the processing of STEP 14, the parameter corresponds to the standard area Ss when calculating the distance from the parallax of the object. Using the reference parallax offset amount Ldisp, the distance of the object is calculated by the equation (6). In addition, when the object extraction area is set to the enlarged area Sb, when calculating the distance from the parallax of the object, the above expression is used with the parallax offset amount Sdisp that is a parameter corresponding to the enlarged area Sb. The distance of the object is calculated from (8). In any case, the parallax calculation method is the same as in the first embodiment.

以上説明した以外の構成および処理は、第1実施形態と同じである。   Configurations and processes other than those described above are the same as those in the first embodiment.

かかる本実施形態においても、第1実施形態と同様の効果を奏することができる。なお、本実施形態においても、拡大領域Sbは、各画像の全体領域に一致している必要はなく、例えば図5の仮想線の領域Sb’を拡大領域としてもよい。   In this embodiment, the same effect as that of the first embodiment can be obtained. Also in this embodiment, the enlarged region Sb does not have to coincide with the entire region of each image, and for example, the virtual line region Sb ′ in FIG. 5 may be used as the enlarged region.

また、拡大領域Sbを左右の各画像の全体領域と一致させるようにした場合において、該拡大領域Sbに関する視差と距離との関係を規定するパラメータ(視差オフセット量Sdispなど)を、車両10の製造時や保守・点検時に不揮発性メモリなどの記憶手段にあらかじめ記憶保持しておくことで、対象物抽出領域として拡大領域Sbだけを使用して、対象物の抽出処理や該対象物の車両10からの距離の算出処理を行なうようにすることも可能である。
[第4実施形態]
次に、本発明の第4実施形態を図9を参照して説明する。この第4実施形態は、本願の第4発明、第5発明、第9発明、第13発明の実施形態である。図9は、本実施形態で設定される対象物抽出領域を示す図である。なお、本実施形態は、対象物抽出領域における視差の算出の仕方と距離の算出の仕方だけが、前記第1実施形態と相違するものであるので、第1実施形態と同一の構成部分もしくは同一の処理部分については説明を省略し、相違点部分を中心に説明する。
Further, when the enlarged area Sb is made to coincide with the entire area of each of the left and right images, a parameter (such as the parallax offset amount Sdisp) that defines the relationship between the parallax and the distance related to the enlarged area Sb is used for manufacturing the vehicle 10. By storing in advance in storage means such as a non-volatile memory at the time of maintenance or inspection, only the enlarged area Sb is used as the object extraction area, and the object extraction process or the vehicle 10 of the object is It is also possible to perform the distance calculation process.
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described with reference to FIG. The fourth embodiment is an embodiment of the fourth, fifth, ninth, and thirteenth inventions of the present application. FIG. 9 is a diagram showing the object extraction area set in the present embodiment. Note that this embodiment is different from the first embodiment only in the method of calculating the parallax and the method of calculating the distance in the object extraction region, and thus the same components or the same as the first embodiment. The description of the processing part will be omitted, and the difference will be mainly described.

前記第1実施形態では、対象物抽出領域が標準領域Ssおよび拡大領域Sbのいずれに設定されている場合でも、対象物の視差を求めるときに、右画像に設定されている対象物抽出領域に対する該対象物の相対位置と、左画像に設定されている対象物抽出領域(右画像と同じ種類の対象物抽出領域)に対する該対象物の相対位置との横方向の差分の画素数を該対象物の視差として算出した。   In the first embodiment, regardless of whether the object extraction area is set to the standard area Ss or the enlarged area Sb, when the parallax of the object is obtained, the object extraction area set to the right image is determined. The number of pixels in the lateral difference between the relative position of the object and the relative position of the object with respect to the object extraction area set in the left image (the object extraction area of the same type as the right image) Calculated as the parallax of the object.

これに対して本実施形態では、対象物抽出領域が標準領域Ssおよび拡大領域Sbのいずれに設定されている場合でも、前記STEP14において、右画像の標準領域Ss(基準画像領域)に対する該対象物の相対位置と、左画像の標準領域Ss(基準画像領域)に対する該対象物の相対位置との横方向の差分の画素数を該対象物の視差として算出する。   On the other hand, in the present embodiment, regardless of whether the object extraction area is set to the standard area Ss or the enlarged area Sb, in STEP 14, the object for the standard area Ss (reference image area) of the right image is set. Is calculated as the parallax of the object in the horizontal direction between the relative position of the object and the relative position of the object with respect to the standard area Ss (reference image area) of the left image.

具体的には、対象物抽出領域が標準領域Ssに設定されている場合における視差の算出の仕方は、第1実施形態と同じである。すなわち、右画像の標準領域Ssに対して固定された座標系Csでの対象物の位置(座標)と、左画像の標準領域Ssに対して固定された座標系Csでの対象物の位置(座標)との横方向の差分の画素数が該対象物の視差として算出される。   Specifically, the parallax calculation method when the object extraction region is set to the standard region Ss is the same as that in the first embodiment. That is, the position (coordinate) of the object in the coordinate system Cs fixed with respect to the standard area Ss of the right image and the position of the object in the coordinate system Cs fixed with respect to the standard area Ss of the left image ( The number of pixels in the horizontal difference from the coordinate) is calculated as the parallax of the object.

一方、対象物抽出領域が拡大領域Sbに設定されている場合における視差の算出の仕方は、第1実施形態と異なる。すなわち、対象物抽出領域が標準領域Ssに設定されている場合と同様に、右画像の標準領域Ssに対して固定された座標系Csでの対象物の位置(座標)と、左画像の標準領域Ssに対して固定された座標系Csでの対象物の位置(座標)との横方向の差分の画素数が該対象物の視差として算出される。例えば、図9の対象物T1(車両10の前方の他車両の左側テールランプの部分)の拡大領域Sbにおける視差は、右画像の標準領域Ssに対して固定された座標系Csでの対象物のx座標であるx1rsと、左画像の標準領域Ssに対して固定された座標系Csでの対象物のx座標であるx1lsとの差分の画素数として求められる。   On the other hand, the parallax calculation method when the target object extraction area is set to the enlarged area Sb is different from that of the first embodiment. That is, as in the case where the object extraction area is set to the standard area Ss, the position (coordinates) of the object in the coordinate system Cs fixed with respect to the standard area Ss of the right image and the standard of the left image The number of pixels in the lateral difference from the position (coordinates) of the object in the coordinate system Cs fixed with respect to the region Ss is calculated as the parallax of the object. For example, the parallax in the enlarged region Sb of the object T1 (the portion of the left tail lamp of the other vehicle in front of the vehicle 10) in FIG. 9 is that of the object in the coordinate system Cs fixed with respect to the standard region Ss of the right image. It is obtained as the number of pixels of the difference between x1rs which is the x coordinate and x1ls which is the x coordinate of the object in the coordinate system Cs fixed with respect to the standard area Ss of the left image.

このようにして各種類の対象物抽出領域で対象物の視差を算出したとき、その視差と、該対象物の距離との関係は、対象物抽出領域の種類によらずに、前記式(6)により表される。従って、車両10の製造時は保守・点検時に不揮発性メモリに記憶保持された前記基準パラメータが、標準領域Ssと拡大領域Sbとの両者に関して、視差と距離との関係を規定するものとなる。   When the parallax of the object is calculated in each type of object extraction area in this way, the relationship between the parallax and the distance of the object is not related to the type of the object extraction area, ). Accordingly, when the vehicle 10 is manufactured, the reference parameter stored and held in the nonvolatile memory at the time of maintenance / inspection defines the relationship between the parallax and the distance with respect to both the standard area Ss and the enlarged area Sb.

そこで、本実施形態では、前記STEP14において上記の如く対象物の視差を求め、この求めた視差から前記式(6)により該対象物の距離を求める。以上説明した以外の構成および処理は第1実施形態と同じである。   Therefore, in the present embodiment, the parallax of the object is obtained as described above in STEP14, and the distance of the object is obtained from the obtained parallax according to the equation (6). The configuration and processing other than those described above are the same as those in the first embodiment.

なお、本実施形態では、左右の各画像における前記標準領域Ssの位置を表すものとして、車両10の製造時や保守・点検時に不揮発性メモリに記憶保持された位置データは、本願の第4発明、第9発明、第13発明における基準点位置データに相当している。その位置データは、前記第1実施形態で説明した如く、左右の各画像の全体領域の左上の頂点を原点とする座標系(各画像に対して固定された座標系)での、標準領域Ssの左上の頂点(標準領域Ssの代表点)の位置(座標)である。そして、標準領域Ssの左上の頂点が第4発明、第9発明、第13発明における基準点に相当している。   In the present embodiment, the position data stored in the non-volatile memory at the time of manufacturing the vehicle 10 or at the time of maintenance / inspection is used as the position of the standard area Ss in the left and right images. This corresponds to the reference point position data in the ninth and thirteenth inventions. As described in the first embodiment, the position data is the standard region Ss in the coordinate system (coordinate system fixed to each image) having the origin at the upper left vertex of the entire region of the left and right images. Is the position (coordinates) of the top left vertex (representative point of the standard area Ss). The top left vertex of the standard area Ss corresponds to the reference point in the fourth, ninth, and thirteenth inventions.

かかる本実施形態においても第1実施形態と同様の効果を奏することができる。   In this embodiment, the same effect as that of the first embodiment can be obtained.

補足すると、本実施形態では、拡大領域Sbを第1実施形態と同じにしたが、例えば第2実施形態と同じに設定するようにしてもよい。より一般的には、各画像における拡大領域のサイズおよび位置は任意でよく、また、それらのサイズおよび位置が、右画像と左画像とで異なっていてもよい。   Supplementally, in this embodiment, the enlarged region Sb is set to be the same as that of the first embodiment, but may be set to be the same as that of the second embodiment, for example. More generally, the size and position of the enlarged region in each image may be arbitrary, and the size and position may be different between the right image and the left image.

なお、以上説明した実施形態では、対象物抽出領域を2種類にしたが、より多くの対象物抽出領域を走行環境に応じて可変的に設定するようにしてもよい。   In the embodiment described above, two types of object extraction areas are used. However, more object extraction areas may be variably set according to the driving environment.

本発明の第1実施形態における車両の周辺監視装置の全体構成を示すブロック図。1 is a block diagram showing the overall configuration of a vehicle periphery monitoring device in a first embodiment of the present invention. 図1の周辺監視装置を搭載した車両(車両)の外観を示す斜視図The perspective view which shows the external appearance of the vehicle (vehicle) carrying the periphery monitoring apparatus of FIG. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 図1の周辺監視装置に備えた赤外線カメラの撮像画像と対象物抽出領域とを示す図。The figure which shows the picked-up image and target object extraction area | region of the infrared camera with which the periphery monitoring apparatus of FIG. 1 was equipped. 図4のフローチャートのSTEP18の処理を示すフローチャート。5 is a flowchart showing the processing of STEP18 in the flowchart of FIG. 図6のフローチャートの処理を説明するための図。The figure for demonstrating the process of the flowchart of FIG. 本発明の第2実施形態における撮像画像と対象物抽出領域とを示す図。The figure which shows the captured image and target object extraction area | region in 2nd Embodiment of this invention. 本発明の第4実施形態における撮像画像と対象物抽出領域とを示す図。The figure which shows the captured image and target object extraction area | region in 4th Embodiment of this invention.

符号の説明Explanation of symbols

1…画像処理ユニット(測距装置)、STEP4…対象物抽出領域設定手段、STEP14…パラメータ決定手段、距離算出手段。   DESCRIPTION OF SYMBOLS 1 ... Image processing unit (ranging device), STEP4 ... Object extraction area setting means, STEP14 ... Parameter determination means, distance calculation means

Claims (13)

車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距装置において、
前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データとをあらかじめ記憶保持した記憶手段と、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する対象物抽出領域設定手段と、
前記第1の撮像画像および第2の撮像画像のそれぞれにおける前記設定された対象物抽出領域の位置と前記位置データが表す前記基準画像領域の位置との間の位置関係と、前記基準パラメータとに基づいて、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを決定するパラメータ決定手段と、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出されたとき、該対象物抽出領域に対応して前記パラメータ決定手段により決定されたパラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する距離算出手段とを備えたことを特徴とする測距装置。
The same object included in each captured image is extracted from the first captured image and the second captured image respectively obtained from the two image capturing apparatuses mounted on the vehicle, and the first object of the target object is extracted. In the distance measuring device that calculates the distance of the object with respect to the vehicle based on the parallax that is the difference between the position on the captured image and the position on the second captured image of the object.
The parallax of the target object and the distance of the target object when the same target object is extracted in a predetermined reference image area within the entire area of each of the first captured image and the second captured image Storage means for preliminarily storing and holding reference parameters that define the relationship and position data representing the position of the reference image area in each captured image;
Object extraction area setting means for variably setting an object extraction area for extracting an object for each of the first captured image and the second captured image;
The positional relationship between the position of the set object extraction area and the position of the reference image area represented by the position data in each of the first captured image and the second captured image, and the reference parameter Based on the relationship between the parallax of the object and the distance of the object when the same object is extracted in the object extraction region set in each of the first captured image and the second captured image based on A parameter determining means for determining a parameter to be defined;
When the same object is extracted in the object extraction area set in each of the first captured image and the second captured image, the parameter determined by the parameter determination unit corresponding to the object extraction area A distance measuring device comprising: distance calculating means for calculating the distance of the object from the parallax of the object in the object extraction region based on the relationship defined by
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距装置において、
前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データとをあらかじめ記憶保持した記憶手段と、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する対象物抽出領域設定手段と、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記基準パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する距離算出手段とを備え、
前記対象物抽出領域設定手段は、前記第1の撮像画像および第2の撮像画像のそれぞれに設定する前記対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係が前記基準パラメータにより規定される関係に等しくなるように、前記位置データが表す前記基準画像領域の位置に応じて前記対象物抽出領域を設定することを特徴とする測距装置。
The same object included in each captured image is extracted from the first captured image and the second captured image respectively obtained from the two image capturing apparatuses mounted on the vehicle, and the first object of the target object is extracted. In the distance measuring device that calculates the distance of the object with respect to the vehicle based on the parallax that is the difference between the position on the captured image and the position on the second captured image of the object.
The parallax of the target object and the distance of the target object when the same target object is extracted in a predetermined reference image area within the entire area of each of the first captured image and the second captured image Storage means for preliminarily storing and holding reference parameters that define the relationship and position data representing the position of the reference image area in each captured image;
Object extraction area setting means for variably setting an object extraction area for extracting an object for each of the first captured image and the second captured image;
When the same object is extracted in the object extraction area set in each of the first captured image and the second captured image, the object in the object extraction area is based on the relationship defined by the reference parameter. Distance calculating means for calculating the distance of the object from the parallax of the object,
The object extraction area setting means is configured to extract the parallax of the object and the object when the same object is extracted in the object extraction area set in each of the first captured image and the second captured image. Ranging characterized in that the object extraction region is set according to the position of the reference image region represented by the position data so that the relationship with the distance of the object is equal to the relationship defined by the reference parameter apparatus.
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距装置において、
前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた複数種類の画像領域のそれぞれに対し、各種類の画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを各種類の画像領域に対応づけてあらかじめ記憶保持した記憶手段と、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を前記複数種類の画像領域から選択的に設定する対象物抽出領域設定手段と、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された前記対象物抽出領域で同一対象物が抽出されたとき、該対象物抽出領域に対応する前記パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する距離算出手段とを備えたことを特徴とする測距装置。
The same object included in each captured image is extracted from the first captured image and the second captured image respectively obtained from the two image capturing apparatuses mounted on the vehicle, and the first object of the target object is extracted. In the distance measuring device that calculates the distance of the object with respect to the vehicle based on the parallax that is the difference between the position on the captured image and the position on the second captured image of the object.
In the case where the same object is extracted in each type of image area for each of a plurality of types of image areas determined in advance in the entire area of each of the first captured image and the second captured image. Storage means for storing and holding in advance parameters that define the relationship between the parallax of the object and the distance of the object in association with each type of image area;
Object extraction area setting means for selectively setting, from each of the plurality of types of image areas, an object extraction area for extracting an object for each of the first captured image and the second captured image;
When the same object is extracted in the object extraction area set in each of the first captured image and the second captured image, based on the relationship defined by the parameter corresponding to the object extraction area, A distance measuring device comprising distance calculating means for calculating the distance of the object from the parallax of the object in the object extraction region.
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距装置において、
前記第1の撮像画像および第2の撮像画像のそれぞれにおける対象物の位置の基準とする基準点の位置を示す基準点位置データと、該第1の撮像画像および第2の撮像画像のそれぞれで同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータとをあらかじめ記憶保持した記憶手段と、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する対象物抽出領域設定手段と、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記第1の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置と、前記第2の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置との差を該対象物の視差として求め、その求めた視差から、前記基準パラメータにより規定される関係に基づき、該対象物の距離を算出する距離算出手段とを備えたことを特徴とする測距装置。
The same object included in each captured image is extracted from the first captured image and the second captured image respectively obtained from the two image capturing apparatuses mounted on the vehicle, and the first object of the target object is extracted. In the distance measuring device that calculates the distance of the object with respect to the vehicle based on the parallax that is the difference between the position on the captured image and the position on the second captured image of the object.
Reference point position data indicating the position of a reference point as a reference of the position of the object in each of the first captured image and the second captured image, and each of the first captured image and the second captured image Storage means for preliminarily storing and holding a reference parameter that defines the relationship between the parallax of the target object and the distance of the target object when the same target object is extracted;
Object extraction area setting means for variably setting an object extraction area for extracting an object for each of the first captured image and the second captured image;
When the same object is extracted in the object extraction area set for each of the first captured image and the second captured image, the reference point indicated by the reference point position data on the first captured image The difference between the relative position of the object and the relative position of the object with respect to the reference point indicated by the reference point position data on the second captured image is obtained as the parallax of the object, and from the obtained parallax A distance measuring device comprising distance calculating means for calculating the distance of the object based on the relationship defined by the reference parameter.
請求項1〜4のいずれか1項に記載の測距装置を備えた車両の周辺監視装置であって、
前記対象物抽出領域設定手段は、前記車両の走行環境に応じて前記対象物抽出領域を可変的に設定する手段であることを特徴とする車両の周辺監視装置。
A vehicle periphery monitoring device comprising the distance measuring device according to any one of claims 1 to 4,
The vehicle periphery monitoring device, wherein the object extraction area setting means is a means for variably setting the object extraction area in accordance with a traveling environment of the vehicle.
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距方法において、
前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データとをあらかじめ決定しておき、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定するステップと、
前記第1の撮像画像および第2の撮像画像のそれぞれにおける前記設定された対象物対象物抽出領域の位置と前記位置データが表す前記基準画像領域の位置との間の位置関係と、前記基準パラメータとに基づいて、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを決定するステップと、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出されたとき、該対象物抽出領域に対応して前記パラメータ決定手段により決定されたパラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出するステップとを備えたことを特徴とする測距方法。
The same object included in each captured image is extracted from the first captured image and the second captured image respectively obtained from the two image capturing apparatuses mounted on the vehicle, and the first object of the target object is extracted. In the distance measuring method for calculating the distance of the object to the vehicle based on the parallax that is the difference between the position on the captured image and the position on the second captured image of the object,
The parallax of the target object and the distance of the target object when the same target object is extracted in a predetermined reference image area within the entire area of each of the first captured image and the second captured image A reference parameter that defines the relationship and position data representing the position of the reference image area in each captured image are determined in advance,
Variably setting an object extraction region for extracting an object in each of the first captured image and the second captured image;
A positional relationship between the position of the set target object extraction area and the position of the reference image area represented by the position data in each of the first captured image and the second captured image; and the reference parameter Based on the above, when the same object is extracted in the object extraction region set in each of the first captured image and the second captured image, the parallax of the object and the distance of the object Determining the parameters defining the relationship;
When the same object is extracted in the object extraction area set in each of the first captured image and the second captured image, the parameter determined by the parameter determination unit corresponding to the object extraction area And a step of calculating the distance of the object from the parallax of the object in the object extraction area based on the relationship defined by
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距装置において、
前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データとをあらかじめ決定しておき、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定するステップと、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記基準パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出するステップとを備え、
前記対象物抽出領域を設定するステップは、前記第1の撮像画像および第2の撮像画像のそれぞれに設定する前記対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係が前記基準パラメータにより規定される関係に等しくなるように、前記位置データが表す前記基準画像領域の位置に応じて前記対象物抽出領域を設定することを特徴とする測距方法。
The same object included in each captured image is extracted from the first captured image and the second captured image respectively obtained from the two image capturing apparatuses mounted on the vehicle, and the first object of the target object is extracted. In the distance measuring device that calculates the distance of the object with respect to the vehicle based on the parallax that is the difference between the position on the captured image and the position on the second captured image of the object.
The parallax of the target object and the distance of the target object when the same target object is extracted in a predetermined reference image area within the entire area of each of the first captured image and the second captured image A reference parameter that defines the relationship and position data representing the position of the reference image area in each captured image are determined in advance,
Variably setting an object extraction region for extracting an object in each of the first captured image and the second captured image;
When the same object is extracted in the object extraction area set in each of the first captured image and the second captured image, the object in the object extraction area is based on the relationship defined by the reference parameter. Calculating the distance of the object from the parallax of the object,
The step of setting the object extraction area includes the parallax of the object when the same object is extracted in the object extraction area set in each of the first captured image and the second captured image. The object extraction region is set according to the position of the reference image region represented by the position data so that the relationship with the distance of the object is equal to the relationship defined by the reference parameter. Ranging method.
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距方法において、
前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた複数種類の画像領域のそれぞれに対し、各種類の画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを各種類の画像領域に対応づけてあらかじめ決定しておき、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を前記複数種類の画像領域から選択的に設定するステップと、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された前記対象物抽出領域で同一対象物が抽出されたとき、該対象物抽出領域に対応する前記パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出するステップとを備えたことを特徴とする測距方法。
The same object included in each captured image is extracted from the first captured image and the second captured image respectively obtained from the two image capturing apparatuses mounted on the vehicle, and the first object of the target object is extracted. In the distance measuring method for calculating the distance of the object to the vehicle based on the parallax that is the difference between the position on the captured image and the position on the second captured image of the object,
In the case where the same object is extracted in each type of image area for each of a plurality of types of image areas determined in advance in the entire area of each of the first captured image and the second captured image. Parameters that define the relationship between the parallax of the object and the distance of the object are determined in advance in association with each type of image area,
Selectively setting an object extraction area for extracting an object from the plurality of types of image areas for each of the first captured image and the second captured image;
When the same object is extracted in the object extraction area set in each of the first captured image and the second captured image, based on the relationship defined by the parameter corresponding to the object extraction area, And a step of calculating a distance of the object from a parallax of the object in the object extraction region.
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から、それぞれの撮像画像内に含まれる同一の対象物を抽出し、該対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する測距方法において、
前記第1の撮像画像および第2の撮像画像のそれぞれにおける対象物の位置の基準とする基準点の位置を示す基準点位置データと、該第1の撮像画像および第2の撮像画像のそれぞれで同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータとをあらかじめ決定しておき、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定するステップと、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記第1の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置と、前記第2の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置との差を該対象物の視差として求め、その求めた視差から、前記基準パラメータにより規定される関係に基づき、該対象物の距離を算出するステップとを備えたことを特徴とする測距方法。
The same object included in each captured image is extracted from the first captured image and the second captured image respectively obtained from the two image capturing apparatuses mounted on the vehicle, and the first object of the target object is extracted. In the distance measuring method for calculating the distance of the object to the vehicle based on the parallax that is the difference between the position on the captured image and the position on the second captured image of the object,
Reference point position data indicating the position of a reference point as a reference of the position of the object in each of the first captured image and the second captured image, and each of the first captured image and the second captured image A reference parameter that defines the relationship between the parallax of the target object and the distance of the target object when the same target object is extracted;
Variably setting an object extraction region for extracting an object in each of the first captured image and the second captured image;
When the same object is extracted in the object extraction area set for each of the first captured image and the second captured image, the reference point indicated by the reference point position data on the first captured image The difference between the relative position of the object and the relative position of the object with respect to the reference point indicated by the reference point position data on the second captured image is obtained as the parallax of the object, and from the obtained parallax And a step of calculating a distance of the object based on the relationship defined by the reference parameter.
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から抽出された同一の対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する処理をコンピュータに実行させる測距用プログラムであって、
前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データと記憶手段から読み込む処理と、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する処理と、
前記第1の撮像画像および第2の撮像画像のそれぞれにおける前記設定された対象物対象物抽出領域の位置と前記位置データが表す前記基準画像領域の位置との間の位置関係と、前記基準パラメータとに基づいて、前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを決定する処理と、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一の対象物が抽出されたとき、該対象物抽出領域に対応して前記パラメータ決定手段により決定されたパラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する処理とをコンピュータに実行させる機能を備えることを特徴とする測距用プログラム。
The position on the first captured image of the same target object extracted from the first captured image and the second captured image respectively obtained from two image capturing devices mounted on the vehicle, and the second of the target object A distance measurement program for causing a computer to execute a process of calculating a distance of the object to the vehicle based on a parallax that is a difference from a position on a captured image of
The parallax of the target object and the distance of the target object when the same target object is extracted in a predetermined reference image area within the entire area of each of the first captured image and the second captured image A reference parameter that defines the relationship, position data that represents the position of the reference image area in each captured image, and a process of reading from the storage means;
A process of variably setting an object extraction region in which an object is to be extracted in each of the first captured image and the second captured image;
A positional relationship between the position of the set target object extraction area and the position of the reference image area represented by the position data in each of the first captured image and the second captured image; and the reference parameter Based on the above, when the same object is extracted in the object extraction region set in each of the first captured image and the second captured image, the parallax of the object and the distance of the object Processing to determine parameters defining the relationship;
When the same object is extracted in the object extraction area set in each of the first captured image and the second captured image, the parameter determined by the parameter determination unit corresponding to the object extraction area A ranging program comprising a function for causing a computer to execute a process of calculating the distance of the object from the parallax of the object in the object extraction region based on the relationship defined by
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から抽出された同一の対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する処理をコンピュータに実行させる測距用プログラムであって、
前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた基準画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータと各撮像画像における前記基準画像領域の位置を表す位置データとを記憶手段から読込む処理と、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する処理と、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記基準パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する処理とをコンピュータに実行させる機能を備え、
前記対象物抽出領域を設定する処理をコンピュータに実行させる機能は、前記第1の撮像画像および第2の撮像画像のそれぞれに設定する前記対象物抽出領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係が前記基準パラメータにより規定される関係に等しくなるように、前記位置データが表す前記基準画像領域の位置に応じて前記対象物抽出領域を設定する処理をコンピュータに実行させる機能であることを特徴とする測距用プログラム。
The position on the first captured image of the same target object extracted from the first captured image and the second captured image respectively obtained from two image capturing devices mounted on the vehicle, and the second of the target object A distance measurement program for causing a computer to execute a process of calculating a distance of the object to the vehicle based on a parallax that is a difference from a position on a captured image of
The parallax of the target object and the distance of the target object when the same target object is extracted in a predetermined reference image area within the entire area of each of the first captured image and the second captured image A process of reading from the storage means a reference parameter that defines the relationship and position data representing the position of the reference image area in each captured image;
A process of variably setting an object extraction region in which an object is to be extracted in each of the first captured image and the second captured image;
When the same object is extracted in the object extraction area set in each of the first captured image and the second captured image, the object in the object extraction area is based on the relationship defined by the reference parameter. A function of causing a computer to execute processing for calculating the distance of the object from the parallax of the object,
The function of causing the computer to execute the process of setting the target object extraction area is the case where the same target object is extracted in the target object extraction area set in each of the first captured image and the second captured image. The object extraction region is set according to the position of the reference image region represented by the position data so that the relationship between the parallax of the object and the distance of the object is equal to the relationship defined by the reference parameter. A distance measurement program characterized by having a function for causing a computer to execute processing to be performed.
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から抽出された同一の対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する処理をコンピュータに実行させる測距用プログラムであって、
前記第1の撮像画像および第2の撮像画像のそれぞれの全体領域内であらかじめ定められた複数種類の画像領域のそれぞれに対し、各種類の画像領域で同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定するパラメータを記憶手段から読み込み処理と、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を前記複数種類の画像領域から選択的に設定する処理と、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された前記対象物抽出領域で同一対象物が抽出されたとき、該対象物抽出領域に対応する前記パラメータにより規定される関係に基づき、該対象物抽出領域における該対象物の視差から該対象物の距離を算出する処理とをコンピュータに実行させる機能を備えることを特徴とする測距用プログラム。
The position on the first captured image of the same target object extracted from the first captured image and the second captured image respectively obtained from two image capturing devices mounted on the vehicle, and the second of the target object A distance measurement program for causing a computer to execute a process of calculating a distance of the object to the vehicle based on a parallax that is a difference from a position on a captured image of
In the case where the same object is extracted in each type of image area for each of a plurality of types of image areas determined in advance in the entire area of each of the first captured image and the second captured image. A process for reading from the storage means a parameter that defines the relationship between the parallax of the object and the distance of the object;
A process of selectively setting an object extraction area for extracting an object from the plurality of types of image areas for each of the first captured image and the second captured image;
When the same object is extracted in the object extraction area set in each of the first captured image and the second captured image, based on the relationship defined by the parameter corresponding to the object extraction area, A ranging program comprising a function of causing a computer to execute a process of calculating a distance of the object from a parallax of the object in the object extraction region.
車両に搭載された2つの撮像装置からそれぞれ得られる第1の撮像画像および第2の撮像画像から抽出された同一の対象物の前記第1の撮像画像上での位置と該対象物の第2の撮像画像上での位置との差である視差に基づいて、該対象物の前記車両に対する距離を算出する処理をコンピュータに実行させる測距用プログラムにおいて、
前記第1の撮像画像および第2の撮像画像のそれぞれにおける対象物の位置の基準とする基準点の位置を示す基準点位置データと、該第1の撮像画像および第2の撮像画像のそれぞれで同一の対象物が抽出された場合における該対象物の視差と該対象物の距離との関係を規定する基準パラメータとを記憶手段から読み込む処理と、
前記第1の撮像画像および第2の撮像画像のそれぞれに、対象物の抽出を行なうべき対象物抽出領域を可変的に設定する処理と、
前記第1撮像画像および第2の撮像画像のそれぞれに設定された対象物抽出領域で同一対象物が抽出されたとき、前記第1の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置と、前記第2の撮像画像上での前記基準点位置データが示す基準点に対する該対象物の相対位置との差を該対象物の視差として求め、その求めた視差から、前記基準パラメータにより規定される関係に基づき、該対象物の距離を算出する処理とをコンピュータに実行させる機能を有することを特徴とする測距用プログラム。
The position on the first captured image of the same target object extracted from the first captured image and the second captured image respectively obtained from two image capturing devices mounted on the vehicle, and the second of the target object In a distance measurement program that causes a computer to execute a process of calculating a distance of the object to the vehicle based on a parallax that is a difference from a position on a captured image of
Reference point position data indicating the position of a reference point as a reference of the position of the object in each of the first captured image and the second captured image, and each of the first captured image and the second captured image A process of reading from the storage means a reference parameter that defines the relationship between the parallax of the object and the distance of the object when the same object is extracted;
A process of variably setting an object extraction region in which an object is to be extracted in each of the first captured image and the second captured image;
When the same object is extracted in the object extraction area set for each of the first captured image and the second captured image, the reference point indicated by the reference point position data on the first captured image The difference between the relative position of the object and the relative position of the object with respect to the reference point indicated by the reference point position data on the second captured image is obtained as the parallax of the object, and from the obtained parallax A ranging program having a function of causing a computer to execute a process of calculating a distance of the object based on a relationship defined by the reference parameter.
JP2006106094A 2006-04-07 2006-04-07 Ranging device and vehicle periphery monitoring device Expired - Fee Related JP4762774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006106094A JP4762774B2 (en) 2006-04-07 2006-04-07 Ranging device and vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006106094A JP4762774B2 (en) 2006-04-07 2006-04-07 Ranging device and vehicle periphery monitoring device

Publications (3)

Publication Number Publication Date
JP2007278869A true JP2007278869A (en) 2007-10-25
JP2007278869A5 JP2007278869A5 (en) 2008-10-23
JP4762774B2 JP4762774B2 (en) 2011-08-31

Family

ID=38680457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006106094A Expired - Fee Related JP4762774B2 (en) 2006-04-07 2006-04-07 Ranging device and vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4762774B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009301494A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processing unit and image processing method
JP2010139275A (en) * 2008-12-09 2010-06-24 Ricoh Co Ltd Device and method for measurement of compound eye distance for vehicle
JP2010257217A (en) * 2009-04-24 2010-11-11 Honda Motor Co Ltd Vehicle periphery monitoring device
US9426364B2 (en) 2011-09-05 2016-08-23 Mitsubishi Electric Corporation Image processing apparatus and image processing method
CN111256662A (en) * 2018-11-30 2020-06-09 卡西欧计算机株式会社 Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0996525A (en) * 1995-09-29 1997-04-08 Suzuki Motor Corp Distance-measuring apparatus carried on vehicle
JP2001006096A (en) * 1999-06-23 2001-01-12 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2001092968A (en) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd Stereo matching device, stereo matching method, and method of identifying corresponding point at infinity
JP2001091245A (en) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd Stereo image processing device
JP2003307670A (en) * 2002-04-18 2003-10-31 Sony Corp Device and method for automatic focusing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0996525A (en) * 1995-09-29 1997-04-08 Suzuki Motor Corp Distance-measuring apparatus carried on vehicle
JP2001006096A (en) * 1999-06-23 2001-01-12 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2001092968A (en) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd Stereo matching device, stereo matching method, and method of identifying corresponding point at infinity
JP2001091245A (en) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd Stereo image processing device
JP2003307670A (en) * 2002-04-18 2003-10-31 Sony Corp Device and method for automatic focusing

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009301494A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processing unit and image processing method
JP2010139275A (en) * 2008-12-09 2010-06-24 Ricoh Co Ltd Device and method for measurement of compound eye distance for vehicle
JP2010257217A (en) * 2009-04-24 2010-11-11 Honda Motor Co Ltd Vehicle periphery monitoring device
US9426364B2 (en) 2011-09-05 2016-08-23 Mitsubishi Electric Corporation Image processing apparatus and image processing method
CN111256662A (en) * 2018-11-30 2020-06-09 卡西欧计算机株式会社 Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
CN111256662B (en) * 2018-11-30 2022-06-07 卡西欧计算机株式会社 Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system

Also Published As

Publication number Publication date
JP4762774B2 (en) 2011-08-31

Similar Documents

Publication Publication Date Title
JP4173901B2 (en) Vehicle periphery monitoring device
JP4456086B2 (en) Vehicle periphery monitoring device
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
JP4173902B2 (en) Vehicle periphery monitoring device
JP5421072B2 (en) Approaching object detection system
JP4171501B2 (en) Vehicle periphery monitoring device
WO2010067770A1 (en) Three-dimensional object emergence detection device
US20100278392A1 (en) Vehicle periphery monitoring device, vehicle, and vehicle periphery monitoring program
JP2007241898A (en) Stopped vehicle classification detection device and vehicle periphery monitoring device
JP2019528501A (en) Camera alignment in a multi-camera system
JP4528283B2 (en) Vehicle periphery monitoring device
JP4869745B2 (en) Depression angle calculation device, depression angle calculation method, depression angle calculation program, and image processing apparatus
JP2007304033A (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring method, and vehicle periphery monitoring program
US11030761B2 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
US20130033597A1 (en) Camera system and method for recognizing distance using the same
JP4948338B2 (en) Inter-vehicle distance measuring device
US8174578B2 (en) Vehicle periphery monitoring device
JP4762774B2 (en) Ranging device and vehicle periphery monitoring device
JP4813304B2 (en) Vehicle periphery monitoring device
JP5695000B2 (en) Vehicle periphery monitoring device
JP4823753B2 (en) Vehicle periphery monitoring device
JP2009014645A (en) Vehicle distance measuring device
JP4629638B2 (en) Vehicle periphery monitoring device
JP4026641B2 (en) Object detection apparatus and object detection method
JP3586938B2 (en) In-vehicle distance measuring device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110608

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees