[go: up one dir, main page]

JP2013093639A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2013093639A
JP2013093639A JP2010046184A JP2010046184A JP2013093639A JP 2013093639 A JP2013093639 A JP 2013093639A JP 2010046184 A JP2010046184 A JP 2010046184A JP 2010046184 A JP2010046184 A JP 2010046184A JP 2013093639 A JP2013093639 A JP 2013093639A
Authority
JP
Japan
Prior art keywords
detection
image recognition
person
image
dictionary data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010046184A
Other languages
Japanese (ja)
Inventor
Hisaya Fukuda
久哉 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010046184A priority Critical patent/JP2013093639A/en
Priority to PCT/JP2011/001191 priority patent/WO2011108258A1/en
Publication of JP2013093639A publication Critical patent/JP2013093639A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle periphery monitoring device capable of improving recognition accuracy without repetitive erroneous detection and non-detection, by learning data on an occurrence factor of the erroneous detection or non-detection occurring in image recognition.SOLUTION: In the case of the erroneous detection or non-detection of an object by an object detection processor 3 with respect to an image inputted by imaging means 1, user input means 6 designates the corresponding region on output means 7. An image recognition DB correction unit 4 corrects dictionary data on an erroneous detection region and stores the corrected data in dictionary data in an image recognition DB 5.

Description

本発明は、車載カメラにより自車の周囲に存在する人やその他障害物を検出し、同じ対象物体に対して誤検出、あるいは、不検出の繰り返しを防ぐ車両周囲監視装置に関するものである。   The present invention relates to a vehicle surrounding monitoring apparatus that detects a person or other obstacle existing around a host vehicle with an in-vehicle camera, and prevents erroneous detection or non-detection of the same target object.

車両の走行中に人との衝突を回避するため、従来よりカメラを車両に設置し、画像認識により自車両周辺の人を認識する装置が開発されている。例えば、パターンマッチングを用いたものがある。この方法では、事前に人の様々な特徴をデータベースとして用意しておく。人の検出処理は、撮影画像から探索窓で切り出される入力画像の領域について、データベースに蓄積された画像と似たような領域であれば、その領域に人がいる、そうでなければ人はいない、という考え方で、人の有無を判断する方法が開示されている。(特許文献1参照)。   In order to avoid a collision with a person while the vehicle is running, a device has been developed in which a camera is installed on the vehicle and a person around the vehicle is recognized by image recognition. For example, there is one using pattern matching. In this method, various characteristics of a person are prepared in advance as a database. In the human detection process, if the area of the input image cut out from the captured image is similar to the image stored in the database, there is a person in that area, otherwise there is no person. The method of judging the presence or absence of a person with the idea of, is disclosed. (See Patent Document 1).

また、レーダーを用いて検出された物体と、その物体についてカメラによって得られる画像の情報を併せて人を検出し、人か人以外の物体を判別する方法が開示されている。(特許文献2参照)。   Also disclosed is a method for detecting a person by combining an object detected using a radar and information on an image obtained by a camera for the object, and discriminating a person or an object other than a person. (See Patent Document 2).

特開2009−070344号公報JP 2009-070344 A 特開2005−157765号公報JP 2005-157765 A

しかしながら、特許文献1では、人の認識の精度を上げる方法はできるだけ多種類の人の画像データを集めることであるが、この方法の場合、データベースが膨大な大きさになり、コストが高くなる、処理量が多くなるなどの課題が発生することからデータベースへのデータ登録は有限となる。   However, in Patent Document 1, the method for increasing the accuracy of human recognition is to collect as many types of human image data as possible. However, in this method, the database becomes enormous and the cost increases. Since problems such as a large amount of processing occur, data registration in the database is limited.

このように登録可能なデータ量が有限であるデータベースに対して、あらゆる背景(構造物や路面のテクスチャ、フェンスや木々や標識など)と人物を区別することは、困難であり、実際には人で無い領域を人として誤検出する場合や、背景に溶け込んだ人物を検出できず不検出になる場合がある。   It is difficult to distinguish people from all backgrounds (structures, road textures, fences, trees, signs, etc.) and people against a database with a finite amount of data that can be registered. There is a case where a non-region is erroneously detected as a person, or a person who has melted into the background cannot be detected and is not detected.

また、特許文献2は、カメラとレーダーのような複数のセンシングデバイスを用いて、より確実に人を検出する方法であるが、カメラで誤検出があるように、レーダーによる検出結果を併用しても誤検出をなくすことはできない。例えば、木の形が人に見えてしまう場合は、レーダーでも検知されるし、カメラでも人として検知する。さらに、センシングデバイスが複数になりコストが高くなるという課題がある。   Further, Patent Document 2 is a method for more reliably detecting a person by using a plurality of sensing devices such as a camera and a radar. Even false detection cannot be eliminated. For example, when the shape of a tree is visible to a person, it is detected by a radar and also detected by a camera as a person. Furthermore, there is a problem that the number of sensing devices is increased and the cost is increased.

また、このような誤検出は、センシング結果に対して、パターンの一致性を一定の閾値処理で行うので、一度誤検出したパターンを繰り返し誤検出するという課題があった。   In addition, since such erroneous detection performs pattern matching on a sensing result with a certain threshold value process, there is a problem that a pattern that has been erroneously detected once is repeatedly erroneously detected.

本発明は、従来の問題を解決するためになされたもので、誤検出、もしくは不検出となった対象領域に対して、ユーザが画面上で対象領域を指定し、画像データベースを修正して登録し、誤検出や不検出を繰り返さないように検出精度を向上することができる車両周
辺監視装置を提供することを目的とする。
The present invention has been made to solve the conventional problems. For a target area that has been erroneously detected or not detected, the user specifies the target area on the screen and corrects and registers the image database. And it aims at providing the vehicle periphery monitoring apparatus which can improve detection accuracy so that a false detection and a non-detection may not be repeated.

本発明は、ユーザが出力手段を見て、誤検出、あるいは、不検出と判断した場合に、誤検出領域、あるいは、不検出領域を入力する入力手段と、この入力手段が入力した誤検出領域、あるいは、不検出領域の画像認識データベースの辞書データを修正する画像認識データベース修正部とを備え、前記画像認識データベース修正部が修正した辞書データを前記画像認識データベースに格納することを特徴とする。   The present invention provides an input means for inputting a false detection region or a non-detection region when the user views the output means and determines that it is false detection or non-detection, and a false detection region input by the input means. Alternatively, an image recognition database correction unit for correcting dictionary data of the image recognition database in the non-detection area is stored, and the dictionary data corrected by the image recognition database correction unit is stored in the image recognition database.

本発明の車両周辺監視装置は、対象物検出処理部の出力結果が誤検出、あるいは、不検出の場合に、入力手段が誤検出領域、あるいは、不検出領域を入力し、画像認識データベース修正部は、入力手段が入力した誤検出領域、あるいは、不検出領域の画像認識データベースの辞書データを修正し、画像認識データベースへ格納することにより、同じ対象物体に対して誤検出、あるいは、不検出の繰り返しを防ぐことができる。   In the vehicle periphery monitoring apparatus of the present invention, when the output result of the object detection processing unit is erroneously detected or not detected, the input means inputs the erroneously detected region or the undetected region, and the image recognition database correcting unit Corrects the false detection area or non-detection area image recognition database dictionary data input by the input means and stores it in the image recognition database, so that the same target object can be erroneously detected or not detected. Repeat can be prevented.

本発明の一実施の形態における車両周辺監視装置の構成を示すブロック図The block diagram which shows the structure of the vehicle periphery monitoring apparatus in one embodiment of this invention 同装置において、カメラの取付例を示す図The figure which shows the example of camera installation in the same device 同装置において、カメラで撮像した画像を示す図The figure which shows the picture which is photographed with the camera in the same device 同装置において、人検出の検出結果を示す図The figure which shows the detection result of person detection in the same device 同装置において、人検出の誤検出結果を示す図The figure which shows the false detection result of person detection in the same device 同装置において、動作説明のフロー図Flow chart of operation explanation in the same device 同装置において、人検出の概要を示す図The figure which shows the outline of human detection in the same device 同装置において、誤検出領域の指定方法を示す図The figure which shows the designation method of the false detection area in the same device 同装置において、辞書データを示す図The figure which shows dictionary data in the same device 同装置において、誤検出時の辞書データの修正例を示す図The figure which shows the example of correction of the dictionary data at the time of erroneous detection in the same apparatus 同装置において、不検出領域の指定方法を示す図The figure which shows the designation method of the non-detection area in the same device 同装置において、不検出時の辞書データの修正例を示す図The figure which shows the example of correction of the dictionary data at the time of non-detection in the same apparatus

以下、本発明の一実施の形態の車両周辺監視装置について、図面を用いて説明する。   Hereinafter, a vehicle periphery monitoring device according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施の形態における車両周辺監視装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention.

本実施の形態では、検出対象物を人と想定した例を以下に説明する。   In the present embodiment, an example in which the detection target is assumed to be a person will be described below.

撮像手段1は、車両の周囲の状況を撮像する。撮像手段1は、デバイスとしてCCDカメラやCMOSカメラがあり、車両後部のナンバープレートやエンブレム付近、または最上部に設置され自車の後方を撮像するリアカメラや、サイドミラーに設置され自車の側方を撮像するサイドカメラ、あるいは、車両前方のエンブレム付近や、フロントウィンドウの内側のルームミラーの後方から車両前方を撮像するフロントカメラがある。   The imaging means 1 images the situation around the vehicle. The image pickup means 1 has a CCD camera or a CMOS camera as a device, and is installed in the vicinity of the license plate or emblem at the rear of the vehicle, or at the top to pick up the rear of the vehicle, or on the side mirror and on the side of the vehicle. There is a side camera that images the vehicle, or a front camera that images the front of the vehicle from the vicinity of an emblem in front of the vehicle or from the rear of the rear-view mirror inside the front window.

信号処理手段2は、対象物検出処理部3、画像認識DB(データベース)修正部4から構成される。   The signal processing means 2 includes an object detection processing unit 3 and an image recognition DB (database) correction unit 4.

対象物検出処理部3は、画像認識DB(データベース)5に登録されている人をあらわす特徴量を参照し、撮像手段1で撮像された画像データの中で、人の特徴量に近い領域があればその部分を人の領域として検出する。   The target object detection processing unit 3 refers to a feature amount representing a person registered in the image recognition DB (database) 5, and in the image data captured by the imaging unit 1, there is an area close to the feature amount of the person. If there is, that portion is detected as a human area.

画像認識DB修正部4は、ユーザ入力手段6から指定された画像領域について、その画像の特徴量を抽出し、画像認識DB5の内容を更新する。   The image recognition DB correction unit 4 extracts the feature amount of the image for the image region designated by the user input means 6 and updates the content of the image recognition DB 5.

画像認識DB5は、多種類の人画像データからその特徴量を抽出し、データベース化した辞書データである。   The image recognition DB 5 is dictionary data obtained by extracting feature values from various types of human image data and creating a database.

ユーザ入力手段6は、対象物検出処理部3で検出され、出力手段7に出力された結果について、人以外の物体を人物として抽出された誤検出の場合や、あるいは人の特異な姿勢が背景と融合し、人物として検出できなかった不検出の場合に、画像認識DB5を更新するデータ取得のために、ユーザが画面上の誤検出/不検出領域を指定する。   The user input means 6 is detected by the object detection processing unit 3 and output to the output means 7 in the case of erroneous detection in which an object other than a person is extracted as a person, or a person's unique posture is the background. In the case of non-detection that cannot be detected as a person, the user designates an erroneous detection / non-detection area on the screen in order to acquire data for updating the image recognition DB 5.

出力手段7は、撮像手段1から入力された画像データに、対象物検出処理部3で検出された結果を重畳して表示するもので、デバイスとしては、例えばナビゲーションのモニタやインパネ内のモニタ、ルームミラー内に内蔵されたモニタなどである。   The output means 7 superimposes and displays the result detected by the object detection processing unit 3 on the image data input from the imaging means 1. As the device, for example, a navigation monitor, a monitor in the instrument panel, This is a monitor built in the room mirror.

以上のように構成された車両周辺監視装置で、正しく人を検出する場合(図4)と、誤検出の場合(図5)を、以下に説明する。   The case where the vehicle periphery monitoring device configured as described above correctly detects a person (FIG. 4) and the case of erroneous detection (FIG. 5) will be described below.

まず最初に、車両へ撮像手段の設置位置を説明する。図2において、撮像手段は路面から高さh20、俯角θ21に取り付けている。このように取り付けられた撮像手段により撮像された画像を図3に示す。このような画像を映す撮像手段に、人物の検出機能を付加すると、出力手段には図4、図5に示すような画像が表示される。図4のRect1やRect2では、検出した人物obj1,obj2の存在領域が正しく表示されている。しかしながら、図5に示すように、検出すべき人物以外の物体が人物の特徴量と類似している場合に、誤って人と認識する場合がある。図5では、標識と木の枝等が重なった(obj3)領域を、人物として誤検出し、表示している。   First, the installation position of the imaging means on the vehicle will be described. In FIG. 2, the imaging means is attached to the height h20 and depression angle θ21 from the road surface. An image picked up by the image pickup means attached in this way is shown in FIG. When a person detection function is added to the image pickup means for projecting such an image, images as shown in FIGS. 4 and 5 are displayed on the output means. In Rect1 and Rect2 of FIG. 4, the existence areas of the detected persons obj1 and obj2 are correctly displayed. However, as shown in FIG. 5, when an object other than the person to be detected is similar to the feature amount of the person, it may be mistakenly recognized as a person. In FIG. 5, a region (obj3) where a sign and a tree branch overlap is erroneously detected as a person and displayed.

次に、本実施の形態の車両周辺監視装置について、以下でその動作を説明する。   Next, the operation | movement is demonstrated below about the vehicle periphery monitoring apparatus of this Embodiment.

図6は、本実施の形態の車両周辺監視装置における信号処理のフロー図を示す。   FIG. 6 shows a flowchart of signal processing in the vehicle periphery monitoring apparatus of the present embodiment.

本信号処理の開始時には、まず、ステップS60で、信号処理手段2は画像認識DB5から辞書データ(本実施の形態では人の特徴量が記録されたデータ)を読み込み、対象物検出処理部3に保存する。辞書データは、例えば、書き換え可能なFlashROM等に格納されており、そこから対象物検出処理部3でロードされるものとする。辞書データは、例えば頭部の形、肩の形、腕の形など人物の特徴量をあらわすデータの集まりで、入力された画像の特徴量と比較して、類似している領域が任意の閾値以上あれば、人物として検出することに用いられるデータである。   At the start of the signal processing, first, in step S60, the signal processing means 2 reads dictionary data (data in which human feature values are recorded in the present embodiment) from the image recognition DB 5, and inputs it to the object detection processing unit 3. save. The dictionary data is stored in, for example, a rewritable FlashROM or the like, and is loaded from the object detection processing unit 3 therefrom. Dictionary data is a collection of data representing human features, such as head shape, shoulder shape, and arm shape. Similar to the input image feature values, the dictionary area has an arbitrary threshold value. If it is above, it is the data used for detecting as a person.

次にステップS61で、信号処理手段2は、撮像手段1から新たな画像データを読み込み対象物検出処理部3に保存する。   In step S <b> 61, the signal processing unit 2 reads new image data from the imaging unit 1 and stores it in the object detection processing unit 3.

ステップS62では、信号処理手段2の対象物検出処理部3が、ステップS61で読み込んだ画像データと、ステップS60で読み込んだ辞書データを用いて人物の検出を行う。
人物の検出は、図7に示すように読み込まれた画像データに対して、人物領域か否かを判断するための探索窓R1を設定し、対象物検出処理部3は、画像データ内で探索窓R1を走査する。対象物検出処理部23は、走査した探索窓R1領域の画像データについて、画像認識DB5の辞書データにある人物を現す特徴量と比較して、一定以上の相関性があれ
ばその領域(図7の例ではP1)を人物領域として検出する。(パターンマッチング方式)。
In step S62, the object detection processing unit 3 of the signal processing means 2 detects a person using the image data read in step S61 and the dictionary data read in step S60.
In the detection of a person, a search window R1 for determining whether or not the image is the person area is set for the image data read as shown in FIG. Scan window R1. The object detection processing unit 23 compares the scanned image data of the search window R1 region with a feature amount representing a person in the dictionary data of the image recognition DB 5 if there is a certain correlation or more (FIG. 7). In this example, P1) is detected as a person area. (Pattern matching method).

ステップS63では、ステップS62における対象物検出処理部3の人物の検出結果が、出力手段7へ出力される。   In step S63, the detection result of the person in the object detection processing unit 3 in step S62 is output to the output means 7.

例えば図4に示すように、撮像手段1が撮影した画像データに、人物領域を現す矩形Rect1、Rect2を重畳したものが出力結果となる。   For example, as shown in FIG. 4, an output result is obtained by superimposing rectangles Rect1 and Rect2 representing a person area on image data captured by the imaging unit 1.

ステップS64では、ステップS63で出力された検出結果について、ユーザーが人物の誤検出もしくは不検出を発見した場合、検出結果を修正する(修正モード)か否かを判断する。修正モードは、画面上に設定された修正キーを押すことにより選択される。修正モードが選択された場合は、ステップS65に進み、選択されなかった場合は、ステップS61に戻る。   In step S64, if the user finds an erroneous detection or non-detection of a person in the detection result output in step S63, it is determined whether or not the detection result is to be corrected (correction mode). The correction mode is selected by pressing a correction key set on the screen. If the correction mode is selected, the process proceeds to step S65. If the correction mode is not selected, the process returns to step S61.

ステップS65では、ステップS64で修正モードが選択された場合、誤検出を修正するのか、不検出を修正するのかを選択する。   In step S65, when the correction mode is selected in step S64, it is selected whether to correct the false detection or to correct the non-detection.

誤検出が選択された場合はステップS66へ、不検出が選択された場合はステップS68へ進む。   If erroneous detection is selected, the process proceeds to step S66. If non-detection is selected, the process proceeds to step S68.

ステップS66では、ステップS65で誤検出の修正モードが選択された場合、ユーザ入力手段6によりその修正対象領域が指定される。領域の指定は、図8(b)に示すように、出力結果に誤検出された領域しかない場合には、改めて領域を指定する必要はなく、画面内に設定された誤認識登録キーを押下することにより設定する。また図8(c)に示すように抽出された領域d1をタッチパネルで直接その位置を指定したり、あるいは図8(d)に示すように領域を示すID(図中d1〜d3)をリモコン等のテンキーを使用して指定する方法、あるいは、画面内の認識領域がリモコン等のキーで順に選択領域を変更し、該当領域を選択するなどの方法がある。   In step S66, when the correction mode for erroneous detection is selected in step S65, the correction target area is designated by the user input means 6. As shown in FIG. 8 (b), when there is only an erroneously detected area in the output result, it is not necessary to specify the area again, and press the misrecognition registration key set in the screen. To set. Further, as shown in FIG. 8C, the position of the extracted area d1 is directly designated on the touch panel, or the ID (d1 to d3 in the figure) indicating the area is shown in the remote control as shown in FIG. 8D. There are a method of designating using a numeric keypad, or a method of selecting a corresponding area by sequentially changing a selection area with a key such as a remote controller in a recognition area in the screen.

ステップS67では、ステップS66で領域指定された誤検出領域について、特徴量を抽出し、画像認識DB5の辞書データに誤検出情報(本実施の形態では人物でない)が追加される。特徴量とは前述の通り、例えばエッジの輝度勾配情報の組合せや、輪郭(形状)情報の集合体であり、辞書データの追加としては、例えば、誤検出の元になった特徴量データに対して、指定された領域の特徴量の差分を非検出用追加情報として更新する。   In step S67, the feature amount is extracted for the erroneous detection region designated in step S66, and erroneous detection information (not a person in the present embodiment) is added to the dictionary data of the image recognition DB 5. As described above, the feature amount is, for example, a combination of edge luminance gradient information or a collection of contour (shape) information. As addition of dictionary data, for example, for feature amount data that is a source of erroneous detection, Thus, the difference between the feature amounts of the designated area is updated as non-detection additional information.

図9に、画像認識DB5の辞書データの例を示す。本実施の形態では、例えば人物の抽出を例に挙げているが、人物といっても、様々な向き(正面、横向き、斜めなど)や姿勢(直立、歩行、かがみ、座りなど)、持ち物(傘、かばんなど)が多種多様となるので、これらの特徴量を数値化した複数のデータの集まりで構成されている。   FIG. 9 shows an example of dictionary data in the image recognition DB 5. In the present embodiment, for example, extraction of a person is taken as an example, but even if a person is referred to, various orientations (front, sideways, diagonal, etc.), postures (upright, walking, bending, sitting, etc.), belongings ( Umbrellas, bags, etc.) are diverse, and are composed of a collection of a plurality of data obtained by quantifying these feature quantities.

図10(a)〜(d)に、誤検出領域の特徴量が画像認識DB5の辞書データに追加されるまでの概念を示す。図10(a)は、人物以外の物を誤って人物であると判断した辞書データであるとする。一方、図10(b)は図10(a)の辞書データから人物と誤って検出された領域の特徴量を示したものである。図10(d)は、図10(a)の元の辞書データと誤検出した領域の特徴量との差分である非検出判断用の特徴量が登録されている。図10(c)は元の辞書データに対して、追加データのアドレス(100番地)が追記されたものであり、図10(d)の追加特徴量データと併せて画像認識DB5の辞書データ上で図10(a)の元の辞書データが更新されたものである。   FIGS. 10A to 10D show the concept until the feature amount of the erroneous detection region is added to the dictionary data of the image recognition DB 5. FIG. 10A is dictionary data in which an object other than a person is erroneously determined to be a person. On the other hand, FIG. 10B shows the feature amount of a region mistakenly detected as a person from the dictionary data of FIG. In FIG. 10D, a feature amount for non-detection determination that is a difference between the original dictionary data in FIG. 10A and the feature amount of the erroneously detected region is registered. FIG. 10C shows the address (100 address) of the additional data added to the original dictionary data, and is added to the dictionary data in the image recognition DB 5 together with the additional feature amount data of FIG. Thus, the original dictionary data in FIG. 10A is updated.

このように辞書データの追加/修正により、画像認識DB5の辞書データを更新することにより、同じ誤検出領域に対して、図10(c)の辞書データが参照された時に、追加データ(アドレス100)にある図10(d)の追加特徴量を参照し、図10(d)の非検出用の特徴量と比較し相関性が高ければ人物でない、あるいは相関性が低ければ人物であるというように、より詳細に人物であるか否かの判断ができる。   By updating the dictionary data in the image recognition DB 5 by adding / correcting the dictionary data in this way, when the dictionary data in FIG. 10C is referred to the same erroneous detection area, the additional data (address 100) 10 (d) in FIG. 10D), it is not a person if the correlation is high compared to the non-detection feature quantity of FIG. 10 (d), or a person if the correlation is low. In addition, it is possible to determine whether or not the person is a person in more detail.

ステップS68では、ステップS65で不検出の修正モードが選択された場合、ユーザ入力手段6によりその修正対象領域が指定される。   In step S68, when the undetected correction mode is selected in step S65, the correction target area is designated by the user input means 6.

領域の指定は例えば図11に示すようにユーザが画面上に矩形領域(P1〜P2)をリモコンもしくはタッチパネルを通じて指定する方法が考えられる。   For example, as shown in FIG. 11, the area can be designated by a method in which the user designates a rectangular area (P1 to P2) on the screen through a remote controller or a touch panel.

ステップS69ではステップS68で領域指定された不検出領域について、画像認識DB修正部4は特徴量を抽出し、画像認識DB5の辞書データに不検出情報(本実施の形態では人物である)が追加される。   In step S69, the image recognition DB correction unit 4 extracts the feature amount for the non-detection area designated in step S68, and adds non-detection information (in this embodiment, a person) to the dictionary data of the image recognition DB 5. Is done.

画像認識DB5の辞書データの更新としては、例えば、画像認識DB5の中で一番相関の高い辞書データ(相関性が閾値を越えないため、人物として認識されず不検出となったデータ)について、指定された領域の特徴量との差分の特徴量を検出用追加情報として付加して更新する。   As the update of the dictionary data in the image recognition DB 5, for example, the dictionary data having the highest correlation in the image recognition DB 5 (data that is not recognized as a person and is not detected because the correlation does not exceed the threshold value) The feature amount that is the difference from the feature amount of the specified area is added as detection additional information and updated.

図12(a)〜(d)に不検出領域の特徴量が辞書データに追加されるまでの概念を示す。図12(a)は、不検出となった対象領域の特徴量と一番相関性が高い辞書データであるとする。一方、図12(b)は不検出となった対象領域の特徴量を示したものである。図12(d)は図12(a)の元の辞書データと不検出となった領域の特徴量との差分である検出判断用の特徴量が登録されている。図12(c)は元の辞書データに対して、追加データのアドレス(200番地)が追記されたものであり、図12(d)の追加特徴量データと併せて画像認識DB5の辞書データ上で図12(a)の元の辞書データが更新されたものである。   12A to 12D show the concept until the feature amount of the non-detection area is added to the dictionary data. FIG. 12A assumes that the dictionary data has the highest correlation with the feature amount of the target area that has not been detected. On the other hand, FIG. 12B shows the feature amount of the target area that has not been detected. In FIG. 12D, a feature value for detection determination, which is a difference between the original dictionary data of FIG. 12A and the feature value of the non-detected area, is registered. FIG. 12C shows an additional data address (address 200) added to the original dictionary data, and is added to the dictionary data in the image recognition DB 5 together with the additional feature amount data shown in FIG. Thus, the original dictionary data in FIG. 12A is updated.

このように、辞書データの追加/修正により画像認識DB5を更新することにより、同じ不検出領域に対して、図12(c)の辞書データが参照された時に、追加データ(アドレス200)にある図12(d)の追加特徴量を参照し、図12(d)の検出用の特徴量と比較し相関性が高ければ人物である、あるいは相関性が低ければ人物でないというように、より詳細に人物であるか否かの判断を行う。   In this way, by updating the image recognition DB 5 by adding / modifying dictionary data, when the dictionary data in FIG. 12C is referred to the same non-detection area, the additional data (address 200) is present. With reference to the additional feature amount in FIG. 12D, the details are such that, if the correlation is high compared to the detection feature amount in FIG. It is determined whether the person is a person.

このような本実施の形態の車両周辺監視装置によれば、ユーザ入力手段6により誤検出/不検出した領域を指定し、画像認識DB5の人物認識用の辞書データに要因となる特徴量を容易に追加できるので、次回以降の動作において、同様な対象物の誤検出/不検出の繰り返しをなくすことができる。   According to the vehicle periphery monitoring apparatus of the present embodiment as described above, it is easy to specify a region that has been erroneously detected / not detected by the user input means 6 and to make a feature amount that is a factor in dictionary data for person recognition in the image recognition DB 5. Therefore, it is possible to eliminate the same erroneous detection / non-detection of the object in the next and subsequent operations.

なお、本実施の形態では、人物を検出する例をあげたが、他の対象物(軽車両、車両、標識、信号機)についても、個別に画像認識DBの辞書データを用意することにより同様の効果が得られる。   In the present embodiment, an example of detecting a person has been given, but the same object can be obtained by preparing dictionary data in the image recognition DB for other objects (light vehicles, vehicles, signs, traffic lights). An effect is obtained.

なお、本実施の形態では、辞書の特徴量として、輝度勾配や輪郭特徴を例としてあげたが色情報などを付加することにより、さらに誤検出/不検出の低減効果を得る構成にしてもよい。   In the present embodiment, brightness gradients and contour features are given as examples of dictionary feature values. However, by adding color information or the like, it may be configured to further reduce false detection / non-detection effects. .

以上のように、本発明は、対象物検出処理部の出力結果が誤検出、あるいは、不検出の場合に、入力手段が誤検出領域、あるいは、不検出領域を入力し、画像認識データベース修正部は、入力手段が入力した誤検出領域、あるいは、不検出領域の画像データベースの辞書データを修正し、画像認識データベースへ格納することにより、同じ対象物体に対して誤検出、あるいは、不検出の繰り返しを防ぐことができる車両周辺監視装置として有用である。   As described above, according to the present invention, when the output result of the object detection processing unit is erroneously detected or not detected, the input unit inputs the erroneously detected region or the undetected region, and the image recognition database correcting unit Corrects erroneous detection or non-detection of the same target object by correcting the dictionary data in the image database of the erroneous detection area or non-detection area input by the input means and storing it in the image recognition database. It is useful as a vehicle periphery monitoring device that can prevent the above.

1 撮像手段
3 対象物検出処理部
4 画像認識DB修正部
5 画像認識DB
6 ユーザ入力手段
7 出力手段
DESCRIPTION OF SYMBOLS 1 Imaging means 3 Object detection processing part 4 Image recognition DB correction part 5 Image recognition DB
6 User input means 7 Output means

Claims (1)

車両の周囲を撮像する撮像手段と、多種類の人画像データからその特徴量を抽出し、辞書データとして格納されている画像認識データベースと、前記撮像手段が撮像した撮像画像に対して前記画像認識データベースを参照し、対象物を認識する対象物検出処理部と、この対象物検出処理部の出力結果が表示される出力手段と、ユーザが前記出力手段を見て、誤検出、あるいは、不検出と判断した場合に、誤検出領域、あるいは、不検出領域を入力する入力手段と、この入力手段が入力した誤検出領域、あるいは、不検出領域の前記画像認識データベースの辞書データを修正する画像認識データベース修正部とを備え、前記画像認識データベース修正部が修正した辞書データを前記画像認識データベースへ格納することを特徴とする車両周辺監視装置。   An image capturing unit that captures an image of the surroundings of the vehicle, an image recognition database that extracts feature values from various types of human image data, and is stored as dictionary data; and the image recognition for the captured image captured by the image capturing unit An object detection processing unit for recognizing an object with reference to a database, an output unit for displaying an output result of the object detection processing unit, and a user seeing the output unit for erroneous detection or no detection Image recognition for correcting the dictionary data in the image recognition database of the erroneous detection area or the non-detection area input by the input means and the input means for inputting the erroneous detection area or the non-detection area And a database correction unit, wherein the dictionary data corrected by the image recognition database correction unit is stored in the image recognition database. Apparatus.
JP2010046184A 2010-03-03 2010-03-03 Vehicle periphery monitoring device Pending JP2013093639A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010046184A JP2013093639A (en) 2010-03-03 2010-03-03 Vehicle periphery monitoring device
PCT/JP2011/001191 WO2011108258A1 (en) 2010-03-03 2011-03-01 Vehicle-surroundings monitoring apparatus and vehicle-surroundings monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010046184A JP2013093639A (en) 2010-03-03 2010-03-03 Vehicle periphery monitoring device

Publications (1)

Publication Number Publication Date
JP2013093639A true JP2013093639A (en) 2013-05-16

Family

ID=48616456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010046184A Pending JP2013093639A (en) 2010-03-03 2010-03-03 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP2013093639A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017207972A (en) * 2016-05-19 2017-11-24 キヤノン株式会社 Image processing device, image processing method, and program
US10540546B2 (en) 2016-12-13 2020-01-21 Canon Kabushiki Kaisha Image processing apparatus, control method, and storage medium
US10922864B2 (en) 2016-05-19 2021-02-16 Canon Kabushiki Kaisha Image processing device, image processing method and program, for object detection in an image
JP2021135647A (en) * 2020-02-26 2021-09-13 富士通株式会社 Template image update program, template image update method, and template image update device
CN113392678A (en) * 2020-03-12 2021-09-14 杭州海康威视数字技术股份有限公司 Pedestrian detection method, device and storage medium
CN115103157A (en) * 2022-06-15 2022-09-23 中科弘云科技(北京)有限公司 Video analysis method and device based on edge cloud cooperation, electronic equipment and medium
JP2022143147A (en) * 2021-03-17 2022-10-03 関西電力株式会社 USER DETECTION SYSTEM, USER DETECTION METHOD, AND DAM
CN115280395A (en) * 2020-03-31 2022-11-01 株式会社小松制作所 Detection system and detection method
JP2023090247A (en) * 2021-12-17 2023-06-29 パナソニックIpマネジメント株式会社 AUTONOMOUS ROBOT SYSTEM, JUDGMENT ADJUSTMENT METHOD, AND PROGRAM
JP2023121602A (en) * 2022-02-21 2023-08-31 株式会社豊田中央研究所 Object detection apparatus and program
JP7753919B2 (en) 2022-02-21 2025-10-15 株式会社豊田中央研究所 Object detection device and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10922864B2 (en) 2016-05-19 2021-02-16 Canon Kabushiki Kaisha Image processing device, image processing method and program, for object detection in an image
JP2017207972A (en) * 2016-05-19 2017-11-24 キヤノン株式会社 Image processing device, image processing method, and program
US10540546B2 (en) 2016-12-13 2020-01-21 Canon Kabushiki Kaisha Image processing apparatus, control method, and storage medium
JP2021135647A (en) * 2020-02-26 2021-09-13 富士通株式会社 Template image update program, template image update method, and template image update device
JP7396115B2 (en) 2020-02-26 2023-12-12 富士通株式会社 Template image update program, template image update method, and template image update device
CN113392678A (en) * 2020-03-12 2021-09-14 杭州海康威视数字技术股份有限公司 Pedestrian detection method, device and storage medium
CN115280395A (en) * 2020-03-31 2022-11-01 株式会社小松制作所 Detection system and detection method
JP2022143147A (en) * 2021-03-17 2022-10-03 関西電力株式会社 USER DETECTION SYSTEM, USER DETECTION METHOD, AND DAM
JP7585107B2 (en) 2021-03-17 2024-11-18 関西電力株式会社 User detection system, user detection method, and dam
JP2023090247A (en) * 2021-12-17 2023-06-29 パナソニックIpマネジメント株式会社 AUTONOMOUS ROBOT SYSTEM, JUDGMENT ADJUSTMENT METHOD, AND PROGRAM
JP2023121602A (en) * 2022-02-21 2023-08-31 株式会社豊田中央研究所 Object detection apparatus and program
JP7753919B2 (en) 2022-02-21 2025-10-15 株式会社豊田中央研究所 Object detection device and program
CN115103157A (en) * 2022-06-15 2022-09-23 中科弘云科技(北京)有限公司 Video analysis method and device based on edge cloud cooperation, electronic equipment and medium

Similar Documents

Publication Publication Date Title
JP2013093639A (en) Vehicle periphery monitoring device
JP4263737B2 (en) Pedestrian detection device
JP5480777B2 (en) Object display device and object display method
JP5747549B2 (en) Signal detector and program
JP3934119B2 (en) Vehicle periphery monitoring device
JP5442164B2 (en) Moving object peripheral image correction device
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP3636927B2 (en) Face image processing device
JP2012068965A (en) Image recognition device
EP2150053A1 (en) Vehicle periphery monitoring system, vehicle periphery monitoring program and vehicle periphery monitoring method
JP2007334751A (en) Vehicle periphery monitoring device
US20130103299A1 (en) Apparatus for monitoring vicinity of a vehicle
JPH11328364A (en) Region estimation device and display processing device
US10235607B2 (en) Control device, control method, and computer program product
JP2007310805A (en) Object recognition device
US20160232415A1 (en) Detection detection of cell phone or mobile device use in motor vehicle
JP3999088B2 (en) Obstacle detection device
JP2011103058A (en) Erroneous recognition prevention device
CN113497875B (en) Image processing device for vehicle
JP2008026999A (en) Obstacle detection system and obstacle detection method
WO2011108258A1 (en) Vehicle-surroundings monitoring apparatus and vehicle-surroundings monitoring method
JP2007219899A (en) Personal identification device, personal identification method, and personal identification program
JP2009237773A (en) Image processor and image processing program
JP2001357388A (en) Device for monitoring road
JP2017058950A (en) Recognition device, image pickup system, and image pickup device, and recognition method and program for recognition