JP2021033510A - 運転支援装置 - Google Patents
運転支援装置 Download PDFInfo
- Publication number
- JP2021033510A JP2021033510A JP2019151161A JP2019151161A JP2021033510A JP 2021033510 A JP2021033510 A JP 2021033510A JP 2019151161 A JP2019151161 A JP 2019151161A JP 2019151161 A JP2019151161 A JP 2019151161A JP 2021033510 A JP2021033510 A JP 2021033510A
- Authority
- JP
- Japan
- Prior art keywords
- object candidate
- image
- vehicle
- support device
- driving support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010191 image analysis Methods 0.000 claims abstract description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 2
- 230000002093 peripheral effect Effects 0.000 abstract 2
- 238000000605 extraction Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 19
- 238000000034 method Methods 0.000 description 15
- 230000007935 neutral effect Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】より正確に、要注意物体を検出し、報知を行うことを可能とする運転支援装置を提供すること。【解決手段】車両1の周辺道路に存在する物体を検出する運転支援装置100であって、車両1に搭載された周辺道路を撮影する車載カメラ200から画像を取得する画像取得部10と、学習済みの識別器D1を用いて、画像から物体候補を検出すると共に、当該物体候補に係る信頼度を算出する画像解析部20と、画像解析部20で検出された物体候補の信頼度が閾値以上か否かを判定し、当該信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部30と、を備え、報知部30は、物体候補の画像内における位置又はサイズに基づいて、当該物体候補の判定に適用する閾値を設定する。【選択図】図1
Description
本開示は、運転支援装置に関する。
従来、畳み込みニュートラルネットワーク(Convolutional Neural Network)等の識別器モデル(以下、「識別器」と略称する)を用いて、画像解析を行って、画像内に存在する物体を検出する画像処理装置が知られている(例えば、特許文献1を参照)。
この種の画像処理装置においては、一般に、検出対象の物体の画像を教師データとして学習処理が施された識別器を用いて、物体検出が行われ、画像内においてこれらの検出対象の物体と類似する画像領域が存在する場合、当該画像領域を物体が存在する候補領域(以下、「物体候補」と称する)として検出する。
この種の識別器は、通常、検出された物体候補それぞれについて、当該物体候補が検出対象の物体の種別に該当する確率を示す信頼度を出力するように構成されている。そして、画像処理装置においては、誤検知を抑制するため、識別器が検出した物体候補に係る信頼度が閾値以上か否かを判定し、当該物体候補に係る信頼度が閾値以上である場合に限って、当該物体候補を報知対象とするようになっている。
ところで、近年、この種の画像処理技術を、車両の前方道路に存在する歩行者、他車両又は落下物等(以下、「要注意物体」と称する)を検出して、車両の運転を支援する運転支援装置に適用することが検討されている。
この種の画像処理技術を運転支援装置に適用する場合、車両の前方道路に存在する要注意物体については、車両からの距離が遠方であっても早い段階で、当該車両のユーザ又は当該車両のECU(Electronic Control Unit)に報知することが望ましい。
但し、識別器は、一般に、画像内に検出された物体候補のサイズが比較的小さい場合には、当該物体候補の信頼度を小さい値として出力する傾向にある。又、識別器は、一般に、画像内に検出された物体候補のサイズが比較的大きい場合には、信頼度を大きい値として出力する傾向にある。
その結果、この種の画像処理技術を、そのまま運転支援装置に転用すると、車両から遠方に存在する要注意物体については未検出となってしまうおそれがある。又、要注意物体以外の物体(例えば、建物や看板)が車両に近接して存在する場合には、それらを要注意物体として誤って報知してしまうおそれがある。
本開示は、上記問題点に鑑みてなされたもので、より正確に、要注意物体を検出し、報知を行うことを可能とする運転支援装置を提供することを目的とする。
前述した課題を解決する主たる本開示は、
車両の周辺道路に存在する物体を検出する運転支援装置であって、
前記車両に搭載された前記周辺道路を撮影する車載カメラから画像を取得する画像取得部と、
学習済みの識別器を用いて、前記画像から物体候補を検出する画像解析部と、
前記画像解析部で検出された前記物体候補の信頼度が閾値以上か否かを判定し、当該信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部と、
を備え、
前記報知部は、前記物体候補の前記画像内における位置又はサイズに基づいて、当該物体候補の判定に適用する前記閾値を設定する、
運転支援装置である。
車両の周辺道路に存在する物体を検出する運転支援装置であって、
前記車両に搭載された前記周辺道路を撮影する車載カメラから画像を取得する画像取得部と、
学習済みの識別器を用いて、前記画像から物体候補を検出する画像解析部と、
前記画像解析部で検出された前記物体候補の信頼度が閾値以上か否かを判定し、当該信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部と、
を備え、
前記報知部は、前記物体候補の前記画像内における位置又はサイズに基づいて、当該物体候補の判定に適用する前記閾値を設定する、
運転支援装置である。
本開示に係る運転支援装置によれば、より正確に、要注意物体を検出し、報知を行うことが可能である。
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[運転支援装置の構成]
以下、図1を参照して、第1の実施形態に係る運転支援装置の構成について説明する。
以下、図1を参照して、第1の実施形態に係る運転支援装置の構成について説明する。
本実施形態に係る運転支援装置は、自動車などの車両に搭載され、当該車両の前方道路に存在する要注意物体を検出して、ユーザに注意喚起することでユーザの運転を支援する又は当該車両のECUに報知することで自動運転の車両運動制御に利用する。尚、以下、「車両」と称するときには、本実施形態に係る運転支援装置が搭載された車両を意味し、本実施形態に係る運転支援装置が搭載された車両とは別の車両を表すときには「他車両」と称する。
図1は、本実施形態に係る運転支援装置100を搭載する車両1の構成を示す図である。図2は、本実施形態に係る運転支援装置100のハードウェア構成を示す図である。図3は、本実施形態に係る運転支援装置100が車載モニタ300に表示させる表示画面の一例を示す図である。
車両1は、例えば、運転支援装置100、車載カメラ200、及び車載モニタ300を備えている。尚、これらは、例えば、車両1内に搭載されている。
運転支援装置100は、車載カメラ200が生成した車両1の前方道路の画像に基づいて、車両1の前方道路に存在する要注意物体を検出する。そして、運転支援装置100は、例えば、検出された要注意物体を注意喚起する画像を、車載カメラ200が生成した画像に重畳させて、車載モニタ300に表示させる。
運転支援装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インターフェイス105等を備えたコンピュータである。運転支援装置100の後述する各機能は、例えば、CPU101がROM102、RAM103、又は外部記憶装置104に記憶された制御プログラムや各種データを参照することによって実現される。尚、外部記憶装置104には、例えば、後述する各種機能を実現するための制御プログラム、及び、画像解析部20が参照する識別器のモデルデータ等が記憶されている。
但し、各機能の一部又は全部は、CPUによる処理に代えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
車載カメラ200は、例えば、一般的なカメラや広角カメラであり、自身の撮像素子が生成した画像信号をAD変換して、画像データ(以下、「画像」と略称する)を生成する。車載カメラ200は、例えば、車両1内のフロントガラス近傍に固定されており、フロントガラス越しに、車両1の前方道路を撮影する。尚、車載カメラ200は、例えば、フレーム単位の画像を連続的に生成して、車両1の前方道路の画像の動画を生成する。
車載モニタ300は、例えば、一般的なディスプレイであり、運転支援装置100から取得する画像を表示する。尚、車載モニタ300は、運転支援装置100が検出した物体を車両1のユーザに報知する報知手段として機能する。
車載モニタ300は、例えば、図3に示すように、車載カメラ200が生成した画像に重畳するように、検出物体に対してマーカM1、M2を付したモニタ画面を表示する。尚、図3中のRは全画像領域、P1は歩行者、P2は他車両、P3は看板、P4は建物、Lは道路領域を表している。ここでは、歩行者P1及び他車両P2のみが報知対象の要注意物体として検出され、看板P3及び建物P4は報知対象の物体として検出されてない状態を表している。
運転支援装置100は、例えば、画像取得部10、画像解析部20、及び報知部30を備えている。
画像取得部10は、車載カメラ200が生成した画像を取得する。
画像解析部20は、学習済みの識別器D1を用いて、車載カメラ200から取得した画像に対して画像解析処理を施して、当該画像から物体候補を検出すると共に、当該物体候補に係る信頼度を算出する。ここでは、識別器D1として、畳み込みニュートラルネットワークが用いられている。尚、「信頼度」とは、上記したように、識別器D1が、画像から物体候補を検出した際に、その物体候補が実際に存在する物体であるか否か、又は、その物体候補が検出対象の物体の種別に該当するか否かを示す指標として出力する値である。
図4は、一般的な畳み込みニュートラルネットワークの構成の一例を示す図である。
畳み込みニュートラルネットワークは、特徴抽出部Daと識別部Dbとを有し、特徴抽出部Daが、入力される画像から画像特徴を抽出する処理を施し、識別部Dbが、画像内に映る物体の物体種別を識別する処理を施す。
特徴抽出部Daは、複数の特徴量抽出層Da1、Da2・・・が階層的に接続されて構成される。各特徴量抽出層Da1、Da2・・・は、それぞれ、畳み込み層(Convolution layer)、活性化層(Activation layer)及びプーリング層(Pooling layer)を備える。
第1層目の特徴量抽出層Da1は、入力される画像を、ラスタスキャンにより所定サイズ毎に走査する。そして、特徴量抽出層Da1は、走査したデータに対して、畳み込み層、活性化層及びプーリング層によって特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。第1層目の特徴量抽出層Da1は、例えば、水平方向に延びる線状の特徴量や斜め方向に延びる線状の特徴量等の比較的シンプルな単独の特徴量を抽出する。
第2層目の特徴量抽出層Da2は、前階層の特徴量抽出層Da1から入力される画像(特徴マップとも称される)を、例えば、ラスタスキャンにより所定サイズ毎に走査する。そして、特徴量抽出層Da2は、走査したデータに対して、同様に、畳み込み層、活性化層及びプーリング層による特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。尚、第2層目の特徴量抽出層Da2は、第1層目の特徴量抽出層Da1が抽出した複数の特徴量の位置関係などを考慮しながら統合させることで、より高次元の複合的な特徴量を抽出する。
第2層目以降の特徴量抽出層(図示せず)は、第2層目の特徴量抽出層Da2と同様の処理を実行する。そして、最終層の特徴量抽出層の出力(複数の特徴マップのマップ内の各値)が、識別部Dbに対して入力される。
識別部Dbは、例えば、複数の全結合層(Fully Connected)が階層的に接続された多層パーセプトロンによって構成される。
識別部Dbの入力側の全結合層は、特徴抽出部Daから取得した複数の特徴マップのマップ内の各値に全結合し、その各値に対して重み係数を異ならせながら積和演算を行って出力する。識別部Dbの次階層の全結合層は、前階層の全結合層の各素子が出力する値に全結合し、その各値に対して重み係数を異ならせながら積和演算を行う。
識別部Dbの最後段の全結合層には、例えば、検出対象物体(即ち、要注意物体)のカテゴリー毎に出力素子が設けられている。これにより、識別部Dbは、画像内に検出対象物体に該当する物体候補を検出した場合、当該物体候補が検出対象物体に該当する確率を、信頼度として出力するように構成される。
又、識別部Dbの最後段の全結合層には、例えば、検出対象物体のカテゴリー毎に、画像内に映る物体が存在する位置(例えば、画像内に映る物体が存在する領域を囲む矩形状の4隅のXY座標)を出力する出力素子が設けられている。これによって、識別部Dbは、検出した物体候補の画像内における位置を出力することができる。
畳み込みニュートラルネットワークは、例えば、正解カテゴリー(及び物体が存在する正解位置)を付した検出対象物体が映る画像を用いて学習処理(例えば、誤差逆伝播法による学習処理)が施されることによって、ネットワークパラメータ(例えば、畳み込み層の重み係数及びバイアス、全結合層の重み係数及びバイアス)が調整され、上記のように機能する。
尚、図4に示す畳み込みニュートラルネットワークの構造は、一例であって、物体検出のための畳み込みニュートラルネットワークの構造は、種々に変形可能である。例えば、物体領域(バウンディングボックス)を検出するためのディテクターが、特徴抽出部Daの前段に設けられてもよい。
本実施形態に係る識別器D1(ここでは、畳み込みニュートラルネットワーク)は、ユーザ又は車両1のECUに認識させる必要がある物体、例えば、車両、歩行者、及び落下物等を画像内から検出するように学習処理が施されており、これらの物体を画像内から検出し得るように構成されている。
学習済みの識別器D1のモデルデータ(ネットワークの構造データ及び学習済みのパラメータデータ等)は、例えば、制御プログラムと共に、外部記憶装置104に格納されている。
画像解析部20は、例えば、学習済みの識別器D1(畳み込みニュートラルネットワーク)の順伝播処理を施すことによって、画像内から物体候補を検出すると共に、信頼度を算出する。
報知部30は、画像解析部20に検出された物体候補の信頼度が閾値以上であるか否かを判定する。そして、報知部30は、物体候補の信頼度が閾値以上の場合、当該物体候補を要注意物体として報知する。一方、物体候補の信頼度が閾値未満の場合、報知部30は、当該物体候補を報知対象としない。
但し、本実施形態に係る報知部30は、物体候補の画像内における位置又はサイズに基づいて、閾値を設定する。つまり、報知部30は、画像から複数の物体候補が検出された場合、複数の物体候補それぞれに対して別個の閾値を設定する。報知部30は、典型的には、物体候補の画像内における位置又はサイズから推定される当該物体候補と車両1との間の距離が所定距離以上の場合、物体候補と車両1との間の距離が所定距離未満の場合よりも、当該物体候補に適用する閾値を小さくする。
上記したように、一般的な画像処理装置においては、検出された物体候補の位置によらず、一定の閾値を基準として、当該物体候補を報知対象とするか否かが決定されている。しかしながら、かかる態様では、遠方に存在する物体については検出され難くなり、ユーザ又は車両1のECU(例えば、自動運転を実行する車両ECU)の安全運転に支障を来すおそれがある。又、かかる態様では、近距離に存在する物体については、検出対象ではない物体を検出対象物体として誤検出してしまい、ユーザに煩雑な印象を与えたり、ユーザ又は車両ECUの誤操作を誘起するおそれもある。
そこで、本実施形態に係る報知部30は、物体候補と車両1との間の距離が長くなるほど、当該物体候補に適用する閾値を小さく設定し、物体候補と車両1との間の距離が短くなるほど、当該物体候補に適用する閾値を大きく設定する。これにより、車両1から遠方に存在する物体候補が、報知対象となりやすい状態とする。
図5は、本実施形態に係る報知部30による閾値の設定方法について、説明する図である。図5のRは車載カメラ200が生成した画像の全画像領域を表し、Raは物体候補が存在する領域、f値は正規化前の閾値を表している。図5中のxmin、xmax、ymin、ymaxは、画像の左上の端部を原点としたときの物体候補が存在する領域Raの四隅のx座標及びy座標を表している。又、図5中のY_horiは、画像内の地平線推定位置を表し、Y_nearは、画像内の車両1の近傍位置(例えば、自車からの距離が3m程度の位置)を表している。
報知部30は、例えば、遠方に存在する物体については報知対象となりやすいように、物体候補と車両1との間の距離が長くなるほど、当該物体候補に適用する閾値を小さくする。この際、報知部30は、例えば、画像内の地平線推定位置Y_horiを基準として、物体候補と車両1との間の距離を推定するのが望ましい。例えば、報知部30は、物体候補の画像内における位置が画像の下端から前方道路の地平線推定位置Y_horiに近づくほど、物体候補と車両1との間の距離が長いと推定する。
車載カメラ200の設置位置が固定されている場合、地平線は、通常、画像内の所定位置に映るため(ここでは、平坦路を仮定している)、報知部30は、予め定めた当該所定位置を地平線推定位置Y_horiとして用いればよい。他方、報知部30は、地平線推定位置Y_horiより画像上で下の位置であれば、任意に地平線推定位置Y_horiを設定してもよい。
報知部30は、例えば、以下の式(1−1)〜(1−3)、及び、式(2)を用いて、物体候補に適用する閾値を算出する。報知部30は、例えば、式(1−1)〜(1−3)により算出したf値を、式(2)を用いて、識別器D1から出力される信頼度のスケールに正規化することにより、物体候補に適用する閾値Cthを算出する。
ここで、物体候補の位置がY_hori<ymax<Y_nearの場合は、検出された物体候補が道路領域に存在し、車両から最近傍領域より遠方に位置することを意味する。当該物体候補は、要注意物体である可能性が高いため、報知対象とされやすくするのが望ましい。報知部30は、かかる観点から、Y_hori<ymax<Y_nearの場合、検出された物体候補が道路領域に存在しない場合又は車両から最近傍領域以内に存在する場合(ymax<Y_hori、又は、Y_near<ymax)よりも、閾値を小さく設定する。加えて、遠方に存在する物体をより正確に検出するため、報知部30は、ymaxがY_nearからY_horiに近づくにつれて、閾値を小さく設定する。
一方、物体候補の位置がymax<Y_horiの場合は、検出された物体候補が道路領域の上空に存在することを意味する。当該物体候補は、歩道橋や看板等、要注意物体以外の物体である可能性が高いため、報知対象から除外されるのが望ましい。かかる観点から、報知部30は、ymax<Y_horiの場合、閾値を最大値付近に設定する。
他方、物体候補の位置がY_near<ymaxの場合は、検出された物体候補が車両1の近傍に存在することを意味する。当該物体候補は、要注意物体である場合も含むが、要注意以外の物体である場合も含む。検出された物体候補が車両1の近傍に存在する場合、当該物体候補の信頼度は、比較的大きい値に算出される傾向にある。かかる観点から、報知部30は、要注意以外の物体の誤検出を抑制するべく、ymax<Y_horiの場合、閾値を最大値付近に設定する。
尚、上記では、物体候補のY座標のみを参照して、当該物体候補に適用する閾値を算出する態様を示した。しかしながら、当該物体候補に適用する閾値を算出する際には、物体候補のX座標についても参照してもよい。これによって、例えば、物体候補が道路領域内に存在するか否かをより正確に特定することが可能である。
報知部30は、このようにして、画像解析部20に検出された複数の物体候補それぞれについて、当該物体候補に適用する閾値を設定する。そして、報知部30は、画像解析部20に検出された物体候補のうち、信頼度が閾値以上である物体候補のみを、実際に存在する物体として報知する。この際、報知部30は、例えば、車載カメラ200が生成した画像に対して、報知対象の物体が存在する領域にマークM1、M2を付した表示用画像を生成し、車載モニタ300に出力する(図3を参照)。これによって、ユーザは、車載モニタ300を視認して、前方道路に存在する物体を認識することができる。
尚、報知部30による報知態様は、任意である。例えば、報知部30は、スピーカを用いて音声によって報知してもよい。又、報知部30は、車両1を制御するECU(図示せず)に対して報知信号を出力し、当該ECUが、車両1の移動状態を自動制御し得るようにするものであってもよい。
[動作フロー]
図6は、本実施形態に係る運転支援装置100の動作の一例を示すフローチャートである。
図6は、本実施形態に係る運転支援装置100の動作の一例を示すフローチャートである。
運転支援装置100は、まず、車載カメラ200から画像を取得する(ステップS1)。
次に、運転支援装置100は、識別器D1を用いて、車載カメラ200から取得した画像の画像解析を行って、当該画像から物体候補を検出する。尚、この際、運転支援装置100は、当該物体候補の画像内における位置及び信頼度についても算出する(ステップS2)。
次に、運転支援装置100は、物体候補の画像内における位置に基づいて、当該物体候補を報知対象とするか否かを判定するために適用する閾値を設定する(ステップS3)。
次に、運転支援装置100は、物体候補の信頼度が閾値以上か否かを判定する(ステップS4)。そして、物体候補の信頼度が閾値以上の場合(ステップS4:YES)、ステップS5に処理を進め、当該物体候補についての報知処理を実行する(ステップS5)。一方、物体候補の信頼度が閾値未満の場合(ステップS4:NO)、当該物体候補については報知処理を実行することなく、一連の処理を終了する。
尚、運転支援装置100は、画像内に複数の物体候補が検出された場合、ステップS3において、複数の物体候補それぞれについて、閾値を設定する。そして、運転支援装置100は、ステップS4において、複数の物体候補それぞれについて、物体候補の信頼度が閾値以上か否かを判定する。
[効果]
以上のように、本実施形態に係る運転支援装置100は、車両1に搭載された前方道路を撮影する車載カメラ200から画像を取得する画像取得部10と、学習済みの識別器D1を用いて、画像から物体候補を検出する画像解析部20と、物体候補の信頼度が閾値以上か否かを判定し、物体候補の信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部30と、を備え、報知部30は、物体候補の画像内における位置又はサイズに基づいて、当該物体候補に適用する閾値を設定する。
以上のように、本実施形態に係る運転支援装置100は、車両1に搭載された前方道路を撮影する車載カメラ200から画像を取得する画像取得部10と、学習済みの識別器D1を用いて、画像から物体候補を検出する画像解析部20と、物体候補の信頼度が閾値以上か否かを判定し、物体候補の信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部30と、を備え、報知部30は、物体候補の画像内における位置又はサイズに基づいて、当該物体候補に適用する閾値を設定する。
従って、本実施形態に係る運転支援装置100によれば、車両1から遠方に存在する要注意物体(例えば、他車両や歩行者)の未検出を抑制することができる。又、本実施形態に係る運転支援装置100によれば、車両1に近い領域に存在する物体で、特に注意する必要がない物体(例えば、建物等)を、要注意物体と誤検出する事態を抑制することができる。
(第2の実施形態)
次に、図7を参照して、第2の実施形態に係る運転支援装置100について説明する。
次に、図7を参照して、第2の実施形態に係る運転支援装置100について説明する。
本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補のサイズに基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。尚、第1の実施形態と共通する構成については、説明を省略する(以下、他の実施形態についても同様)。
図7は、本実施形態に係る報知部30の閾値の設定方法について説明する図である。図7中のsizeは物体候補(物体候補が存在する領域Ra)のサイズ、sizemaxは最大の閾値と適用する場合の要注意物体のサイズ、sizeminは最小の閾値を設定する場合の要注意物体のサイズを表す。尚、sizemax、sizeminは、要注意物体のカテゴリー毎に設定される。
本実施形態に係る報知部30は、識別器D1が画像内で検出した物体候補のサイズに基づいて、当該物体候補と車両1との間の距離を推定し、当該物体候補に適用する閾値を設定する。物体候補のサイズは、例えば、識別器D1から出力される物体候補が存在する領域Raの四隅のx座標及びy座標(即ち、xmin、xmax、ymin、ymax)から、矩形領域の面積として算出される。尚、物体候補のサイズは、矩形領域の面積に対してルートを取った値であってもよい。
運転支援装置100が検出対象とする要注意物体は、車両や歩行者であり、基準サイズが定まった物体である。そこで、運転支援装置100は、例えば、予めROM102等に物体のカテゴリー(例えば、車両や歩行者)毎に基準サイズを記憶しておき、画像内で検出された物体候補のサイズと、当該物体候補と同一カテゴリーの物体候補の基準サイズとを比較することによって、物体候補と車両1との間の距離を推定することができる。
報知部30は、例えば、以下の式(3−1)〜(3−3)、及び、式(4)を用いて、閾値を算出する。報知部30は、式(3−1)〜(3−3)により算出したf値を、式(4)を用いて、識別器D1から出力される信頼度のスケールに正規化することにより、閾値Cthを算出する。
上式は、検出対象とする物体候補のサイズが小さくなるにつれて、閾値を小さい値に設定することを表している。これは、検出対象とする物体候補のサイズが小さくなるほど、検出された物体候補が遠方に存在すると推定されるためである。
これによって、物体候補の位置を正確に認識できないような状況(例えば、地平線推定位置が画像内で認識できない状況)においても、報知部30は、物体候補を報知対象とするか否かを判定する閾値を適切に設定することが可能である。
これによって、物体候補の位置を正確に認識できないような状況、及び、物体候補のサイズを正確に認識できないような状況のいずれにも対応することが可能である。
以上のように、本実施形態に係る運転支援装置100によれば、物体候補に適用する閾値をより適切に設定することが可能である。
(第3の実施形態)
次に、図8を参照して、第3の実施形態に係る運転支援装置100について説明する。本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補の奥行き方向の位置に基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。
次に、図8を参照して、第3の実施形態に係る運転支援装置100について説明する。本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補の奥行き方向の位置に基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。
図8は、報知部30による物体候補の奥行き方向の位置の算出方法について説明する図である。図8中のPoは物体候補、201は車載カメラ200の撮像面、202は車載カメラ200のレンズ202を表している。
本実施形態に係る報知部30は、画像内で検出された物体候補のy座標に基づいて、例えば、以下の式(7)、(8)を用いて、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)Zを算出する。そして、報知部30は、例えば、車載カメラ200と物体候補との間の距離Zから、式(9)を用いてf値を算出する。そして、算出されたf値を、式(2)を用いて、識別器D1から出力される信頼度のスケールに正規化することにより、閾値Cthを算出する。尚、式(7)、(8)は、要注意物体はその下端が必ず道路面上に存在すると仮定して、物体候補と車両1との間の距離を推定している。
以上のように、本実施形態に係る運転支援装置100によれば、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)をより正確に算出することができるため、報知部30が適用する閾値をより適切に設定することができる。
(第4の実施形態)
次に、図9を参照して、第4の実施形態に係る運転支援装置100について説明する。本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補の奥行き方向の位置に基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。
次に、図9を参照して、第4の実施形態に係る運転支援装置100について説明する。本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補の奥行き方向の位置に基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。
本実施形態は、車載カメラ200として、ステレオカメラが使用されている場合に適用される。ステレオカメラは、三角測量の原理により、撮影時に、物体候補の奥行き方向の位置を直接的に推定することが可能である。
図9は、報知部30による物体候補の奥行き方向の位置の算出方法について説明する図である。尚、図9において、Poは物体候補、201は撮像面(ここでは、説明の便宜として、左側撮像部と右側撮像部で共通として図示している)、202aは左側撮像部のレンズ、202bは右側撮像部のレンズを表す。又、xLは左側撮像部のレンズ202aのレンズ中心軸からの距離、xRは右側撮像部のレンズ202aのレンズ中心軸からの距離を表している。
本実施形態に係る報知部30は、車載カメラ200(ここでは、ステレオカメラ)から取得した左側撮像部の画像と右側撮像部の画像とに基づいて、例えば、以下の式(10)を用いて、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)Zを算出する。そして、報知部30は、例えば、車載カメラ200と物体候補との間の距離Zから、第3の実施形態で説明した手法と同様に、式(9)用いてf値を算出し、式(2)を用いて、f値から閾値Cthを算出する。
以上のように、本実施形態に係る運転支援装置100によれば、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)をより正確に算出することができるため、報知部30が適用する閾値をより適切に設定することができる。
(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
例えば、上記各実施形態では、識別器D1の一例として、畳み込みニュートラルネットワークを示したが、識別器D1は、ベイズ識別器又はSVM(Support Vector Machine)識別器等、機械学習によって識別機能を発現する他の識別器によって構成されてもよい。又、識別器D1として、畳み込みニュートラルネットワークを用いる場合も、そのモデル構造は、種々に変更可能である。
又、上記各実施形態では、識別器D1の一例として、物体候補が存在する領域Raの四隅のx座標及びy座標を出力する構成を示した。しかしながら、識別器D1が出力する物体候補の位置に係る情報は、物体候補の重心位置1点のみであってもよい。
又、上記第3及び第4実施形態では、報知部30が物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)を算出する態様を示した。しかしながら、これらの演算処理は、車載カメラ200内で実行されてもよい。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本開示に係る運転支援装置によれば、より正確に、要注意物体を検出し、報知を行うことが可能である。
1 車両
10 画像取得部
20 画像解析部
30 報知部
100 運転支援装置
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 通信インターフェイス
200 車載カメラ
201 撮像面
202、202a、202b レンズ
300 車載モニタ
D1 識別器
10 画像取得部
20 画像解析部
30 報知部
100 運転支援装置
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 通信インターフェイス
200 車載カメラ
201 撮像面
202、202a、202b レンズ
300 車載モニタ
D1 識別器
Claims (9)
- 車両の周辺道路に存在する物体を検出する運転支援装置であって、
前記車両に搭載された前記周辺道路を撮影する車載カメラから画像を取得する画像取得部と、
学習済みの識別器を用いて、前記画像から物体候補を検出する画像解析部と、
前記画像解析部で検出された前記物体候補の信頼度が閾値以上か否かを判定し、当該信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部と、
を備え、
前記報知部は、前記物体候補の前記画像内における位置又はサイズに基づいて、当該物体候補の判定に適用する前記閾値を設定する、
運転支援装置。 - 前記報知部は、前記物体候補の前記画像内における位置又はサイズから推定される当該物体候補と前記車両との間の距離が所定距離以上の場合、前記距離が前記所定距離未満の場合よりも、前記閾値を小さくする、
請求項1に記載の運転支援装置。 - 前記報知部は、前記距離が長くなるほど、前記閾値を小さくする、
請求項2に記載の運転支援装置。 - 前記報知部は、前記物体候補の前記画像内における位置が前記画像の下端から前記画像内の地平線推定位置に近づくほど、前記距離が長いと推定する、
請求項2又は3に記載の運転支援装置。 - 前記報知部は、前記物体候補の前記画像内におけるサイズが、当該物体候補に係る種別の基準サイズと比較して小さくなるほど、前記距離が長いと推定する、
請求項2乃至4のいずれか一項に記載の運転支援装置。 - 前記報知部は、前記物体候補の前記画像内における位置及びサイズの両方に基づいて、当該物体候補を報知対象とするか否かを判定するための前記閾値を設定する、
請求項1乃至5のいずれか一項に記載の運転支援装置。 - 前記報知部は、前記物体候補の前記画像内における位置が前記周辺道路の道路領域外である場合、前記物体候補の前記画像内における位置が前記周辺道路の道路領域内である場合よりも、前記閾値を大きくする、
請求項1乃至6のいずれか一項に記載の運転支援装置。 - 前記車載カメラは、ステレオカメラである、
請求項1乃至7のいずれか一項に記載の運転支援装置。 - 前記識別器は、畳み込みニューラルネットワークである、
請求項1乃至8のいずれか一項に記載の運転支援装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019151161A JP2021033510A (ja) | 2019-08-21 | 2019-08-21 | 運転支援装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019151161A JP2021033510A (ja) | 2019-08-21 | 2019-08-21 | 運転支援装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2021033510A true JP2021033510A (ja) | 2021-03-01 |
Family
ID=74677445
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019151161A Pending JP2021033510A (ja) | 2019-08-21 | 2019-08-21 | 運転支援装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2021033510A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022044396A1 (ja) * | 2020-08-28 | 2022-03-03 | 株式会社Jvcケンウッド | オブジェクト認識制御装置、およびオブジェクト認識方法 |
| WO2022220126A1 (ja) * | 2021-04-13 | 2022-10-20 | 株式会社Screenホールディングス | 基板処理装置、基板処理システム、及びデータ処理方法 |
| WO2023090274A1 (ja) * | 2021-11-18 | 2023-05-25 | オムロン株式会社 | 作業認識装置、作業認識方法、及び作業認識プログラム |
| JP2023084284A (ja) * | 2021-12-07 | 2023-06-19 | 株式会社デンソーテン | 物体検知装置、物体検知方法および物体検知プログラム |
| WO2023228364A1 (ja) * | 2022-05-26 | 2023-11-30 | 日本電信電話株式会社 | 物体検出装置、物体検出方法、及び物体検出プログラム |
-
2019
- 2019-08-21 JP JP2019151161A patent/JP2021033510A/ja active Pending
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022044396A1 (ja) * | 2020-08-28 | 2022-03-03 | 株式会社Jvcケンウッド | オブジェクト認識制御装置、およびオブジェクト認識方法 |
| WO2022220126A1 (ja) * | 2021-04-13 | 2022-10-20 | 株式会社Screenホールディングス | 基板処理装置、基板処理システム、及びデータ処理方法 |
| JP2022162709A (ja) * | 2021-04-13 | 2022-10-25 | 株式会社Screenホールディングス | 基板処理装置、基板処理システム、及びデータ処理方法 |
| JP7601692B2 (ja) | 2021-04-13 | 2024-12-17 | 株式会社Screenホールディングス | 基板処理装置、基板処理システム、及びデータ処理方法 |
| WO2023090274A1 (ja) * | 2021-11-18 | 2023-05-25 | オムロン株式会社 | 作業認識装置、作業認識方法、及び作業認識プログラム |
| JP2023074948A (ja) * | 2021-11-18 | 2023-05-30 | オムロン株式会社 | 作業認識装置、作業認識方法、及び作業認識プログラム |
| JP7746824B2 (ja) | 2021-11-18 | 2025-10-01 | オムロン株式会社 | 作業認識装置、作業認識方法、及び作業認識プログラム |
| JP2023084284A (ja) * | 2021-12-07 | 2023-06-19 | 株式会社デンソーテン | 物体検知装置、物体検知方法および物体検知プログラム |
| WO2023228364A1 (ja) * | 2022-05-26 | 2023-11-30 | 日本電信電話株式会社 | 物体検出装置、物体検出方法、及び物体検出プログラム |
| JPWO2023228364A1 (ja) * | 2022-05-26 | 2023-11-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12315181B2 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
| JP2021033510A (ja) | 運転支援装置 | |
| EP3229041B1 (en) | Object detection using radar and vision defined image detection zone | |
| US8126210B2 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
| US20190251374A1 (en) | Travel assistance device and computer program | |
| US9245188B2 (en) | Lane detection system and method | |
| JP6670071B2 (ja) | 車両用画像認識システム、及び対応法 | |
| CN107038723B (zh) | 棒状像素估计方法和系统 | |
| US11157753B2 (en) | Road line detection device and road line detection method | |
| JP5297078B2 (ja) | 車両の死角における移動物体を検知するための方法、および死角検知装置 | |
| CN104584076B (zh) | 图像处理装置以及图像处理方法 | |
| JP4173902B2 (ja) | 車両周辺監視装置 | |
| KR100816377B1 (ko) | 호프 변환을 이용한 주차구획 인식 방법, 장치 및 그를이용한 주차 보조 시스템 | |
| WO2018142900A1 (ja) | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム | |
| CN106183979A (zh) | 一种根据车距对车辆进行提醒的方法和装置 | |
| Liu et al. | Vehicle detection and ranging using two different focal length cameras | |
| KR20220160850A (ko) | 소실점을 추정하는 방법 및 장치 | |
| CN113674245B (zh) | 一种目标停车位的确定方法、装置、电子设备及存储介质 | |
| JP2017181476A (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
| JP2006090957A (ja) | 移動体の周囲物体検出装置及び移動体の周囲物体検出方法 | |
| CN119099338A (zh) | 一种图像显示方法、装置、车辆和计算机可读存储介质 | |
| JP4151631B2 (ja) | 物体検出装置 | |
| CN116863445A (zh) | 一种碰撞预测时间计算方法及分布式视觉碰撞感知系统 | |
| JP2005148784A (ja) | 路面走行レーン検出装置 | |
| JP4719605B2 (ja) | 対象物検出用データ生成装置、方法及びプログラム並びに対象物検出装置、方法及びプログラム |