[go: up one dir, main page]

JP2021032678A - Device and method for estimating attitude - Google Patents

Device and method for estimating attitude Download PDF

Info

Publication number
JP2021032678A
JP2021032678A JP2019152642A JP2019152642A JP2021032678A JP 2021032678 A JP2021032678 A JP 2021032678A JP 2019152642 A JP2019152642 A JP 2019152642A JP 2019152642 A JP2019152642 A JP 2019152642A JP 2021032678 A JP2021032678 A JP 2021032678A
Authority
JP
Japan
Prior art keywords
estimation
camera
priority
posture
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019152642A
Other languages
Japanese (ja)
Other versions
JP7236352B2 (en
Inventor
康司 大西
Yasushi Onishi
康司 大西
隆幸 小笹
Takayuki Ozasa
隆幸 小笹
直士 垣田
Naoshi Kakita
直士 垣田
輝彦 上林
Teruhiko Kamibayashi
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019152642A priority Critical patent/JP7236352B2/en
Publication of JP2021032678A publication Critical patent/JP2021032678A/en
Application granted granted Critical
Publication of JP7236352B2 publication Critical patent/JP7236352B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a technique that can reduce the difference of times taken to grasp the attitudes of cameras equipped in a mobile body.SOLUTION: An attitude estimation device 1 includes: an acquisition unit 11 for acquiring images by cameras 21 to 24 equipped in a mobile body; an estimation unit 121 for performing estimating processing of estimating the attitudes of the cameras on the basis of the images; and a setting unit 123 for setting the priority of the estimation processing for each camera on the basis of the number of acquisition of the estimation results acquired by the estimation processing for each camera.SELECTED DRAWING: Figure 1

Description

本発明は、姿勢推定装置および姿勢推定方法に関する。 The present invention relates to a posture estimation device and a posture estimation method.

従来、車載カメラの取付け位置や取付け角度などの外部パラメータを自動的に校正する車載カメラのキャリブレーション装置が知られる(例えば、特許文献1参照)。 Conventionally, there is known an in-vehicle camera calibration device that automatically calibrates external parameters such as an in-vehicle camera mounting position and mounting angle (see, for example, Patent Document 1).

特許文献1に開示されるキャリブレーション装置は、車両状態判定部と、カメラ毎処理部と、動作制御部とを備える。車両状態判定部は、外部から入力される車両情報から車両状態を判定する。カメラ毎処理部は、カメラのそれぞれに対して配置されており、カメラのそれぞれからの入力情報を処理する。動作制御部は、車両状態判定部からの判定結果と、カメラ毎処理部からの出力から、各カメラの動作モードを決定し、どのカメラの校正を優先するかの判断を行う。カメラ毎処理部は、カメラが撮影した画像から特徴点の現れ方を判断し動作制御部に伝える。 The calibration device disclosed in Patent Document 1 includes a vehicle state determination unit, a camera-by-camera processing unit, and an operation control unit. The vehicle condition determination unit determines the vehicle condition from the vehicle information input from the outside. The processing unit for each camera is arranged for each of the cameras, and processes the input information from each of the cameras. The motion control unit determines the operation mode of each camera from the determination result from the vehicle state determination unit and the output from the processing unit for each camera, and determines which camera to prioritize calibration. The processing unit for each camera determines how the feature points appear from the image taken by the camera and informs the operation control unit.

特開2018−177004号公報JP-A-2018-177004

例えば走行する路面の状態等により、複数のカメラ間で取得することができる特徴点の数に偏りが生じることがある。このような場合、複数のカメラ間でカメラの取付け状態(姿勢)の把握に要する時間に大きな差が生じる可能性がある。 For example, the number of feature points that can be acquired among a plurality of cameras may be biased depending on the condition of the road surface on which the vehicle travels. In such a case, there may be a large difference in the time required for grasping the mounting state (posture) of the cameras among the plurality of cameras.

ところで、例えば自動駐車時等には、通常、複数のカメラが同時に使用される。このために、複数のカメラのそれぞれは、自動駐車等の開始時点で、カメラの姿勢が把握されていることが望まれる。これにより、使用予定の全カメラを用いて安全に自動駐車等の自動運転を行うことができる。すなわち、同時使用される複数のカメラがある場合、同時使用される全てのカメラ間でカメラの姿勢の把握に要する時間の差を小さくすることが望まれる。 By the way, for example, at the time of automatic parking, a plurality of cameras are usually used at the same time. For this reason, it is desirable that the posture of each of the plurality of cameras is grasped at the start of automatic parking or the like. As a result, automatic driving such as automatic parking can be safely performed using all the cameras to be used. That is, when there are a plurality of cameras used at the same time, it is desired to reduce the difference in time required for grasping the posture of the cameras among all the cameras used at the same time.

本発明は、上記の課題に鑑み、移動体に搭載される複数のカメラ間でカメラの姿勢の把握に要する時間の差を小さくすることができる技術を提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide a technique capable of reducing the difference in time required for grasping the posture of a plurality of cameras mounted on a moving body.

上記目的を達成するために本発明の姿勢推定装置は、移動体に搭載される複数のカメラのそれぞれから撮影画像を取得する取得部と、前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定部と、前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定部と、を備える構成(第1の構成)になっている。 In order to achieve the above object, the posture estimation device of the present invention performs the captured image with an acquisition unit that acquires captured images from each of a plurality of cameras mounted on the moving body and an estimation process that estimates the posture of the cameras. A configuration including an estimation unit that is performed based on the above, and a setting unit that sets the priority of the estimation process for each camera based on the number of estimation results acquired by the estimation process performed for each camera. (First configuration).

また、上記第1の構成の姿勢推定装置において、前記設定部は、前記カメラ毎の前記獲得数の累積値の比較結果に基づいて前記優先度を設定する構成(第2の構成)であることが好ましい。 Further, in the posture estimation device having the first configuration, the setting unit has a configuration (second configuration) in which the priority is set based on the comparison result of the cumulative values of the acquired numbers for each camera. Is preferable.

また、上記第1又は第2の構成の姿勢推定装置は、前記獲得数の累積値が所定の複数回数以上に到達した前記カメラについて、複数の前記推定結果に基づいて前記姿勢の推定を確定させる確定部を更に備える構成(第3の構成)であることが好ましい。 Further, the posture estimation device having the first or second configuration determines the estimation of the posture based on the plurality of estimation results for the camera in which the cumulative value of the acquired number reaches a predetermined plurality of times or more. It is preferable that the configuration further includes a fixing portion (third configuration).

また、上記第3の構成の姿勢推定装置において、前記設定部は、前記姿勢の推定が確定された前記カメラが発生すると、前記優先度を変更する構成(第4の構成)であることが好ましい。 Further, in the posture estimation device having the third configuration, it is preferable that the setting unit has a configuration (fourth configuration) in which the priority is changed when the camera whose posture estimation is confirmed is generated. ..

また、上記第1から第4のいずれかの構成の姿勢推定装置において、前記設定部は、前記カメラ毎に得られる前記獲得数の累積値の、最大数と最小数との差が所定閾値以上になると前記優先度を変更する構成(第5の構成)であることが好ましい。 Further, in the posture estimation device having any of the first to fourth configurations, in the setting unit, the difference between the maximum number and the minimum number of the cumulative values of the acquired numbers obtained for each camera is equal to or larger than a predetermined threshold value. When it becomes, it is preferable that the configuration is such that the priority is changed (fifth configuration).

また、上記第5の構成の姿勢推定装置において、前記設定部は、前記最大数と前記最小数との差が前記所定閾値以上になった後に前記所定閾値より小さくなった場合に前記優先度を変更する構成(第6の構成)であることが好ましい。 Further, in the posture estimation device having the fifth configuration, the setting unit sets the priority when the difference between the maximum number and the minimum number becomes smaller than the predetermined threshold value after becoming equal to or larger than the predetermined threshold value. It is preferable that the configuration is changed (sixth configuration).

また、上記第1から第4のいずれかの構成の姿勢推定装置は、前記複数のカメラの中に、前記獲得数以外に基づく優先条件を有するカメラが存在するか否かを判断する判断部を更に備え、前記設定部は、前記優先条件を有するカメラが存在する場合に、前記優先条件に基づいて前記優先度を設定する構成(第7の構成)であってよい。 Further, the posture estimation device having any of the first to fourth configurations includes a determination unit for determining whether or not a camera having a priority condition other than the acquired number exists among the plurality of cameras. Further, the setting unit may have a configuration (seventh configuration) in which the priority is set based on the priority condition when a camera having the priority condition exists.

また、上記第1から第7のいずれかの構成の姿勢推定装置において、前記設定部は、所定のタイミングで前記優先度の変更を行うか否かを確認し、前記所定のタイミングは、前記推定処理の順番が前記複数のカメラの全てに1回ずつ与えられる毎に発生し、前記複数のカメラの中に前記優先度の設定により前記順番が飛ばされるカメラがある場合には、当該カメラに前記順番が与えられたとみなして前記所定のタイミングが判断される構成(第8の構成)であってよい。 Further, in the posture estimation device having any of the first to seventh configurations, the setting unit confirms whether or not to change the priority at a predetermined timing, and the predetermined timing is the estimation. When the order of processing is given to all of the plurality of cameras once, and there is a camera among the plurality of cameras whose order is skipped by the setting of the priority, the camera is described as described above. It may be a configuration (eighth configuration) in which the predetermined timing is determined on the assumption that the order is given.

また、上記目的を達成するために本発明の姿勢推定方法は、移動体に搭載される複数のカメラのそれぞれから撮影画像を取得する取得工程と、前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定工程と、前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定工程と、を備える構成(第9の構成)になっている。 Further, in order to achieve the above object, the posture estimation method of the present invention includes an acquisition step of acquiring captured images from each of a plurality of cameras mounted on a moving body and an estimation process of estimating the posture of the cameras. An estimation step performed based on a captured image, and a setting step of setting the priority of the estimation process for each camera based on the number of acquisitions of estimation results acquired by the estimation process performed for each camera. It has a configuration (nineth configuration) to be provided.

本発明によれば、移動体に搭載される複数のカメラ間でカメラの姿勢の把握に要する時間の差を小さくすることができる。 According to the present invention, it is possible to reduce the difference in time required for grasping the posture of a plurality of cameras mounted on a moving body.

第1実施形態に係る姿勢推定装置の構成を説明するための図The figure for demonstrating the structure of the posture estimation apparatus which concerns on 1st Embodiment. 第1実施形態の姿勢推定装置において、4つの車載カメラの姿勢の推定を行う場合に実行される処理の一例を示すフローチャートA flowchart showing an example of processing executed when estimating the postures of four in-vehicle cameras in the posture estimation device of the first embodiment. 第1実施形態の姿勢推定装置による姿勢の推定処理の一例を示すフローチャートA flowchart showing an example of posture estimation processing by the posture estimation device of the first embodiment. 特徴点の抽出について説明するための図Diagram for explaining the extraction of feature points オプティカルフローの導出について説明するための図Diagram for explaining the derivation of optical flow オプティカルフローから仮想的に形成される四角形を示す図Diagram showing a quadrangle virtually formed from an optical flow 所定の平面との交線が互いに平行になる面の組を2組特定する手法を説明するための図The figure for demonstrating the method of specifying two sets of planes whose intersection lines with a predetermined plane are parallel to each other. 特定した面の組の一方に基づき、面同士の交線の方向を求める手法を説明するための図A diagram for explaining a method of finding the direction of intersection between faces based on one of the specified sets of faces. 特定した面の組の他方に基づき、面同士の交線の方向を求める手法を説明するための図A diagram for explaining a method of finding the direction of intersection between faces based on the other side of the specified set of faces. 第1実施形態の姿勢推定装置における優先度変更の判定処理の一例を示すフローチャートA flowchart showing an example of a priority change determination process in the posture estimation device of the first embodiment. 第1実施形態の姿勢推定装置における優先度の設定について説明するための図The figure for demonstrating the setting of the priority in the posture estimation apparatus of 1st Embodiment. 第2実施形態に係る姿勢推定装置の構成を説明するための図The figure for demonstrating the structure of the posture estimation apparatus which concerns on 2nd Embodiment 第2実施形態の姿勢推定装置において、4つの車載カメラの姿勢の推定を行う場合に実行される処理の一例を示すフローチャートA flowchart showing an example of processing executed when estimating the postures of four in-vehicle cameras in the posture estimation device of the second embodiment. 第2実施形態の姿勢推定装置における優先度変更の判定処理の一例を示すフローチャートA flowchart showing an example of a priority change determination process in the posture estimation device of the second embodiment. 第2実施形態の姿勢推定装置における優先度の設定について説明するための図The figure for demonstrating the setting of the priority in the posture estimation apparatus of 2nd Embodiment.

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、移動体として車両を例にとり説明するが、移動体は車両に限定されない。車両には、例えば自動車、電車、無人搬送車等の車輪のついた乗り物が広く含まれる。車両以外の移動体として、例えば船舶や航空機等が挙げられる。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following description, a vehicle will be described as an example of a moving body, but the moving body is not limited to the vehicle. Vehicles include a wide range of vehicles with wheels, such as automobiles, trains, and automatic guided vehicles. Examples of moving objects other than vehicles include ships and aircraft.

また以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。 Further, in the following description, the direction in which the vehicle travels straight from the driver's seat to the steering wheel is referred to as the "forward direction". Further, the direction in which the vehicle travels straight from the steering wheel to the driver's seat is defined as the "rear direction". Further, the direction from the right side to the left side of the driver who is facing the front direction, which is the direction perpendicular to the straight traveling direction and the vertical straight line of the vehicle, is defined as the "left direction". Further, the direction from the left side to the right side of the driver who is facing the front direction, which is the direction perpendicular to the straight line and the vertical direction of the vehicle, is defined as the "right direction".

<1.第1実施形態>
図1は、第1実施形態に係る姿勢推定装置1の構成を説明するための図である。図1には、姿勢推定装置1に情報を入力する撮影部2および舵角センサ3も示されている。姿勢推定装置1は、撮影部2が搭載される車両ごとに備えられる。以下、姿勢推定装置1が備えられる車両のことを自車両と表現することがある。
<1. First Embodiment>
FIG. 1 is a diagram for explaining the configuration of the posture estimation device 1 according to the first embodiment. FIG. 1 also shows a photographing unit 2 and a steering angle sensor 3 for inputting information to the attitude estimation device 1. The posture estimation device 1 is provided for each vehicle on which the photographing unit 2 is mounted. Hereinafter, a vehicle provided with the posture estimation device 1 may be referred to as a own vehicle.

撮影部2は、車両周辺の状況を監視する目的で車両に設けられる。撮影部2は、複数のカメラ21〜24を備える。複数のカメラ21〜24は、車載カメラである。各車載カメラ21〜24は、車両に固定配置される。4つの車載カメラ21〜24は、それぞれ、姿勢推定装置1に有線又は無線により接続され、撮影画像を姿勢推定装置1に出力する。なお、各車載カメラ21〜24は、例えば経年劣化や外部からの衝撃等によって取付け位置や角度がずれることがある。姿勢推定装置1は、このような取付け状態の変化を監視することができる。 The photographing unit 2 is provided on the vehicle for the purpose of monitoring the situation around the vehicle. The photographing unit 2 includes a plurality of cameras 21 to 24. The plurality of cameras 21 to 24 are in-vehicle cameras. Each in-vehicle camera 21 to 24 is fixedly arranged on the vehicle. Each of the four vehicle-mounted cameras 21 to 24 is connected to the posture estimation device 1 by wire or wirelessly, and outputs a captured image to the posture estimation device 1. The mounting positions and angles of the in-vehicle cameras 21 to 24 may deviate due to, for example, deterioration over time or an impact from the outside. The posture estimation device 1 can monitor such a change in the mounting state.

詳細には、撮影部2は、フロントカメラ21と、バックカメラ22と、左サイドカメラ23と、右サイドカメラ24と、を備える。フロントカメラ21は、車両の前方を撮影するカメラである。バックカメラ22は、車両の後方を撮影するカメラである。左サイドカメラ23は、車両の左方を撮影するカメラである。右サイドカメラ24は、車両の右方を撮影するカメラである。各車載カメラ21〜24は、例えば魚眼レンズを用いて構成され、水平方向の画角θは180度以上である。このため、4つの車載カメラ21〜24によって、車両の水平方向における全周囲を撮影することができる。 Specifically, the photographing unit 2 includes a front camera 21, a back camera 22, a left side camera 23, and a right side camera 24. The front camera 21 is a camera that photographs the front of the vehicle. The back camera 22 is a camera that photographs the rear of the vehicle. The left side camera 23 is a camera that photographs the left side of the vehicle. The right side camera 24 is a camera that photographs the right side of the vehicle. Each of the vehicle-mounted cameras 21 to 24 is configured by using, for example, a fisheye lens, and has an angle of view θ in the horizontal direction of 180 degrees or more. Therefore, the four in-vehicle cameras 21 to 24 can capture the entire circumference of the vehicle in the horizontal direction.

なお、撮影部2が備えるカメラの数は、4つ以外の複数であってよい。例えば、バックでの駐車することを支援する目的で車載カメラが搭載されている場合には、撮影部2は、バックカメラ22、左サイドカメラ23、右サイドカメラ24の3つの車載カメラを備える構成であってよい。 The number of cameras included in the photographing unit 2 may be a plurality of cameras other than four. For example, when an in-vehicle camera is mounted for the purpose of supporting parking in the back, the photographing unit 2 includes three in-vehicle cameras, a back camera 22, a left side camera 23, and a right side camera 24. It may be.

舵角センサ3は、姿勢推定装置1および撮影部2が搭載される車両に備えられ、当該車両のステアリングホイール(ハンドル)の回転角を検出する。舵角センサ3の出力は、CAN(Controller Area Network)バス等の通信バスB1を介して姿勢推定装置1に入力される。 The steering angle sensor 3 is provided in a vehicle on which the attitude estimation device 1 and the photographing unit 2 are mounted, and detects the rotation angle of the steering wheel (steering wheel) of the vehicle. The output of the steering angle sensor 3 is input to the attitude estimation device 1 via a communication bus B1 such as a CAN (Controller Area Network) bus.

図1に示すように、姿勢推定装置1は、取得部11と、制御部12と、記憶部13と、を備える。 As shown in FIG. 1, the posture estimation device 1 includes an acquisition unit 11, a control unit 12, and a storage unit 13.

取得部11は、複数の車載カメラ21〜24のそれぞれから撮影画像を取得する。取得部11は、車載カメラ21〜24からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。すなわち、取得部11によって取得される撮影画像の集合体が車載カメラ21〜24で撮影された動画像である。そして、取得した撮影画像がアナログの場合には、取得部11は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部11は、取得した撮影画像、或いは、取得及び変換した撮影画像を制御部12に出力する。取得部11から出力される1つの撮影画像が1つのフレーム画像となる。 The acquisition unit 11 acquires captured images from each of the plurality of vehicle-mounted cameras 21 to 24. The acquisition unit 11 continuously acquires analog or digital captured images from the vehicle-mounted cameras 21 to 24 at a predetermined cycle (for example, a 1/30 second cycle). That is, the aggregate of the captured images acquired by the acquisition unit 11 is a moving image captured by the in-vehicle cameras 21 to 24. Then, when the acquired captured image is analog, the acquisition unit 11 converts the analog captured image into a digital captured image (A / D conversion). The acquisition unit 11 outputs the acquired photographed image or the acquired and converted photographed image to the control unit 12. One captured image output from the acquisition unit 11 becomes one frame image.

制御部12は、例えばマイクロコンピュータであり、姿勢推定装置1の全体を統括的に制御する。制御部12は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部13は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、ファームウェアとしてのプログラムや各種のデータを記憶する。 The control unit 12 is, for example, a microcomputer, and controls the entire posture estimation device 1 in an integrated manner. The control unit 12 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) (not shown). The storage unit 13 is, for example, a non-volatile memory such as a flash memory, and stores various types of information. The storage unit 13 stores a program as firmware and various data.

図1に示す推定部121、確定部122、および、設定部123は、制御部12のCPUが記憶部13に記憶されるプログラムに従って演算処理を実行することにより実現される制御部12の機能である。言い換えると、姿勢推定装置1は、推定部121と、確定部122と、設定部123とを備える。 The estimation unit 121, the determination unit 122, and the setting unit 123 shown in FIG. 1 are functions of the control unit 12 realized by the CPU of the control unit 12 executing arithmetic processing according to a program stored in the storage unit 13. is there. In other words, the posture estimation device 1 includes an estimation unit 121, a determination unit 122, and a setting unit 123.

なお、制御部12の推定部121、確定部122、および、設定部123の少なくともいずれか一つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、推定部121、確定部122、および、設定部123は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。また、取得部11は、制御部12のCPUがプログラムに従って演算処理を行うことによって実現される構成でもよい。 At least one of the estimation unit 121, the confirmation unit 122, and the setting unit 123 of the control unit 12 is composed of hardware such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array). May be good. Further, the estimation unit 121, the determination unit 122, and the setting unit 123 are conceptual components. The functions executed by one component may be distributed to a plurality of components, or the functions of the plurality of components may be integrated into one component. Further, the acquisition unit 11 may be configured to be realized by the CPU of the control unit 12 performing arithmetic processing according to a program.

推定部121は、車載カメラ21〜24の姿勢を推定する推定処理を、撮影画像に基づいて行う。詳細には、推定部121は、各車載カメラ21〜24毎に姿勢の推定処理を行う。複数の車載カメラ21〜24の姿勢の推定処理は順番に行われる。姿勢の推定処理を行う順番については後述する。推定部121は、4つの車載カメラ21〜24のいずれか1つの姿勢の推定を行う場合、姿勢の推定を行うカメラから取得した撮影画像に基づいて推定処理を行う。例えば、推定部121は、フロントカメラ21の姿勢の推定を行う場合、フロントカメラ21から得られる撮影画像に基づいて推定処理を行う。 The estimation unit 121 performs an estimation process for estimating the postures of the in-vehicle cameras 21 to 24 based on the captured image. Specifically, the estimation unit 121 performs posture estimation processing for each of the vehicle-mounted cameras 21 to 24. The posture estimation processing of the plurality of vehicle-mounted cameras 21 to 24 is performed in order. The order in which the posture estimation processing is performed will be described later. When estimating the posture of any one of the four in-vehicle cameras 21 to 24, the estimation unit 121 performs the estimation process based on the captured image acquired from the camera that estimates the posture. For example, when estimating the posture of the front camera 21, the estimation unit 121 performs the estimation process based on the captured image obtained from the front camera 21.

なお、姿勢の推定は、例えば、車載カメラ21〜24の取付け角度等、取付け状態に関する値の推定値を求める構成であってよい。ただし、姿勢の推定は、取付け状態に関する具体的な推定値を求めるのではなく、姿勢が所定の状態から変化したか否かだけを推定する構成等であってもよい。本実施形態の姿勢の推定処理の詳細については後述する。 The posture may be estimated by obtaining an estimated value related to the mounting state, such as the mounting angle of the on-board cameras 21 to 24. However, the posture estimation may be configured to estimate only whether or not the posture has changed from a predetermined state, instead of obtaining a specific estimated value regarding the mounting state. The details of the posture estimation process of this embodiment will be described later.

確定部122は、姿勢の推定処理により獲得される推定結果の獲得数の累積値が所定の複数回数に到達したカメラについて、複数の推定結果に基づいて姿勢の推定を確定させる。すなわち、本実施形態においては、各車載カメラ21〜24について、姿勢の推定結果が1つ得られただけでは、姿勢の推定は確定されない。本実施形態においては、各車載カメラ21〜24について、姿勢の推定結果が所定の複数回数以上得られた場合に、獲得された複数の推定結果に基づいて姿勢の推定を確定させる。これによれば、姿勢推定装置1から誤った推定姿勢が出力される可能性を低減することができる。 The confirmation unit 122 confirms the posture estimation based on the plurality of estimation results for the camera in which the cumulative value of the acquired number of the estimation results acquired by the posture estimation process reaches a predetermined plurality of times. That is, in the present embodiment, the posture estimation is not finalized only by obtaining one posture estimation result for each of the vehicle-mounted cameras 21 to 24. In the present embodiment, when the posture estimation results are obtained a predetermined number of times or more for each of the vehicle-mounted cameras 21 to 24, the posture estimation is determined based on the acquired plurality of estimation results. According to this, it is possible to reduce the possibility that an erroneous estimated posture is output from the posture estimation device 1.

なお、姿勢の推定結果は、例えば姿勢の推定値等、姿勢状態に関する推定情報を含む。換言すると、姿勢状態に関する推定情報が得られなかった場合には、姿勢の推定結果が獲得されたとみなさない。 The posture estimation result includes estimation information regarding the posture state, such as an estimated value of the posture. In other words, if the estimation information regarding the posture state is not obtained, it is not considered that the estimation result of the posture has been acquired.

また、姿勢の推定を確定させるために用いられる複数の推定結果の数は、所定の複数回数と同じでもよいが、異なってもよい。また、所定の複数回数は、例えば実験結果等に基づいて適宜設定されればよい。所定の複数回数は、姿勢推定の確定結果をできるだけ正確としつつ、姿勢推定の確定結果が得られるまでの時間が長くなりすぎないように設定されることが好ましい。また、本実施形態では、所定の複数回数は、全ての車載カメラ21〜24で同じとされている。ただし、所定の複数回数は、各車載カメラ21〜24毎に別々に設定されてもよい。すなわち、所定の複数回数は、複数の車載カメラ21〜24間で、互いに異なる数であってもよい。 Further, the number of the plurality of estimation results used to determine the posture estimation may be the same as the predetermined plurality of times, but may be different. In addition, the predetermined plurality of times may be appropriately set based on, for example, experimental results. It is preferable that the predetermined plurality of times are set so that the final result of the posture estimation is as accurate as possible and the time until the final result of the posture estimation is obtained is not too long. Further, in the present embodiment, the predetermined plurality of times are the same for all the in-vehicle cameras 21 to 24. However, the predetermined plurality of times may be set separately for each of the in-vehicle cameras 21 to 24. That is, the predetermined plurality of times may be different numbers among the plurality of in-vehicle cameras 21 to 24.

設定部123は、車載カメラ21〜24毎の姿勢の推定処理の優先度を、車載カメラ21〜24毎に行われる姿勢の推定処理により獲得される推定結果の獲得数に基づいて設定する。詳細には、設定部123は、車載カメラ21〜24毎の、推定結果の獲得数の累積値の比較結果に基づいて、車載カメラ21〜24毎の推定処理の優先度を設定する。設定には、初期の設定、および、その後に行われる変更設定が含まれてよい。 The setting unit 123 sets the priority of the posture estimation process for each of the vehicle-mounted cameras 21 to 24 based on the number of acquired estimation results obtained by the posture estimation process performed for each of the vehicle-mounted cameras 21 to 24. Specifically, the setting unit 123 sets the priority of the estimation process for each of the vehicle-mounted cameras 21 to 24 based on the comparison result of the cumulative value of the number of acquired estimation results for each of the vehicle-mounted cameras 21 to 24. The settings may include initial settings and subsequent change settings.

本実施形態によれば、例えば、複数の車載カメラ21〜24間において、姿勢の推定結果の獲得数が他に比べて極端に多かったり、少なかったりするカメラが生じた場合に、優先度を調整して推定結果の獲得数の差が大きくなり過ぎることを抑制できる。本実施形態によれば、姿勢推定の確定結果を得られるタイミングを複数の車載カメラ21〜24間でできるだけ近づけることができる。例えば、自車両が複数の車載カメラ21〜24を用いて自動運転が行われる設定となっている場合、本実施形態の姿勢推定装置1を用いれば、全ての車載カメラ21〜24の姿勢が把握できた安全な状態で自動運転を開始できる可能性を高めることができる。 According to the present embodiment, for example, when there is a camera in which the number of acquired posture estimation results is extremely large or small compared to the others among a plurality of in-vehicle cameras 21 to 24, the priority is adjusted. Therefore, it is possible to prevent the difference in the number of acquisitions of the estimation results from becoming too large. According to the present embodiment, the timing at which the final result of the posture estimation can be obtained can be made as close as possible between the plurality of in-vehicle cameras 21 to 24. For example, when the own vehicle is set to automatically drive using a plurality of in-vehicle cameras 21 to 24, the attitudes of all the in-vehicle cameras 21 to 24 can be grasped by using the posture estimation device 1 of the present embodiment. It is possible to increase the possibility that automatic operation can be started in a safe state.

本実施形態では、優先度が上げられると、姿勢の推定処理を実行する頻度が多くされる。また、優先度が下げられると、姿勢の推定処理を実行する頻度が少なくされる。優先度の設定に関する処理の詳細については後述する。 In the present embodiment, when the priority is raised, the frequency of executing the posture estimation process is increased. Further, when the priority is lowered, the frequency of executing the posture estimation process is reduced. The details of the process related to the priority setting will be described later.

設定部123は、所定のタイミングで優先度の変更を行うか否かを確認する。本実施形態では、所定のタイミングは、姿勢の推定処理の順番が複数(具体的には4つ)の車載カメラ21〜24の全てに1回ずつ与えられる毎に発生する。ただし、複数の車載カメラ21〜24の中に優先度の設定により順番が飛ばされるカメラがある場合には、当該カメラに順番が与えられたとみなして所定のタイミングは判断される。このように構成することにより、優先度の変更を適切なタイミングで行うことができる。 The setting unit 123 confirms whether or not to change the priority at a predetermined timing. In the present embodiment, the predetermined timing occurs every time the posture estimation process is given once to all of the plurality of (specifically, four) vehicle-mounted cameras 21 to 24. However, if there is a camera whose order is skipped by setting the priority among the plurality of in-vehicle cameras 21 to 24, it is considered that the order is given to the camera, and the predetermined timing is determined. With this configuration, the priority can be changed at an appropriate timing.

図2は、第1実施形態の姿勢推定装置1において、4つの車載カメラ21〜24の姿勢の推定を行う場合に実行される処理の一例を示すフローチャートである。図2の処理の開始時においては、姿勢の推定結果の獲得数は、4つの車載カメラ21〜24のいずれもゼロであり、4つの車載カメラ21〜24の間で差がない。このために、4つの車載カメラ21〜24毎の姿勢の推定処理の優先度は同じとしている。すなわち、図2の処理の開始時において、4つの車載カメラ21〜24の姿勢の推定処理の頻度には差がない。図2の処理の開始時において、4つの車載カメラ21〜24に対して等しく順番が与えられる。4つの車載カメラ21〜24に対して、予め決められた順番で、姿勢の推定処理が行われる。 FIG. 2 is a flowchart showing an example of processing executed when the posture estimation device 1 of the first embodiment estimates the postures of the four in-vehicle cameras 21 to 24. At the start of the process of FIG. 2, the number of acquired posture estimation results is zero for all of the four vehicle-mounted cameras 21 to 24, and there is no difference between the four vehicle-mounted cameras 21 to 24. For this reason, the priority of the posture estimation process for each of the four in-vehicle cameras 21 to 24 is the same. That is, at the start of the processing of FIG. 2, there is no difference in the frequency of the posture estimation processing of the four in-vehicle cameras 21 to 24. At the start of the process of FIG. 2, the four in-vehicle cameras 21 to 24 are given equal order. Posture estimation processing is performed on the four in-vehicle cameras 21 to 24 in a predetermined order.

ステップS1では、推定部121により、フロントカメラ21の姿勢の推定処理が行われる。フロントカメラ21の姿勢の推定処理が終わると、ステップS2に処理が進められる。ステップS2では、推定部121により、バックカメラ22の姿勢の推定処理が行われる。バックカメラ22の姿勢の推定処理が終わると、ステップS3に処理が進められる。ステップS3では、推定部121により、左サイドカメラ23の姿勢の推定処理が行われる。左サイドカメラ23の姿勢の推定処理が終わると、ステップS4に処理が進められる。ステップS4では、推定部121により、右サイドカメラ24の姿勢の推定処理が行われる。右サイドカメラ24の姿勢の推定処理が終わると、ステップS4に処理が進められる。 In step S1, the estimation unit 121 performs an estimation process of the posture of the front camera 21. When the posture estimation process of the front camera 21 is completed, the process proceeds to step S2. In step S2, the estimation unit 121 performs an estimation process of the posture of the back camera 22. When the posture estimation process of the back camera 22 is completed, the process proceeds to step S3. In step S3, the estimation unit 121 estimates the posture of the left side camera 23. When the posture estimation process of the left side camera 23 is completed, the process proceeds to step S4. In step S4, the estimation unit 121 performs an estimation process of the posture of the right side camera 24. When the posture estimation process of the right side camera 24 is completed, the process proceeds to step S4.

なお、本例では、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順番で姿勢の推定処理が行われる構成としているが、これは例示である。他の順番で姿勢の推定処理が行われてもよい。 In this example, the posture estimation process is performed in the order of the front camera 21, the back camera 22, the left side camera 23, and the right side camera 24, but this is an example. Posture estimation processing may be performed in another order.

ここで、車載カメラ21〜24の姿勢の推定処理について詳細に説明する。図3は、第1実施形態の姿勢推定装置1による姿勢の推定処理の一例を示すフローチャートである。図3は、図2のステップS1からステップS4における姿勢の推定処理の詳細を示す図である。姿勢の推定処理は、各車載カメラ21〜24で同様であるために、以下、フロントカメラ21の場合を例に姿勢の推定処理について説明する。 Here, the posture estimation process of the in-vehicle cameras 21 to 24 will be described in detail. FIG. 3 is a flowchart showing an example of the posture estimation process by the posture estimation device 1 of the first embodiment. FIG. 3 is a diagram showing details of the posture estimation process in steps S1 to S4 of FIG. Since the posture estimation process is the same for each of the in-vehicle cameras 21 to 24, the posture estimation process will be described below by taking the case of the front camera 21 as an example.

図3に示すように、まず、推定部121は、フロントカメラ21を搭載する自車両が直進しているか否かを監視する(ステップS11)。自車両が直進しているか否かは、例えば、舵角センサ3から得られるステアリングホイールの回転角情報に基づいて判断することができる。例えば、ステアリングホイールの回転角がゼロのときに自車両が完全にまっすぐに進むとした場合に、回転角がゼロの場合だけでなく、回転角がプラス方向とマイナス方向の一定範囲内の値である場合を含めて、自車両が直進していると判断してよい。なお、直進には、前方方向の直進と、後退方向の直進との両方が含まれる。 As shown in FIG. 3, first, the estimation unit 121 monitors whether or not the own vehicle equipped with the front camera 21 is traveling straight (step S11). Whether or not the own vehicle is traveling straight can be determined based on, for example, the rotation angle information of the steering wheel obtained from the steering angle sensor 3. For example, if the rotation angle of the steering wheel is zero and the vehicle moves completely straight, not only when the rotation angle is zero, but also when the rotation angle is within a certain range of the plus and minus directions. It may be determined that the own vehicle is traveling straight, including in some cases. It should be noted that the straight-ahead includes both a straight-ahead in the forward direction and a straight-ahead in the backward direction.

推定部121は、自車両の直進を検出するまで、ステップS11の監視を繰り返す。言い換えると、推定部121は、自車両が直進しない限り、姿勢の推定処理を進めない。これによれば、直進移動中における特徴点(詳細は後述する)の位置変化を用いて姿勢の推定が行われることになり、自車両の進行方向が曲がっている場合の情報を用いて姿勢の推定が行われないので、姿勢の推定処理が複雑になることを避けることができる。ただし、自車両の進行方向が曲がっているときの特徴点の位置変化を用いて、姿勢の推定処理が進められる構成としてもよい。 The estimation unit 121 repeats the monitoring in step S11 until it detects that the own vehicle is traveling straight. In other words, the estimation unit 121 does not proceed with the posture estimation process unless the own vehicle goes straight. According to this, the posture is estimated by using the position change of the feature point (details will be described later) during the straight-ahead movement, and the posture is estimated by using the information when the traveling direction of the own vehicle is bent. Since the estimation is not performed, it is possible to avoid complicating the posture estimation process. However, the posture estimation process may be advanced by using the position change of the feature point when the traveling direction of the own vehicle is bent.

本実施形態では、自車両が直進していると判断される場合(ステップS11でYes)、推定部121は、取得部11を介してフロントカメラ21から所定フレーム数の撮影画像を取得する(ステップS12)。推定部121は、例えば数フレームから数十フレームの撮影画像を取得する。 In the present embodiment, when it is determined that the own vehicle is traveling straight (Yes in step S11), the estimation unit 121 acquires a predetermined number of frames of captured images from the front camera 21 via the acquisition unit 11 (step). S12). The estimation unit 121 acquires, for example, captured images of several frames to several tens of frames.

次に、推定部121は、各フレーム画像に対して特徴点の抽出を行う(ステップS13)。特徴点は、撮影画像中のエッジの交点など、撮影画像において際立って検出できる点である。特徴点は、例えば路面に描かれた白線のエッジ、路面上のひび、路面上のしみ、路面上の砂利などである。本実施形態では、好ましい形態として、コーナーらしさを示すコーナー度が高い特徴点を抽出する。コーナーとは2つのエッジが交わる部分である。コーナー度は、例えばHarrisオペレータやKLT(Kanade-Lucas-Tomasi)トラッカーなどの公知の検出手法を用いて求めることができる。本実施形態では、4つの車載カメラ21〜24間で、特徴点の抽出条件は同じである。ただし、4つの車載カメラ21〜24間で、特徴点の抽出条件は異なってよい。 Next, the estimation unit 121 extracts feature points for each frame image (step S13). The feature point is a point that can be conspicuously detected in the captured image, such as an intersection of edges in the captured image. The feature points are, for example, the edge of a white line drawn on the road surface, cracks on the road surface, stains on the road surface, gravel on the road surface, and the like. In the present embodiment, as a preferred embodiment, feature points having a high degree of cornering, which are characteristic of corners, are extracted. A corner is the intersection of two edges. The degree of cornering can be determined by using a known detection method such as a Harris operator or a KLT (Kanade-Lucas-Tomasi) tracker. In the present embodiment, the extraction conditions of the feature points are the same among the four in-vehicle cameras 21 to 24. However, the extraction conditions of the feature points may be different among the four in-vehicle cameras 21 to 24.

図4は、推定部121による特徴点の抽出について説明するための図である。図4は、フロントカメラ21で撮影された撮影画像Pを模式的に示している。撮影画像Pは、自車両のボディが映り込む領域BOを含む。図4に示す例では、路面RSに描かれている制限速度を示す数字の部分にコーナー度が高い第1特徴点FP1及び第2特徴点FP2が存在する。このために、推定部121は、路面RS上に存在する第1特徴点FP1及び第2特徴点FP2を抽出する。 FIG. 4 is a diagram for explaining the extraction of feature points by the estimation unit 121. FIG. 4 schematically shows a captured image P captured by the front camera 21. The captured image P includes a region BO in which the body of the own vehicle is reflected. In the example shown in FIG. 4, the first feature point FP1 and the second feature point FP2 having a high degree of cornering are present in the numerical portion indicating the speed limit drawn on the road surface RS. For this purpose, the estimation unit 121 extracts the first feature point FP1 and the second feature point FP2 existing on the road surface RS.

なお、図4では、便宜的に2つの特徴点FP1、FP2のみが示されているが、コーナー度が所定の特徴点閾値を超える特徴点が存在すれば、これ以外にも特徴点は抽出される。逆に、コーナー度が所定の特徴点閾値を超える特徴点が存在しない場合には、特徴点は抽出されない。各フレーム画像において、特徴点が1つも抽出されないこともあり得る。 In FIG. 4, only two feature points FP1 and FP2 are shown for convenience, but if there is a feature point whose corner degree exceeds a predetermined feature point threshold value, other feature points are extracted. To. On the contrary, if there is no feature point whose corner degree exceeds a predetermined feature point threshold value, the feature point is not extracted. It is possible that no feature points are extracted in each frame image.

図3に戻って、推定部121は、全てのフレーム画像に対する特徴点の抽出処理が完了すると、オプティカルフローの導出を行う(ステップS14)。オプティカルフローは、異なる時刻で撮影された2つの撮影画像間における特徴点の動きを示す動きベクトルである。本例では、異なる時刻の間隔は、取得部11のフレーム周期と同一である。ただし、これに限らず、異なる時刻の間隔は、例えば、取得部11のフレーム周期の複数倍であってもよい。 Returning to FIG. 3, the estimation unit 121 derives the optical flow when the extraction processing of the feature points for all the frame images is completed (step S14). The optical flow is a motion vector showing the movement of feature points between two captured images taken at different times. In this example, the interval between different times is the same as the frame period of the acquisition unit 11. However, the present invention is not limited to this, and the interval between different times may be, for example, a plurality of times the frame period of the acquisition unit 11.

図5は、推定部121によるオプティカルフローの導出について説明するための図である。図5は、図4と同様に便宜的に示された模式図である。図5は、図4に示す撮影画像P(便宜的に前フレームPとする)の撮影後、1フレーム周期経過した後にフロントカメラ21で撮影された撮影画像P’(便宜的に現フレームP’とする)である。図4に示す撮影画像Pの撮影後、1フレーム周期の間、自車両は前方に直進している。図5に示す丸印FP1Pは、図4に示す前フレームPの撮影時点における第1特徴点FP1の位置を示す。図5に示す丸印FP2Pは、図4に示す前フレームPの撮影時点における第2特徴点FP2の位置を示す。 FIG. 5 is a diagram for explaining the derivation of the optical flow by the estimation unit 121. FIG. 5 is a schematic view shown for convenience as in FIG. FIG. 5 shows a photographed image P'(for convenience, the current frame P') taken by the front camera 21 after one frame cycle has elapsed after the photographed image P (referred to as the front frame P for convenience) shown in FIG. ). After the captured image P shown in FIG. 4 is captured, the own vehicle is traveling straight forward for one frame cycle. The circled FP1P shown in FIG. 5 indicates the position of the first feature point FP1 at the time of photographing the front frame P shown in FIG. The circled FP2P shown in FIG. 5 indicates the position of the second feature point FP2 at the time of photographing the front frame P shown in FIG.

図5に示すように、自車両が前方に直進すると、自車両の前方に存在する第1特徴点FP1及び第2特徴点FP2は自車両に近づく。すなわち、第1特徴点FP1及び第2特徴点FP2は、現フレームP’と前フレームPとで異なる位置に現れる。推定部121は、現フレームP’の第1特徴点FP1と前フレームPの第1特徴点FP1とを、その近傍の画素値に基づいて対応付け、対応付けた第1特徴点FP1のそれぞれの位置に基づいて、第1特徴点FP1のオプティカルフローOF1を導出する。同様に、推定部121は、現フレームP’の第2特徴点FP2と前フレームPの第2特徴点FP2とを、その近傍の画素値に基づいて対応付け、対応付けた第2特徴点FP2のそれぞれの位置に基づいて、第2特徴点FP2のオプティカルフローOF2を導出する。 As shown in FIG. 5, when the own vehicle goes straight ahead, the first feature point FP1 and the second feature point FP2 existing in front of the own vehicle approach the own vehicle. That is, the first feature point FP1 and the second feature point FP2 appear at different positions in the current frame P'and the previous frame P. The estimation unit 121 associates the first feature point FP1 of the current frame P'and the first feature point FP1 of the previous frame P based on the pixel values in the vicinity thereof, and associates the first feature points FP1 with each other. Based on the position, the optical flow OF1 of the first feature point FP1 is derived. Similarly, the estimation unit 121 associates and associates the second feature point FP2 of the current frame P'and the second feature point FP2 of the previous frame P based on the pixel values in the vicinity thereof, and associates the second feature point FP2. The optical flow OF2 of the second feature point FP2 is derived based on each position of.

なお、推定部121は、取得した複数のフレーム画像のそれぞれについて上述のようにしてオプティカルフローの導出を行う。また、各フレーム画像において2つより多くのオプティカルフローが得られる場合がある。このために、推定部121は、姿勢の推定に使うためのオプティカルフローの候補を複数得る場合がある。逆に、推定部121は、姿勢の推定に使うためのオプティカルフローの候補を得られない場合もある。 The estimation unit 121 derives the optical flow for each of the acquired plurality of frame images as described above. Also, more than two optical flows may be obtained for each frame image. For this reason, the estimation unit 121 may obtain a plurality of optical flow candidates to be used for posture estimation. On the contrary, the estimation unit 121 may not be able to obtain an optical flow candidate for use in estimating the posture.

図3に戻って、推定部121は、オプティカルフローの導出を行うと、以後に行われる処理に使用するオプティカルフローを所定の選択条件にしたがって選択する(ステップS15)。所定の選択条件は、以後に行われる姿勢の推定に適した、2つのオプティカルフローで構成される組が選択されるように設定される。所定の選択条件を満たす組が複数存在する場合には、所定の選択条件を満たす全ての組が選択される。所定の選択条件を満たす組の数は、撮影画像から抽出される特徴点の数等によって変動する。なお、所定の選択条件を満たす組が存在しない場合には、以後の処理を行うことができない。このために、姿勢の推定処理は終了される。この段階で姿勢の推定処理が終了された場合には、姿勢の推定結果は獲得されないことになる。本実施形態では、4つの車載カメラ21〜24間において、使用するオプティカルフローの選択条件は同じである。ただし、当該選択条件は、4つの車載カメラ21〜24間で異なってもよい。 Returning to FIG. 3, when the optical flow is derived, the estimation unit 121 selects the optical flow to be used for the subsequent processing according to a predetermined selection condition (step S15). The predetermined selection condition is set so that a set composed of two optical flows suitable for the subsequent estimation of the posture is selected. If there are a plurality of pairs satisfying a predetermined selection condition, all the pairs satisfying the predetermined selection condition are selected. The number of pairs satisfying a predetermined selection condition varies depending on the number of feature points extracted from the captured image and the like. If there is no set that satisfies the predetermined selection condition, the subsequent processing cannot be performed. Therefore, the posture estimation process is completed. If the posture estimation process is completed at this stage, the posture estimation result will not be acquired. In the present embodiment, the selection conditions of the optical flow to be used are the same among the four in-vehicle cameras 21 to 24. However, the selection conditions may differ among the four in-vehicle cameras 21 to 24.

ここで、ステップS15で選択された使用オプティカルフローの組に、図5に示す第1オプティカルフローOF1と第2オプティカルフローOF2との組が含まれるものして、ステップS16以降の処理について説明する。 Here, the set of the optical flow used selected in step S15 includes the set of the first optical flow OF1 and the second optical flow OF2 shown in FIG. 5, and the processing after step S16 will be described.

推定部121は、第1特徴点FP1のオプティカルフローOF1と第2特徴点FP2のオプティカルフローOF2を用いた処理を進める。推定部121は、特徴点に対し、記憶部13に記憶されているフロントカメラ21の内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。 The estimation unit 121 proceeds with processing using the optical flow OF1 of the first feature point FP1 and the optical flow OF2 of the second feature point FP2. The estimation unit 121 performs coordinate conversion on the feature points using the internal parameters of the front camera 21 stored in the storage unit 13. In the coordinate transformation, aberration correction and distortion correction of the front camera 21 are performed. Aberration correction is performed to correct distortion due to aberration in the optical system of the front camera 21. Specifically, it is the correction of distortion aberrations such as barrel distortion and pincushion distortion. The distortion correction is performed to correct the distortion of the optical system itself of the front camera 21. Specifically, it is fisheye correction. By the coordinate conversion, the coordinates of the feature points are converted into the coordinates obtained on the two-dimensional image when the subject is photographed by perspective projection.

特徴点の座標変換が行われると、推定部121は、図6に示すように、第1特徴点FP1のオプティカルフローOF1の始点を頂点SP1、第1特徴点FP1のオプティカルフローOF1の終点を頂点EP1、第2特徴点FP1のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点FP2のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する(ステップS16)。以降、説明のために四角形や、該四角形の辺などの幾何的要素を仮想的に形成して用いる。しかし、実際の処理では、特徴点の座標や直線の方向などのベクトル演算に基づき、同等の作用を持つ幾何的要素に基づかない処理としてもよい。 When the coordinate conversion of the feature points is performed, as shown in FIG. 6, the estimation unit 121 uses the start point of the optical flow OF1 of the first feature point FP1 as the apex SP1 and the end point of the optical flow OF1 of the first feature point FP1 as the apex. A square QL is virtually formed in which the start point of the optical flow OF2 of the EP1 and the second feature point FP1 is the vertex SP2, and the end point of the optical flow OF2 of the second feature point FP2 is the vertex EP (step S16). Hereinafter, for the sake of explanation, geometric elements such as a quadrangle and the sides of the quadrangle are virtually formed and used. However, in the actual processing, the processing may be based on vector operations such as the coordinates of feature points and the direction of a straight line, and may not be based on geometric elements having the same effect.

四角形QLが仮想的に形成されると、推定部121は、四角形QLと、記憶部13に記憶されているフロントカメラ21の内部パラメータとを用いて、三次元空間におけるフロントカメラ21の投影面IMG(図7参照)上に四角形QLを移動させ、投影面IMG上での四角形QL1を仮想的に生成する(ステップS17)。 When the quadrangle QL is virtually formed, the estimation unit 121 uses the quadrangle QL and the internal parameters of the front camera 21 stored in the storage unit 13 to display the projection surface IMG of the front camera 21 in the three-dimensional space. (See FIG. 7) The quadrangle QL is moved onto the projection plane IMG to virtually generate the quadrangle QL1 (step S17).

なお説明のため、以下のように辺を定義する。四角形QL1の第1辺SD1は、四角形QLにおいて、頂点SP1および頂点SP2を結んだ辺に対応する。つまり、前フレームPにおける第1特徴点FP1と第2特徴点FP2を結んだ辺に相当する。同様に、四角形QL1の第2辺SD2は、四角形QLにおいて、頂点SP2および頂点EP2を結んだ辺に対応する。つまり、第2特徴点FP2のオプティカルフローOF2に相当する。同様に、四角形QL1の第3辺SD3は、四角形QLにおいて、頂点EP1および頂点EP2を結んだ辺に対応する。つまり、現フレームP’における第1特徴点FP1と第2特徴点FP2とを結んだ辺に相当する。同様に、四角形QL1の第4辺SD4は、四角形QLにおいて、頂点SP1および頂点EP1を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1に相当する。 For the sake of explanation, the edges are defined as follows. The first side SD1 of the quadrangle QL1 corresponds to the side connecting the vertices SP1 and the vertices SP2 in the quadrangle QL. That is, it corresponds to the side connecting the first feature point FP1 and the second feature point FP2 in the front frame P. Similarly, the second side SD2 of the quadrangle QL1 corresponds to the side connecting the vertices SP2 and the vertices EP2 in the quadrangle QL. That is, it corresponds to the optical flow OF2 of the second feature point FP2. Similarly, the third side SD3 of the quadrangle QL1 corresponds to the side connecting the vertices EP1 and EP2 in the quadrangle QL. That is, it corresponds to the side connecting the first feature point FP1 and the second feature point FP2 in the current frame P'. Similarly, the fourth side SD4 of the quadrangle QL1 corresponds to the side connecting the vertices SP1 and the vertices EP1 in the quadrangle QL. That is, it corresponds to the optical flow OF1 of the first feature point FP1.

また、以下のように面を定義する(図7参照)。四角形QL1の第1辺SD1とフロントカメラ21の光学中心OCとが含まれる面を第1面F1とする。同様に、四角形QL1の第2辺SD2とフロントカメラ21の光学中心OCとが含まれる面を第2面F2とする。同様に、四角形QL1の第3辺SD3とフロントカメラ21の光学中心OCとが含まれる面を第3面F3とする。同様に、四角形QL1の第4辺SD4とフロントカメラ21の光学中心OCとが含まれる面を第4面F4とする。 In addition, the surface is defined as follows (see FIG. 7). The surface including the first side SD1 of the quadrangle QL1 and the optical center OC of the front camera 21 is defined as the first surface F1. Similarly, the surface including the second side SD2 of the quadrangle QL1 and the optical center OC of the front camera 21 is referred to as the second surface F2. Similarly, the surface including the third side SD3 of the quadrangle QL1 and the optical center OC of the front camera 21 is referred to as the third surface F3. Similarly, the surface including the fourth side SD4 of the quadrangle QL1 and the optical center OC of the front camera 21 is referred to as the fourth surface F4.

次に、推定部121は、所定の平面との交線が互いに平行になる面の組を2組特定する(ステップS18)。所定の平面とはあらかじめ平面の法線が分かっている面である。具体的には車両が移動を行っている平面であり、つまり路面である。所定の平面は、厳密な平面でなくてもよく、推定部121が所定の平面との交線が互いに平行になる面の組を2組特定する際に平面とみなすことができるものであればよい。 Next, the estimation unit 121 identifies two sets of faces whose lines of intersection with a predetermined plane are parallel to each other (step S18). A predetermined plane is a plane whose normal is known in advance. Specifically, it is a plane on which the vehicle is moving, that is, a road surface. The predetermined plane does not have to be a strict plane, and can be regarded as a plane when the estimation unit 121 identifies two sets of planes whose intersection lines with the predetermined plane are parallel to each other. Good.

本実施形態では、姿勢推定装置1は、自車両が直進している場合に、異なる時刻に撮影された2つの画像から特徴点を抽出し、該特徴点のオプティカルフローを算出する。また、該特徴点は路面などの所定の平面上に位置している静止物から抽出される。したがって、算出されるオプティカルフローは実世界上では、自車両に対する静止物の相対的な位置変化を表す。つまり向きが逆となった自車両の移動ベクトルである。 In the present embodiment, the posture estimation device 1 extracts feature points from two images taken at different times when the own vehicle is traveling straight, and calculates the optical flow of the feature points. Further, the feature points are extracted from a stationary object located on a predetermined plane such as a road surface. Therefore, the calculated optical flow represents the relative position change of the stationary object with respect to the own vehicle in the real world. That is, it is a movement vector of the own vehicle in the opposite direction.

四角形QL1の第2辺SD2と第4辺SD4とは、共に特徴点のオプティカルフローに対応するので、共に実世界上では自車両の移動ベクトルに相当する。したがって、路面上では互いに平行となると想定される。 Since the second side SD2 and the fourth side SD4 of the quadrangle QL1 both correspond to the optical flow of the feature points, they both correspond to the movement vector of the own vehicle in the real world. Therefore, it is assumed that they are parallel to each other on the road surface.

また、四角形QL1の第1辺SD1と第3辺SD3とは、共に特徴点同士の位置関係なので、実世界上では自車両の移動に伴う静止物同士の位置関係に相当する。移動前の位置関係が第1辺SD1に相当し、移動後の位置関係が第3辺SD3に相当する。このとき静止物の位置は変わらないため、移動前後で位置関係は変わらない。したがって、路面上ではこれも互いに平行となると想定される。 Further, since the first side SD1 and the third side SD3 of the quadrangle QL1 are both in the positional relationship between the feature points, they correspond to the positional relationship between the stationary objects accompanying the movement of the own vehicle in the real world. The positional relationship before the movement corresponds to the first side SD1, and the positional relationship after the movement corresponds to the third side SD3. At this time, since the position of the stationary object does not change, the positional relationship does not change before and after the movement. Therefore, it is assumed that they are also parallel to each other on the road surface.

したがって、推定部121は、路面との交線が平行な面として、第2面F2と第4面F4との組と、第1面F1と第3面F3との組と、の2つの組を特定する。つまり、推定部121は、オプティカルフローを含む面同士を1つの組とし、同時刻に撮影された特徴点を含む面同士を他の組として、計2つの組を特定する。 Therefore, the estimation unit 121 has two sets of a pair of the second surface F2 and the fourth surface F4 and a set of the first surface F1 and the third surface F3 as planes whose intersection lines with the road surface are parallel. To identify. That is, the estimation unit 121 specifies a total of two sets, with the faces including the optical flow as one set and the faces including the feature points photographed at the same time as another set.

なお、図7において四角形QL2は、現フレームP’の撮影時点での第1特徴点FP1の3次元空間(実世界)上の位置、現フレームP’の撮影時点での第2特徴点FP2の3次元空間上の位置、前フレームPの撮影時点での第1特徴点FP1の3次元空間上の位置、及び前フレームPの撮影時点での第2特徴点FP2の3次元空間上の位置を頂点とする四角形である。第1面F1は、四角形QL2の第1辺SD11を含む。同様に、第2面F2は四角形QL2の第2辺SD12を含み、第3面F3は四角形QL2の第3辺SD13を含み、第4面F4は四角形QL2の第4辺SD14を含む。このとき、上記のように四角形QL2は路面上に形成される平行四辺形であると想定される。 In FIG. 7, the square QL2 is the position of the first feature point FP1 at the time of shooting the current frame P'in the three-dimensional space (real world), and the second feature point FP2 at the time of shooting the current frame P'. The position on the three-dimensional space, the position on the three-dimensional space of the first feature point FP1 at the time of shooting the front frame P, and the position on the three-dimensional space of the second feature point FP2 at the time of shooting the front frame P. It is a quadrangle as the apex. The first surface F1 includes the first side SD11 of the quadrangle QL2. Similarly, the second surface F2 includes the second side SD12 of the quadrangle QL2, the third surface F3 includes the third side SD13 of the quadrangle QL2, and the fourth surface F4 includes the fourth side SD14 of the quadrangle QL2. At this time, as described above, the quadrangle QL2 is assumed to be a parallelogram formed on the road surface.

次に、推定部121は、路面の法線を算出する(ステップS19)。まず、推定部121は、先に特定した面の組の一方である第1面F1と第3面F3とに基づき、面同士の交線の方向を求める。詳細には、第1面F1と第3面F3との交線CL1の向きを求める(図8参照)。交線CL1の方向ベクトルV1は、第1面F1の法線ベクトル及び第3面F3の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部121は、第1面F1の法線ベクトルと第3面F3の法線ベクトルとの外積により、交線CL1の方向ベクトルV1を求める。第1面F1と第3面F3は、路面との交線が平行となるため、方向ベクトルV1は路面と平行になる。 Next, the estimation unit 121 calculates the normal of the road surface (step S19). First, the estimation unit 121 obtains the direction of the line of intersection between the surfaces based on the first surface F1 and the third surface F3, which are one of the previously specified sets of surfaces. Specifically, the direction of the line of intersection CL1 between the first surface F1 and the third surface F3 is obtained (see FIG. 8). The direction vector V1 of the line of intersection CL1 is a vector perpendicular to each of the normal vector of the first surface F1 and the normal vector of the third surface F3. Therefore, the estimation unit 121 obtains the direction vector V1 of the line of intersection CL1 by the outer product of the normal vector of the first surface F1 and the normal vector of the third surface F3. Since the line of intersection of the first surface F1 and the third surface F3 is parallel to the road surface, the direction vector V1 is parallel to the road surface.

同様に、推定部121は、先に特定した面の組の他方である第2面F2と第4面F4との交線の方向を求める。詳細には第2面F2と第4面F4との交線CL2の向きを求める(図9参照)。交線CL2の方向ベクトルV2は、第2面F2の法線ベクトル及び第4面F4の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部121は、第2面F2の法線ベクトルと第4面F4の法線ベクトルとの外積により、交線CL2の方向ベクトルV2を求める。第2面F2と第4面F4も同様に、路面との交線が平行となるため、方向ベクトルV2は路面と平行になる。 Similarly, the estimation unit 121 obtains the direction of the line of intersection between the second surface F2 and the fourth surface F4, which is the other side of the previously specified set of surfaces. Specifically, the direction of the line of intersection CL2 between the second surface F2 and the fourth surface F4 is obtained (see FIG. 9). The direction vector V2 of the line of intersection CL2 is a vector perpendicular to each of the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Therefore, the estimation unit 121 obtains the direction vector V2 of the line of intersection CL2 by the outer product of the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Similarly, the second surface F2 and the fourth surface F4 have parallel lines of intersection with the road surface, so that the direction vector V2 is parallel to the road surface.

推定部121は、方向ベクトルV1と方向ベクトルV2との外積により、四角形QL2の面の法線、すなわち路面の法線を算出する。推定部121が算出した路面の法線はフロントカメラ21のカメラ座標系で算出されるため、実際の路面の法線である垂直方向との違いから3次元空間の座標系を求め、路面に対するフロントカメラ21の姿勢を推定することができる。その推定結果から推定部121は自車両に対するフロントカメラ21の姿勢を推定する(ステップS20)。なお、ステップS19の算出処理は、例えば公知のARToolkitを利用して実行することができる。 The estimation unit 121 calculates the normal of the surface of the quadrangle QL2, that is, the normal of the road surface by the outer product of the direction vector V1 and the direction vector V2. Since the road surface normal calculated by the estimation unit 121 is calculated by the camera coordinate system of the front camera 21, the coordinate system of the three-dimensional space is obtained from the difference from the vertical direction which is the actual road surface normal, and the front with respect to the road surface. The posture of the camera 21 can be estimated. From the estimation result, the estimation unit 121 estimates the posture of the front camera 21 with respect to the own vehicle (step S20). The calculation process in step S19 can be executed using, for example, a known ARToolkit.

ステップS20における姿勢推定が終了すると、推定部121は、ステップS15で選択した全てのオプティカルフローの組について、姿勢の推定が完了したか否かを確認する(ステップS21)。全ての組に対して姿勢の推定が完了している場合には(ステップS21でYes)、図3に示すフローが終了する。一方、全ての組に対して姿勢の推定が完了していない場合には(ステップS21でNo)、ステップS16に戻ってステップS16以降の処理が繰り返される。 When the posture estimation in step S20 is completed, the estimation unit 121 confirms whether or not the posture estimation is completed for all the optical flow sets selected in step S15 (step S21). When the posture estimation is completed for all the groups (Yes in step S21), the flow shown in FIG. 3 ends. On the other hand, if the posture estimation is not completed for all the sets (No in step S21), the process returns to step S16 and the processes after step S16 are repeated.

姿勢推定装置1は、自車両の移動を利用して、自律的に所定の平面との交線が互いに平行になる面の組を2組特定することで、特徴点の抽出誤差のみが推定精度に影響するカメラの姿勢推定を行うことができる。すなわち、姿勢推定装置1は、誤差要因が少ないカメラの姿勢推定を行うことができる。したがって、姿勢推定装置1は、カメラの姿勢を精度良く推定することができる。 The attitude estimation device 1 autonomously identifies two sets of faces whose intersection lines with a predetermined plane are parallel to each other by using the movement of the own vehicle, so that only the extraction error of the feature points is estimated accuracy. It is possible to estimate the attitude of the camera that affects the image. That is, the posture estimation device 1 can estimate the posture of the camera with few error factors. Therefore, the posture estimation device 1 can accurately estimate the posture of the camera.

なお、上記の説明ではフロントカメラ21の光学中心OCと、四角形QL1の1つの辺を含む平面を特定するとしたがこの限りではない。当該平面の法線方向の特定をもって平面を特定するとしてもよい。例えば光学中心OCから各頂点への方向ベクトルの外積により平面の法線方向を求め、該法線方向によって面を特定するとしてもよい。この場合、第1面F1の法線方向と第3面F3の法線方向とを1つの組とし、第2面F2の法線方向と第4面F4の法線方向とを他の組として2つの組を特定するとよい。 In the above description, the optical center OC of the front camera 21 and the plane including one side of the quadrangle QL1 are specified, but this is not the case. The plane may be specified by specifying the normal direction of the plane. For example, the normal direction of the plane may be obtained from the outer product of the direction vectors from the optical center OC to each vertex, and the surface may be specified by the normal direction. In this case, the normal direction of the first surface F1 and the normal direction of the third surface F3 are regarded as one set, and the normal direction of the second surface F2 and the normal direction of the fourth surface F4 are regarded as another set. It is good to identify two pairs.

また、面は平行移動させてもよい。例えば第1面F1の代わりに、第1面F1を平行移動させた面を第3面F3と組としてもよい。平行移動しても所定の平面との交線の向きは変わらないからである。 Moreover, the surface may be translated. For example, instead of the first surface F1, the surface obtained by translating the first surface F1 may be paired with the third surface F3. This is because the direction of the line of intersection with a predetermined plane does not change even if the translation is performed.

図2に戻って、ステップS5では、確定部122が所定の条件に従って姿勢の推定を確定させる処理を行う。具体的には、確定部122は、4つの車載カメラ21〜24のそれぞれについて姿勢の推定結果の獲得数の累積値を求める。第1回目の姿勢の推定処理後においては、得られた獲得数が、そのまま累積値になる。第2回目以降においては、前回得られた累積値に、今回得られた獲得数を加算して獲得数の累積値が得られる。 Returning to FIG. 2, in step S5, the determination unit 122 performs a process of determining the posture estimation according to a predetermined condition. Specifically, the determination unit 122 obtains the cumulative value of the number of acquired posture estimation results for each of the four in-vehicle cameras 21 to 24. After the first posture estimation process, the obtained number of acquisitions becomes the cumulative value as it is. From the second time onward, the cumulative value of the number of acquisitions is obtained by adding the number of acquisitions obtained this time to the cumulative value obtained last time.

確定部122は、4つの車載カメラ21〜24のそれぞれについて、獲得数の累積値を所定の複数回数と比較する。獲得数の累積値が所定の複数回数以上に到達したカメラについて、確定部122は、その時点で得られている複数の推定結果に基づき姿勢の推定を確定させる。確定部122は、例えば、複数の推定結果の平均値、複数の推定結果から作成されるヒストグラムの中央値やピーク値等を姿勢推定の確定値とする。獲得数の累積値が所定の複数回数以上に到達しないカメラについては、姿勢の推定を確定させないと判断され、姿勢推定は確定されない。確定部122は、推定確定処理が完了すると、次のステップS6に処理を進める。 The confirmation unit 122 compares the cumulative value of the acquired number with a predetermined plurality of times for each of the four in-vehicle cameras 21 to 24. For the camera whose cumulative value of the acquired number reaches a predetermined plurality of times or more, the confirmation unit 122 confirms the posture estimation based on the plurality of estimation results obtained at that time. For example, the confirmation unit 122 sets the average value of a plurality of estimation results, the median value and the peak value of a histogram created from the plurality of estimation results, and the like as the confirmation values of the posture estimation. For cameras whose cumulative number of acquisitions does not reach a predetermined number of times or more, it is determined that the posture estimation is not finalized, and the posture estimation is not finalized. When the estimation confirmation process is completed, the confirmation unit 122 proceeds to the next step S6.

ステップS6では、確定部122は、全ての車載カメラ21〜24について姿勢の推定が確定されたか否かを確認する。全ての車載カメラ21〜24について姿勢の推定が確定されている場合には(ステップS6でYes)、図2に示す処理が終了する。この場合は、全ての車載カメラ21〜24について姿勢の推定が確定されており、姿勢推定の確定結果が姿勢推定装置1から出力可能になる。なお、姿勢推定が確定したカメラが発生するたびに、姿勢推定の確定結果が外部に出力されてよい。姿勢推定の確定結果に基づいて、例えば、車載カメラ21〜24の取付けのずれが生じた状態であるか否かが判定される。車載カメラ21〜24の取付けのずれが生じた状態であると判定された場合、例えば、当該異常事態が自車両のユーザに報知される。これにより、自車両のユーザはディーラによるカメラの取付調整を依頼する等の対策をとることが可能となる。 In step S6, the confirmation unit 122 confirms whether or not the posture estimation has been confirmed for all the in-vehicle cameras 21 to 24. When the posture estimation is confirmed for all the in-vehicle cameras 21 to 24 (Yes in step S6), the process shown in FIG. 2 ends. In this case, the posture estimation is confirmed for all the in-vehicle cameras 21 to 24, and the posture estimation determination result can be output from the attitude estimation device 1. In addition, every time a camera whose posture estimation is confirmed is generated, the confirmation result of the attitude estimation may be output to the outside. Based on the final result of the posture estimation, for example, it is determined whether or not the mounting of the in-vehicle cameras 21 to 24 is misaligned. When it is determined that the in-vehicle cameras 21 to 24 are misaligned, for example, the user of the own vehicle is notified of the abnormal situation. As a result, the user of the own vehicle can take measures such as requesting the camera mounting adjustment by the dealer.

また、各車載カメラ21〜24の姿勢推定の確定結果は、各車載カメラ21〜24のパラメータの補正に利用されてよい。これにより、車載カメラ21〜24の取付けのずれが生じても、そのずれに応じたカメラのキャリブレーションが実行されることになり、車載カメラ21〜24の取付けのずれが撮影画像に及ぼす悪影響を抑制することができる。また、姿勢の推定結果は、複数の車両とネットワークにより通信可能に設けられるセンターに撮影画像を送信する場合に、撮影画像とセットにしてセンターに送信されてもよい。これにより、センターでの撮影情報の取り扱いを適切に行うことができる。 Further, the final result of the posture estimation of the vehicle-mounted cameras 21 to 24 may be used for correcting the parameters of the vehicle-mounted cameras 21 to 24. As a result, even if the mounting of the in-vehicle cameras 21 to 24 is misaligned, the camera is calibrated according to the misalignment, and the misalignment of the in-vehicle cameras 21 to 24 has an adverse effect on the captured image. It can be suppressed. Further, the posture estimation result may be transmitted to the center together with the photographed image when the photographed image is transmitted to the center provided so as to be communicable with a plurality of vehicles via the network. As a result, the shooting information can be handled appropriately at the center.

姿勢の推定が確定されていない車載カメラ21〜24が存在する場合には(ステップS6でNo)、ステップS7に処理が進められる。 If there are in-vehicle cameras 21 to 24 for which the posture estimation has not been determined (No in step S6), the process proceeds to step S7.

ステップS7では、設定部123により、車載カメラ21〜24毎の優先度を変更する必要があるか否かが判定される。図10は、第1実施形態の姿勢推定装置1における優先度変更の判定処理の一例を示すフローチャートである。図10は、図2におけるステップS7の処理の詳細を示すフローチャートである。 In step S7, the setting unit 123 determines whether or not it is necessary to change the priority of each of the in-vehicle cameras 21 to 24. FIG. 10 is a flowchart showing an example of the priority change determination process in the posture estimation device 1 of the first embodiment. FIG. 10 is a flowchart showing details of the process of step S7 in FIG.

図10に示すように、まず、設定部123は、姿勢の推定が確定した車載カメラ21〜24があるか否かを確認する(ステップS71)。詳細には、設定部123は、直前に行われた推定確定処理で新たに姿勢の推定が確定したカメラが発生した場合、姿勢の推定が確定した車載カメラ21〜24があると判断する。そして、設定部123は、姿勢の推定が確定した車載カメラ21〜24がある場合(ステップS71でYes)、優先度の変更が必要と判定する(ステップS72)。 As shown in FIG. 10, first, the setting unit 123 confirms whether or not there are in-vehicle cameras 21 to 24 whose posture estimation is confirmed (step S71). Specifically, the setting unit 123 determines that there are in-vehicle cameras 21 to 24 whose posture estimation is confirmed when a camera whose posture estimation is newly confirmed is generated in the estimation confirmation process performed immediately before. Then, when there are in-vehicle cameras 21 to 24 whose posture estimation is confirmed (Yes in step S71), the setting unit 123 determines that the priority needs to be changed (step S72).

すなわち、本実施形態では、設定部123は、姿勢の推定が確定されたカメラが発生すると、優先度を変更する。これによると、姿勢の推定を確定させるためにデータの蓄積が必要なカメラに対して優先的に姿勢の推定処理を行うことができる。 That is, in the present embodiment, the setting unit 123 changes the priority when a camera whose posture estimation is confirmed occurs. According to this, it is possible to preferentially perform the posture estimation process for the camera that needs to accumulate data in order to confirm the posture estimation.

一方、設定部123は、直前に行われた推定確定処理で新たに姿勢の推定が確定したカメラが発生しなかった場合、姿勢の推定が確定した車載カメラ21〜24がないと判断して(ステップS71でNo)、次の処理を行う。詳細には、設定部123は、4つの車載カメラ21〜24のそれぞれについて得られた推定結果の獲得数の累積値の中から、最大数と最小数を抽出する。そして、設定部123は、最大数と最小数と差が所定閾値以上になったか否かを確認する(ステップS73)。 On the other hand, the setting unit 123 determines that there is no in-vehicle camera 21 to 24 whose posture estimation is confirmed when a camera whose attitude estimation is newly confirmed does not occur in the estimation confirmation process performed immediately before ( In step S71, No), the following process is performed. Specifically, the setting unit 123 extracts the maximum number and the minimum number from the cumulative values of the acquired number of estimation results obtained for each of the four in-vehicle cameras 21 to 24. Then, the setting unit 123 confirms whether or not the difference between the maximum number and the minimum number is equal to or greater than a predetermined threshold value (step S73).

設定部123は、最大数と最小数と差が所定閾値以上になった場合(ステップS73でYes)、ステップS72に処理を進める。すなわち、本実施形態では、カメラ21〜24毎に得られる獲得数の累積値の最大数と最小数との差が所定閾値以上になると、優先度を変更する。これによると、複数のカメラ21〜24間において、推定結果の獲得数の累積値に偏りが発生することを抑制できる。 When the difference between the maximum number and the minimum number becomes equal to or greater than a predetermined threshold value (Yes in step S73), the setting unit 123 proceeds to the process in step S72. That is, in the present embodiment, when the difference between the maximum number and the minimum number of the cumulative values of the acquired numbers obtained for each of the cameras 21 to 24 becomes a predetermined threshold value or more, the priority is changed. According to this, it is possible to suppress the occurrence of a bias in the cumulative value of the number of acquired estimation results among the plurality of cameras 21 to 24.

一方、設定部123は、最大数と最小数と差が所定閾値以上に到達していない場合(ステップS73でNo)、前回の優先度変更の判定処理の際に、最大数と最小数との差が所定閾値以上であったか否かを確認する(ステップS74)。設定部123は、前回の優先度変更の判定処理の際に、最大数と最小数との差が所定閾値以上であった場合(ステップS74でYes)、ステップS72に処理を進める。 On the other hand, when the difference between the maximum number and the minimum number does not reach the predetermined threshold value or more (No in step S73), the setting unit 123 sets the maximum number and the minimum number in the previous priority change determination process. It is confirmed whether or not the difference is equal to or greater than a predetermined threshold value (step S74). If the difference between the maximum number and the minimum number is equal to or greater than a predetermined threshold value during the previous priority change determination process (Yes in step S74), the setting unit 123 proceeds to step S72.

すなわち、本実施形態では、設定部123は、最大数と最小数との差が所定閾値以上になった後に所定閾値より小さくなった場合に優先度を変更する。これによると、優先度の設定を適切に見直して推定結果の獲得数の累積値に偏りが発生することを抑制できる。 That is, in the present embodiment, the setting unit 123 changes the priority when the difference between the maximum number and the minimum number becomes smaller than the predetermined threshold value after becoming equal to or larger than the predetermined threshold value. According to this, it is possible to appropriately review the priority setting and suppress the occurrence of bias in the cumulative value of the number of acquired estimation results.

設定部123は、前回の優先度変更の判定処理の際に、最大数と最小数との差が所定閾値より小さかった場合(ステップS74でNo)、優先度の変更が不要と判定する(ステップS75)。 When the difference between the maximum number and the minimum number is smaller than the predetermined threshold value (No in step S74) during the previous priority change determination process, the setting unit 123 determines that the priority change is unnecessary (step). S75).

図2に戻って、ステップS7において、優先度の変更を行うと判定されると(ステップS7でYes)、ステップS8に処理が進められる。ステップS7において、優先度の変更が不要と判定されると(ステップS7でNo)、ステップS10に処理が進められる。 Returning to FIG. 2, when it is determined in step S7 that the priority is to be changed (Yes in step S7), the process proceeds to step S8. If it is determined in step S7 that the priority change is unnecessary (No in step S7), the process proceeds to step S10.

ステップS8では、設定部123が優先度の設定を変更する。設定部123は、姿勢の推定が確定した車載カメラ21〜24がある場合には、当該カメラの優先度を下げる。設定部123は、車載カメラ21〜24毎に得られる推定結果の獲得数の累積値の、最大数と最小数との差が所定閾値以上になっている場合、推定結果の獲得数の累積値が多いカメラの優先度を下げる。設定部123は、最大数と最小数との差が所定閾値以上になった後に所定閾値より小さくなったカメラが存在する場合、先の回で下げた優先度を元に戻す。本実施形態では、優先度が下げられると、姿勢の推定処理の順番が飛ばされる。優先度の低いカメラの順番を飛ばすことにより、優先度の高いカメラの処理を時間的に優先して進めることができる。設定部123による優先度の設定が行われると、次のステップS9に処理が進められる。 In step S8, the setting unit 123 changes the priority setting. When there are in-vehicle cameras 21 to 24 whose postures have been estimated, the setting unit 123 lowers the priority of the cameras. The setting unit 123 sets the cumulative value of the number of acquired estimation results obtained for each of the in-vehicle cameras 21 to 24 when the difference between the maximum number and the minimum number is equal to or greater than a predetermined threshold value. Decrease the priority of cameras with many. When there is a camera whose difference between the maximum number and the minimum number becomes smaller than the predetermined threshold value after the difference becomes equal to or larger than the predetermined threshold value, the setting unit 123 restores the priority lowered in the previous round. In the present embodiment, when the priority is lowered, the order of posture estimation processing is skipped. By skipping the order of the low-priority cameras, the processing of the high-priority cameras can be prioritized in time. When the priority is set by the setting unit 123, the process proceeds to the next step S9.

ステップS9では、設定部123は、設定変更された優先度にしたがって、推定処理の対象となるカメラについて、順に姿勢の推定処理を行う。推定処理の対象とされた全てのカメラに対して推定処理を終わると、ステップS5の処理に戻る。 In step S9, the setting unit 123 performs posture estimation processing in order for the cameras to be estimated processing according to the priority of the setting change. When the estimation processing is completed for all the cameras targeted for the estimation processing, the process returns to the process of step S5.

ステップS10では、設定部123は、先の回と同じ優先度を維持して、推定対象となるカメラについて、順に姿勢の推定処理を行う。推定処理の対象とされた全てのカメラに対して推定処理を終わると、ステップS5の処理に戻る。 In step S10, the setting unit 123 maintains the same priority as the previous time, and performs posture estimation processing for the cameras to be estimated in order. When the estimation processing is completed for all the cameras targeted for the estimation processing, the process returns to the process of step S5.

図11は、第1実施形態の姿勢推定装置1における優先度の設定について説明するための図である。図11に示す具体例に基づいて、姿勢推定装置1における優先度の設定について更に説明する。図11に示す例では、デフォルトにおいて4つの車載カメラ21〜24に優先度の差はない。デフォルトにおいて、各車載カメラ21〜24に対して1回ずつ姿勢の推定処理の順番が与えられる。図11において、実施は姿勢の推定処理が実行されることを指し、未実施は姿勢の推定処理が実行されないことを指す。図11に示す累積値は、姿勢の推定結果の獲得数の累積値である。図11に示す例では、累積値が80(=所定の複数回)以上に到達すると姿勢の推定が確定される。累積値の最大数と最小数との差を判定する所定閾値は20である。 FIG. 11 is a diagram for explaining the setting of the priority in the posture estimation device 1 of the first embodiment. The setting of the priority in the posture estimation device 1 will be further described based on the specific example shown in FIG. In the example shown in FIG. 11, there is no difference in priority between the four in-vehicle cameras 21 to 24 by default. By default, each vehicle-mounted camera 21 to 24 is given an order of posture estimation processing once. In FIG. 11, the implementation means that the posture estimation process is executed, and the non-execution means that the posture estimation process is not executed. The cumulative value shown in FIG. 11 is the cumulative value of the number of acquired posture estimation results. In the example shown in FIG. 11, when the cumulative value reaches 80 (= predetermined multiple times) or more, the posture estimation is confirmed. The predetermined threshold value for determining the difference between the maximum number and the minimum number of cumulative values is 20.

第1回目においては、推定処理の優先度に差がなく、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後の各車載カメラ21〜24の累積値はいずれも10であり、いずれのカメラにおいても姿勢の推定は確定されない。また、累積値の最大数と最小数の差はゼロであり、所定閾値(=20)より小さい。更に、初回のために、先の回のデータはなく、前回に累積値の最大数と最小数の差が所定閾値以上であったという事実もない。したがって、4つの車載カメラ21〜24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更不要と判定される。 In the first time, there is no difference in the priority of the estimation processing, and the estimation processing is performed in the order of the front camera 21, the back camera 22, the left side camera 23, and the right side camera 24. The cumulative value of each of the in-vehicle cameras 21 to 24 after the estimation process is 10, and the posture estimation is not finalized in any of the cameras. Further, the difference between the maximum number and the minimum number of cumulative values is zero, which is smaller than a predetermined threshold value (= 20). Furthermore, for the first time, there is no data for the previous round, and there is no fact that the difference between the maximum and minimum cumulative values was greater than or equal to the predetermined threshold value last time. Therefore, in the priority change determination process performed after the estimation processes of the four in-vehicle cameras 21 to 24, it is determined that the priority setting change is unnecessary.

第2回目においては、第1回目と同様に、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後の各車載カメラ21〜24の累積値はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。一方、累積値の最大数(=50)と最小数(=20)の差は30であり、所定閾値(=20)より大きい。このために、4つの車載カメラ21〜24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。この例では、累積値が最小数に対して20以上(この設定は適宜変更されてよい)大きくなっているカメラについて、優先度が下げられる。すなわち、フロントカメラ21とバックカメラ22とは優先度が下げられ、次回(第3回目)の順番が飛ばされる。 In the second time, as in the first time, the estimation process is performed in the order of the front camera 21, the back camera 22, the left side camera 23, and the right side camera 24. The cumulative values of the in-vehicle cameras 21 to 24 after the estimation process have not reached 80 or more, and the posture estimation is not finalized in any of the cameras. On the other hand, the difference between the maximum number (= 50) and the minimum number (= 20) of the cumulative values is 30, which is larger than the predetermined threshold value (= 20). Therefore, in the priority change determination process performed after the estimation processing of the four in-vehicle cameras 21 to 24, it is determined that the priority setting change is necessary. In this example, the priority is lowered for cameras whose cumulative value is 20 or more (this setting may be changed as appropriate) with respect to the minimum number. That is, the priority of the front camera 21 and the back camera 22 is lowered, and the next (third) turn is skipped.

第3回目においては、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後の各車載カメラ21〜24の累積値はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。累積値の最大数(=50)と最小数(=40)の差は所定数(=20)より小さい。ただし、前回確認時において、累積値の最大数と最小数の差は所定閾値より大きかったので、最大数と最小数との差が所定閾値以上になった後に所定閾値より小さくなった場合に該当する。このために、2つの車載カメラ23、24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。具体的には、前回優先度が下げられたフロントカメラ21とバックカメラ22との優先度の設定が元に戻される。すなわち、4つの車載カメラ21〜24の推定処理の優先度に差がなくなり、次回(第4回目)は、4つの車載カメラ21〜24の推定処理が行われる。 In the third time, the estimation process is performed in the order of the left side camera 23 and the right side camera 24. The cumulative values of the in-vehicle cameras 21 to 24 after the estimation process have not reached 80 or more, and the posture estimation is not finalized in any of the cameras. The difference between the maximum number (= 50) and the minimum number (= 40) of the cumulative values is smaller than the predetermined number (= 20). However, at the time of the previous confirmation, the difference between the maximum number and the minimum number of the cumulative values was larger than the predetermined threshold value, so it corresponds to the case where the difference between the maximum number and the minimum number becomes smaller than the predetermined threshold value after becoming equal to or more than the predetermined threshold value. To do. Therefore, in the priority change determination process performed after the estimation processing of the two in-vehicle cameras 23 and 24, it is determined that the priority setting change is necessary. Specifically, the priority settings of the front camera 21 and the back camera 22, whose priorities were lowered last time, are restored. That is, there is no difference in the priority of the estimation processing of the four vehicle-mounted cameras 21 to 24, and the estimation processing of the four vehicle-mounted cameras 21 to 24 is performed next time (fourth time).

第4回目においては、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後において、フロントカメラ21について、累積値が80以上に到達しており、姿勢の推定が確定される。このために、4つの車載カメラ21〜24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。具体的には、姿勢の推定が確定されたフロントカメラ21の優先度の設定が下げられ、次回(第5回目)の順番が飛ばされる。 In the fourth time, the estimation process is performed in the order of the front camera 21, the back camera 22, the left side camera 23, and the right side camera 24. After the estimation process, the cumulative value of the front camera 21 has reached 80 or more, and the posture estimation is confirmed. Therefore, in the priority change determination process performed after the estimation processing of the four in-vehicle cameras 21 to 24, it is determined that the priority setting change is necessary. Specifically, the priority setting of the front camera 21 whose posture estimation is confirmed is lowered, and the next (fifth) turn is skipped.

なお、本例では、第4回目において、累積値の最大数は80、最小数は65となる。このために、最大数と最小数との差は所定閾値(=20)より小さく、この観点に基づいて優先度の設定は変更されない。ただし、右サイドカメラ24の累積値が50であったとする。この場合には、最大数(=80)と最小数(=50)との差が所定閾値(=20)以上となるために、最大数と最小数との差を考慮して優先度の設定が行われる。例えば、最小数より累積値が所定数(本例では20)以上となるバックカメラ22と左サイドカメラ23も優先度が下げられる。 In this example, in the fourth time, the maximum number of cumulative values is 80 and the minimum number is 65. Therefore, the difference between the maximum number and the minimum number is smaller than the predetermined threshold value (= 20), and the priority setting is not changed based on this viewpoint. However, it is assumed that the cumulative value of the right side camera 24 is 50. In this case, since the difference between the maximum number (= 80) and the minimum number (= 50) is equal to or greater than the predetermined threshold value (= 20), the priority is set in consideration of the difference between the maximum number and the minimum number. Is done. For example, the priority of the back camera 22 and the left side camera 23 whose cumulative value is equal to or greater than the minimum number (20 in this example) is also lowered.

第5回目においては、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理を行った3つのカメラ22〜24の全てについて、累積値が80以上に到達しており、これらのカメラ22〜24について、姿勢の推定が確定される。この場合、4つの車載カメラ21〜24の全てについて姿勢の推定が確定されたことになるために、一連の姿勢の推定処理は一旦終了される。 In the fifth time, the estimation process is performed in the order of the back camera 22, the left side camera 23, and the right side camera 24. The cumulative value has reached 80 or more for all of the three cameras 22 to 24 that have undergone the estimation process, and the posture estimation is confirmed for these cameras 22 to 24. In this case, since the posture estimation has been confirmed for all of the four vehicle-mounted cameras 21 to 24, the series of posture estimation processes is temporarily terminated.

なお、以上においては、累積値の最大数と最小数を判断するに際して、常に、4つの車載カメラ21〜24の全てを使う構成としているが、このような構成でなくてもよい。例えば、姿勢の推定が確定したカメラが発生した場合には、当該カメラを除外して、累積値の最大数と最小数との比較が行われる構成としてもよい。すなわち、姿勢の推定処理が確定していないカメラにのみ注目して累積値の最大数と最小数との比較が行われる構成としてもよい。 In the above, when determining the maximum number and the minimum number of cumulative values, all four in-vehicle cameras 21 to 24 are always used, but such a configuration is not necessary. For example, when a camera whose posture estimation is confirmed occurs, the camera may be excluded and the maximum number and the minimum number of cumulative values are compared. That is, the configuration may be such that the maximum number and the minimum number of cumulative values are compared by paying attention only to the camera whose posture estimation process is not fixed.

<2.第2実施形態>
次に、第2実施形態の姿勢推定装置について説明する。第2実施形態の説明にあたっては、第1実施形態と重複する内容については、特に説明の必要がない場合には説明を省略する。
<2. Second Embodiment>
Next, the posture estimation device of the second embodiment will be described. In the description of the second embodiment, the description of the contents overlapping with the first embodiment will be omitted unless there is a particular need for explanation.

図12は、第2実施形態に係る姿勢推定装置1Aの構成を説明するための図である。図12に示すように、第2実施形態においては、制御部12AのCPUが記憶部13に記憶されるプログラムに従って演算処理を実行することにより実現される機能に判断部124が含まれる。すなわち、姿勢推定装置1Aが判断部124を備える。この点が、第1実施形態と異なる。 FIG. 12 is a diagram for explaining the configuration of the posture estimation device 1A according to the second embodiment. As shown in FIG. 12, in the second embodiment, the determination unit 124 is included in the function realized by the CPU of the control unit 12A executing the arithmetic processing according to the program stored in the storage unit 13. That is, the posture estimation device 1A includes the determination unit 124. This point is different from the first embodiment.

判断部124は、複数の車載カメラ21〜24の中に、推定結果の獲得数以外に基づく優先条件を有するカメラが存在するか否かを判断する。推定結果の獲得数以外に基づく優先条件は、例えば、運転者の視界に基づく優先条件、自車両の操作状況に基づく優先条件、ナビゲーション装置からの情報に基づく優先条件等であってよい。 The determination unit 124 determines whether or not there is a camera having a priority condition based on other than the number of acquired estimation results among the plurality of in-vehicle cameras 21 to 24. The priority condition based on the number of acquisitions of the estimation result may be, for example, a priority condition based on the driver's field of view, a priority condition based on the operation status of the own vehicle, a priority condition based on information from the navigation device, or the like.

運転者の視界に基づく優先条件は、例えば、予め記憶部13に記憶されている。例えば、運転者の視界が確保し易い方向を撮影するフロントカメラ21や右サイドカメラ24(運転席が右側を想定)は、運転者の視界が確保し難い方向を撮影するバックカメラ22や左サイドカメラ23に比べて、推定処理の優先度が下げられる。 The priority condition based on the driver's field of view is stored in the storage unit 13 in advance, for example. For example, the front camera 21 and the right side camera 24 (assuming the driver's seat is on the right side) that shoot a direction in which the driver's field of view is easy to secure are the back camera 22 and the left side that shoot a direction in which the driver's field of view is difficult to secure. Compared to the camera 23, the priority of the estimation process is lowered.

自車両の操作状況に基づく優先条件は、例えば、通信バスB1を介して舵角センサ3から得られる情報や、不図示のシフトセンサから得られる情報等に基づいて判断部124が設定してもよいし、外部から入力されてもよい。例えば、シフトセンサが後退である場合には、バックカメラ22の推定処理の優先度が上げられる。 Even if the priority condition based on the operation status of the own vehicle is set by the determination unit 124 based on, for example, information obtained from the steering angle sensor 3 via the communication bus B1, information obtained from a shift sensor (not shown), or the like. It may be input from the outside. For example, when the shift sensor is retracted, the priority of the estimation process of the back camera 22 is raised.

ナビゲーション装置からの情報に基づく優先条件は、姿勢推定装置1Aに接続される不図示のナビゲーション装置から得られる情報に基づいて判断部124が設定してもよいし、外部から入力されてもよい。例えば、ナビゲーション装置において設定された経路からこの先において右折や左折が想定される場合には、当該曲がる方向に対応したカメラの推定処理の優先度が上げられる。 The priority condition based on the information from the navigation device may be set by the determination unit 124 based on the information obtained from the navigation device (not shown) connected to the posture estimation device 1A, or may be input from the outside. For example, when a right turn or a left turn is expected from the route set in the navigation device, the priority of the camera estimation process corresponding to the turning direction is raised.

設定部123は、優先条件を有する車載カメラ21〜24が存在する場合に、当該優先条件に基づいて推定処理の優先度を設定する。これによれば、車両の運転シーン等に合わせて推定処理の優先度の設定の仕方を変更することができ、運転シーンに適したカメラの姿勢推定を行うことができる。 When there are in-vehicle cameras 21 to 24 having priority conditions, the setting unit 123 sets the priority of the estimation process based on the priority conditions. According to this, it is possible to change the method of setting the priority of the estimation process according to the driving scene of the vehicle and the like, and it is possible to estimate the posture of the camera suitable for the driving scene.

図13は、第2実施形態の姿勢推定装置1Aにおいて、4つの車載カメラ21〜24の姿勢の推定を行う場合に実行される処理の一例を示すフローチャートである。図13の処理の開始時においては、4つの車載カメラ21〜24毎の姿勢の推定処理の優先度は同じとされる。すなわち、図13の処理の開始時において、4つの車載カメラ21〜24の姿勢の推定処理の頻度には差がない。なお、本例では、新しい優先条件が発生すると、古い優先条件は更新される。また、優先条件にしたがって、優先対象のカメラの姿勢の推定が確定した場合、新たに優先条件が発生しない限り、優先条件はないものとして扱う。ただし、この優先条件の扱いは例示にすぎず、適宜変更されてよい。 FIG. 13 is a flowchart showing an example of processing executed when the postures of the four in-vehicle cameras 21 to 24 are estimated in the posture estimation device 1A of the second embodiment. At the start of the process of FIG. 13, the priority of the posture estimation process for each of the four vehicle-mounted cameras 21 to 24 is the same. That is, at the start of the processing of FIG. 13, there is no difference in the frequency of the posture estimation processing of the four in-vehicle cameras 21 to 24. In this example, when a new priority condition occurs, the old priority condition is updated. Further, when the estimation of the posture of the camera to be prioritized is determined according to the priority condition, it is treated as if there is no priority condition unless a new priority condition is generated. However, the treatment of this priority condition is merely an example and may be changed as appropriate.

ステップS31では、判断部124は、推定処理の獲得数以外に基づく優先条件(以下、単に優先条件と記載することがある)を有するカメラが存在するか否かを確認する。判断部124は、記憶部13に記憶される情報、通信バスB1を利用して得られるCAN情報、ナビゲーション装置から得られるルート情報等を確認することにより、優先条件を有するカメラが存在するか否かを判断する。判断部124により優先条件を有するカメラがあると判断された場合(ステップS31でYes)、ステップS32に処理が進められる。一方、判断部124により優先条件を有するカメラがないと判断された場合(ステップS31でNo)、ステップS34に処理が進められる。 In step S31, the determination unit 124 confirms whether or not there is a camera having a priority condition (hereinafter, may be simply referred to as a priority condition) based on the number of acquisitions of the estimation process. The determination unit 124 confirms the information stored in the storage unit 13, the CAN information obtained by using the communication bus B1, the route information obtained from the navigation device, and the like, and whether or not there is a camera having a priority condition. To judge. When the determination unit 124 determines that there is a camera having a priority condition (Yes in step S31), the process proceeds to step S32. On the other hand, when the determination unit 124 determines that there is no camera having the priority condition (No in step S31), the process proceeds to step S34.

ステップS32では、設定部123は、優先条件に従って各車載カメラ21〜24の優先度を設定する。これにより、優先度の設定が処理の開始時の設定から変更される。設定部123により優先度が設定されると、ステップS33に処理が進められる。 In step S32, the setting unit 123 sets the priority of each in-vehicle camera 21 to 24 according to the priority condition. As a result, the priority setting is changed from the setting at the start of processing. When the priority is set by the setting unit 123, the process proceeds to step S33.

ステップS33では、変更設定された優先度にしたがって、姿勢の推定処理の対象となるカメラについて、推定処理が順に行われる。なお、姿勢の推定対象となるカメラは、複数のことも単数のこともあり得る。推定対象の対象とされた全てのカメラに対して推定処理が終わると、ステップS35に処理が進められる。 In step S33, the estimation processing is sequentially performed for the cameras to be the target of the posture estimation processing according to the priority set to be changed. It should be noted that the number of cameras for which the posture is estimated may be plural or singular. When the estimation process is completed for all the cameras targeted for estimation, the process proceeds to step S35.

ステップS34では、優先条件を有するカメラがないために優先度が変更されず、処理の開始時に設定された優先度(全てのカメラ21〜24で同じ)で、推定処理の対象となるカメラの推定処理が順に行われる。本例では、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に姿勢の推定処理が行われる。4つの車載カメラ21〜24の全てについて姿勢の推定処理が終わると、ステップS35に処理が進められる。 In step S34, since there is no camera having a priority condition, the priority is not changed, and the priority set at the start of the process (same for all cameras 21 to 24) is used to estimate the camera to be estimated. The processing is performed in order. In this example, the posture estimation process is performed in the order of the front camera 21, the back camera 22, the left side camera 23, and the right side camera 24. When the posture estimation processing for all four in-vehicle cameras 21 to 24 is completed, the processing proceeds to step S35.

ステップS35では、確定部122が所定の条件に従って姿勢の推定を確定させる処理を行う。当該処理は、先に説明した図2のステップS5と同じために説明を省略する。確定部122は、推定確定処理が完了すると、次のステップS36に処理を進める。 In step S35, the determination unit 122 performs a process of determining the posture estimation according to a predetermined condition. Since the process is the same as step S5 of FIG. 2 described above, the description thereof will be omitted. When the estimation confirmation process is completed, the confirmation unit 122 proceeds to the next step S36.

ステップS36では、確定部122は、全ての車載カメラ21〜24について姿勢の推定が確定されたか否かを確認する。全ての車載カメラ21〜24について姿勢の推定が確定されている場合には(ステップS36でYes)、図13に示す処理が終了する。姿勢の推定が確定されていない車載カメラ21〜24が存在する場合には(ステップS36でNo)、ステップS37に処理が進められる。 In step S36, the confirmation unit 122 confirms whether or not the posture estimation has been confirmed for all the in-vehicle cameras 21 to 24. When the posture estimation is confirmed for all the in-vehicle cameras 21 to 24 (Yes in step S36), the process shown in FIG. 13 ends. If there are in-vehicle cameras 21 to 24 for which the posture estimation has not been determined (No in step S36), the process proceeds to step S37.

ステップS37では、設定部123により、車載カメラ21〜24毎の優先度を変更する必要があるか否かが判定される。図14は、第2実施形態の姿勢推定装置1Aにおける優先度変更の判定処理の一例を示すフローチャートである。図14は、図13におけるステップS37の処理の詳細を示す図である。 In step S37, the setting unit 123 determines whether or not it is necessary to change the priority of each of the in-vehicle cameras 21 to 24. FIG. 14 is a flowchart showing an example of the priority change determination process in the posture estimation device 1A of the second embodiment. FIG. 14 is a diagram showing details of the process of step S37 in FIG.

設定部123は、まず、新たな優先条件が発生したか否かを確認する(ステップS371)。新たな優先条件は、その時点で設定されているカメラ21〜24毎の優先度において加味されていない優先条件である。新たな優先条件が発生した場合には(ステップS371でYes)、設定部123は、優先度の変更が必要と判定する(ステップS372)。 First, the setting unit 123 confirms whether or not a new priority condition has occurred (step S371). The new priority condition is a priority condition that is not taken into consideration in the priority of each camera 21 to 24 set at that time. When a new priority condition occurs (Yes in step S371), the setting unit 123 determines that the priority needs to be changed (step S372).

新たな優先条件が発生していない場合には(ステップS371でNo)、設定部123は、姿勢の推定が確定した車載カメラ21〜24があるか否かを確認する(ステップS373)。当該確認処理は、図10のステップS71と同様である。設定部123は、姿勢の推定が確定した車載カメラ21〜24がある場合(ステップS373でYes)、優先度の変更が必要と判定する(ステップS372)。 When a new priority condition has not occurred (No in step S371), the setting unit 123 confirms whether or not there are in-vehicle cameras 21 to 24 whose posture estimation is confirmed (step S373). The confirmation process is the same as in step S71 of FIG. When there are in-vehicle cameras 21 to 24 whose posture estimation is confirmed (Yes in step S373), the setting unit 123 determines that the priority needs to be changed (step S372).

姿勢の推定が確定した車載カメラ21〜24がない場合(ステップS373でNo)、設定部123は、現在の優先度が優先条件に従って設定されたものか否かを確認する(ステップS374)。現在の優先度が優先条件に従って設定されたものである場合(ステップS374でYes)、優先度の設定変更不要と判定する(ステップS377)。 When there is no in-vehicle camera 21 to 24 whose posture estimation is confirmed (No in step S373), the setting unit 123 confirms whether or not the current priority is set according to the priority condition (step S374). When the current priority is set according to the priority condition (Yes in step S374), it is determined that the priority setting change is unnecessary (step S377).

現在の優先度が優先条件に従って設定されたものでない場合(ステップS374でNo)、設定部123は、累積値の最大数と最小数と差が所定閾値以上になったか否かを確認する(ステップS375)。当該処理は、図10に示すステップS73と同じである。この後に行われるステップS376は、図10に示すステップS74と同様である。このため、これらの説明は省略する。 If the current priority is not set according to the priority condition (No in step S374), the setting unit 123 confirms whether or not the difference between the maximum number and the minimum number of the cumulative values is equal to or greater than the predetermined threshold value (step). S375). The process is the same as step S73 shown in FIG. The step S376 performed after this is the same as the step S74 shown in FIG. Therefore, these explanations will be omitted.

図13に戻って、ステップS37において、優先度の変更を行うと判定されると(ステップS37でYes)、ステップS38に処理が進められる。ステップS37において、優先度の変更が不要と判定されると(ステップS37でNo)、ステップS40に処理が進められる。 Returning to FIG. 13, when it is determined in step S37 that the priority is to be changed (Yes in step S37), the process proceeds to step S38. If it is determined in step S37 that the priority change is unnecessary (No in step S37), the process proceeds to step S40.

ステップS38〜ステップS40の処理は、図2に示すステップ8〜ステップS10の処理と同様である。このために説明を省略する。なお、優先度の設定変更を行う場合において、新たな優先条件が発生している場合には、先の優先条件を破棄して新たな優先条件で優先度の設定を行う点は、第1実施形態と異なる。 The processing of steps S38 to S40 is the same as the processing of steps 8 to S10 shown in FIG. Therefore, the description thereof will be omitted. In addition, when changing the priority setting, if a new priority condition occurs, the point of discarding the previous priority condition and setting the priority with the new priority condition is the first implementation. Different from the form.

図15は、第2実施形態の姿勢推定装置1Aにおける優先度の設定について説明するための図である。図15に示す具体例に基づいて、姿勢推定装置1Aにおける優先度の設定について更に説明する。図15に示す例では、記憶部13にバックカメラ22および左サイドカメラ23の推定処理を優先するように優先条件が記憶されている。図15において、実施は姿勢の推定処理が実行されることを指し、未実施は姿勢の推定処理が実行されないことを指す。図15に示す累積値は、姿勢の推定結果の獲得数の累積値である。図15に示す例では、累積値が80(=所定の複数回)以上に到達すると姿勢の推定が確定される。 FIG. 15 is a diagram for explaining the setting of the priority in the posture estimation device 1A of the second embodiment. The setting of the priority in the posture estimation device 1A will be further described based on the specific example shown in FIG. In the example shown in FIG. 15, priority conditions are stored in the storage unit 13 so as to prioritize the estimation processing of the back camera 22 and the left side camera 23. In FIG. 15, the implementation means that the posture estimation process is executed, and the non-execution means that the posture estimation process is not executed. The cumulative value shown in FIG. 15 is the cumulative value of the number of acquired posture estimation results. In the example shown in FIG. 15, when the cumulative value reaches 80 (= predetermined multiple times) or more, the posture estimation is confirmed.

第1回目においては、記憶部13に記憶される優先条件により、バックカメラ22および左サイドカメラ23の姿勢の推定処理の優先度が上げられる。この結果、第1回目においては、フロントカメラ21および右サイドカメラ24の順番が飛ばされ、バックカメラ22、左サイドカメラ23の順に推定処理が行われる。推定処理後のバックカメラ22おの累積値(=30)および左サイドカメラ23の累積値(=10)はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。また、現在の優先度の設定は優先条件にしたがったものである。したがって、バックカメラ22および左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、新たな優先条件の発生が認められない場合には、優先度の設定変更不要と判定される。本例では、この段階では新たな優先条件は発生しておらず、優先度の設定は変更されない。 In the first time, the priority of the posture estimation processing of the back camera 22 and the left side camera 23 is raised by the priority condition stored in the storage unit 13. As a result, in the first time, the order of the front camera 21 and the right side camera 24 is skipped, and the estimation process is performed in the order of the back camera 22 and the left side camera 23. The cumulative value (= 30) of the back camera 22 and the cumulative value (= 10) of the left side camera 23 after the estimation process have not reached 80 or more, and the posture estimation is not confirmed in any of the cameras. .. In addition, the current priority setting is based on the priority condition. Therefore, in the priority change determination process performed after the estimation process of the back camera 22 and the left side camera 23, if the occurrence of a new priority condition is not recognized, it is determined that the priority setting change is unnecessary. In this example, no new priority condition has occurred at this stage, and the priority setting is not changed.

なお、本例では、第1回目終了の時点で、バックカメラ22と左サイドカメラ23との間で、累積値の差が大きくなっている。この差をなくすために、第2回目においては、左サイドカメラ23の推定処理が優先される(バックカメラ22の順番が飛ばされる)構成としてもよい。すなわち、優先処理対象とされるカメラ毎に得られる推定結果の獲得数の累積値の、最大数と最小数との差が所定閾値以上になると優先度を変更してもよい。 In this example, at the end of the first time, the difference between the cumulative values is large between the back camera 22 and the left side camera 23. In order to eliminate this difference, in the second time, the estimation process of the left side camera 23 may be prioritized (the order of the back camera 22 is skipped). That is, the priority may be changed when the difference between the maximum number and the minimum number of the cumulative values of the number of acquired estimation results obtained for each camera targeted for priority processing becomes equal to or greater than a predetermined threshold value.

第2回目においては、第1回目と同様に、バックカメラ22、左サイドカメラ23の順に推定処理が行われる。ここでも、推定処理後のバックカメラ22および左サイドカメラ23の累積値はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。また、現在の優先度の設定は優先条件にしたがったものである。したがって、バックカメラ22および左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、新たな優先条件の発生が認められない場合には、優先度の設定変更不要と判定される。本例では、この段階で新たな優先条件が発生する。このために、優先度の設定変更必要と判定される。新たな優先条件は、ナビゲーション装置からこの先に左折予定があるとの情報が得られたことにより発生した条件であり、具体的には、左サイドカメラ23の推定処理を優先するという条件である。新たな優先条件の発生により、優先度の設定が変更される。これにより、次回(第3回目)においては左サイドカメラ23の推定処理のみが行われる。 In the second time, as in the first time, the estimation process is performed in the order of the back camera 22 and the left side camera 23. Again, the cumulative values of the back camera 22 and the left side camera 23 after the estimation process have not reached 80 or more, and the posture estimation is not finalized in any of the cameras. In addition, the current priority setting is based on the priority condition. Therefore, in the priority change determination process performed after the estimation process of the back camera 22 and the left side camera 23, if the occurrence of a new priority condition is not recognized, it is determined that the priority setting change is unnecessary. In this example, a new priority condition arises at this stage. Therefore, it is determined that the priority setting needs to be changed. The new priority condition is a condition generated by obtaining information from the navigation device that there is a plan to turn left in the future, and specifically, a condition in which the estimation process of the left side camera 23 is prioritized. The priority setting is changed due to the occurrence of a new priority condition. As a result, in the next time (third time), only the estimation processing of the left side camera 23 is performed.

第3回目においては、左サイドカメラ23のみ、推定処理が行われる。推定処理後の左サイドカメラ23の累積値は80以上に到達しておらず、姿勢の推定は確定されない。また、現在の優先度の設定は優先条件にしたがったものである。したがって、左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、新たな優先条件の発生が認められない場合には、優先度の設定変更不要と判定される。本例では、この段階では新たな優先条件は発生しておらず、優先度の設定は変更されない。 In the third time, the estimation process is performed only on the left side camera 23. The cumulative value of the left side camera 23 after the estimation process has not reached 80 or more, and the posture estimation is not finalized. In addition, the current priority setting is based on the priority condition. Therefore, in the priority change determination process performed after the estimation process of the left side camera 23, if the occurrence of a new priority condition is not recognized, it is determined that the priority setting change is unnecessary. In this example, no new priority condition has occurred at this stage, and the priority setting is not changed.

第4回目においては、左サイドカメラ23のみ、推定処理が行われる。推定処理後の左サイドカメラ23について、累積値が80以上に到達しており、姿勢の推定が確定される。このために、左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。姿勢の推定が確定された左サイドカメラ23は、優先度の設定が下げられ、次回(第5回目)の順番が飛ばされる。また、左サイドカメラ23の姿勢推定の確定により、優先条件は存在しないことになる。この結果、車載カメラ21〜24毎に得られる累積値の最大数(=85)と最小数(=0)との差が所定閾値以上であるか否かの結果が参酌され、これに基づいて優先度が決められる。これにより、累積値が大きいバックカメラ22の優先度が下げられ、次回の順番が飛ばされる。 In the fourth time, the estimation process is performed only on the left side camera 23. The cumulative value of the left side camera 23 after the estimation process has reached 80 or more, and the posture estimation is confirmed. Therefore, in the priority change determination process performed after the estimation process of the left side camera 23, it is determined that the priority setting change is necessary. For the left side camera 23 whose posture estimation is confirmed, the priority setting is lowered and the next (fifth) turn is skipped. Further, by confirming the attitude estimation of the left side camera 23, the priority condition does not exist. As a result, the result of whether or not the difference between the maximum number (= 85) and the minimum number (= 0) of the cumulative values obtained for each of the in-vehicle cameras 21 to 24 is equal to or greater than a predetermined threshold value is taken into consideration, and based on this. Priority is decided. As a result, the priority of the back camera 22 having a large cumulative value is lowered, and the next turn is skipped.

第5回目においては、フロントカメラ21、右サイドカメラ24の順に推定処理が行われる。推定処理後のフロントカメラ21および右サイドカメラ24の累積値はいずれも80以上に到達しておらず、先に確定した左サイドカメラ23を除き、姿勢の推定が確定していない。このために、この後も、姿勢推定の確定のための推定処理が、上述した図13等に示すフローチャートにしたがって続けられる。 In the fifth time, the estimation process is performed in the order of the front camera 21 and the right side camera 24. The cumulative values of the front camera 21 and the right side camera 24 after the estimation process have not reached 80 or more, and the posture estimation has not been confirmed except for the left side camera 23 which has been determined earlier. Therefore, even after this, the estimation process for determining the posture estimation is continued according to the flowchart shown in FIG. 13 and the like described above.

<3.留意事項>
本明細書における実施形態や変形例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。
<3. Notes>
The configurations of the embodiments and modifications in the present specification are merely examples of the present invention. The configurations of the embodiments and modifications may be appropriately changed without exceeding the technical idea of the present invention. Moreover, a plurality of embodiments and modifications may be carried out in combination to the extent possible.

以上におけるカメラの姿勢の推定処理の方法は例示にすぎない。カメラの姿勢の推定処理の方法は、適宜変更されてよい。カメラの姿勢の推定処理は、例えば、撮影画像から抽出される特徴点の動きと、自車両の移動情報(移動量や速度)とを比較して求める構成等であってもよい。 The method of estimating the posture of the camera in the above is only an example. The method of estimating the posture of the camera may be changed as appropriate. The posture estimation process of the camera may be, for example, a configuration obtained by comparing the movement of the feature points extracted from the captured image with the movement information (movement amount and speed) of the own vehicle.

本発明は、自動駐車等の移動体の運転支援を行うカメラの姿勢推定を行うために利用することができる。また、本発明は、ドライブレコーダ等の運転情報を記録するカメラの姿勢推定を行うために利用することができる。また、本発明は、カメラの姿勢の推定情報を利用して撮影画像を補正する補正装置等に利用することができる。また、本発明は、複数の移動体とネットワークにより通信可能に設けられるセンターと連携して動作する装置等に利用することができる。当該装置は、例えば、センターに撮影画像を送信する場合に、カメラの姿勢の推定情報を撮影画像とセットにして送信する構成であってよい。そして、センターでは、カメラの姿勢の推定情報を用いて、各種画像処理(カメラの姿勢も考慮した画像の視点・視方向を変更する処理、例えば車両の車体前方方向の画像に視点・視方向変換した画像を生成する等)、画像を用いた計測処理におけるカメラの姿勢に対する補正処理、カメラ姿勢の経年変化を統計処理(多くの車両のデータ)、等を行いユーザへの有用な提供データを生成する等する。 The present invention can be used to estimate the posture of a camera that assists driving a moving object such as automatic parking. Further, the present invention can be used to estimate the posture of a camera that records driving information of a drive recorder or the like. Further, the present invention can be used as a correction device or the like for correcting a captured image by using the estimation information of the posture of the camera. Further, the present invention can be used for a device or the like that operates in cooperation with a center provided so as to be able to communicate with a plurality of mobile bodies via a network. The device may have a configuration in which, for example, when transmitting a captured image to the center, the estimated information on the posture of the camera is transmitted as a set with the captured image. Then, at the center, various image processing (processing of changing the viewpoint / viewing direction of the image in consideration of the camera posture, for example, conversion of the viewpoint / viewing direction to an image in the front direction of the vehicle body) using the estimation information of the camera posture. Generate useful data to users by performing correction processing for camera posture in measurement processing using images, statistical processing for secular change of camera posture (data of many vehicles), etc. And so on.

1、1A 姿勢推定装置
21〜24 車載カメラ
11 取得部
121 推定部
122 確定部
123 設定部
124 判断部
1, 1A Posture estimation device 21 to 24 On-board camera 11 Acquisition unit 121 Estimate unit 122 Confirmation unit 123 Setting unit 124 Judgment unit

Claims (9)

移動体に搭載される複数のカメラのそれぞれから撮影画像を取得する取得部と、
前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定部と、
前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定部と、
を備える、姿勢推定装置。
An acquisition unit that acquires captured images from each of multiple cameras mounted on the moving body,
An estimation unit that performs estimation processing for estimating the posture of the camera based on the captured image, and
A setting unit that sets the priority of the estimation process for each camera based on the number of estimation results acquired by the estimation process performed for each camera.
A posture estimation device.
前記設定部は、前記カメラ毎の前記獲得数の累積値の比較結果に基づいて前記優先度を設定する、請求項1に記載の姿勢推定装置。 The posture estimation device according to claim 1, wherein the setting unit sets the priority based on a comparison result of the cumulative values of the acquired numbers for each camera. 前記獲得数の累積値が所定の複数回数以上に到達した前記カメラについて、複数の前記推定結果に基づいて前記姿勢の推定を確定させる確定部を更に備える、請求項1又は2に記載の姿勢推定装置。 The posture estimation according to claim 1 or 2, further comprising a confirmation unit for determining the posture estimation based on the plurality of estimation results for the camera in which the cumulative value of the acquired number reaches a predetermined plurality of times or more. apparatus. 前記設定部は、前記姿勢の推定が確定された前記カメラが発生すると、前記優先度を変更する、請求項3に記載の姿勢推定装置。 The posture estimation device according to claim 3, wherein the setting unit changes the priority when the camera whose posture estimation is confirmed is generated. 前記設定部は、前記カメラ毎に得られる前記獲得数の累積値の、最大数と最小数との差が所定閾値以上になると前記優先度を変更する、請求項1から4のいずれか1項に記載の姿勢推定装置。 The setting unit changes the priority when the difference between the maximum number and the minimum number of the cumulative values of the acquired numbers obtained for each camera becomes a predetermined threshold value or more, any one of claims 1 to 4. The posture estimation device described in 1. 前記設定部は、前記最大数と前記最小数との差が前記所定閾値以上になった後に前記所定閾値より小さくなった場合に前記優先度を変更する、請求項5に記載の姿勢推定装置。 The posture estimation device according to claim 5, wherein the setting unit changes the priority when the difference between the maximum number and the minimum number becomes smaller than the predetermined threshold value after becoming equal to or larger than the predetermined threshold value. 前記複数のカメラの中に、前記獲得数以外に基づく優先条件を有するカメラが存在するか否かを判断する判断部を更に備え、
前記設定部は、前記優先条件を有するカメラが存在する場合に、前記優先条件に基づいて前記優先度を設定する、請求項1から4のいずれか1項に記載の姿勢推定装置。
A determination unit for determining whether or not a camera having a priority condition other than the acquired number exists among the plurality of cameras is further provided.
The posture estimation device according to any one of claims 1 to 4, wherein the setting unit sets the priority based on the priority condition when a camera having the priority condition exists.
前記設定部は、所定のタイミングで前記優先度の変更を行うか否かを確認し、
前記所定のタイミングは、前記推定処理の順番が前記複数のカメラの全てに1回ずつ与えられる毎に発生し、
前記複数のカメラの中に前記優先度の設定により前記順番が飛ばされるカメラがある場合には、当該カメラに前記順番が与えられたとみなして前記所定のタイミングが判断される、請求項1から7のいずれか1項に記載の姿勢推定装置。
The setting unit confirms whether or not to change the priority at a predetermined timing, and confirms whether or not the priority is changed.
The predetermined timing occurs every time the order of the estimation processing is given to all of the plurality of cameras once.
Claims 1 to 7 in which, when there is a camera in which the order is skipped due to the priority setting among the plurality of cameras, the predetermined timing is determined by assuming that the order has been given to the camera. The posture estimation device according to any one of the above items.
移動体に搭載される複数のカメラのそれぞれから撮影画像を取得する取得工程と、
前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定工程と、
前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定工程と、
を備える、姿勢推定方法。
The acquisition process of acquiring captured images from each of multiple cameras mounted on the moving body,
An estimation process in which the estimation process for estimating the posture of the camera is performed based on the captured image, and
A setting step of setting the priority of the estimation process for each camera based on the number of acquisitions of the estimation result acquired by the estimation process performed for each camera.
A posture estimation method.
JP2019152642A 2019-08-23 2019-08-23 Posture estimation device and posture estimation method Active JP7236352B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019152642A JP7236352B2 (en) 2019-08-23 2019-08-23 Posture estimation device and posture estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019152642A JP7236352B2 (en) 2019-08-23 2019-08-23 Posture estimation device and posture estimation method

Publications (2)

Publication Number Publication Date
JP2021032678A true JP2021032678A (en) 2021-03-01
JP7236352B2 JP7236352B2 (en) 2023-03-09

Family

ID=74678141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019152642A Active JP7236352B2 (en) 2019-08-23 2019-08-23 Posture estimation device and posture estimation method

Country Status (1)

Country Link
JP (1) JP7236352B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159186A (en) * 2010-02-03 2011-08-18 Clarion Co Ltd Drive support device and control method of drive support device
WO2018181248A1 (en) * 2017-03-31 2018-10-04 パナソニックIpマネジメント株式会社 Imaging system and correction method
JP2018177004A (en) * 2017-04-13 2018-11-15 クラリオン株式会社 Calibration device for on-vehicle camera
JP2020060550A (en) * 2018-10-10 2020-04-16 株式会社デンソーテン Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159186A (en) * 2010-02-03 2011-08-18 Clarion Co Ltd Drive support device and control method of drive support device
WO2018181248A1 (en) * 2017-03-31 2018-10-04 パナソニックIpマネジメント株式会社 Imaging system and correction method
JP2018177004A (en) * 2017-04-13 2018-11-15 クラリオン株式会社 Calibration device for on-vehicle camera
JP2020060550A (en) * 2018-10-10 2020-04-16 株式会社デンソーテン Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system

Also Published As

Publication number Publication date
JP7236352B2 (en) 2023-03-09

Similar Documents

Publication Publication Date Title
KR101949263B1 (en) Online calibration of a motor vehicle camera system
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
JP7212486B2 (en) position estimator
KR101892595B1 (en) The surroundview system camera automatic calibration-only extrinsic parameters
CN109155066B (en) Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle
JP7270499B2 (en) Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system
CN113034616B (en) Camera external parameter calibration method and system for vehicle looking-around system and looking-around system
JP5959311B2 (en) Data deriving apparatus and data deriving method
CN115511974A (en) Rapid external reference calibration method for vehicle-mounted binocular camera
JP4872890B2 (en) Image distortion correction method
US9892519B2 (en) Method for detecting an object in an environmental region of a motor vehicle, driver assistance system and motor vehicle
JP7445415B2 (en) Posture estimation device, abnormality detection device, correction device, and posture estimation method
JP7256734B2 (en) Posture estimation device, anomaly detection device, correction device, and posture estimation method
JP7303064B2 (en) Image processing device and image processing method
JP7311407B2 (en) Posture estimation device and posture estimation method
JP2018136739A (en) Calibration device
JP6960827B2 (en) Road surface area detector
JP7236352B2 (en) Posture estimation device and posture estimation method
CN111260538B (en) Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera
CN114463439B (en) Vehicle-mounted camera correction method and device based on image calibration technology
CN112967173A (en) Image generation method, device and system
JP2011180962A (en) Drive assist device, drive assist method and program
JP6747176B2 (en) Image processing device, photographing device, program, device control system and device
JP7237773B2 (en) Posture estimation device, anomaly detection device, correction device, and posture estimation method
JP7247063B2 (en) Image processing device and stereo camera device using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7236352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150