JP2006162442A - Navigation device and navigation method - Google Patents
Navigation device and navigation method Download PDFInfo
- Publication number
- JP2006162442A JP2006162442A JP2004354519A JP2004354519A JP2006162442A JP 2006162442 A JP2006162442 A JP 2006162442A JP 2004354519 A JP2004354519 A JP 2004354519A JP 2004354519 A JP2004354519 A JP 2004354519A JP 2006162442 A JP2006162442 A JP 2006162442A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- guidance information
- information
- obstacle
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
Abstract
【課題】 矢印などの案内情報を運転の妨げにならないように実風景に重ねて表示するナビゲーション装置を提供する。
【解決手段】 経路作成部4は、自車位置取得部1と地図記憶部2と目的地設定部3から取得した自車位置情報と地図情報と目的地位置情報とに基づいて経路を作成する。案内情報特定部5は、案内情報を提示する地図上の位置と、提示する案内情報の種類を特定する。障害物検知部6は、画像認識などにより、自車の周辺ある障害物(歩行者や車両等)の位置と種類とを検知する。優先度決定部7は、各障害物の提示優先度を決定する。表示位置決定部8は、案内情報の表示位置として、検知した障害物と重ならない位置を求める。画像出力部9は、車両のフロントガラス内の決定された位置に、あるいは、前方画像を表示するディスプレイ内の決定された位置に、案内情報を出力する。
【選択図】 図1PROBLEM TO BE SOLVED: To provide a navigation device for displaying guidance information such as an arrow superimposed on an actual scenery so as not to hinder driving.
A route creation unit creates a route based on own vehicle position information, map information, and destination position information acquired from a vehicle position acquisition unit, a map storage unit, and a destination setting unit. . The guide information specifying unit 5 specifies the position on the map for presenting the guide information and the type of the guide information to be presented. The obstacle detection unit 6 detects the position and type of an obstacle (pedestrian, vehicle, etc.) around the host vehicle by image recognition or the like. The priority determination part 7 determines the presentation priority of each obstacle. The display position determination unit 8 obtains a position that does not overlap the detected obstacle as the display position of the guidance information. The image output unit 9 outputs the guide information to a determined position in the windshield of the vehicle or to a determined position in the display that displays the front image.
[Selection] Figure 1
Description
本発明は、ナビゲーション装置に関し、より特定的には、実風景上に案内情報を提示して利用者を誘導するナビゲーション装置に関する。 The present invention relates to a navigation apparatus, and more particularly to a navigation apparatus that guides a user by presenting guidance information on a real landscape.
近年、地図画像や音声を用いて利用者を目的地まで誘導する車載用ナビゲーション装置が普及している。現在普及しているナビゲーション装置では、経路誘導に用いる地図画像や前方風景画像として、DVDなどに記憶された仮想画像が利用されている。そして、運転者などの利用者は、車内に設置されたディスプレイに映し出された地図画像等を見ることによって、進むべき方向を確認する。 In recent years, in-vehicle navigation devices that guide users to their destinations using map images and sounds have become widespread. In navigation apparatuses that are currently popular, virtual images stored on a DVD or the like are used as map images and forward scenery images used for route guidance. Then, a user such as a driver confirms a direction to proceed by looking at a map image projected on a display installed in the vehicle.
ところで、経路誘導に用いる画像として、仮想画像の代わりに、自車両に設置されたカメラによって実時間で撮影された実風景画像を用いることも提案されている(例えば特許文献1)。実風景画像を用いる場合、実風景画像に進行方向を示す矢印などの案内情報を重畳した画像が、経路誘導用の画像として利用者に提示される。 By the way, as an image used for route guidance, it has also been proposed to use a real landscape image taken in real time by a camera installed in the host vehicle instead of a virtual image (for example, Patent Document 1). When a real landscape image is used, an image obtained by superimposing guidance information such as an arrow indicating the traveling direction on the real landscape image is presented to the user as an image for route guidance.
運転者が画面を見ていられる時間は限られているために、ディスプレイに表示される画像は、即座に進むべき方向を把握出来る画像であることが望ましい。実風景画像を用いれば、仮想風景画像を用いた場合よりも実際の風景との差が少ないために、運転者は短時間でかつ正確に進むべき方向を把握し得るという利点がある。
ところで、実風景画像上に案内情報が提示される場合には、利用者に提示される画像に、歩行者や信号機等も映し出されることになるが、従来のナビゲーション装置では、これらを考慮することは考えられていなかった。しかしながら、表示された案内情報の後ろに歩行者や信号機が隠されてしまうと、歩行者等に対する運転者の注意が不十分になるおそれがある。よって、安全の観点から、歩行者等を考慮して案内情報を表示することが望ましい。 By the way, when guidance information is presented on a real landscape image, pedestrians, traffic lights, etc. are also displayed in the image presented to the user, but these are taken into account in the conventional navigation device. Was not considered. However, if a pedestrian or traffic light is hidden behind the displayed guidance information, the driver's attention to the pedestrian or the like may be insufficient. Therefore, it is desirable to display guidance information in consideration of pedestrians and the like from the viewpoint of safety.
また、天候や時間帯によって車外の明るさ等が変化するので、実風景画像が用いられる場合には、これらを考慮しなければ、利用者が認識できない画像表示がなされるおそれもある。 In addition, since the brightness outside the vehicle changes depending on the weather and time zone, when an actual landscape image is used, there is a possibility that an image display that cannot be recognized by the user may be made unless these are taken into consideration.
それ故に、本発明の目的は、運転の妨げにならないように、実風景上に矢印などの案内情報を表示するナビゲーション装置を提供することである。また、本発明の別の目的は、利用者が認識しやすい案内情報を実風景上に表示するナビゲーション装置を提供することである。 Therefore, an object of the present invention is to provide a navigation device that displays guidance information such as arrows on a real landscape so as not to hinder driving. Another object of the present invention is to provide a navigation device that displays guidance information that is easy for a user to recognize on a real landscape.
上記目的を達成するために、本発明のナビゲーション装置は、実風景に重ねて表示した案内情報によって利用者を誘導するナビゲーション装置であって、1以上の案内情報の中から提示する案内情報を特定する案内情報特定部と、自車前方の風景を平面的に捉えたときの平面上の障害物の位置を特定する障害物検知部と、平面上に案内情報を表示したときに障害物との重畳面積が少ない位置を特定し、特定した位置を表示位置とする表示位置決定部と、表示位置に前記案内情報を表示する画像出力部とを備える。 In order to achieve the above object, a navigation device according to the present invention is a navigation device that guides a user based on guidance information displayed over a real landscape, and specifies guidance information to be presented from one or more pieces of guidance information. A guidance information specifying unit, an obstacle detection unit for specifying the position of an obstacle on the plane when the scenery in front of the host vehicle is planarly viewed, and an obstacle when the guidance information is displayed on the plane A display position determining unit that specifies a position with a small overlapping area, uses the specified position as a display position, and an image output unit that displays the guidance information at the display position.
また、本発明のナビゲーション装置は、地図を記憶する地図記憶部と、地図上における自車位置を取得する自車位置取得部と、地図上における目的地を設定する目的地設定部と、地図と現在地と目的地とに基づいて経路を作成する経路作成部とを更に備えていてもよい。 In addition, the navigation device of the present invention includes a map storage unit that stores a map, a vehicle position acquisition unit that acquires a vehicle position on the map, a destination setting unit that sets a destination on the map, a map, You may further provide the route creation part which produces a route based on the present location and the destination.
また、障害物検知部は、自車前方の風景画像を撮影する撮影部と、撮影部で撮影された画像を解析して障害物を特定する画像解析部とを含んでいてもよい。 The obstacle detection unit may include an imaging unit that captures a landscape image in front of the host vehicle and an image analysis unit that analyzes an image captured by the imaging unit and identifies an obstacle.
また、本発明のナビゲーション装置は、案内情報特定部が特定した案内情報と障害物検知部が検知した各障害物に、利用者に提示すべき優先順位を付する優先度決定部を更に備えていてもよい。このときに、表示位置決定部は、案内情報より優先度が高い障害物との重畳面積が少ない位置を表示位置とする。 In addition, the navigation device of the present invention further includes a priority determining unit that gives priority to be presented to the user to the guidance information specified by the guidance information specifying unit and each obstacle detected by the obstacle detecting unit. May be. At this time, a display position determination part makes a display position a position with little overlap area with an obstacle with a higher priority than guidance information.
表示位置決定部は、案内情報と障害物とが重畳するときに、案内情報の表示方法を、障害物の視認性が向上する表示方法に変更してもよい。 The display position determination unit may change the display method of the guidance information to a display method that improves the visibility of the obstacle when the guidance information and the obstacle overlap.
より具体的には、表示位置決定部は、重畳面積が低減するように、案内情報の形状を変形することを決定してもよい。また、表示位置決定部は、表示位置において、案内情報を非表示にすることを決定してもよい。 More specifically, the display position determination unit may determine to change the shape of the guide information so that the overlapping area is reduced. Further, the display position determination unit may determine to hide the guide information at the display position.
また、本発明のナビゲーション装置は、平面上における表示位置付近の色彩を判断する色彩判断部と、案内情報の色彩を、色彩判断部が判断した色彩とは異なる色彩にすることを決定する色彩決定部とをさらに備えていてもよい。 Further, the navigation device of the present invention includes a color determination unit that determines a color near the display position on a plane, and a color determination that determines that the color of the guidance information is different from the color determined by the color determination unit. May further be provided.
また、本発明のナビゲーション装置は、車両前方から入射する光の光量を取得する光量取得部と、光量取得部が取得した光量に基づいて、案内情報の輝度を決定する輝度決定部とをさらに備えていてもよい。 The navigation device of the present invention further includes a light amount acquisition unit that acquires the amount of light incident from the front of the vehicle, and a luminance determination unit that determines the luminance of the guidance information based on the light amount acquired by the light amount acquisition unit. It may be.
画像出力部は、案内情報を自車のフロントガラスに投影して表示するものであってもよい。また、画像出力部は、ディスプレイに表示した実風景画像上に案内情報を重ねて表示するものであってもよい。 The image output unit may project and display the guidance information on the windshield of the own vehicle. Further, the image output unit may display guidance information superimposed on the actual landscape image displayed on the display.
本発明に係るナビゲーション方法は、実風景に重ねて表示した案内情報によって利用者を誘導するナビゲーション装置で実行されるナビゲーション方法であって、1以上の案内情報の中から提示する案内情報を特定する案内情報特定ステップと、自車前方の風景を平面的に捉えたときの当該平面上の障害物の位置を特定する障害物検知ステップと、平面上に案内情報を表示したときに障害物との重畳面積が少ない位置を特定し、当該位置を表示位置とする表示位置決定ステップと、表示位置に案内情報を表示する画像出力ステップとを備えていてもよい。 A navigation method according to the present invention is a navigation method that is executed by a navigation device that guides a user with guidance information that is displayed over a real scene, and specifies guidance information to be presented from one or more pieces of guidance information. A guidance information identification step, an obstacle detection step for identifying the position of the obstacle on the plane when the scenery in front of the vehicle is planarly viewed, and an obstacle when the guidance information is displayed on the plane You may provide the display position determination step which specifies a position with few overlap areas, and makes the said position a display position, and the image output step which displays guidance information on a display position.
本発明に係るナビゲーション装置は、実風景上に、運転の妨げにならないように案内情報を表示することができる。すなわち、本発明に係るナビゲーション装置は、歩行者や信号機などの運転者が見落としてはならない障害物、及び、車線看板や町名看板など運転者に有用な情報を与える障害物を検知して、それらの障害物と重ならない位置に案内情報を表示する。したがって、本発明のナビゲーション装置を利用した運転者は、直感的にかつ正確に進むべき方向を把握できるだけでなく、周囲の安全にも配慮して運転を行うことができる。 The navigation device according to the present invention can display guidance information on a real landscape so as not to hinder driving. That is, the navigation device according to the present invention detects obstacles that should not be overlooked by drivers such as pedestrians and traffic lights, and obstacles that give useful information to the driver such as lane signs and town name signs. Guidance information is displayed at a position that does not overlap with other obstacles. Therefore, the driver using the navigation device of the present invention can not only intuitively and accurately grasp the direction to proceed but can also drive in consideration of the surrounding safety.
また、本発明の一局面によれば、検知された障害物に、利用者への提示優先順位が付される。そして、案内情報よりも優先度が高い障害物の視認性が、案内情報を表示することによって著しく低下しないように、案内情報の表示位置や表示方法が決定される。 In addition, according to one aspect of the present invention, a priority order for presentation to a user is assigned to a detected obstacle. And the display position and display method of guidance information are determined so that the visibility of the obstacle with a higher priority than guidance information does not fall remarkably by displaying guidance information.
また、本発明のさらに他の局面によれば、背景の色彩情報や輝度情報を基に、案内情報の色彩と輝度とを決定する。よって、表示される案内情報は利用者が認識しやすいものになる。 According to still another aspect of the present invention, the color and brightness of the guidance information are determined based on the background color information and brightness information. Therefore, the displayed guidance information is easy for the user to recognize.
(第1の実施形態)
図1は、本発明の第1の実施形態に係るナビゲーション装置の構成図である。図1に示すナビゲーション装置は、自車位置取得部1、地図記憶部2、目的地設定部3、経路作成部4、案内情報特定部5、障害物検知部6、優先度決定部7、表示位置決定部8、及び、画像出力部9を備えている。
(First embodiment)
FIG. 1 is a configuration diagram of a navigation device according to the first embodiment of the present invention. The navigation device shown in FIG. 1 includes an own vehicle
自車位置取得部1は、自車の位置情報と自車の姿勢(向き・傾き)情報とを取得する。ここで、位置情報とは、経度及び緯度で特定される場所の情報である。位置情報は、例えば、GPS(Global Positioning System)を用いたり、車速センサとジャイロセンサを組み合わせて用いたりすることによって取得できる。姿勢情報とは、自車の向き(方位)や傾きを表す情報であって、ジャイロセンサなどを用いれば取得できる。
The own vehicle
自車位置取得部1で取得される位置・姿勢情報の精度は、一般に利用されているカーナビゲーション装置が備えている自車位置取得部で取得される程度の精度であればよい。位置・姿勢情報の精度を向上させる方法としては、例えば、車速や傾きなどの情報によって自車位置を特定する自律航法を採用し、自律航法で得られた位置情報をGPS受信機で取得した位置情報で補正する手法がある。
The accuracy of the position / posture information acquired by the vehicle
なお、RealTime Kinematic−GPSを用いれば、経度緯度座標をより精度良く求めることができる。また、自律航法を採用する際に、光ジャイロを用いれば、ジャイロセンサに特有のドリフト誤差を抑えることが可能であり、姿勢情報の精度向上が期待できる。 If RealTime Kinetic-GPS is used, the longitude and latitude coordinates can be obtained with higher accuracy. Further, when adopting autonomous navigation, if an optical gyro is used, it is possible to suppress a drift error peculiar to the gyro sensor, and an improvement in accuracy of posture information can be expected.
地図記憶部2は、一般的なナビゲーション装置に用いられているデジタル形式の地図情報等を記憶する記憶部である。具体的には、HDD(Hard Disk Drive)やDVD(Digital Versatile Disk)等が地図記憶部2となり得る。
The
目的地設定部3は、利用者が目的地を設定する際に利用される。これを実現するために、目的地設定部3は、ポインティングデバイスやキーボードやリモートコントローラなどの入力部と表示部とを備えていればよい。より具体的には、ポインティングデバイスで差された地図上の位置の経緯及び緯度を取得したり、利用者が携帯電話等でインターネットサイトにアクセスして得た経度及び緯度を受信又は入力したりできる構成を備えていればよい。
The
経路作成部4は、自車位置取得部1と地図記憶部2と目的地設定部3とから取得した、自車位置姿勢情報と地図情報と目的地位置情報とを用いて、現在位置から目的地までの経路を作成する。経路を作成する方法としては、一般的に知られているダイクストラ法などの方法を用いてもよい。
The
案内情報特定部5は、案内情報を提示する地点、又は、案内情報を提示するために処理を開始する地点を特定する。また、案内情報特定部5は、複数の案内情報の中からいずれかを提示する場合には、提示する案内情報(経路誘導用画像)も特定する。
The guide
障害物検知部6は、車両の周辺に存在する歩行者や信号機など、運転者が注意しなければならないものや配慮する必要があるもの(以下、これらを総称して障害物という)を検知し、検知した障害物の位置や種類を特定して、その情報(障害物情報)を作成する。ここで、障害物の位置とは、車両前方の風景を平面的に、つまり二次元画像として捉えたときの平面上の位置である。障害物検知部6は、具体的には、カメラと画像処理装置や、赤外線レーダ装置、また、歩行者が保有する携帯電話端末や障害物に取り付けた発信機から発信された信号を受信する受信機などが考えられる。障害物検知部6は、障害物の位置と大まかな種類とを特定できるものであれば、どのような検知形態を採るものであってもよい。
The
優先度決定部7は、案内情報特定部5と障害物検知部6とでそれぞれ特定された案内情報と障害物とに、利用者にとっての重要度に応じた優先度(優先順位)を付ける。例えば、歩行者や信号機など、運転者が見落としてはならない障害物には高い優先度が付され、また、比較的遠くの前方を走行する車や自車から離れてゆく車などには、低い優先度が付される。
The
なお、案内情報は、画像出力部9から出力されるまでユーザには認知されない仮想物であり、障害物は、利用者前方に実在する現実物である。このように、案内情報と障害物とではその特性が異なっているが、ナビゲーション装置が保持する全ての案内情報と検出可能な全ての障害物に対して、予め優先度を設定しておけば、設定されている優先度を参照して、提示する案内情報と検出された障害物とに優先度を付することができる。 The guidance information is a virtual object that is not recognized by the user until it is output from the image output unit 9, and the obstacle is a real object that exists in front of the user. In this way, the characteristics of guidance information and obstacles are different, but if priority is set in advance for all guidance information held by the navigation device and all detectable obstacles, With reference to the set priority, priority can be given to the guidance information to be presented and the detected obstacle.
表示位置決定部8は、優先度決定部7によって決定された優先度に基づいて、案内情報を表示する位置を決定する。なお、ここでいう位置は、自車から見える風景を平面的に捕らえたときの、平面上の位置である。このときに、案内情報よりも優先度が高い障害物が案内情報の後ろに隠されてしまわないように、案内情報を表示する位置が選択される。基本的には、表示位置決定部8は、障害物が存在しない位置か、又は案内情報よりも優先度が低いと判断された障害物の上に案内情報を表示することを決定する。また、このような位置が無いために、優先度が高い障害物の上に案内情報を表示しなければならない場合には、表示位置決定部8は、案内情報の視認性が通常表示した場合よりも向上するような表示方法で案内表示を行うことを決定する。
The display position determination unit 8 determines a position for displaying the guidance information based on the priority determined by the
画像出力部9は、表示位置決定部8で決定された位置に案内情報を表示する。画像出力部9の具体例として、プロジェクタとスクリーンの組み合わせやディスプレイなどが挙げられる。なお、ナビゲーション装置は、画像出力部だけでなく、案内音声を出力するスピーカ(音声出力部)も備えていてもよい。 The image output unit 9 displays the guidance information at the position determined by the display position determination unit 8. Specific examples of the image output unit 9 include a combination of a projector and a screen, a display, and the like. Note that the navigation device may include not only an image output unit but also a speaker (audio output unit) that outputs guidance voice.
なお、上記各部、特に、目的地設定部3、経路作成部4、案内情報特定部5、障害物検知部6、優先度決定部7、及び表示位置決定部8で行われる処理の全部又は一部は、コンピュータプログラムにより実現されてもよい。
It should be noted that all or one of the processes performed by each of the above-described units, in particular, the
次に、本実施形態に係るナビゲーション装置のより具体的な機器構成を例に挙げて、ナビゲーション装置で行われる処理の詳細を説明する。図2に示すナビゲーション装置100は、車両位置・姿勢検出部10、HDD20、ポインティングデバイス30を備えたTFT液晶ディスプレイ35(以下、ディスプレイ35と記す)、カメラ40、演算処理部50、映像投影部90、及びスピーカ95を備える。
Next, taking a more specific device configuration of the navigation device according to the present embodiment as an example, details of processing performed in the navigation device will be described. A
ここで、図2に示す各部と図1に示す各部との対応を説明する。図2に示す車両位置・姿勢検出部10は、図1に示す自車位置取得部1に相当する。車両位置・姿勢検出部10は、GPS受信部11及びジャイロセンサ12を備える。HDD20は、図1に示す地図記憶部2に相当する。ポインティングデバイス30、ディスプレイ35、地図データ等を記憶したHDD20、及び演算処理部50で、図1に示す目的地設定部3が実現される。カメラ40及び演算処理部50で障害物検知部6が実現される。演算処理部50は、この他にも、図1に示す経路作成部4、案内情報特定部5、優先度決定部7、及び表示位置決定部8としての機能も果たす。そして、映像投影部90とスピーカ95とは、図1に示す画像出力部9に相当する。映像投影部90は、プロジェクタ91とスクリーン92とを備える。
Here, correspondence between each unit shown in FIG. 2 and each unit shown in FIG. 1 will be described. The vehicle position /
なお、ナビゲーション装置100は、電源を自車から取得する構成になっていることが望ましい。例えば、ナビゲーション装置100をアクセサリ電源に接続しておき、自車のエンジンがオン状態のときにはナビゲーション装置が動作モードに、また、オフ状態のときには省電力待機モードになるようにしてもよい。
In addition, as for the
演算処理部50は、CPU51、ROM52、及びRAM53を備えている。ROM52には、画像表示位置のキャリブレーション、経路作成処理、障害物検知処理、優先度決定処理、及び案内情報表示位置決定処理などの処理を行うためのプログラムが記憶されている。
The
HDD20は、地図データを記憶している。HDD20が保持する最低限の地図データとしては、経路探索処理に必要な道路ネットワーク情報データ、目的地を決定する際に利用されるランド情報情報データ、及び地名情報データなどが考えられる。
The
HDD20は、案内情報のテンプレート画像も記憶している。図3(a)〜(c)は、案内情報のテンプレート画像の一例であって、(a)は右折誘導の際に表示する案内情報131、(b)は左折誘導の際に表示する案内情報132、(c)は目的地を示す案内情報133である。案内情報131又は案内情報132を提示する場合には、交差点までの距離を情報の付近に数値表示するようにしてもよい。案内情報133は、利用者の視野内に目的地が存在するときに提示する情報である。
The
上記以外にも、HDD20は、優先度テーブル(図10参照)も記憶している。ここで、優先度テーブルとは、案内情報や障害物の名称と、その案内情報や障害物の優先度が記載されたテーブルである。
In addition to the above, the
映像投影部90は、Head Up Display(以下、HUDと記す)用のプロジェクタ91と背面投影型スクリーン92(以下、スクリーン92という)とを備えている。図4に示すように、プロジェクタ91とスクリーン92とは、車両101の内部に配置される。
The
プロジェクタ91が出力した画像は、スクリーン92を透過してフロントガラス102に投影される。このときに、フロントガラス102で反射した画像は、虚像130として運転者に認識される。この虚像130は、利用者には、フロントガラス102の前方の、スクリーン92とフロントガラス102との間の距離だけ離れた位置に浮かび上がって見える。
The image output by the
カメラ40は、撮影される画像と利用者が見ている風景とがほぼ一致するように、利用者の目線位置に固定されることが望ましい。カメラ40は、CCDカメラやCMOSカメラなど、撮影された画像を画素単位で解析可能なカメラであればよい。なお、カメラ40が障害物の検知のみに用いられて、撮影された画像が利用者の目に触れないのであれば、すなわち、ディスプレイ35に表示されないのであれば、カメラ40の解像度は、障害物を特定できる程度あれば十分である。
The
図3(a)に示した案内情報131をプロジェクタ91がスクリーン92に投影したときに、カメラ40は図5に示すような案内情報135が表示された風景画像を撮影する。また、図5に示す風景は、利用者がフロントガラス102を通して見る風景でもある。図5において、町名看板140、信号機141、車線看板142、道路143、及び建物144は実在物である。そして、これらの実在物の手前に、虚像である案内情報135が浮かんで見えている。
When the
HUDを用いれば、図5に示すように、利用者の前方の実風景上に案内情報135を表示することができるので、利用者は、視線を移動させずに案内情報135を確認して、進路を把握することができる。なお、HUDは、主に航空機などに利用されてきたが、最近では車速等を焦点表示する車載用のものも一般的になっている。
If the HUD is used, the
プロジェクタ91は、案内情報135の明るさを2000lm程度で表示できるものであれば、現在一般的に利用されているものを利用してもよい。画像の輝度は、プロジェクタ91とスクリーン92との距離によって変化する。すなわち、プロジェクタ91とスクリーン92との距離が長くなれば、スクリーン92上に投影される画像のサイズは大きくなって、画像の輝度は下がる。
As long as the
なお、一般に、日中の屋外の輝度は約10,000カンデラパー平方メートル(cd/m2)と知られているが、フロントガラス102に施された減光処理によって、車内から見た車外の輝度はこれよりも下がる。そのため、日中でも、フロントガラス102に1,800(cd/m2)の輝度値で案内情報131が投影されていれば、案内情報135を十分に認識することができる。
In general, the outdoor brightness during the day is known to be about 10,000 candelaper square meters (cd / m 2 ), but the brightness outside the vehicle viewed from the inside of the vehicle is reduced by the dimming process applied to the
次に、本実施形態に係るナビゲーション装置100で行われる処理を、図6及び図7のフローチャートと図8を用いてより具体的に説明する。ナビゲーション装置100が起動されると、まず、車両位置・姿勢検出部10は、GPS受信部11及びジャイロセンサ12を用いて位置情報と姿勢情報(初期位置・姿勢情報)を取得する(ステップS11)。このときに、姿勢情報は、前回エンジンを停止した際に取得していた姿勢情報をそのまま用いてもよいし、磁気コンパスを用いて真方向を求めてもよい。走行中の姿勢情報は、初期値からの変化量に基づいて求められる。
Next, the process performed by the
次に、画像投影部90とカメラ40とを用いて、画像投影位置のキャリブレーションが行われる(ステップS12)。このキャリブレーションは、プロジェクタ91のどの位置から投影した画像が、利用者前方のどの位置に表示されて見えるかを把握するために行われる。より具体的には、キャリブレーションは、プロジェクタ91が投影した画像をカメラ40で撮影し、撮影された画像を解析することによって行われる。なおキャリブレーション方法の詳細な例については後述する。
Next, the image projection position is calibrated using the
ステップS12でキャリブレーションが終了すると、ディスプレイ35には目的地設定用の画面が表示される。ここで、目的地設定用の画面とは、住所入力画面や地図画面である。利用者は、ポインティングデバイス30を用いて、ディスプレイ35に表示された都道府県名や市町村名から目的地の住所を選択したり、表示された地図上の目的地を差し示したりして、目的地の経度及び緯度を特定する。特定された目的地の経度及び緯度は、演算処理部50に入力されて、RAM53に記憶される。
When calibration is completed in step S12, a screen for destination setting is displayed on the
次に、演算処理部50は、ステップS11で取得した初期位置・姿勢情報と、ステップS13で設定した目的地情報と、HDD20に保持されている地図情報とを用いて、経路情報を作成する(ステップS14)。ダイクラストラ法などを用いた経路作成方法は、現在のナビゲーション装置でも一般的に利用されているので、本明細書では説明を省略する。
Next, the
なお、前方風景の輝度が高いと、画像投影部90から投影された画像の視認性が低下するので、例えば夕方であれば、西日が直接入射しない経路を選択するように重みを付けて経路を選択してもよい。
Note that if the brightness of the front landscape is high, the visibility of the image projected from the
経路が作成されると、演算処理部50は、作成した経路上の案内情報を提示する地点(以下、案内情報提示地点という)を、経度及び緯度で特定する(ステップS15)。特定された経度及び緯度はRAM53に記憶される。
When the route is created, the
より具体的には、演算処理部50は、ステップS14で作成された経路情報に、案内情報提示地点の条件を照らし合わせて、条件に当てはまる地点の経緯度を、条件毎に特定する。ここで案内情報提示地点とは、例えば右折又は左折する交差点の手前700m、300m、100m、及び10mといった地点である。このような条件は予めRAM53等に記憶しておく。そして、演算処理部50で特定された案内情報提示地点データは、その地点で提示する案内情報のデータと関連付けられてRAM53等に記憶される。
More specifically, the
ステップS15において案内情報提示地点が特定されると、演算処理部50は、車両位置・姿勢検出部10から現在地情報を取得して(ステップS16)、現在の車両位置がステップS15で決定された案内情報提示地点か否かを判定する(ステップS17)。判定の結果、案内情報提示地点でなければ(ステップS17のNO)、再度現在地情報が取得される(ステップS16)。
When the guidance information presentation point is specified in step S15, the
一方、案内情報提示地点であると判定された場合には(ステップS17のYES)、演算処理部50は、その地点で提示する案内情報を特定する(図7のステップS21)。このときにCPU51は、図8(a)に示すように、提示する案内情報に関する情報(名称やキーワード等)を、RAM53の対象物テーブルに書き込む。
On the other hand, when it is determined that the point is the guidance information presentation point (YES in step S17), the
次に、障害物検知処理が行われる(ステップS22)。より具体的には、まず、カメラ40で車両前方の風景が撮影される。そして、撮影された画像が、演算処理部50で画像処理されて、画像内の信号や歩行者などの障害物が検出される。また、障害物が車やバイクである場合には、接近速度も測定される。CPU51は、検出された障害物の名称や接近速度などの情報を、図8(b)に示すように、RAM53の対象物テーブルに書き込む。なお、接近速度は、例えば、カメラ40が取得した画像から車両やバイクを抽出し、次に、車両等が存在する領域をステレオ撮影して車両等までの距離を測定し、時間当たりの距離の変化を算出することにより得られる。
Next, an obstacle detection process is performed (step S22). More specifically, first, a scene in front of the vehicle is photographed by the
ステップS22で行われる画像処理方法としては、色情報やパターンマッチングによって物体の種類を特定する方法等が考えられる。例えば、車線看板は青色で矩形状をしているので、色情報とパターンマッチングを用いれば特定可能である。なお、パターンマッチングなどの障害物検知処理を行う際には、障害物でないものを障害物と誤認識することよりも、障害物を見逃してしまうことの方が利用者にとって危険であるため、障害物検出のためのパラメータ(閾値)の設定は甘めにしておくことが望ましい。 As an image processing method performed in step S22, a method of specifying the type of an object by color information or pattern matching can be considered. For example, since the lane sign is blue and rectangular, it can be specified by using color information and pattern matching. When performing obstacle detection processing such as pattern matching, it is more dangerous for the user to miss an obstacle than to misrecognize an obstacle that is not an obstacle. It is desirable to set a parameter (threshold value) for detecting an object softly.
次に、演算処理部50は、優先度決定処理を行い(ステップS23)、次いで表示位置選定処理を行う(ステップS24)。そして、プロジェクタ91は、優先度決定処理及び表示位置選定処理で決定された案内情報の表示位置に、決定された表示方法で案内情報を投影する(ステップS25)。投影が終わると、現在位置情報が取得されて(ステップS26)、現在地が目的地であるか否かが判断される(ステップS27)。目的地に到達していなければ(ステップS27のNO)、図6のステップS17に戻る。また、目的地に到達した場合には(ステップS27のYES)、ナビゲーション装置は経路誘導を終了する。
Next, the
ここで、ステップS23の優先度決定処理の詳細を、図9のフローチャートと図10及び図11を用いて説明する。 Details of the priority determination process in step S23 will be described with reference to the flowchart of FIG. 9 and FIGS.
まず、CPU51は、RAM53の対象物テーブルに記載された各対象物に、優先度を付ける(図9のステップS31)。このときに、図10に示す優先度テーブルが参照される。
First, the
図10に示す優先度テーブルには、対象物の名称と接近速度、優先度、及び補足情報が記載されている。優先度テーブルの優先度欄に記載されている数値のうち、「0」は、最も優先度が高いことを示しており、数値が大きくなる程優先度が低いことを示している。 In the priority table shown in FIG. 10, the name of the object, the approach speed, the priority, and supplementary information are described. Of the numerical values described in the priority column of the priority table, “0” indicates that the priority is the highest, and the higher the numerical value, the lower the priority.
図10に示す優先度テーブルでは、案内情報の優先度を、交差点までの距離に応じて変化させている。例えば、交差点手前700mで提示する案内情報よりも、交差点手前300mで提供する案内情報の方が、利用者には有益な情報であると考えられるために、交差点手前700mで提示する案内情報の優先度を「4」とし、交差点手前300mで表示する案内情報の優先度を「3」としている。 In the priority table shown in FIG. 10, the priority of guidance information is changed according to the distance to the intersection. For example, the guidance information provided at 300 m before the intersection is considered to be more useful to the user than the guidance information presented at 700 m before the intersection. Therefore, priority is given to the guidance information presented at 700 m before the intersection. The degree is “4”, and the priority of the guidance information displayed 300 m before the intersection is “3”.
なお、走行地などによって障害物の重要度は異なる場合もあるので、図10に示す優先度テーブルの内容や優先度の高さは、利用者が変更できるようにしておいてもよい。 Since the importance of the obstacle may vary depending on the traveling place, the contents of the priority table shown in FIG. 10 and the high priority may be changed by the user.
また、図10に示す優先度テーブルでは、障害物が車両である場合には、接近速度によって優先度を異ならせている。これは、同じ車線上で同方向に走行する車であっても、反対車線を走行する車であっても、自車との相対速度によって利用者への危険度が異なると考えられるためである。したがって、図10に示す優先度テーブルでは、相対速度が小さい車両ほど、優先度を高く設定している。 In the priority table shown in FIG. 10, when the obstacle is a vehicle, the priority is varied depending on the approach speed. This is because it is considered that the risk to the user differs depending on the relative speed with the own vehicle whether it is a vehicle traveling in the same direction on the same lane or a vehicle traveling in the opposite lane. . Therefore, in the priority table shown in FIG. 10, the priority is set higher for a vehicle having a lower relative speed.
なお、図10に示す優先度テーブルの右端欄にある補足情報を用いて、さらに優先度を詳細に設定することも考えられる。一例を挙げると、「右折レーン」を示す車線看板が障害物として検出されたときに、利用者にとってのその車線看板の重要度は、前方の交差点を右折する場合と直進する場合とで異なる。したがって、右折レーンの車線看板が検出されたときに右折する場合には、優先度テーブルに記載されている値よりも1つ高い優先度の値を対象物テーブルに書き込むようにしてもよい。 Note that it is also possible to set the priority in more detail using the supplementary information in the right end column of the priority table shown in FIG. For example, when a lane sign indicating a “right turn lane” is detected as an obstacle, the importance of the lane sign for the user differs depending on whether the vehicle turns right at an intersection ahead. Therefore, when a right turn is detected when a lane sign in a right turn lane is detected, a priority value that is one higher than the value described in the priority table may be written in the object table.
図11(a)は、優先度が書き込まれた後の対象物テーブルを示している。対象物テーブルへの優先度の書き込みが終了すると、次に、演算処理部50は、対象物テーブルに記載されている障害物のうち、案内情報と優先度が同じものが存在するか否かを判断する(図9のステップS32)。案内情報と同じ優先度の障害物が存在した場合(ステップS32のYES)、演算処理部50は、該当する障害物の優先度が、現在の優先度よりも1つ高くなるように優先度の値を書き換える(ステップS34)。例えば、図11(a)に示す車両1の優先度は、案内情報と同じ「3」であるので、対象物テーブルの車両1の優先度は、図11(b)に示すように「2」に書き換えられる。
FIG. 11A shows the object table after the priority is written. When the writing of the priority to the object table is completed, the
案内情報と同じ優先度の全ての障害物について、優先度が変更された後には(ステップS33)、又は、案内情報と同じ優先度の障害物が始めから存在しなかったときには(ステップS32のNO)、対象物テーブルに記載されている優先度の値が確定値とされる(ステップS34)。以上に説明した処理後の優先度が記載された、図11(b)に示す対象物テーブルでは、案内情報の優先度よりも低い優先度の障害物は、町名看板だけになっている。 After all the obstacles having the same priority as the guidance information have been changed (step S33), or when no obstacle having the same priority as the guidance information has been present from the beginning (NO in step S32) ), The priority value described in the object table is set as the final value (step S34). In the object table shown in FIG. 11B in which the priorities after processing described above are described, the only obstacle with a priority lower than the priority of the guidance information is the town name signboard.
以上によって、優先度決定処理が行われた後には、表示位置選定処理が行われる。表示位置選定処理については、図12及び図13のフローチャートと、図14とを用いて説明する。 As described above, after the priority determination process is performed, the display position selection process is performed. The display position selection process will be described with reference to the flowcharts of FIGS. 12 and 13 and FIG.
まず、演算処理部50は、障害物検知処理のためにカメラで撮影された画像における重要障害物が存在する領域(以下、重要障害物存在領域150という)を特定する(図12のステップS41)。ここで、重要障害物存在領域150とは、図14に示す破線で囲まれた四角形領域であって、提示する案内情報よりも優先度が高いと判断された障害物(重要障害物)を完全に含む領域である。図14に示す町名看板140のように、提示する案内情報よりも優先度が低い障害物が存在する領域は、重要障害物存在領域150には含まれない。
First, the
次に、演算処理部50は、表示しようとしている案内情報の情報をHDD20から読み出して、その情報の大きさを特定する(ステップS42)。ここで、案内情報の大きさとは、通常表示する場合の案内情報の縦及び横方向の長さである。
Next, the
次に、演算処理部50は、案内情報を通常の大きさで表示できる領域(以下、通常表示可能領域という)を探索する(ステップS43)。具体的には、例えば、図14に示すように、ステップS42で特定された大きさの探索窓160を画面の左上から順にスライドさせて、探索窓160と重要障害物領域150との重畳面積が最小となる領域を検索し、重畳面積が0となる領域を通常表示可能領域とすることが考えられる。また、重畳面積が0となる領域が存在しなかった場合でも、CPU51は、重畳面積が最小となる領域の位置情報をRAM53に記憶する。
Next, the
重畳面積が0となる通常表示可能領域が存在すれば(ステップS44)、その位置を案内情報表示位置とすることが決定される(ステップS45)。また、通常表示可能領域が存在しなければ(ステップS44のNO)、その案内情報の優先度を対象物テーブルから読み出して、その値が所定値より低いか否かが判断される(図13のステップS51)。 If there is a normal displayable area in which the overlapping area is 0 (step S44), it is determined that the position is the guidance information display position (step S45). If there is no normal displayable area (NO in step S44), the priority of the guidance information is read from the object table, and it is determined whether the value is lower than a predetermined value (FIG. 13). Step S51).
案内情報の優先度が所定値未満であると判断された場合には(ステップS51のYES)、案内情報を表示しないことが決定される(ステップS52)。例えば、所定値を2とした場合には、優先度が3及び4である交差点手前300m及び700mで提示する案内情報は表示されない。判断に用いる所定値は、利用者が変更できるようになっていてもよい。なお、案内情報を提示しないことが決定された場合には、音声による案内のみを行うようにしてもよい。 If it is determined that the priority of the guidance information is less than the predetermined value (YES in step S51), it is determined not to display the guidance information (step S52). For example, when the predetermined value is 2, guidance information presented at 300 m and 700 m before the intersections with priorities of 3 and 4 is not displayed. The predetermined value used for the determination may be changeable by the user. When it is determined not to present the guidance information, only voice guidance may be performed.
また、案内情報の優先度が所定値未満でないと判断された場合には(ステップS51のNO)、ステップS43で特定された、探索窓160との重畳面積が最小であった領域に案内情報を表示するための処理が行われる。そのために、まず、ステップS43で特定された領域の大きさにまで案内情報を変形することが可能か否かが判断される(ステップS53)。
If it is determined that the priority of the guide information is not less than the predetermined value (NO in step S51), the guide information is displayed in the region that is specified in step S43 and has the smallest overlap area with the
図15(a)に示す通常の大きさの案内情報を変形する一つの方法としては、図15(b)に示すように、単純に画像の縦方向と横方向とを縮小する方法がある。また、別な方法として、図15(c)に示すように、案内情報の上の部分と下の部分とで縮小率をに変化させる方法もある。この方法は、通常の大きさで表示すると、案内情報の上の部分だけが障害物エリアに入ってしまう場合に有効である。 One method for transforming the normal size guide information shown in FIG. 15A is to simply reduce the vertical and horizontal directions of the image as shown in FIG. 15B. As another method, as shown in FIG. 15C, there is a method of changing the reduction ratio between the upper part and the lower part of the guidance information. This method is effective when only the upper part of the guidance information enters the obstacle area when displayed in a normal size.
案内情報の画像情報には、識別できる最低限の大きさまで変形した際の変形度合いを表す変形限界値情報を付加しておく。そして、ステップS53では、表示しようとしている領域の大きさにまで案内情報を縮小した場合に、変形値がその案内情報の変形限界値を超えるか否かが判断される。演算処理部50は、変形値が変形限界値を超えない場合には変形可能と判断して(ステップS53のYES)、案内情報の変形を決定する(ステップS54)。一方、変形値が変形限界値を超える場合には(ステップS53のNO)、演算処理部50は、表示方法を変更することを決定する(ステップS56)。なお、表示する案内情報が文字である場合には、変形によって認識できなくなる可能性が高いので、文字情報は変形不可能な情報として取り扱えばよい。
Deformation limit value information indicating the degree of deformation when deformed to a minimum size that can be identified is added to the image information of the guide information. In step S53, when the guidance information is reduced to the size of the area to be displayed, it is determined whether or not the deformation value exceeds the deformation limit value of the guidance information. If the deformation value does not exceed the deformation limit value, the
変更後の表示方法は、通常の表示を行った場合よりも視認性が向上するような表示方法であればよい。視認性が向上する方法としては、例えば、表示時間を通常よりも短縮したり、点滅表示したり、案内表示の色彩を淡色化したりする方法などが考えられる。 The display method after the change may be a display method that improves the visibility as compared with the case of performing normal display. As a method of improving the visibility, for example, a method of shortening the display time than usual, blinking, or lightening the color of the guidance display can be considered.
次に、前述したステップS12の画像投影位置のキャリブレーション方法の一例を、図16〜図18を用いて説明する。図16(a)に示す画像は、キャリブレーションに使用されるテストパターンの一例である。このテストパターン180は、方形の4隅のうち対角に位置する2隅がマーキングされている。このようなテストパターン180は、図17に示すように、プロジェクタ91からスクリーン92を介して、フロントガラス102に投影される。キャリブレーションは、プロジェクタ91が投影する画像と、投影した画像をカメラ40で撮影した画像とを用いて行われる。
Next, an example of the image projection position calibration method in step S12 described above will be described with reference to FIGS. The image shown in FIG. 16A is an example of a test pattern used for calibration. In this
なお、テストパターンには、図16(b)に示すような方形の4隅をマーキングしたテストパターン181を用いてもよいし、図16(c)に示すような格子状のテストパターン182を用いてもよい。テストパターン182を用いる場合には、各グリッドの色を異ならせておけば、複雑な計算を行わなくとも、各グリッドが投影された位置を知ることができる。
The test pattern may be a
図18(a)及び(b)は、プロジェクタ91が投影する画像183と、そのときにカメラ40で撮影される画像184とを示している。プロジェクタ91が投影する画像位置と撮影された画像位置との対応関係を示すデータは、RAM53又はHDD20に記憶される。つまり、図18(a)に示す左上から一番目の画素は、カメラ40の画素部の左上から1番目とその右隣である2番目の画素に対応するというように、対応表が作成されて記憶される。キャリブレーションで設定された目盛りは、障害物検知処理(図7のステップ22)や表示位置選定処理(ステップS24)等で利用される。
18A and 18B show an
なお、カメラ40やプロジェクタ91の設置位置や向きが頻繁に変更されないのであれば、複数回の起動につき1回だけキャリブレーションが行われるようにしてもよい。また、キャリブレーション精度が保証される場合には、複数画素を単位として扱うようにして、情報処理量や保存するデータ量を低減してもよい。
If the installation position and orientation of the
なお、本実施形態では、映像投影部90にHUDを用いた場合を例に説明したが、HUDを用いずに、カメラ40で撮影した前方風景画像に案内情報画像を重畳した画像を、ディスプレイ35に表示するようにしてもよい。なお、本発明のナビゲーション装置をバイクとヘルメットとに取り付ける構成にして、バイザーに案内情報を表示すれば、提供される情報量が少ないバイクのナビゲーション装置としても利用できる。
In the present embodiment, the case where the HUD is used for the
本実施形態に係るナビゲーション装置は、実風景に重ねて案内情報を表示する際に、歩行者や信号機などの運転者が見落としてはならない障害物、及び、車線看板や町名看板など運転者に有用な情報を与える障害物を検知して、その優先度を決定する。そして、案内情報よりも優先度が高い障害物の視認性が、案内情報を表示することによって著しく低下しないように、案内情報の表示位置や表示方法が決定される。したがって、表示された案内情報が運転の妨げになるようなことがない。よって、本実施形態に係るナビゲーション装置を利用した運転者は、直感的にかつ正確に進むべき方向を把握出来るだけでなく、周囲の安全にも配慮して運転することができる。 The navigation device according to the present embodiment is useful for obstacles that should not be overlooked by drivers such as pedestrians and traffic lights, and drivers such as lane signs and town name signs when displaying guidance information over a real landscape. Detect obstacles that give the correct information and determine their priority. And the display position and display method of guidance information are determined so that the visibility of the obstacle with a higher priority than guidance information does not fall remarkably by displaying guidance information. Therefore, the displayed guidance information does not hinder driving. Therefore, the driver using the navigation device according to the present embodiment can not only intuitively and accurately grasp the direction to travel, but can also drive in consideration of the safety of the surroundings.
(第2の実施形態)
図19は、本発明の第2の実施形態に係るナビゲーション装置の構成図である。本実施形態に係るナビゲーション装置は、案内情報の視認性の向上を目的として、第1の実施形態に係るナビゲーション装置に、車外光量取得部201、彩度取得部202、及び輝度・彩度決定部203を付加した構成になっている。なお、本実施形態で説明するナビゲーション装置の構成要素のうち、第1の実施形態ですでに説明した構成要素と同じ構成要素には同じ符号を付けて説明を省略する。
(Second Embodiment)
FIG. 19 is a configuration diagram of a navigation device according to the second embodiment of the present invention. The navigation device according to the present embodiment is the same as the navigation device according to the first embodiment except for the vehicle exterior light
車外光量取得部201は、自車前方風景の輝度情報を取得する。彩度取得部202は、
表示位置決定部8で決定された案内情報を表示する領域付近の彩度情報を取得する。そして、輝度・彩度決定部203は、車外光量取得部201で取得された輝度情報と、彩度取得部202で取得された彩度情報とに基づいて、表示する案内情報の輝度と彩度とを決定する。画像出力部9は、表示位置決定部8で決定された位置に、輝度・彩度決定部203で決定された輝度及び彩度で案内情報を表示する。
The vehicle exterior light
The saturation information in the vicinity of the area where the guide information determined by the display position determination unit 8 is displayed is acquired. The luminance /
次に、ナビゲーション装置のより具体的な機器構成を例に挙げて、本実施形態に係るナビゲーション装置で行われる処理の詳細を説明する。図20に示すナビゲーション装置200は、第1の実施形態で図2を用いて説明したナビゲーション装置に、輝度計測部210を付加した構成になっている。
Next, taking a more specific device configuration of the navigation device as an example, details of processing performed by the navigation device according to the present embodiment will be described. A
ここで、図20に示す各部と図19に示す各部との対応を簡単に説明する。図20に示す輝度計測部210は、図19に示す車外光量取得部201に相当する。輝度計測部210は、自車両の前方方向から入射する光の輝度を計測するために設けられる。図19に示す彩度取得部202と輝度・彩度決定部203は、カメラ40と演算処理部50との組み合わせによって実現される。
Here, the correspondence between each unit shown in FIG. 20 and each unit shown in FIG. 19 will be briefly described. The
図21は、ナビゲーション装置200で行われる処理の一部を示すフロー図である。ナビゲーション装置200では、図6及び図21に示す処理が行われる。図21に示す処理は、図7に示す処理にステップS28の処理を追加したものである。ステップS28の処理の詳細は、図22のフロー図を用いて説明する。なお、図21に記載している処理のうち、第1の実施形態で図7を用いて説明した処理と同じ処理には、同じステップ番号を付して説明を省略する。
FIG. 21 is a flowchart showing a part of the processing performed in the
案内情報を表示する位置は、図21のステップS24の表示位置決定処理によって決まることは、第1の実施形態で説明した通りである。この処理によって、図23に示す車両前方風景画像上の、太破線で囲まれた領域230に案内情報を表示することが決定された後に、CPU51は、輝度計測部210で計測された車外の輝度を取得する(図22のステップS61)。取得された輝度はRAM53に記憶される。
As described in the first embodiment, the position for displaying the guidance information is determined by the display position determination process in step S24 of FIG. After determining that the guidance information is to be displayed in the
次に、演算処理部50は、図23に示す画像のうち、案内情報を表示する領域230、又は、案内情報を表示する領域よりも一回り大きな領域240の色彩情報を取得する(ステップS62)。なお、色彩情報を取得する領域の広さを、領域230にするか領域240にするかは、予め定めておけばよい。
Next, the
色彩情報の検出方法としては、領域230又は240に含まれる各画素が取得した彩度の平均を求める方法などが考えられるが、領域230又は240の代表的な色の情報を取得できる方法であれば、どのような方法を用いても構わない。
As a method for detecting color information, a method of obtaining an average of the saturations acquired by the respective pixels included in the
次に、演算処理部50は、取得した色彩情報に基づいて、表示する案内情報の色彩を決定する(図22のステップS63)。例えば、図23に示す画像において、案内情報を表示する領域230に、緑色の葉が茂った木が写っており、ステップS62で特定された領域230の色が緑色であったとする。この領域に、背景色と同色である緑色で案内情報が表示された場合には、利用者は案内情報を認識できないおそれがある。従って、演算処理部50は、案内情報の色を領域230の色彩とは異なる色彩で表示するために、案内情報の色彩を決定する。色彩の決定方法には、図24に示すCIE表色系などを用いて、色度の距離が離れているものを選択する方法などが考えられる。
Next, the
なお、ステップS62において、領域230又は240の内部全体の色情報を求めずに、領域230又は240の内部のうち、案内情報135の外側の色情報だけを求めるようにすれば、案内情報の色彩をより認識しやすい色彩にすることができる。
In step S62, if only the color information outside the
色彩が決定されると、演算処理部50は、提示する案内情報の輝度を決定する(ステップS64)。このときに、案内情報の輝度値は、案内情報の周囲と案内情報とのコントラスト比が、利用者にとって適当なコントラスト比になるように設定するとよい。HUDを用いてフロントガラスに画像を投影する場合、最も低い輝度は、前方からフロントガラスに入射する光の輝度である。また、最も高い輝度は、プロジェクタが投影する白色画像の輝度である。演算処理部50は、前方から入射する光と投影する画像とのコントラスト比が所定値以上になるように、望ましくは1:20程度になるように、投影する画像の輝度を決定する。
When the color is determined, the
トンネルなど暗い場所を通過するときに、トンネル外の明るい場所と同じ輝度で案内情報が表示されると、案内情報が明るすぎて、利用者の運転の妨げになるおそれがある。また、常時同じ色で案内情報が表示されていると、背景に案内情報が埋もれてしまうおそれもある。本実施形態に係るナビゲーション装置は、背景の色彩情報や輝度情報を基に案内情報の色彩と輝度とを決定するために、提示される案内情報は利用者が認識しやすいものになる。 When the guidance information is displayed with the same brightness as that of a bright place outside the tunnel when passing through a dark place such as a tunnel, the guidance information is too bright and may hinder the user's driving. Further, if the guidance information is always displayed in the same color, the guidance information may be buried in the background. Since the navigation apparatus according to the present embodiment determines the color and brightness of the guidance information based on the background color information and the brightness information, the presented guidance information is easily recognized by the user.
なお、映像投影部90として、HUDを用いる場合には、予め、プロジェクタの投影出力と投影された画像の輝度との関係を求めておけば、所望の輝度値で表示するために必要な出力が分かる。画像の輝度は、輝度計測部210を用いて測定してもよいし、投影出力と画像投影位置までの距離と投影先(フロントガラス)の反射率を基に演算して求めてもよい。なお、輝度計測部210を設けない場合には、車外の輝度はカメラ40が撮影した画像のから求めるようにしてもよい。
When HUD is used as the
本発明のナビゲーション装置は、実風景に重ねて表示した案内情報によって利用者を誘導する、車両等に搭載されるナビゲーション装置等として有用である。 INDUSTRIAL APPLICABILITY The navigation device of the present invention is useful as a navigation device or the like mounted on a vehicle or the like that guides a user with guidance information displayed over a real landscape.
1 自車位置取得部
2 地図記憶部
3 目的地設定部
4 経路作成部
5 案内情報特定部
6 障害物検知部
7 優先度決定部
8 表示位置決定部
9 画像出力部
201 車外光量取得部
202 彩度取得部
203 輝度・彩度決定部
DESCRIPTION OF
Claims (12)
1以上の案内情報の中から提示する案内情報を特定する案内情報特定部と、
自車前方の風景を平面的に捉えたときの当該平面上の障害物の位置を特定する障害物検知部と、
前記平面上に前記案内情報を表示したときに前記障害物との重畳面積が少ない位置を特定し、当該位置を表示位置とする表示位置決定部と、
前記表示位置に前記案内情報を表示する画像出力部とを備えたナビゲーション装置。 A navigation device that guides a user with guidance information displayed over a real landscape,
A guide information specifying unit for specifying guide information to be presented from one or more guide information;
An obstacle detection unit for identifying the position of the obstacle on the plane when the scenery in front of the vehicle is captured in a plane,
A display position determination unit that identifies a position with a small overlapping area with the obstacle when the guidance information is displayed on the plane, and sets the position as a display position;
A navigation apparatus comprising: an image output unit that displays the guidance information at the display position.
前記地図上における自車位置を取得する自車位置取得部と、
前記地図上における目的地を設定する目的地設定部と、
前記地図と前記自車位置と前記目的地とに基づいて経路を作成する経路作成部とを更に備えた、請求項1に記載のナビゲーション装置。 A map storage unit for storing a map;
A vehicle position acquisition unit for acquiring the vehicle position on the map;
A destination setting unit for setting a destination on the map;
The navigation apparatus according to claim 1, further comprising a route creation unit that creates a route based on the map, the vehicle position, and the destination.
自車前方の風景画像を撮影する撮影部と、
前記撮影部で撮影された画像を解析して前記障害物を特定する画像解析部とを含む、請求項1に記載のナビゲーション装置。 The obstacle detection unit is
A shooting unit for shooting landscape images in front of the vehicle;
The navigation apparatus according to claim 1, further comprising: an image analysis unit that analyzes an image captured by the imaging unit and identifies the obstacle.
前記表示位置決定部は、前記案内情報より優先度が高い障害物との重畳面積が少ない位置を表示位置とすることを特徴とする、請求項1に記載のナビゲーション装置。 A priority determining unit that assigns a priority to be presented to the user to the guidance information identified by the guidance information identifying unit and each obstacle detected by the obstacle detection unit;
The navigation device according to claim 1, wherein the display position determination unit sets a position where an overlapping area with an obstacle having a higher priority than the guidance information is small as a display position.
前記案内情報の色彩を、前記色彩判断部が判断した色彩とは異なる色彩にすることを決定する色彩決定部とをさらに備えた、請求項1に記載のナビゲーション装置。 A color judgment unit for judging a color near the display position on the plane;
The navigation device according to claim 1, further comprising a color determination unit that determines that the color of the guidance information is a color different from the color determined by the color determination unit.
前記光量取得部が取得した光量に基づいて、前記案内情報の輝度を決定する輝度決定部とをさらに備えた、請求項1に記載のナビゲーション装置。 A light amount acquisition unit for acquiring the amount of light incident from the front of the vehicle;
The navigation device according to claim 1, further comprising: a luminance determination unit that determines luminance of the guidance information based on the light amount acquired by the light amount acquisition unit.
1以上の案内情報の中から提示する案内情報を特定する案内情報特定ステップと、
自車前方の風景を平面的に捉えたときの当該平面上の障害物の位置を特定する障害物検知ステップと、
前記平面上に前記案内情報を表示したときに前記障害物との重畳面積が少ない位置を特定し、当該位置を表示位置とする表示位置決定ステップと、
前記表示位置に前記案内情報を表示する画像出力ステップとを備えたナビゲーション方法。 A navigation method that is executed by a navigation device that guides a user with guidance information that is displayed superimposed on a real landscape,
A guide information specifying step for specifying guide information to be presented from one or more guide information;
An obstacle detection step for identifying the position of the obstacle on the plane when the scenery ahead of the vehicle is captured in a plane;
A display position determining step of identifying a position with a small overlapping area with the obstacle when the guidance information is displayed on the plane, and setting the position as a display position;
An image output step of displaying the guidance information at the display position.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004354519A JP2006162442A (en) | 2004-12-07 | 2004-12-07 | Navigation device and navigation method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004354519A JP2006162442A (en) | 2004-12-07 | 2004-12-07 | Navigation device and navigation method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006162442A true JP2006162442A (en) | 2006-06-22 |
Family
ID=36664634
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004354519A Pending JP2006162442A (en) | 2004-12-07 | 2004-12-07 | Navigation device and navigation method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006162442A (en) |
Cited By (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007101744A1 (en) * | 2006-03-07 | 2007-09-13 | Robert Bosch Gmbh | Method and system for displaying navigation instructions |
| WO2008044309A1 (en) | 2006-10-13 | 2008-04-17 | Navitime Japan Co., Ltd. | Navigation system, mobile terminal device, and route guiding method |
| WO2008068849A1 (en) | 2006-12-05 | 2008-06-12 | Navitime Japan Co., Ltd. | Navigation system, portable terminal device, and peripheral-image display method |
| EP2075541A1 (en) * | 2007-12-31 | 2009-07-01 | STMicroelectronics Design and Application GmbH | Improved vehicle navigation system |
| WO2009084129A1 (en) * | 2007-12-28 | 2009-07-09 | Mitsubishi Electric Corporation | Navigation device |
| WO2010016379A1 (en) * | 2008-08-05 | 2010-02-11 | アイシン精機株式会社 | Target position identifying apparatus |
| JP2011002322A (en) * | 2009-06-18 | 2011-01-06 | Toyota Motor Corp | Power supply control device of navigation system |
| WO2011059552A3 (en) * | 2009-10-30 | 2011-09-15 | Teejet Technologies Illinois, Llc | Method and apparatus for guiding a vehicle |
| JP4948684B1 (en) * | 2011-06-22 | 2012-06-06 | パイオニア株式会社 | Head-up display and control method |
| JP2012138005A (en) * | 2010-12-27 | 2012-07-19 | Ns Solutions Corp | Transport support system and transport support method |
| US8280665B2 (en) | 2008-09-30 | 2012-10-02 | Aisin Seiki Kabushiki Kaisha | Calibration device for on-vehicle camera |
| JP2012233904A (en) * | 2012-06-29 | 2012-11-29 | Pioneer Electronic Corp | Information display device, information display method, information display program, and recording medium |
| WO2013088557A1 (en) * | 2011-12-15 | 2013-06-20 | パイオニア株式会社 | Display device and display method |
| WO2013114617A1 (en) * | 2012-02-03 | 2013-08-08 | パイオニア株式会社 | Image-display device, method for displaying image, and image-display program |
| US9269007B2 (en) | 2013-06-14 | 2016-02-23 | Denso Corporation | In-vehicle display apparatus and program product |
| WO2016185691A1 (en) * | 2015-05-20 | 2016-11-24 | 株式会社デンソー | Image processing apparatus, electronic mirror system, and image processing method |
| WO2017002209A1 (en) * | 2015-06-30 | 2017-01-05 | 三菱電機株式会社 | Display control device, display control method, and display control program |
| CN108202747A (en) * | 2016-12-16 | 2018-06-26 | 现代自动车株式会社 | Vehicle and the method for controlling the vehicle |
| CN108313124A (en) * | 2017-01-17 | 2018-07-24 | 北京行易道科技有限公司 | The method and apparatus for detecting vehicle-surroundings barrier |
| JPWO2017094427A1 (en) * | 2015-12-01 | 2018-10-11 | 日本精機株式会社 | Head-up display |
| WO2018211591A1 (en) * | 2017-05-16 | 2018-11-22 | 三菱電機株式会社 | Display control device and display control method |
| WO2019004245A1 (en) * | 2017-06-30 | 2019-01-03 | パナソニックIpマネジメント株式会社 | Display system, information presentation system comprising display system, method for control of display system, program, and mobile body comprising display system |
| DE102018214346A1 (en) | 2017-08-29 | 2019-02-28 | Yazaki Corporation | Vehicle display device and display control method |
| DE102018215350A1 (en) | 2017-09-12 | 2019-03-14 | Yazaki Corporation | Vehicle display device and display control method |
| JPWO2017221945A1 (en) * | 2016-06-20 | 2019-05-23 | 京セラ株式会社 | Display device, display system, moving object, and display method |
| WO2020115865A1 (en) * | 2018-12-06 | 2020-06-11 | 三菱電機株式会社 | Driving assistance control device, method, program, and recording medium |
-
2004
- 2004-12-07 JP JP2004354519A patent/JP2006162442A/en active Pending
Cited By (48)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007101744A1 (en) * | 2006-03-07 | 2007-09-13 | Robert Bosch Gmbh | Method and system for displaying navigation instructions |
| WO2008044309A1 (en) | 2006-10-13 | 2008-04-17 | Navitime Japan Co., Ltd. | Navigation system, mobile terminal device, and route guiding method |
| WO2008068849A1 (en) | 2006-12-05 | 2008-06-12 | Navitime Japan Co., Ltd. | Navigation system, portable terminal device, and peripheral-image display method |
| WO2009084129A1 (en) * | 2007-12-28 | 2009-07-09 | Mitsubishi Electric Corporation | Navigation device |
| EP2075541A1 (en) * | 2007-12-31 | 2009-07-01 | STMicroelectronics Design and Application GmbH | Improved vehicle navigation system |
| WO2010016379A1 (en) * | 2008-08-05 | 2010-02-11 | アイシン精機株式会社 | Target position identifying apparatus |
| KR101205428B1 (en) | 2008-08-05 | 2012-11-27 | 아이신세이끼가부시끼가이샤 | Target position identifying apparatus |
| US8077199B2 (en) | 2008-08-05 | 2011-12-13 | Aisin Seiki Kabushiki Kaisha | Target position identifying apparatus |
| JPWO2010016379A1 (en) * | 2008-08-05 | 2012-01-19 | アイシン精機株式会社 | Target location device |
| US8280665B2 (en) | 2008-09-30 | 2012-10-02 | Aisin Seiki Kabushiki Kaisha | Calibration device for on-vehicle camera |
| US8260541B2 (en) | 2009-06-18 | 2012-09-04 | Toyota Jidosha Kabushiki Kaisha | Power supply control apparatus of navigation system |
| JP2011002322A (en) * | 2009-06-18 | 2011-01-06 | Toyota Motor Corp | Power supply control device of navigation system |
| US8374790B2 (en) | 2009-10-30 | 2013-02-12 | Teejet Technologies Illinois, Llc | Method and apparatus for guiding a vehicle |
| WO2011059552A3 (en) * | 2009-10-30 | 2011-09-15 | Teejet Technologies Illinois, Llc | Method and apparatus for guiding a vehicle |
| JP2012138005A (en) * | 2010-12-27 | 2012-07-19 | Ns Solutions Corp | Transport support system and transport support method |
| JP4948684B1 (en) * | 2011-06-22 | 2012-06-06 | パイオニア株式会社 | Head-up display and control method |
| WO2012176288A1 (en) * | 2011-06-22 | 2012-12-27 | パイオニア株式会社 | Head-up display and control method |
| WO2013088557A1 (en) * | 2011-12-15 | 2013-06-20 | パイオニア株式会社 | Display device and display method |
| JPWO2013088557A1 (en) * | 2011-12-15 | 2015-04-27 | パイオニア株式会社 | Display device and display method |
| WO2013114617A1 (en) * | 2012-02-03 | 2013-08-08 | パイオニア株式会社 | Image-display device, method for displaying image, and image-display program |
| JP2012233904A (en) * | 2012-06-29 | 2012-11-29 | Pioneer Electronic Corp | Information display device, information display method, information display program, and recording medium |
| US9269007B2 (en) | 2013-06-14 | 2016-02-23 | Denso Corporation | In-vehicle display apparatus and program product |
| WO2016185691A1 (en) * | 2015-05-20 | 2016-11-24 | 株式会社デンソー | Image processing apparatus, electronic mirror system, and image processing method |
| JP2016220011A (en) * | 2015-05-20 | 2016-12-22 | 株式会社デンソー | Image processing apparatus, electronic mirror system, and image processing method |
| WO2017002209A1 (en) * | 2015-06-30 | 2017-01-05 | 三菱電機株式会社 | Display control device, display control method, and display control program |
| DE112015006662T5 (en) | 2015-06-30 | 2018-05-03 | Mitsubishi Electric Corporation | DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND DISPLAY CONTROL PROGRAM |
| JPWO2017002209A1 (en) * | 2015-06-30 | 2017-06-29 | 三菱電機株式会社 | Display control apparatus, display control method, and display control program |
| JPWO2017094427A1 (en) * | 2015-12-01 | 2018-10-11 | 日本精機株式会社 | Head-up display |
| EP3385776A4 (en) * | 2015-12-01 | 2019-08-07 | Nippon Seiki Co., Ltd. | HIGH HEAD DISPLAY |
| JPWO2017221945A1 (en) * | 2016-06-20 | 2019-05-23 | 京セラ株式会社 | Display device, display system, moving object, and display method |
| US10917619B2 (en) | 2016-06-20 | 2021-02-09 | Kyocera Corporation | Display apparatus, display system, moveable body, and display method |
| CN108202747A (en) * | 2016-12-16 | 2018-06-26 | 现代自动车株式会社 | Vehicle and the method for controlling the vehicle |
| CN108202747B (en) * | 2016-12-16 | 2022-05-17 | 现代自动车株式会社 | Vehicle and method of controlling the same |
| CN108313124A (en) * | 2017-01-17 | 2018-07-24 | 北京行易道科技有限公司 | The method and apparatus for detecting vehicle-surroundings barrier |
| CN108313124B (en) * | 2017-01-17 | 2024-04-26 | 北京行易道科技有限公司 | Method and device for detecting obstacle around vehicle |
| WO2018211591A1 (en) * | 2017-05-16 | 2018-11-22 | 三菱電機株式会社 | Display control device and display control method |
| JPWO2018211591A1 (en) * | 2017-05-16 | 2019-11-14 | 三菱電機株式会社 | Display control apparatus and display control method |
| US11248926B2 (en) | 2017-05-16 | 2022-02-15 | Mitsubishi Electric Corporation | Display control device and display control method |
| JP2019012483A (en) * | 2017-06-30 | 2019-01-24 | パナソニックIpマネジメント株式会社 | Display system, information presentation system including display system, display system control method, program, and moving body including display system |
| JP7113259B2 (en) | 2017-06-30 | 2022-08-05 | パナソニックIpマネジメント株式会社 | Display system, information presentation system including display system, display system control method, program, and mobile object including display system |
| WO2019004245A1 (en) * | 2017-06-30 | 2019-01-03 | パナソニックIpマネジメント株式会社 | Display system, information presentation system comprising display system, method for control of display system, program, and mobile body comprising display system |
| JP2019039883A (en) * | 2017-08-29 | 2019-03-14 | 矢崎総業株式会社 | Vehicle display device and display control method |
| DE102018214346A1 (en) | 2017-08-29 | 2019-02-28 | Yazaki Corporation | Vehicle display device and display control method |
| JP6991794B2 (en) | 2017-08-29 | 2022-01-13 | 矢崎総業株式会社 | Vehicle display device and display control method |
| DE102018214346B4 (en) | 2017-08-29 | 2024-03-07 | Yazaki Corporation | Vehicle display device and display control method |
| DE102018215350A1 (en) | 2017-09-12 | 2019-03-14 | Yazaki Corporation | Vehicle display device and display control method |
| WO2020115865A1 (en) * | 2018-12-06 | 2020-06-11 | 三菱電機株式会社 | Driving assistance control device, method, program, and recording medium |
| JPWO2020115865A1 (en) * | 2018-12-06 | 2021-03-18 | 三菱電機株式会社 | Driving support control device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2006162442A (en) | Navigation device and navigation method | |
| JP6763448B2 (en) | Visually enhanced navigation | |
| US11535155B2 (en) | Superimposed-image display device and computer program | |
| US11511627B2 (en) | Display device and computer program | |
| JP5962594B2 (en) | In-vehicle display device and program | |
| JP4788426B2 (en) | Vehicle display system | |
| JP6926976B2 (en) | Parking assistance device and computer program | |
| US11525694B2 (en) | Superimposed-image display device and computer program | |
| US20090240426A1 (en) | Navigation device and navigation method | |
| RU2677122C1 (en) | Vehicle displaying device | |
| JP2009020089A (en) | NAVIGATION DEVICE, NAVIGATION METHOD, AND NAVIGATION PROGRAM | |
| JP2007292713A (en) | Navigation device | |
| JPWO2007129382A1 (en) | Navigation apparatus and method | |
| US11493357B2 (en) | Superimposed image display device, superimposed image drawing method, and computer program | |
| JP2010257253A (en) | Vehicle display device | |
| WO2013161028A1 (en) | Image display device, navigation device, image display method, image display program and recording medium | |
| JP2007286170A (en) | Display screen adjusting device, display screen adjusting method, display screen adjusting program and recording medium | |
| JP2017032436A (en) | Movement guide system, movement guide method and computer program | |
| JP4798549B2 (en) | Car navigation system | |
| JPWO2008047449A1 (en) | Image display device, display control method, display control program, and recording medium | |
| WO2012086053A1 (en) | Image adjustment device, control method, program, and storage medium | |
| JP2021038978A (en) | Superimposed image display device and computer program | |
| JP5231595B2 (en) | Navigation device | |
| EP3729000A1 (en) | Method, device and system for displaying augmented reality poi information | |
| JP7302389B2 (en) | Superimposed image display device and computer program |