[go: up one dir, main page]

JP2006162442A - Navigation device and navigation method - Google Patents

Navigation device and navigation method Download PDF

Info

Publication number
JP2006162442A
JP2006162442A JP2004354519A JP2004354519A JP2006162442A JP 2006162442 A JP2006162442 A JP 2006162442A JP 2004354519 A JP2004354519 A JP 2004354519A JP 2004354519 A JP2004354519 A JP 2004354519A JP 2006162442 A JP2006162442 A JP 2006162442A
Authority
JP
Japan
Prior art keywords
unit
guidance information
information
obstacle
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004354519A
Other languages
Japanese (ja)
Inventor
Tomohiro Terada
智裕 寺田
Nobuyuki Nakano
信之 中野
Ryotaro Iwami
良太郎 岩見
Takeshi Takahashi
健 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004354519A priority Critical patent/JP2006162442A/en
Publication of JP2006162442A publication Critical patent/JP2006162442A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

【課題】 矢印などの案内情報を運転の妨げにならないように実風景に重ねて表示するナビゲーション装置を提供する。
【解決手段】 経路作成部4は、自車位置取得部1と地図記憶部2と目的地設定部3から取得した自車位置情報と地図情報と目的地位置情報とに基づいて経路を作成する。案内情報特定部5は、案内情報を提示する地図上の位置と、提示する案内情報の種類を特定する。障害物検知部6は、画像認識などにより、自車の周辺ある障害物(歩行者や車両等)の位置と種類とを検知する。優先度決定部7は、各障害物の提示優先度を決定する。表示位置決定部8は、案内情報の表示位置として、検知した障害物と重ならない位置を求める。画像出力部9は、車両のフロントガラス内の決定された位置に、あるいは、前方画像を表示するディスプレイ内の決定された位置に、案内情報を出力する。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide a navigation device for displaying guidance information such as an arrow superimposed on an actual scenery so as not to hinder driving.
A route creation unit creates a route based on own vehicle position information, map information, and destination position information acquired from a vehicle position acquisition unit, a map storage unit, and a destination setting unit. . The guide information specifying unit 5 specifies the position on the map for presenting the guide information and the type of the guide information to be presented. The obstacle detection unit 6 detects the position and type of an obstacle (pedestrian, vehicle, etc.) around the host vehicle by image recognition or the like. The priority determination part 7 determines the presentation priority of each obstacle. The display position determination unit 8 obtains a position that does not overlap the detected obstacle as the display position of the guidance information. The image output unit 9 outputs the guide information to a determined position in the windshield of the vehicle or to a determined position in the display that displays the front image.
[Selection] Figure 1

Description

本発明は、ナビゲーション装置に関し、より特定的には、実風景上に案内情報を提示して利用者を誘導するナビゲーション装置に関する。   The present invention relates to a navigation apparatus, and more particularly to a navigation apparatus that guides a user by presenting guidance information on a real landscape.

近年、地図画像や音声を用いて利用者を目的地まで誘導する車載用ナビゲーション装置が普及している。現在普及しているナビゲーション装置では、経路誘導に用いる地図画像や前方風景画像として、DVDなどに記憶された仮想画像が利用されている。そして、運転者などの利用者は、車内に設置されたディスプレイに映し出された地図画像等を見ることによって、進むべき方向を確認する。   In recent years, in-vehicle navigation devices that guide users to their destinations using map images and sounds have become widespread. In navigation apparatuses that are currently popular, virtual images stored on a DVD or the like are used as map images and forward scenery images used for route guidance. Then, a user such as a driver confirms a direction to proceed by looking at a map image projected on a display installed in the vehicle.

ところで、経路誘導に用いる画像として、仮想画像の代わりに、自車両に設置されたカメラによって実時間で撮影された実風景画像を用いることも提案されている(例えば特許文献1)。実風景画像を用いる場合、実風景画像に進行方向を示す矢印などの案内情報を重畳した画像が、経路誘導用の画像として利用者に提示される。   By the way, as an image used for route guidance, it has also been proposed to use a real landscape image taken in real time by a camera installed in the host vehicle instead of a virtual image (for example, Patent Document 1). When a real landscape image is used, an image obtained by superimposing guidance information such as an arrow indicating the traveling direction on the real landscape image is presented to the user as an image for route guidance.

運転者が画面を見ていられる時間は限られているために、ディスプレイに表示される画像は、即座に進むべき方向を把握出来る画像であることが望ましい。実風景画像を用いれば、仮想風景画像を用いた場合よりも実際の風景との差が少ないために、運転者は短時間でかつ正確に進むべき方向を把握し得るという利点がある。
特開平7−63572号公報(第11頁、図11)
Since the time that the driver can see the screen is limited, it is desirable that the image displayed on the display is an image that can immediately grasp the direction in which to proceed. If a real landscape image is used, the difference from the actual landscape is smaller than when a virtual landscape image is used. Therefore, there is an advantage that the driver can grasp the direction to proceed accurately in a short time.
JP-A-7-63572 (page 11, FIG. 11)

ところで、実風景画像上に案内情報が提示される場合には、利用者に提示される画像に、歩行者や信号機等も映し出されることになるが、従来のナビゲーション装置では、これらを考慮することは考えられていなかった。しかしながら、表示された案内情報の後ろに歩行者や信号機が隠されてしまうと、歩行者等に対する運転者の注意が不十分になるおそれがある。よって、安全の観点から、歩行者等を考慮して案内情報を表示することが望ましい。   By the way, when guidance information is presented on a real landscape image, pedestrians, traffic lights, etc. are also displayed in the image presented to the user, but these are taken into account in the conventional navigation device. Was not considered. However, if a pedestrian or traffic light is hidden behind the displayed guidance information, the driver's attention to the pedestrian or the like may be insufficient. Therefore, it is desirable to display guidance information in consideration of pedestrians and the like from the viewpoint of safety.

また、天候や時間帯によって車外の明るさ等が変化するので、実風景画像が用いられる場合には、これらを考慮しなければ、利用者が認識できない画像表示がなされるおそれもある。   In addition, since the brightness outside the vehicle changes depending on the weather and time zone, when an actual landscape image is used, there is a possibility that an image display that cannot be recognized by the user may be made unless these are taken into consideration.

それ故に、本発明の目的は、運転の妨げにならないように、実風景上に矢印などの案内情報を表示するナビゲーション装置を提供することである。また、本発明の別の目的は、利用者が認識しやすい案内情報を実風景上に表示するナビゲーション装置を提供することである。   Therefore, an object of the present invention is to provide a navigation device that displays guidance information such as arrows on a real landscape so as not to hinder driving. Another object of the present invention is to provide a navigation device that displays guidance information that is easy for a user to recognize on a real landscape.

上記目的を達成するために、本発明のナビゲーション装置は、実風景に重ねて表示した案内情報によって利用者を誘導するナビゲーション装置であって、1以上の案内情報の中から提示する案内情報を特定する案内情報特定部と、自車前方の風景を平面的に捉えたときの平面上の障害物の位置を特定する障害物検知部と、平面上に案内情報を表示したときに障害物との重畳面積が少ない位置を特定し、特定した位置を表示位置とする表示位置決定部と、表示位置に前記案内情報を表示する画像出力部とを備える。   In order to achieve the above object, a navigation device according to the present invention is a navigation device that guides a user based on guidance information displayed over a real landscape, and specifies guidance information to be presented from one or more pieces of guidance information. A guidance information specifying unit, an obstacle detection unit for specifying the position of an obstacle on the plane when the scenery in front of the host vehicle is planarly viewed, and an obstacle when the guidance information is displayed on the plane A display position determining unit that specifies a position with a small overlapping area, uses the specified position as a display position, and an image output unit that displays the guidance information at the display position.

また、本発明のナビゲーション装置は、地図を記憶する地図記憶部と、地図上における自車位置を取得する自車位置取得部と、地図上における目的地を設定する目的地設定部と、地図と現在地と目的地とに基づいて経路を作成する経路作成部とを更に備えていてもよい。   In addition, the navigation device of the present invention includes a map storage unit that stores a map, a vehicle position acquisition unit that acquires a vehicle position on the map, a destination setting unit that sets a destination on the map, a map, You may further provide the route creation part which produces a route based on the present location and the destination.

また、障害物検知部は、自車前方の風景画像を撮影する撮影部と、撮影部で撮影された画像を解析して障害物を特定する画像解析部とを含んでいてもよい。   The obstacle detection unit may include an imaging unit that captures a landscape image in front of the host vehicle and an image analysis unit that analyzes an image captured by the imaging unit and identifies an obstacle.

また、本発明のナビゲーション装置は、案内情報特定部が特定した案内情報と障害物検知部が検知した各障害物に、利用者に提示すべき優先順位を付する優先度決定部を更に備えていてもよい。このときに、表示位置決定部は、案内情報より優先度が高い障害物との重畳面積が少ない位置を表示位置とする。   In addition, the navigation device of the present invention further includes a priority determining unit that gives priority to be presented to the user to the guidance information specified by the guidance information specifying unit and each obstacle detected by the obstacle detecting unit. May be. At this time, a display position determination part makes a display position a position with little overlap area with an obstacle with a higher priority than guidance information.

表示位置決定部は、案内情報と障害物とが重畳するときに、案内情報の表示方法を、障害物の視認性が向上する表示方法に変更してもよい。   The display position determination unit may change the display method of the guidance information to a display method that improves the visibility of the obstacle when the guidance information and the obstacle overlap.

より具体的には、表示位置決定部は、重畳面積が低減するように、案内情報の形状を変形することを決定してもよい。また、表示位置決定部は、表示位置において、案内情報を非表示にすることを決定してもよい。   More specifically, the display position determination unit may determine to change the shape of the guide information so that the overlapping area is reduced. Further, the display position determination unit may determine to hide the guide information at the display position.

また、本発明のナビゲーション装置は、平面上における表示位置付近の色彩を判断する色彩判断部と、案内情報の色彩を、色彩判断部が判断した色彩とは異なる色彩にすることを決定する色彩決定部とをさらに備えていてもよい。   Further, the navigation device of the present invention includes a color determination unit that determines a color near the display position on a plane, and a color determination that determines that the color of the guidance information is different from the color determined by the color determination unit. May further be provided.

また、本発明のナビゲーション装置は、車両前方から入射する光の光量を取得する光量取得部と、光量取得部が取得した光量に基づいて、案内情報の輝度を決定する輝度決定部とをさらに備えていてもよい。   The navigation device of the present invention further includes a light amount acquisition unit that acquires the amount of light incident from the front of the vehicle, and a luminance determination unit that determines the luminance of the guidance information based on the light amount acquired by the light amount acquisition unit. It may be.

画像出力部は、案内情報を自車のフロントガラスに投影して表示するものであってもよい。また、画像出力部は、ディスプレイに表示した実風景画像上に案内情報を重ねて表示するものであってもよい。   The image output unit may project and display the guidance information on the windshield of the own vehicle. Further, the image output unit may display guidance information superimposed on the actual landscape image displayed on the display.

本発明に係るナビゲーション方法は、実風景に重ねて表示した案内情報によって利用者を誘導するナビゲーション装置で実行されるナビゲーション方法であって、1以上の案内情報の中から提示する案内情報を特定する案内情報特定ステップと、自車前方の風景を平面的に捉えたときの当該平面上の障害物の位置を特定する障害物検知ステップと、平面上に案内情報を表示したときに障害物との重畳面積が少ない位置を特定し、当該位置を表示位置とする表示位置決定ステップと、表示位置に案内情報を表示する画像出力ステップとを備えていてもよい。   A navigation method according to the present invention is a navigation method that is executed by a navigation device that guides a user with guidance information that is displayed over a real scene, and specifies guidance information to be presented from one or more pieces of guidance information. A guidance information identification step, an obstacle detection step for identifying the position of the obstacle on the plane when the scenery in front of the vehicle is planarly viewed, and an obstacle when the guidance information is displayed on the plane You may provide the display position determination step which specifies a position with few overlap areas, and makes the said position a display position, and the image output step which displays guidance information on a display position.

本発明に係るナビゲーション装置は、実風景上に、運転の妨げにならないように案内情報を表示することができる。すなわち、本発明に係るナビゲーション装置は、歩行者や信号機などの運転者が見落としてはならない障害物、及び、車線看板や町名看板など運転者に有用な情報を与える障害物を検知して、それらの障害物と重ならない位置に案内情報を表示する。したがって、本発明のナビゲーション装置を利用した運転者は、直感的にかつ正確に進むべき方向を把握できるだけでなく、周囲の安全にも配慮して運転を行うことができる。   The navigation device according to the present invention can display guidance information on a real landscape so as not to hinder driving. That is, the navigation device according to the present invention detects obstacles that should not be overlooked by drivers such as pedestrians and traffic lights, and obstacles that give useful information to the driver such as lane signs and town name signs. Guidance information is displayed at a position that does not overlap with other obstacles. Therefore, the driver using the navigation device of the present invention can not only intuitively and accurately grasp the direction to proceed but can also drive in consideration of the surrounding safety.

また、本発明の一局面によれば、検知された障害物に、利用者への提示優先順位が付される。そして、案内情報よりも優先度が高い障害物の視認性が、案内情報を表示することによって著しく低下しないように、案内情報の表示位置や表示方法が決定される。   In addition, according to one aspect of the present invention, a priority order for presentation to a user is assigned to a detected obstacle. And the display position and display method of guidance information are determined so that the visibility of the obstacle with a higher priority than guidance information does not fall remarkably by displaying guidance information.

また、本発明のさらに他の局面によれば、背景の色彩情報や輝度情報を基に、案内情報の色彩と輝度とを決定する。よって、表示される案内情報は利用者が認識しやすいものになる。   According to still another aspect of the present invention, the color and brightness of the guidance information are determined based on the background color information and brightness information. Therefore, the displayed guidance information is easy for the user to recognize.

(第1の実施形態)
図1は、本発明の第1の実施形態に係るナビゲーション装置の構成図である。図1に示すナビゲーション装置は、自車位置取得部1、地図記憶部2、目的地設定部3、経路作成部4、案内情報特定部5、障害物検知部6、優先度決定部7、表示位置決定部8、及び、画像出力部9を備えている。
(First embodiment)
FIG. 1 is a configuration diagram of a navigation device according to the first embodiment of the present invention. The navigation device shown in FIG. 1 includes an own vehicle position acquisition unit 1, a map storage unit 2, a destination setting unit 3, a route creation unit 4, a guidance information identification unit 5, an obstacle detection unit 6, a priority determination unit 7, and a display. A position determination unit 8 and an image output unit 9 are provided.

自車位置取得部1は、自車の位置情報と自車の姿勢(向き・傾き)情報とを取得する。ここで、位置情報とは、経度及び緯度で特定される場所の情報である。位置情報は、例えば、GPS(Global Positioning System)を用いたり、車速センサとジャイロセンサを組み合わせて用いたりすることによって取得できる。姿勢情報とは、自車の向き(方位)や傾きを表す情報であって、ジャイロセンサなどを用いれば取得できる。   The own vehicle position acquisition unit 1 acquires the position information of the own vehicle and the posture (orientation / tilt) information of the own vehicle. Here, the position information is information on a place specified by longitude and latitude. The position information can be acquired by using, for example, GPS (Global Positioning System) or using a combination of a vehicle speed sensor and a gyro sensor. The posture information is information representing the direction (azimuth) and inclination of the own vehicle, and can be acquired by using a gyro sensor or the like.

自車位置取得部1で取得される位置・姿勢情報の精度は、一般に利用されているカーナビゲーション装置が備えている自車位置取得部で取得される程度の精度であればよい。位置・姿勢情報の精度を向上させる方法としては、例えば、車速や傾きなどの情報によって自車位置を特定する自律航法を採用し、自律航法で得られた位置情報をGPS受信機で取得した位置情報で補正する手法がある。   The accuracy of the position / posture information acquired by the vehicle position acquisition unit 1 may be as long as it is acquired by the vehicle position acquisition unit provided in a commonly used car navigation device. As a method for improving the accuracy of the position / posture information, for example, the position where the position of the vehicle obtained by the autonomous navigation is obtained by using the autonomous navigation that specifies the position of the own vehicle based on the information such as the vehicle speed and the inclination. There is a method of correcting with information.

なお、RealTime Kinematic−GPSを用いれば、経度緯度座標をより精度良く求めることができる。また、自律航法を採用する際に、光ジャイロを用いれば、ジャイロセンサに特有のドリフト誤差を抑えることが可能であり、姿勢情報の精度向上が期待できる。   If RealTime Kinetic-GPS is used, the longitude and latitude coordinates can be obtained with higher accuracy. Further, when adopting autonomous navigation, if an optical gyro is used, it is possible to suppress a drift error peculiar to the gyro sensor, and an improvement in accuracy of posture information can be expected.

地図記憶部2は、一般的なナビゲーション装置に用いられているデジタル形式の地図情報等を記憶する記憶部である。具体的には、HDD(Hard Disk Drive)やDVD(Digital Versatile Disk)等が地図記憶部2となり得る。   The map storage unit 2 is a storage unit that stores digital map information and the like used in general navigation devices. Specifically, an HDD (Hard Disk Drive), a DVD (Digital Versatile Disk), or the like can be the map storage unit 2.

目的地設定部3は、利用者が目的地を設定する際に利用される。これを実現するために、目的地設定部3は、ポインティングデバイスやキーボードやリモートコントローラなどの入力部と表示部とを備えていればよい。より具体的には、ポインティングデバイスで差された地図上の位置の経緯及び緯度を取得したり、利用者が携帯電話等でインターネットサイトにアクセスして得た経度及び緯度を受信又は入力したりできる構成を備えていればよい。   The destination setting unit 3 is used when a user sets a destination. In order to realize this, the destination setting unit 3 only needs to include an input unit such as a pointing device, a keyboard, or a remote controller, and a display unit. More specifically, it is possible to acquire the history and latitude of the position on the map that is pointed to by the pointing device, or to receive or input the longitude and latitude obtained by accessing the Internet site by the user with a mobile phone or the like. What is necessary is just to have the structure.

経路作成部4は、自車位置取得部1と地図記憶部2と目的地設定部3とから取得した、自車位置姿勢情報と地図情報と目的地位置情報とを用いて、現在位置から目的地までの経路を作成する。経路を作成する方法としては、一般的に知られているダイクストラ法などの方法を用いてもよい。   The route creation unit 4 uses the vehicle position / posture information, the map information, and the destination position information acquired from the vehicle position acquisition unit 1, the map storage unit 2, and the destination setting unit 3 from the current position to the destination. Create a route to the ground. As a method of creating a route, a generally known method such as Dijkstra method may be used.

案内情報特定部5は、案内情報を提示する地点、又は、案内情報を提示するために処理を開始する地点を特定する。また、案内情報特定部5は、複数の案内情報の中からいずれかを提示する場合には、提示する案内情報(経路誘導用画像)も特定する。   The guide information specifying unit 5 specifies a point where the guide information is presented or a point where processing is started to present the guide information. Moreover, the guidance information specific | specification part 5 also specifies the guidance information (image for route guidance) to show, when presenting either of several guidance information.

障害物検知部6は、車両の周辺に存在する歩行者や信号機など、運転者が注意しなければならないものや配慮する必要があるもの(以下、これらを総称して障害物という)を検知し、検知した障害物の位置や種類を特定して、その情報(障害物情報)を作成する。ここで、障害物の位置とは、車両前方の風景を平面的に、つまり二次元画像として捉えたときの平面上の位置である。障害物検知部6は、具体的には、カメラと画像処理装置や、赤外線レーダ装置、また、歩行者が保有する携帯電話端末や障害物に取り付けた発信機から発信された信号を受信する受信機などが考えられる。障害物検知部6は、障害物の位置と大まかな種類とを特定できるものであれば、どのような検知形態を採るものであってもよい。   The obstacle detection unit 6 detects pedestrians and traffic lights in the vicinity of the vehicle that the driver needs to pay attention to or needs to consider (hereinafter collectively referred to as obstacles). The position and type of the detected obstacle are specified, and the information (obstacle information) is created. Here, the position of the obstacle is a position on the plane when the scenery in front of the vehicle is viewed as a plane, that is, as a two-dimensional image. Specifically, the obstacle detection unit 6 receives a signal transmitted from a camera and an image processing device, an infrared radar device, a mobile phone terminal held by a pedestrian, or a transmitter attached to the obstacle. A machine is considered. The obstacle detection unit 6 may adopt any detection form as long as the position and the rough type of the obstacle can be specified.

優先度決定部7は、案内情報特定部5と障害物検知部6とでそれぞれ特定された案内情報と障害物とに、利用者にとっての重要度に応じた優先度(優先順位)を付ける。例えば、歩行者や信号機など、運転者が見落としてはならない障害物には高い優先度が付され、また、比較的遠くの前方を走行する車や自車から離れてゆく車などには、低い優先度が付される。   The priority determination unit 7 gives priority (priority order) according to the importance for the user to the guidance information and the obstacle specified by the guidance information specifying unit 5 and the obstacle detection unit 6 respectively. For example, obstacles that should not be overlooked by the driver, such as pedestrians and traffic lights, are given high priority, and low for cars that are traveling relatively far ahead or away from the vehicle. Priorities are assigned.

なお、案内情報は、画像出力部9から出力されるまでユーザには認知されない仮想物であり、障害物は、利用者前方に実在する現実物である。このように、案内情報と障害物とではその特性が異なっているが、ナビゲーション装置が保持する全ての案内情報と検出可能な全ての障害物に対して、予め優先度を設定しておけば、設定されている優先度を参照して、提示する案内情報と検出された障害物とに優先度を付することができる。   The guidance information is a virtual object that is not recognized by the user until it is output from the image output unit 9, and the obstacle is a real object that exists in front of the user. In this way, the characteristics of guidance information and obstacles are different, but if priority is set in advance for all guidance information held by the navigation device and all detectable obstacles, With reference to the set priority, priority can be given to the guidance information to be presented and the detected obstacle.

表示位置決定部8は、優先度決定部7によって決定された優先度に基づいて、案内情報を表示する位置を決定する。なお、ここでいう位置は、自車から見える風景を平面的に捕らえたときの、平面上の位置である。このときに、案内情報よりも優先度が高い障害物が案内情報の後ろに隠されてしまわないように、案内情報を表示する位置が選択される。基本的には、表示位置決定部8は、障害物が存在しない位置か、又は案内情報よりも優先度が低いと判断された障害物の上に案内情報を表示することを決定する。また、このような位置が無いために、優先度が高い障害物の上に案内情報を表示しなければならない場合には、表示位置決定部8は、案内情報の視認性が通常表示した場合よりも向上するような表示方法で案内表示を行うことを決定する。   The display position determination unit 8 determines a position for displaying the guidance information based on the priority determined by the priority determination unit 7. In addition, the position here is a position on a plane when a landscape seen from the own vehicle is captured in a plane. At this time, a position for displaying the guidance information is selected so that an obstacle having a higher priority than the guidance information is not hidden behind the guidance information. Basically, the display position determination unit 8 determines to display the guidance information on a position where there is no obstacle or on an obstacle determined to have a lower priority than the guidance information. In addition, since there is no such position, when the guidance information has to be displayed on an obstacle with a high priority, the display position determination unit 8 is more than the case where the visibility of the guidance information is normally displayed. It is determined that the guidance display is performed by a display method that also improves.

画像出力部9は、表示位置決定部8で決定された位置に案内情報を表示する。画像出力部9の具体例として、プロジェクタとスクリーンの組み合わせやディスプレイなどが挙げられる。なお、ナビゲーション装置は、画像出力部だけでなく、案内音声を出力するスピーカ(音声出力部)も備えていてもよい。   The image output unit 9 displays the guidance information at the position determined by the display position determination unit 8. Specific examples of the image output unit 9 include a combination of a projector and a screen, a display, and the like. Note that the navigation device may include not only an image output unit but also a speaker (audio output unit) that outputs guidance voice.

なお、上記各部、特に、目的地設定部3、経路作成部4、案内情報特定部5、障害物検知部6、優先度決定部7、及び表示位置決定部8で行われる処理の全部又は一部は、コンピュータプログラムにより実現されてもよい。   It should be noted that all or one of the processes performed by each of the above-described units, in particular, the destination setting unit 3, the route creation unit 4, the guidance information identification unit 5, the obstacle detection unit 6, the priority determination unit 7, and the display position determination unit 8. The unit may be realized by a computer program.

次に、本実施形態に係るナビゲーション装置のより具体的な機器構成を例に挙げて、ナビゲーション装置で行われる処理の詳細を説明する。図2に示すナビゲーション装置100は、車両位置・姿勢検出部10、HDD20、ポインティングデバイス30を備えたTFT液晶ディスプレイ35(以下、ディスプレイ35と記す)、カメラ40、演算処理部50、映像投影部90、及びスピーカ95を備える。   Next, taking a more specific device configuration of the navigation device according to the present embodiment as an example, details of processing performed in the navigation device will be described. A navigation apparatus 100 shown in FIG. 2 includes a vehicle position / posture detection unit 10, an HDD 20, a TFT liquid crystal display 35 (hereinafter referred to as a display 35) provided with a pointing device 30, a camera 40, an arithmetic processing unit 50, and a video projection unit 90. And a speaker 95.

ここで、図2に示す各部と図1に示す各部との対応を説明する。図2に示す車両位置・姿勢検出部10は、図1に示す自車位置取得部1に相当する。車両位置・姿勢検出部10は、GPS受信部11及びジャイロセンサ12を備える。HDD20は、図1に示す地図記憶部2に相当する。ポインティングデバイス30、ディスプレイ35、地図データ等を記憶したHDD20、及び演算処理部50で、図1に示す目的地設定部3が実現される。カメラ40及び演算処理部50で障害物検知部6が実現される。演算処理部50は、この他にも、図1に示す経路作成部4、案内情報特定部5、優先度決定部7、及び表示位置決定部8としての機能も果たす。そして、映像投影部90とスピーカ95とは、図1に示す画像出力部9に相当する。映像投影部90は、プロジェクタ91とスクリーン92とを備える。   Here, correspondence between each unit shown in FIG. 2 and each unit shown in FIG. 1 will be described. The vehicle position / posture detection unit 10 shown in FIG. 2 corresponds to the own vehicle position acquisition unit 1 shown in FIG. The vehicle position / posture detection unit 10 includes a GPS reception unit 11 and a gyro sensor 12. The HDD 20 corresponds to the map storage unit 2 shown in FIG. The destination setting unit 3 shown in FIG. 1 is realized by the pointing device 30, the display 35, the HDD 20 storing map data, and the arithmetic processing unit 50. The obstacle detection unit 6 is realized by the camera 40 and the arithmetic processing unit 50. In addition to this, the arithmetic processing unit 50 also functions as the route creation unit 4, the guidance information identification unit 5, the priority determination unit 7, and the display position determination unit 8 shown in FIG. 1. The video projection unit 90 and the speaker 95 correspond to the image output unit 9 shown in FIG. The video projection unit 90 includes a projector 91 and a screen 92.

なお、ナビゲーション装置100は、電源を自車から取得する構成になっていることが望ましい。例えば、ナビゲーション装置100をアクセサリ電源に接続しておき、自車のエンジンがオン状態のときにはナビゲーション装置が動作モードに、また、オフ状態のときには省電力待機モードになるようにしてもよい。   In addition, as for the navigation apparatus 100, it is desirable for the structure to acquire a power supply from the own vehicle. For example, the navigation device 100 may be connected to an accessory power source so that the navigation device is in the operation mode when the vehicle engine is in the on state, and the power saving standby mode is in the off state.

演算処理部50は、CPU51、ROM52、及びRAM53を備えている。ROM52には、画像表示位置のキャリブレーション、経路作成処理、障害物検知処理、優先度決定処理、及び案内情報表示位置決定処理などの処理を行うためのプログラムが記憶されている。   The arithmetic processing unit 50 includes a CPU 51, a ROM 52, and a RAM 53. The ROM 52 stores programs for performing processing such as image display position calibration, route creation processing, obstacle detection processing, priority determination processing, and guidance information display position determination processing.

HDD20は、地図データを記憶している。HDD20が保持する最低限の地図データとしては、経路探索処理に必要な道路ネットワーク情報データ、目的地を決定する際に利用されるランド情報情報データ、及び地名情報データなどが考えられる。   The HDD 20 stores map data. The minimum map data held by the HDD 20 may be road network information data necessary for route search processing, land information information data used when determining a destination, and place name information data.

HDD20は、案内情報のテンプレート画像も記憶している。図3(a)〜(c)は、案内情報のテンプレート画像の一例であって、(a)は右折誘導の際に表示する案内情報131、(b)は左折誘導の際に表示する案内情報132、(c)は目的地を示す案内情報133である。案内情報131又は案内情報132を提示する場合には、交差点までの距離を情報の付近に数値表示するようにしてもよい。案内情報133は、利用者の視野内に目的地が存在するときに提示する情報である。   The HDD 20 also stores guide information template images. 3A to 3C are examples of a template image of guidance information, where FIG. 3A is guidance information 131 displayed when guiding a right turn, and FIG. 3B is guidance information displayed when guiding a left turn. 132 and (c) are guidance information 133 indicating the destination. When the guide information 131 or the guide information 132 is presented, the distance to the intersection may be numerically displayed near the information. The guidance information 133 is information presented when a destination exists within the user's field of view.

上記以外にも、HDD20は、優先度テーブル(図10参照)も記憶している。ここで、優先度テーブルとは、案内情報や障害物の名称と、その案内情報や障害物の優先度が記載されたテーブルである。   In addition to the above, the HDD 20 also stores a priority table (see FIG. 10). Here, the priority table is a table in which guidance information and obstacle names and guidance information and obstacle priority are described.

映像投影部90は、Head Up Display(以下、HUDと記す)用のプロジェクタ91と背面投影型スクリーン92(以下、スクリーン92という)とを備えている。図4に示すように、プロジェクタ91とスクリーン92とは、車両101の内部に配置される。   The video projection unit 90 includes a projector 91 for head up display (hereinafter referred to as HUD) and a rear projection screen 92 (hereinafter referred to as screen 92). As shown in FIG. 4, the projector 91 and the screen 92 are disposed inside the vehicle 101.

プロジェクタ91が出力した画像は、スクリーン92を透過してフロントガラス102に投影される。このときに、フロントガラス102で反射した画像は、虚像130として運転者に認識される。この虚像130は、利用者には、フロントガラス102の前方の、スクリーン92とフロントガラス102との間の距離だけ離れた位置に浮かび上がって見える。   The image output by the projector 91 is projected on the windshield 102 through the screen 92. At this time, the image reflected by the windshield 102 is recognized by the driver as a virtual image 130. The virtual image 130 appears to the user in a position in front of the windshield 102 at a position separated by a distance between the screen 92 and the windshield 102.

カメラ40は、撮影される画像と利用者が見ている風景とがほぼ一致するように、利用者の目線位置に固定されることが望ましい。カメラ40は、CCDカメラやCMOSカメラなど、撮影された画像を画素単位で解析可能なカメラであればよい。なお、カメラ40が障害物の検知のみに用いられて、撮影された画像が利用者の目に触れないのであれば、すなわち、ディスプレイ35に表示されないのであれば、カメラ40の解像度は、障害物を特定できる程度あれば十分である。   The camera 40 is preferably fixed at the position of the user's eye line so that the photographed image and the scenery that the user is viewing substantially match. The camera 40 may be any camera such as a CCD camera or a CMOS camera that can analyze a captured image in units of pixels. If the camera 40 is used only for obstacle detection and the captured image is not touched by the user, that is, if it is not displayed on the display 35, the resolution of the camera 40 is the obstacle. It is enough if it can be specified.

図3(a)に示した案内情報131をプロジェクタ91がスクリーン92に投影したときに、カメラ40は図5に示すような案内情報135が表示された風景画像を撮影する。また、図5に示す風景は、利用者がフロントガラス102を通して見る風景でもある。図5において、町名看板140、信号機141、車線看板142、道路143、及び建物144は実在物である。そして、これらの実在物の手前に、虚像である案内情報135が浮かんで見えている。   When the projector 91 projects the guide information 131 shown in FIG. 3A onto the screen 92, the camera 40 captures a landscape image on which the guide information 135 as shown in FIG. 5 is displayed. Further, the landscape shown in FIG. 5 is also a landscape that the user sees through the windshield 102. In FIG. 5, a town name signboard 140, a traffic light 141, a lane signboard 142, a road 143, and a building 144 are real objects. And the guidance information 135 which is a virtual image floats in front of these real things.

HUDを用いれば、図5に示すように、利用者の前方の実風景上に案内情報135を表示することができるので、利用者は、視線を移動させずに案内情報135を確認して、進路を把握することができる。なお、HUDは、主に航空機などに利用されてきたが、最近では車速等を焦点表示する車載用のものも一般的になっている。   If the HUD is used, the guidance information 135 can be displayed on the actual scenery in front of the user, as shown in FIG. 5, so the user can check the guidance information 135 without moving the line of sight, You can grasp the course. The HUD has been mainly used for airplanes and the like, but recently, a vehicle-mounted one that displays a vehicle speed or the like as a focus has become common.

プロジェクタ91は、案内情報135の明るさを2000lm程度で表示できるものであれば、現在一般的に利用されているものを利用してもよい。画像の輝度は、プロジェクタ91とスクリーン92との距離によって変化する。すなわち、プロジェクタ91とスクリーン92との距離が長くなれば、スクリーン92上に投影される画像のサイズは大きくなって、画像の輝度は下がる。   As long as the projector 91 can display the brightness of the guidance information 135 at about 2000 lm, a projector 91 that is currently used generally may be used. The brightness of the image changes depending on the distance between the projector 91 and the screen 92. That is, as the distance between the projector 91 and the screen 92 increases, the size of the image projected on the screen 92 increases and the brightness of the image decreases.

なお、一般に、日中の屋外の輝度は約10,000カンデラパー平方メートル(cd/m2)と知られているが、フロントガラス102に施された減光処理によって、車内から見た車外の輝度はこれよりも下がる。そのため、日中でも、フロントガラス102に1,800(cd/m2)の輝度値で案内情報131が投影されていれば、案内情報135を十分に認識することができる。 In general, the outdoor brightness during the day is known to be about 10,000 candelaper square meters (cd / m 2 ), but the brightness outside the vehicle viewed from the inside of the vehicle is reduced by the dimming process applied to the windshield 102. Lower than this. Therefore, even if the guidance information 131 is projected on the windshield 102 with a luminance value of 1,800 (cd / m 2 ) even during the day, the guidance information 135 can be sufficiently recognized.

次に、本実施形態に係るナビゲーション装置100で行われる処理を、図6及び図7のフローチャートと図8を用いてより具体的に説明する。ナビゲーション装置100が起動されると、まず、車両位置・姿勢検出部10は、GPS受信部11及びジャイロセンサ12を用いて位置情報と姿勢情報(初期位置・姿勢情報)を取得する(ステップS11)。このときに、姿勢情報は、前回エンジンを停止した際に取得していた姿勢情報をそのまま用いてもよいし、磁気コンパスを用いて真方向を求めてもよい。走行中の姿勢情報は、初期値からの変化量に基づいて求められる。   Next, the process performed by the navigation device 100 according to the present embodiment will be described more specifically with reference to the flowcharts of FIGS. 6 and 7 and FIG. When the navigation device 100 is activated, first, the vehicle position / posture detection unit 10 acquires position information and posture information (initial position / posture information) using the GPS receiving unit 11 and the gyro sensor 12 (step S11). . At this time, as the posture information, the posture information acquired when the engine was stopped last time may be used as it is, or the true direction may be obtained using a magnetic compass. The running posture information is obtained based on the amount of change from the initial value.

次に、画像投影部90とカメラ40とを用いて、画像投影位置のキャリブレーションが行われる(ステップS12)。このキャリブレーションは、プロジェクタ91のどの位置から投影した画像が、利用者前方のどの位置に表示されて見えるかを把握するために行われる。より具体的には、キャリブレーションは、プロジェクタ91が投影した画像をカメラ40で撮影し、撮影された画像を解析することによって行われる。なおキャリブレーション方法の詳細な例については後述する。   Next, the image projection position is calibrated using the image projection unit 90 and the camera 40 (step S12). This calibration is performed in order to grasp from which position of the projector 91 the image projected from which position is seen and displayed. More specifically, the calibration is performed by taking an image projected by the projector 91 with the camera 40 and analyzing the taken image. A detailed example of the calibration method will be described later.

ステップS12でキャリブレーションが終了すると、ディスプレイ35には目的地設定用の画面が表示される。ここで、目的地設定用の画面とは、住所入力画面や地図画面である。利用者は、ポインティングデバイス30を用いて、ディスプレイ35に表示された都道府県名や市町村名から目的地の住所を選択したり、表示された地図上の目的地を差し示したりして、目的地の経度及び緯度を特定する。特定された目的地の経度及び緯度は、演算処理部50に入力されて、RAM53に記憶される。   When calibration is completed in step S12, a screen for destination setting is displayed on the display 35. Here, the destination setting screen is an address input screen or a map screen. The user uses the pointing device 30 to select a destination address from the prefecture name and city name displayed on the display 35, or to indicate the destination on the displayed map. Specify the longitude and latitude. The longitude and latitude of the specified destination are input to the arithmetic processing unit 50 and stored in the RAM 53.

次に、演算処理部50は、ステップS11で取得した初期位置・姿勢情報と、ステップS13で設定した目的地情報と、HDD20に保持されている地図情報とを用いて、経路情報を作成する(ステップS14)。ダイクラストラ法などを用いた経路作成方法は、現在のナビゲーション装置でも一般的に利用されているので、本明細書では説明を省略する。   Next, the arithmetic processing unit 50 creates route information using the initial position / posture information acquired in step S11, the destination information set in step S13, and the map information held in the HDD 20 ( Step S14). Since a route creation method using the die clastra method or the like is generally used in current navigation apparatuses, the description thereof is omitted in this specification.

なお、前方風景の輝度が高いと、画像投影部90から投影された画像の視認性が低下するので、例えば夕方であれば、西日が直接入射しない経路を選択するように重みを付けて経路を選択してもよい。   Note that if the brightness of the front landscape is high, the visibility of the image projected from the image projection unit 90 is reduced. For example, in the evening, a route with weight added so as to select a route on which the western sun does not directly enter. May be selected.

経路が作成されると、演算処理部50は、作成した経路上の案内情報を提示する地点(以下、案内情報提示地点という)を、経度及び緯度で特定する(ステップS15)。特定された経度及び緯度はRAM53に記憶される。   When the route is created, the arithmetic processing unit 50 identifies a point on which the guidance information on the created route is presented (hereinafter referred to as guidance information presentation point) by longitude and latitude (step S15). The specified longitude and latitude are stored in the RAM 53.

より具体的には、演算処理部50は、ステップS14で作成された経路情報に、案内情報提示地点の条件を照らし合わせて、条件に当てはまる地点の経緯度を、条件毎に特定する。ここで案内情報提示地点とは、例えば右折又は左折する交差点の手前700m、300m、100m、及び10mといった地点である。このような条件は予めRAM53等に記憶しておく。そして、演算処理部50で特定された案内情報提示地点データは、その地点で提示する案内情報のデータと関連付けられてRAM53等に記憶される。   More specifically, the arithmetic processing unit 50 compares the route information created in step S14 with the conditions of the guidance information presentation point, and specifies the latitude and longitude of the point that meets the condition for each condition. Here, the guidance information presentation points are points such as 700 m, 300 m, 100 m, and 10 m in front of intersections that turn right or left. Such conditions are stored in advance in the RAM 53 or the like. The guidance information presentation point data specified by the arithmetic processing unit 50 is stored in the RAM 53 or the like in association with the guidance information data presented at the point.

ステップS15において案内情報提示地点が特定されると、演算処理部50は、車両位置・姿勢検出部10から現在地情報を取得して(ステップS16)、現在の車両位置がステップS15で決定された案内情報提示地点か否かを判定する(ステップS17)。判定の結果、案内情報提示地点でなければ(ステップS17のNO)、再度現在地情報が取得される(ステップS16)。   When the guidance information presentation point is specified in step S15, the arithmetic processing unit 50 acquires current location information from the vehicle position / posture detection unit 10 (step S16), and the guidance in which the current vehicle position is determined in step S15. It is determined whether it is an information presentation point (step S17). If it is not the guidance information presentation point as a result of the determination (NO in step S17), the current location information is acquired again (step S16).

一方、案内情報提示地点であると判定された場合には(ステップS17のYES)、演算処理部50は、その地点で提示する案内情報を特定する(図7のステップS21)。このときにCPU51は、図8(a)に示すように、提示する案内情報に関する情報(名称やキーワード等)を、RAM53の対象物テーブルに書き込む。   On the other hand, when it is determined that the point is the guidance information presentation point (YES in step S17), the arithmetic processing unit 50 specifies the guidance information presented at the point (step S21 in FIG. 7). At this time, as shown in FIG. 8A, the CPU 51 writes information (name, keyword, etc.) regarding the guidance information to be presented in the object table of the RAM 53.

次に、障害物検知処理が行われる(ステップS22)。より具体的には、まず、カメラ40で車両前方の風景が撮影される。そして、撮影された画像が、演算処理部50で画像処理されて、画像内の信号や歩行者などの障害物が検出される。また、障害物が車やバイクである場合には、接近速度も測定される。CPU51は、検出された障害物の名称や接近速度などの情報を、図8(b)に示すように、RAM53の対象物テーブルに書き込む。なお、接近速度は、例えば、カメラ40が取得した画像から車両やバイクを抽出し、次に、車両等が存在する領域をステレオ撮影して車両等までの距離を測定し、時間当たりの距離の変化を算出することにより得られる。   Next, an obstacle detection process is performed (step S22). More specifically, first, a scene in front of the vehicle is photographed by the camera 40. Then, the photographed image is subjected to image processing by the arithmetic processing unit 50, and an obstacle such as a signal or a pedestrian in the image is detected. Further, when the obstacle is a car or a motorcycle, the approach speed is also measured. The CPU 51 writes information such as the name of the detected obstacle and the approach speed in the object table of the RAM 53 as shown in FIG. Note that the approach speed is obtained by, for example, extracting a vehicle or a motorcycle from an image acquired by the camera 40, and then measuring the distance to the vehicle by taking a stereo image of an area where the vehicle is present. It is obtained by calculating the change.

ステップS22で行われる画像処理方法としては、色情報やパターンマッチングによって物体の種類を特定する方法等が考えられる。例えば、車線看板は青色で矩形状をしているので、色情報とパターンマッチングを用いれば特定可能である。なお、パターンマッチングなどの障害物検知処理を行う際には、障害物でないものを障害物と誤認識することよりも、障害物を見逃してしまうことの方が利用者にとって危険であるため、障害物検出のためのパラメータ(閾値)の設定は甘めにしておくことが望ましい。   As an image processing method performed in step S22, a method of specifying the type of an object by color information or pattern matching can be considered. For example, since the lane sign is blue and rectangular, it can be specified by using color information and pattern matching. When performing obstacle detection processing such as pattern matching, it is more dangerous for the user to miss an obstacle than to misrecognize an obstacle that is not an obstacle. It is desirable to set a parameter (threshold value) for detecting an object softly.

次に、演算処理部50は、優先度決定処理を行い(ステップS23)、次いで表示位置選定処理を行う(ステップS24)。そして、プロジェクタ91は、優先度決定処理及び表示位置選定処理で決定された案内情報の表示位置に、決定された表示方法で案内情報を投影する(ステップS25)。投影が終わると、現在位置情報が取得されて(ステップS26)、現在地が目的地であるか否かが判断される(ステップS27)。目的地に到達していなければ(ステップS27のNO)、図6のステップS17に戻る。また、目的地に到達した場合には(ステップS27のYES)、ナビゲーション装置は経路誘導を終了する。   Next, the arithmetic processing unit 50 performs priority determination processing (step S23), and then performs display position selection processing (step S24). Then, the projector 91 projects the guide information by the determined display method on the display position of the guide information determined by the priority determination process and the display position selection process (step S25). When the projection is completed, current position information is acquired (step S26), and it is determined whether or not the current location is the destination (step S27). If the destination has not been reached (NO in step S27), the process returns to step S17 in FIG. If the destination is reached (YES in step S27), the navigation device ends the route guidance.

ここで、ステップS23の優先度決定処理の詳細を、図9のフローチャートと図10及び図11を用いて説明する。   Details of the priority determination process in step S23 will be described with reference to the flowchart of FIG. 9 and FIGS.

まず、CPU51は、RAM53の対象物テーブルに記載された各対象物に、優先度を付ける(図9のステップS31)。このときに、図10に示す優先度テーブルが参照される。   First, the CPU 51 assigns a priority to each object described in the object table of the RAM 53 (step S31 in FIG. 9). At this time, the priority table shown in FIG. 10 is referred to.

図10に示す優先度テーブルには、対象物の名称と接近速度、優先度、及び補足情報が記載されている。優先度テーブルの優先度欄に記載されている数値のうち、「0」は、最も優先度が高いことを示しており、数値が大きくなる程優先度が低いことを示している。   In the priority table shown in FIG. 10, the name of the object, the approach speed, the priority, and supplementary information are described. Of the numerical values described in the priority column of the priority table, “0” indicates that the priority is the highest, and the higher the numerical value, the lower the priority.

図10に示す優先度テーブルでは、案内情報の優先度を、交差点までの距離に応じて変化させている。例えば、交差点手前700mで提示する案内情報よりも、交差点手前300mで提供する案内情報の方が、利用者には有益な情報であると考えられるために、交差点手前700mで提示する案内情報の優先度を「4」とし、交差点手前300mで表示する案内情報の優先度を「3」としている。   In the priority table shown in FIG. 10, the priority of guidance information is changed according to the distance to the intersection. For example, the guidance information provided at 300 m before the intersection is considered to be more useful to the user than the guidance information presented at 700 m before the intersection. Therefore, priority is given to the guidance information presented at 700 m before the intersection. The degree is “4”, and the priority of the guidance information displayed 300 m before the intersection is “3”.

なお、走行地などによって障害物の重要度は異なる場合もあるので、図10に示す優先度テーブルの内容や優先度の高さは、利用者が変更できるようにしておいてもよい。   Since the importance of the obstacle may vary depending on the traveling place, the contents of the priority table shown in FIG. 10 and the high priority may be changed by the user.

また、図10に示す優先度テーブルでは、障害物が車両である場合には、接近速度によって優先度を異ならせている。これは、同じ車線上で同方向に走行する車であっても、反対車線を走行する車であっても、自車との相対速度によって利用者への危険度が異なると考えられるためである。したがって、図10に示す優先度テーブルでは、相対速度が小さい車両ほど、優先度を高く設定している。   In the priority table shown in FIG. 10, when the obstacle is a vehicle, the priority is varied depending on the approach speed. This is because it is considered that the risk to the user differs depending on the relative speed with the own vehicle whether it is a vehicle traveling in the same direction on the same lane or a vehicle traveling in the opposite lane. . Therefore, in the priority table shown in FIG. 10, the priority is set higher for a vehicle having a lower relative speed.

なお、図10に示す優先度テーブルの右端欄にある補足情報を用いて、さらに優先度を詳細に設定することも考えられる。一例を挙げると、「右折レーン」を示す車線看板が障害物として検出されたときに、利用者にとってのその車線看板の重要度は、前方の交差点を右折する場合と直進する場合とで異なる。したがって、右折レーンの車線看板が検出されたときに右折する場合には、優先度テーブルに記載されている値よりも1つ高い優先度の値を対象物テーブルに書き込むようにしてもよい。   Note that it is also possible to set the priority in more detail using the supplementary information in the right end column of the priority table shown in FIG. For example, when a lane sign indicating a “right turn lane” is detected as an obstacle, the importance of the lane sign for the user differs depending on whether the vehicle turns right at an intersection ahead. Therefore, when a right turn is detected when a lane sign in a right turn lane is detected, a priority value that is one higher than the value described in the priority table may be written in the object table.

図11(a)は、優先度が書き込まれた後の対象物テーブルを示している。対象物テーブルへの優先度の書き込みが終了すると、次に、演算処理部50は、対象物テーブルに記載されている障害物のうち、案内情報と優先度が同じものが存在するか否かを判断する(図9のステップS32)。案内情報と同じ優先度の障害物が存在した場合(ステップS32のYES)、演算処理部50は、該当する障害物の優先度が、現在の優先度よりも1つ高くなるように優先度の値を書き換える(ステップS34)。例えば、図11(a)に示す車両1の優先度は、案内情報と同じ「3」であるので、対象物テーブルの車両1の優先度は、図11(b)に示すように「2」に書き換えられる。   FIG. 11A shows the object table after the priority is written. When the writing of the priority to the object table is completed, the arithmetic processing unit 50 next determines whether there is an obstacle having the same priority as the guidance information among the obstacles described in the object table. Judgment is made (step S32 in FIG. 9). If there is an obstacle with the same priority as the guidance information (YES in step S32), the arithmetic processing unit 50 sets the priority so that the priority of the corresponding obstacle is one higher than the current priority. The value is rewritten (step S34). For example, since the priority of the vehicle 1 shown in FIG. 11A is “3”, which is the same as the guidance information, the priority of the vehicle 1 in the object table is “2” as shown in FIG. 11B. To be rewritten.

案内情報と同じ優先度の全ての障害物について、優先度が変更された後には(ステップS33)、又は、案内情報と同じ優先度の障害物が始めから存在しなかったときには(ステップS32のNO)、対象物テーブルに記載されている優先度の値が確定値とされる(ステップS34)。以上に説明した処理後の優先度が記載された、図11(b)に示す対象物テーブルでは、案内情報の優先度よりも低い優先度の障害物は、町名看板だけになっている。   After all the obstacles having the same priority as the guidance information have been changed (step S33), or when no obstacle having the same priority as the guidance information has been present from the beginning (NO in step S32) ), The priority value described in the object table is set as the final value (step S34). In the object table shown in FIG. 11B in which the priorities after processing described above are described, the only obstacle with a priority lower than the priority of the guidance information is the town name signboard.

以上によって、優先度決定処理が行われた後には、表示位置選定処理が行われる。表示位置選定処理については、図12及び図13のフローチャートと、図14とを用いて説明する。   As described above, after the priority determination process is performed, the display position selection process is performed. The display position selection process will be described with reference to the flowcharts of FIGS. 12 and 13 and FIG.

まず、演算処理部50は、障害物検知処理のためにカメラで撮影された画像における重要障害物が存在する領域(以下、重要障害物存在領域150という)を特定する(図12のステップS41)。ここで、重要障害物存在領域150とは、図14に示す破線で囲まれた四角形領域であって、提示する案内情報よりも優先度が高いと判断された障害物(重要障害物)を完全に含む領域である。図14に示す町名看板140のように、提示する案内情報よりも優先度が低い障害物が存在する領域は、重要障害物存在領域150には含まれない。   First, the arithmetic processing unit 50 identifies an area where an important obstacle exists in an image captured by the camera for the obstacle detection process (hereinafter, referred to as an important obstacle existence area 150) (step S41 in FIG. 12). . Here, the important obstacle existence area 150 is a rectangular area surrounded by a broken line shown in FIG. 14, and an obstacle (important obstacle) determined to have a higher priority than the guidance information to be presented is completely displayed. It is an area included in A region where an obstacle having a lower priority than the guidance information to be presented is not included in the important obstacle existence region 150 as in the town name signboard 140 shown in FIG.

次に、演算処理部50は、表示しようとしている案内情報の情報をHDD20から読み出して、その情報の大きさを特定する(ステップS42)。ここで、案内情報の大きさとは、通常表示する場合の案内情報の縦及び横方向の長さである。   Next, the arithmetic processing unit 50 reads out information on the guidance information to be displayed from the HDD 20 and specifies the size of the information (step S42). Here, the size of the guidance information is the length of the guidance information in the vertical and horizontal directions when normally displayed.

次に、演算処理部50は、案内情報を通常の大きさで表示できる領域(以下、通常表示可能領域という)を探索する(ステップS43)。具体的には、例えば、図14に示すように、ステップS42で特定された大きさの探索窓160を画面の左上から順にスライドさせて、探索窓160と重要障害物領域150との重畳面積が最小となる領域を検索し、重畳面積が0となる領域を通常表示可能領域とすることが考えられる。また、重畳面積が0となる領域が存在しなかった場合でも、CPU51は、重畳面積が最小となる領域の位置情報をRAM53に記憶する。   Next, the arithmetic processing unit 50 searches for an area where the guide information can be displayed in a normal size (hereinafter referred to as a normal displayable area) (step S43). Specifically, for example, as shown in FIG. 14, the search window 160 of the size specified in step S42 is slid in order from the upper left of the screen, and the overlapping area of the search window 160 and the important obstacle region 150 is increased. It is conceivable to search for the smallest area and set the area where the overlapping area is 0 as the normal displayable area. Even when there is no region where the overlapping area is 0, the CPU 51 stores the position information of the region where the overlapping area is minimum in the RAM 53.

重畳面積が0となる通常表示可能領域が存在すれば(ステップS44)、その位置を案内情報表示位置とすることが決定される(ステップS45)。また、通常表示可能領域が存在しなければ(ステップS44のNO)、その案内情報の優先度を対象物テーブルから読み出して、その値が所定値より低いか否かが判断される(図13のステップS51)。   If there is a normal displayable area in which the overlapping area is 0 (step S44), it is determined that the position is the guidance information display position (step S45). If there is no normal displayable area (NO in step S44), the priority of the guidance information is read from the object table, and it is determined whether the value is lower than a predetermined value (FIG. 13). Step S51).

案内情報の優先度が所定値未満であると判断された場合には(ステップS51のYES)、案内情報を表示しないことが決定される(ステップS52)。例えば、所定値を2とした場合には、優先度が3及び4である交差点手前300m及び700mで提示する案内情報は表示されない。判断に用いる所定値は、利用者が変更できるようになっていてもよい。なお、案内情報を提示しないことが決定された場合には、音声による案内のみを行うようにしてもよい。   If it is determined that the priority of the guidance information is less than the predetermined value (YES in step S51), it is determined not to display the guidance information (step S52). For example, when the predetermined value is 2, guidance information presented at 300 m and 700 m before the intersections with priorities of 3 and 4 is not displayed. The predetermined value used for the determination may be changeable by the user. When it is determined not to present the guidance information, only voice guidance may be performed.

また、案内情報の優先度が所定値未満でないと判断された場合には(ステップS51のNO)、ステップS43で特定された、探索窓160との重畳面積が最小であった領域に案内情報を表示するための処理が行われる。そのために、まず、ステップS43で特定された領域の大きさにまで案内情報を変形することが可能か否かが判断される(ステップS53)。   If it is determined that the priority of the guide information is not less than the predetermined value (NO in step S51), the guide information is displayed in the region that is specified in step S43 and has the smallest overlap area with the search window 160. Processing for display is performed. For this purpose, first, it is determined whether or not the guide information can be transformed to the size of the area specified in step S43 (step S53).

図15(a)に示す通常の大きさの案内情報を変形する一つの方法としては、図15(b)に示すように、単純に画像の縦方向と横方向とを縮小する方法がある。また、別な方法として、図15(c)に示すように、案内情報の上の部分と下の部分とで縮小率をに変化させる方法もある。この方法は、通常の大きさで表示すると、案内情報の上の部分だけが障害物エリアに入ってしまう場合に有効である。   One method for transforming the normal size guide information shown in FIG. 15A is to simply reduce the vertical and horizontal directions of the image as shown in FIG. 15B. As another method, as shown in FIG. 15C, there is a method of changing the reduction ratio between the upper part and the lower part of the guidance information. This method is effective when only the upper part of the guidance information enters the obstacle area when displayed in a normal size.

案内情報の画像情報には、識別できる最低限の大きさまで変形した際の変形度合いを表す変形限界値情報を付加しておく。そして、ステップS53では、表示しようとしている領域の大きさにまで案内情報を縮小した場合に、変形値がその案内情報の変形限界値を超えるか否かが判断される。演算処理部50は、変形値が変形限界値を超えない場合には変形可能と判断して(ステップS53のYES)、案内情報の変形を決定する(ステップS54)。一方、変形値が変形限界値を超える場合には(ステップS53のNO)、演算処理部50は、表示方法を変更することを決定する(ステップS56)。なお、表示する案内情報が文字である場合には、変形によって認識できなくなる可能性が高いので、文字情報は変形不可能な情報として取り扱えばよい。   Deformation limit value information indicating the degree of deformation when deformed to a minimum size that can be identified is added to the image information of the guide information. In step S53, when the guidance information is reduced to the size of the area to be displayed, it is determined whether or not the deformation value exceeds the deformation limit value of the guidance information. If the deformation value does not exceed the deformation limit value, the arithmetic processing unit 50 determines that the deformation is possible (YES in Step S53), and determines the deformation of the guidance information (Step S54). On the other hand, when the deformation value exceeds the deformation limit value (NO in step S53), the arithmetic processing unit 50 determines to change the display method (step S56). If the guidance information to be displayed is a character, there is a high possibility that the guidance information will not be recognized due to the deformation. Therefore, the character information may be handled as information that cannot be deformed.

変更後の表示方法は、通常の表示を行った場合よりも視認性が向上するような表示方法であればよい。視認性が向上する方法としては、例えば、表示時間を通常よりも短縮したり、点滅表示したり、案内表示の色彩を淡色化したりする方法などが考えられる。   The display method after the change may be a display method that improves the visibility as compared with the case of performing normal display. As a method of improving the visibility, for example, a method of shortening the display time than usual, blinking, or lightening the color of the guidance display can be considered.

次に、前述したステップS12の画像投影位置のキャリブレーション方法の一例を、図16〜図18を用いて説明する。図16(a)に示す画像は、キャリブレーションに使用されるテストパターンの一例である。このテストパターン180は、方形の4隅のうち対角に位置する2隅がマーキングされている。このようなテストパターン180は、図17に示すように、プロジェクタ91からスクリーン92を介して、フロントガラス102に投影される。キャリブレーションは、プロジェクタ91が投影する画像と、投影した画像をカメラ40で撮影した画像とを用いて行われる。   Next, an example of the image projection position calibration method in step S12 described above will be described with reference to FIGS. The image shown in FIG. 16A is an example of a test pattern used for calibration. In this test pattern 180, two corners located diagonally out of the four corners of the square are marked. Such a test pattern 180 is projected onto the windshield 102 from the projector 91 through the screen 92 as shown in FIG. The calibration is performed using an image projected by the projector 91 and an image obtained by photographing the projected image with the camera 40.

なお、テストパターンには、図16(b)に示すような方形の4隅をマーキングしたテストパターン181を用いてもよいし、図16(c)に示すような格子状のテストパターン182を用いてもよい。テストパターン182を用いる場合には、各グリッドの色を異ならせておけば、複雑な計算を行わなくとも、各グリッドが投影された位置を知ることができる。   The test pattern may be a test pattern 181 with four square corners as shown in FIG. 16B, or a grid-like test pattern 182 as shown in FIG. 16C. May be. When the test pattern 182 is used, if the colors of the grids are made different, it is possible to know the positions where the grids are projected without performing complicated calculations.

図18(a)及び(b)は、プロジェクタ91が投影する画像183と、そのときにカメラ40で撮影される画像184とを示している。プロジェクタ91が投影する画像位置と撮影された画像位置との対応関係を示すデータは、RAM53又はHDD20に記憶される。つまり、図18(a)に示す左上から一番目の画素は、カメラ40の画素部の左上から1番目とその右隣である2番目の画素に対応するというように、対応表が作成されて記憶される。キャリブレーションで設定された目盛りは、障害物検知処理(図7のステップ22)や表示位置選定処理(ステップS24)等で利用される。   18A and 18B show an image 183 projected by the projector 91 and an image 184 photographed by the camera 40 at that time. Data indicating the correspondence between the image position projected by the projector 91 and the captured image position is stored in the RAM 53 or the HDD 20. That is, the correspondence table is created so that the first pixel from the upper left shown in FIG. 18A corresponds to the first pixel from the upper left of the pixel portion of the camera 40 and the second pixel adjacent to the right. Remembered. The scale set by the calibration is used in obstacle detection processing (step 22 in FIG. 7), display position selection processing (step S24), and the like.

なお、カメラ40やプロジェクタ91の設置位置や向きが頻繁に変更されないのであれば、複数回の起動につき1回だけキャリブレーションが行われるようにしてもよい。また、キャリブレーション精度が保証される場合には、複数画素を単位として扱うようにして、情報処理量や保存するデータ量を低減してもよい。   If the installation position and orientation of the camera 40 and the projector 91 are not frequently changed, the calibration may be performed only once for a plurality of activations. When calibration accuracy is guaranteed, the amount of information processing and the amount of data to be stored may be reduced by handling a plurality of pixels as a unit.

なお、本実施形態では、映像投影部90にHUDを用いた場合を例に説明したが、HUDを用いずに、カメラ40で撮影した前方風景画像に案内情報画像を重畳した画像を、ディスプレイ35に表示するようにしてもよい。なお、本発明のナビゲーション装置をバイクとヘルメットとに取り付ける構成にして、バイザーに案内情報を表示すれば、提供される情報量が少ないバイクのナビゲーション装置としても利用できる。   In the present embodiment, the case where the HUD is used for the video projection unit 90 has been described as an example. However, without using the HUD, an image obtained by superimposing the guidance information image on the front landscape image captured by the camera 40 is displayed on the display 35. May be displayed. If the navigation apparatus of the present invention is configured to be attached to a motorcycle and a helmet and the guidance information is displayed on the visor, the navigation apparatus can be used as a motorcycle navigation apparatus with a small amount of information provided.

本実施形態に係るナビゲーション装置は、実風景に重ねて案内情報を表示する際に、歩行者や信号機などの運転者が見落としてはならない障害物、及び、車線看板や町名看板など運転者に有用な情報を与える障害物を検知して、その優先度を決定する。そして、案内情報よりも優先度が高い障害物の視認性が、案内情報を表示することによって著しく低下しないように、案内情報の表示位置や表示方法が決定される。したがって、表示された案内情報が運転の妨げになるようなことがない。よって、本実施形態に係るナビゲーション装置を利用した運転者は、直感的にかつ正確に進むべき方向を把握出来るだけでなく、周囲の安全にも配慮して運転することができる。   The navigation device according to the present embodiment is useful for obstacles that should not be overlooked by drivers such as pedestrians and traffic lights, and drivers such as lane signs and town name signs when displaying guidance information over a real landscape. Detect obstacles that give the correct information and determine their priority. And the display position and display method of guidance information are determined so that the visibility of the obstacle with a higher priority than guidance information does not fall remarkably by displaying guidance information. Therefore, the displayed guidance information does not hinder driving. Therefore, the driver using the navigation device according to the present embodiment can not only intuitively and accurately grasp the direction to travel, but can also drive in consideration of the safety of the surroundings.

(第2の実施形態)
図19は、本発明の第2の実施形態に係るナビゲーション装置の構成図である。本実施形態に係るナビゲーション装置は、案内情報の視認性の向上を目的として、第1の実施形態に係るナビゲーション装置に、車外光量取得部201、彩度取得部202、及び輝度・彩度決定部203を付加した構成になっている。なお、本実施形態で説明するナビゲーション装置の構成要素のうち、第1の実施形態ですでに説明した構成要素と同じ構成要素には同じ符号を付けて説明を省略する。
(Second Embodiment)
FIG. 19 is a configuration diagram of a navigation device according to the second embodiment of the present invention. The navigation device according to the present embodiment is the same as the navigation device according to the first embodiment except for the vehicle exterior light amount acquisition unit 201, the saturation acquisition unit 202, and the luminance / saturation determination unit. 203 is added. Note that among the components of the navigation device described in this embodiment, the same components as those already described in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

車外光量取得部201は、自車前方風景の輝度情報を取得する。彩度取得部202は、
表示位置決定部8で決定された案内情報を表示する領域付近の彩度情報を取得する。そして、輝度・彩度決定部203は、車外光量取得部201で取得された輝度情報と、彩度取得部202で取得された彩度情報とに基づいて、表示する案内情報の輝度と彩度とを決定する。画像出力部9は、表示位置決定部8で決定された位置に、輝度・彩度決定部203で決定された輝度及び彩度で案内情報を表示する。
The vehicle exterior light quantity acquisition unit 201 acquires brightness information of the scenery ahead of the host vehicle. The saturation acquisition unit 202
The saturation information in the vicinity of the area where the guide information determined by the display position determination unit 8 is displayed is acquired. The luminance / saturation determination unit 203 then displays the luminance and saturation of the guidance information to be displayed based on the luminance information acquired by the outside light amount acquisition unit 201 and the saturation information acquired by the saturation acquisition unit 202. And decide. The image output unit 9 displays the guidance information at the position determined by the display position determination unit 8 with the luminance and saturation determined by the luminance / saturation determination unit 203.

次に、ナビゲーション装置のより具体的な機器構成を例に挙げて、本実施形態に係るナビゲーション装置で行われる処理の詳細を説明する。図20に示すナビゲーション装置200は、第1の実施形態で図2を用いて説明したナビゲーション装置に、輝度計測部210を付加した構成になっている。   Next, taking a more specific device configuration of the navigation device as an example, details of processing performed by the navigation device according to the present embodiment will be described. A navigation device 200 shown in FIG. 20 has a configuration in which a luminance measurement unit 210 is added to the navigation device described with reference to FIG. 2 in the first embodiment.

ここで、図20に示す各部と図19に示す各部との対応を簡単に説明する。図20に示す輝度計測部210は、図19に示す車外光量取得部201に相当する。輝度計測部210は、自車両の前方方向から入射する光の輝度を計測するために設けられる。図19に示す彩度取得部202と輝度・彩度決定部203は、カメラ40と演算処理部50との組み合わせによって実現される。   Here, the correspondence between each unit shown in FIG. 20 and each unit shown in FIG. 19 will be briefly described. The luminance measurement unit 210 illustrated in FIG. 20 corresponds to the outside light amount acquisition unit 201 illustrated in FIG. The luminance measurement unit 210 is provided to measure the luminance of light incident from the front direction of the host vehicle. The saturation acquisition unit 202 and the luminance / saturation determination unit 203 illustrated in FIG. 19 are realized by a combination of the camera 40 and the arithmetic processing unit 50.

図21は、ナビゲーション装置200で行われる処理の一部を示すフロー図である。ナビゲーション装置200では、図6及び図21に示す処理が行われる。図21に示す処理は、図7に示す処理にステップS28の処理を追加したものである。ステップS28の処理の詳細は、図22のフロー図を用いて説明する。なお、図21に記載している処理のうち、第1の実施形態で図7を用いて説明した処理と同じ処理には、同じステップ番号を付して説明を省略する。   FIG. 21 is a flowchart showing a part of the processing performed in the navigation device 200. In the navigation device 200, the processes shown in FIGS. 6 and 21 are performed. The process shown in FIG. 21 is obtained by adding the process of step S28 to the process shown in FIG. Details of the processing in step S28 will be described with reference to the flowchart of FIG. Of the processes described in FIG. 21, the same processes as those described with reference to FIG. 7 in the first embodiment are denoted by the same step numbers and description thereof is omitted.

案内情報を表示する位置は、図21のステップS24の表示位置決定処理によって決まることは、第1の実施形態で説明した通りである。この処理によって、図23に示す車両前方風景画像上の、太破線で囲まれた領域230に案内情報を表示することが決定された後に、CPU51は、輝度計測部210で計測された車外の輝度を取得する(図22のステップS61)。取得された輝度はRAM53に記憶される。   As described in the first embodiment, the position for displaying the guidance information is determined by the display position determination process in step S24 of FIG. After determining that the guidance information is to be displayed in the region 230 surrounded by the thick broken line on the vehicle forward landscape image shown in FIG. 23 by this processing, the CPU 51 measures the luminance outside the vehicle measured by the luminance measuring unit 210. Is acquired (step S61 in FIG. 22). The acquired luminance is stored in the RAM 53.

次に、演算処理部50は、図23に示す画像のうち、案内情報を表示する領域230、又は、案内情報を表示する領域よりも一回り大きな領域240の色彩情報を取得する(ステップS62)。なお、色彩情報を取得する領域の広さを、領域230にするか領域240にするかは、予め定めておけばよい。   Next, the arithmetic processing unit 50 acquires the color information of the area 230 that displays the guidance information or the area 240 that is slightly larger than the area that displays the guidance information in the image shown in FIG. 23 (step S62). . Note that it is only necessary to determine in advance whether the area for acquiring color information is the area 230 or the area 240.

色彩情報の検出方法としては、領域230又は240に含まれる各画素が取得した彩度の平均を求める方法などが考えられるが、領域230又は240の代表的な色の情報を取得できる方法であれば、どのような方法を用いても構わない。   As a method for detecting color information, a method of obtaining an average of the saturations acquired by the respective pixels included in the region 230 or 240 can be considered. Any method may be used.

次に、演算処理部50は、取得した色彩情報に基づいて、表示する案内情報の色彩を決定する(図22のステップS63)。例えば、図23に示す画像において、案内情報を表示する領域230に、緑色の葉が茂った木が写っており、ステップS62で特定された領域230の色が緑色であったとする。この領域に、背景色と同色である緑色で案内情報が表示された場合には、利用者は案内情報を認識できないおそれがある。従って、演算処理部50は、案内情報の色を領域230の色彩とは異なる色彩で表示するために、案内情報の色彩を決定する。色彩の決定方法には、図24に示すCIE表色系などを用いて、色度の距離が離れているものを選択する方法などが考えられる。   Next, the arithmetic processing unit 50 determines the color of the guidance information to be displayed based on the acquired color information (step S63 in FIG. 22). For example, in the image shown in FIG. 23, it is assumed that a tree with green leaves is shown in the area 230 for displaying the guidance information, and the color of the area 230 specified in step S62 is green. If guidance information is displayed in this area in green, which is the same color as the background color, the user may not be able to recognize the guidance information. Accordingly, the arithmetic processing unit 50 determines the color of the guidance information in order to display the color of the guidance information in a color different from the color of the area 230. As a method for determining a color, a method of selecting a color having a distance of chromaticity using the CIE color system shown in FIG.

なお、ステップS62において、領域230又は240の内部全体の色情報を求めずに、領域230又は240の内部のうち、案内情報135の外側の色情報だけを求めるようにすれば、案内情報の色彩をより認識しやすい色彩にすることができる。   In step S62, if only the color information outside the guide information 135 within the area 230 or 240 is obtained without obtaining the color information of the entire area 230 or 240, the color of the guide information. Can be made more easily recognizable.

色彩が決定されると、演算処理部50は、提示する案内情報の輝度を決定する(ステップS64)。このときに、案内情報の輝度値は、案内情報の周囲と案内情報とのコントラスト比が、利用者にとって適当なコントラスト比になるように設定するとよい。HUDを用いてフロントガラスに画像を投影する場合、最も低い輝度は、前方からフロントガラスに入射する光の輝度である。また、最も高い輝度は、プロジェクタが投影する白色画像の輝度である。演算処理部50は、前方から入射する光と投影する画像とのコントラスト比が所定値以上になるように、望ましくは1:20程度になるように、投影する画像の輝度を決定する。   When the color is determined, the arithmetic processing unit 50 determines the brightness of the guidance information to be presented (step S64). At this time, the luminance value of the guidance information may be set so that the contrast ratio between the guidance information and the guidance information is an appropriate contrast ratio for the user. When an image is projected on the windshield using the HUD, the lowest luminance is the luminance of light incident on the windshield from the front. The highest luminance is the luminance of the white image projected by the projector. The arithmetic processing unit 50 determines the brightness of the projected image so that the contrast ratio between the light incident from the front and the projected image is greater than or equal to a predetermined value, preferably about 1:20.

トンネルなど暗い場所を通過するときに、トンネル外の明るい場所と同じ輝度で案内情報が表示されると、案内情報が明るすぎて、利用者の運転の妨げになるおそれがある。また、常時同じ色で案内情報が表示されていると、背景に案内情報が埋もれてしまうおそれもある。本実施形態に係るナビゲーション装置は、背景の色彩情報や輝度情報を基に案内情報の色彩と輝度とを決定するために、提示される案内情報は利用者が認識しやすいものになる。   When the guidance information is displayed with the same brightness as that of a bright place outside the tunnel when passing through a dark place such as a tunnel, the guidance information is too bright and may hinder the user's driving. Further, if the guidance information is always displayed in the same color, the guidance information may be buried in the background. Since the navigation apparatus according to the present embodiment determines the color and brightness of the guidance information based on the background color information and the brightness information, the presented guidance information is easily recognized by the user.

なお、映像投影部90として、HUDを用いる場合には、予め、プロジェクタの投影出力と投影された画像の輝度との関係を求めておけば、所望の輝度値で表示するために必要な出力が分かる。画像の輝度は、輝度計測部210を用いて測定してもよいし、投影出力と画像投影位置までの距離と投影先(フロントガラス)の反射率を基に演算して求めてもよい。なお、輝度計測部210を設けない場合には、車外の輝度はカメラ40が撮影した画像のから求めるようにしてもよい。   When HUD is used as the video projection unit 90, if a relationship between the projection output of the projector and the brightness of the projected image is obtained in advance, an output necessary for displaying at a desired brightness value is obtained. I understand. The luminance of the image may be measured using the luminance measuring unit 210, or may be obtained by calculation based on the projection output, the distance to the image projection position, and the reflectance of the projection destination (front glass). If the luminance measurement unit 210 is not provided, the luminance outside the vehicle may be obtained from an image captured by the camera 40.

本発明のナビゲーション装置は、実風景に重ねて表示した案内情報によって利用者を誘導する、車両等に搭載されるナビゲーション装置等として有用である。   INDUSTRIAL APPLICABILITY The navigation device of the present invention is useful as a navigation device or the like mounted on a vehicle or the like that guides a user with guidance information displayed over a real landscape.

本発明の第1の実施形態に係るナビゲーション装置の構成図1 is a configuration diagram of a navigation device according to a first embodiment of the present invention. 図1に示すナビゲーション装置の具体的な機器構成の一例を示す図The figure which shows an example of the concrete apparatus structure of the navigation apparatus shown in FIG. 案内情報の例を示した図Figure showing an example of guidance information HUDを使用した場合の画像投影方法を説明する図The figure explaining the image projection method at the time of using HUD 案内情報が表示されているときの車両前方の風景図Landscape view in front of the vehicle when guidance information is displayed 図2に示すナビゲーション装置で行われる処理手順を示すフローチャートThe flowchart which shows the process sequence performed with the navigation apparatus shown in FIG. 図6の続図Continuation of FIG. 案内情報や障害物の情報が記載された対象物テーブルを示す図The figure which shows the object table where guidance information and the information of the obstacle are described 優先度決定処理の処理手順を示すフローチャートFlow chart showing processing procedure of priority determination processing 優先度テーブルの一例を示す図The figure which shows an example of a priority table 優先度が記載された対象物テーブルを示す図The figure which shows the object table where priority is described 表示位置選定処理の処理手順を示すフローチャートFlow chart showing processing procedure of display position selection processing 図12の続図Continuation of FIG. 案内情報の表示位置の決定方法を説明する図The figure explaining the determination method of the display position of guidance information 案内情報の変形例を示す図The figure which shows the modification of guidance information 画像表示位置のキャリブレーションを行うためのテストパターン画像の一例を示す図The figure which shows an example of the test pattern image for calibrating an image display position テストパターンの投影の様子を説明する図Diagram explaining how the test pattern is projected 投影するテストパターン画像とカメラで撮影されるテストパターンを示す図Diagram showing test pattern image to be projected and test pattern photographed by camera 本発明の第2の実施形態に係るナビゲーション装置の概念図The conceptual diagram of the navigation apparatus which concerns on the 2nd Embodiment of this invention. 図19に示すナビゲーション装置の具体的な機器構成の一例を示した図The figure which showed an example of the concrete apparatus structure of the navigation apparatus shown in FIG. 図20に示すナビゲーション装置で行われる処理手順を示すフローチャートThe flowchart which shows the process sequence performed with the navigation apparatus shown in FIG. 案内情報表示色・輝度決定処理の処理手順を示すフローチャートFlowchart showing the procedure of guidance information display color / luminance determination processing 表示する案内情報の色彩を決定する方法を説明するための図The figure for demonstrating the method of determining the color of the guidance information to display CIE表色系図CIE color system diagram

符号の説明Explanation of symbols

1 自車位置取得部
2 地図記憶部
3 目的地設定部
4 経路作成部
5 案内情報特定部
6 障害物検知部
7 優先度決定部
8 表示位置決定部
9 画像出力部
201 車外光量取得部
202 彩度取得部
203 輝度・彩度決定部
DESCRIPTION OF SYMBOLS 1 Own vehicle position acquisition part 2 Map memory | storage part 3 Destination setting part 4 Route creation part 5 Guidance information specific part 6 Obstacle detection part 7 Priority determination part 8 Display position determination part 9 Image output part 201 Outside light quantity acquisition part 202 Aya Degree acquisition unit 203 Luminance / saturation determination unit

Claims (12)

実風景に重ねて表示した案内情報によって利用者を誘導するナビゲーション装置であって、
1以上の案内情報の中から提示する案内情報を特定する案内情報特定部と、
自車前方の風景を平面的に捉えたときの当該平面上の障害物の位置を特定する障害物検知部と、
前記平面上に前記案内情報を表示したときに前記障害物との重畳面積が少ない位置を特定し、当該位置を表示位置とする表示位置決定部と、
前記表示位置に前記案内情報を表示する画像出力部とを備えたナビゲーション装置。
A navigation device that guides a user with guidance information displayed over a real landscape,
A guide information specifying unit for specifying guide information to be presented from one or more guide information;
An obstacle detection unit for identifying the position of the obstacle on the plane when the scenery in front of the vehicle is captured in a plane,
A display position determination unit that identifies a position with a small overlapping area with the obstacle when the guidance information is displayed on the plane, and sets the position as a display position;
A navigation apparatus comprising: an image output unit that displays the guidance information at the display position.
地図を記憶する地図記憶部と、
前記地図上における自車位置を取得する自車位置取得部と、
前記地図上における目的地を設定する目的地設定部と、
前記地図と前記自車位置と前記目的地とに基づいて経路を作成する経路作成部とを更に備えた、請求項1に記載のナビゲーション装置。
A map storage unit for storing a map;
A vehicle position acquisition unit for acquiring the vehicle position on the map;
A destination setting unit for setting a destination on the map;
The navigation apparatus according to claim 1, further comprising a route creation unit that creates a route based on the map, the vehicle position, and the destination.
前記障害物検知部は、
自車前方の風景画像を撮影する撮影部と、
前記撮影部で撮影された画像を解析して前記障害物を特定する画像解析部とを含む、請求項1に記載のナビゲーション装置。
The obstacle detection unit is
A shooting unit for shooting landscape images in front of the vehicle;
The navigation apparatus according to claim 1, further comprising: an image analysis unit that analyzes an image captured by the imaging unit and identifies the obstacle.
前記案内情報特定部が特定した案内情報と前記障害物検知部が検知した各障害物に、利用者に提示する優先順位を付する優先度決定部を更に備え、
前記表示位置決定部は、前記案内情報より優先度が高い障害物との重畳面積が少ない位置を表示位置とすることを特徴とする、請求項1に記載のナビゲーション装置。
A priority determining unit that assigns a priority to be presented to the user to the guidance information identified by the guidance information identifying unit and each obstacle detected by the obstacle detection unit;
The navigation device according to claim 1, wherein the display position determination unit sets a position where an overlapping area with an obstacle having a higher priority than the guidance information is small as a display position.
前記表示位置決定部は、前記表示位置において前記案内情報と前記障害物とが重畳するときに、前記案内情報の表示方法を、前記障害物の視認性が向上する表示方法に変更することを特徴とする、請求項4に記載のナビゲーション装置。   The display position determination unit changes the display method of the guidance information to a display method that improves the visibility of the obstacle when the guidance information and the obstacle overlap at the display position. The navigation device according to claim 4. 前記表示位置決定部は、前記案内情報と前記障害物との重畳面積が低減するように、前記案内情報の形状を変形することを決定することを特徴とする、請求項5に記載のナビゲーション装置。   The navigation device according to claim 5, wherein the display position determination unit determines to change the shape of the guide information so that an overlapping area between the guide information and the obstacle is reduced. . 前記表示位置決定部は、前記案内情報を非表示にすることを決定することを特徴とする、請求項5に記載のナビゲーション装置。   The navigation device according to claim 5, wherein the display position determination unit determines to hide the guidance information. 前記平面上における前記表示位置付近の色彩を判断する色彩判断部と、
前記案内情報の色彩を、前記色彩判断部が判断した色彩とは異なる色彩にすることを決定する色彩決定部とをさらに備えた、請求項1に記載のナビゲーション装置。
A color judgment unit for judging a color near the display position on the plane;
The navigation device according to claim 1, further comprising a color determination unit that determines that the color of the guidance information is a color different from the color determined by the color determination unit.
車両前方から入射する光の光量を取得する光量取得部と、
前記光量取得部が取得した光量に基づいて、前記案内情報の輝度を決定する輝度決定部とをさらに備えた、請求項1に記載のナビゲーション装置。
A light amount acquisition unit for acquiring the amount of light incident from the front of the vehicle;
The navigation device according to claim 1, further comprising: a luminance determination unit that determines luminance of the guidance information based on the light amount acquired by the light amount acquisition unit.
前記画像出力部は、前記案内情報を自車のフロントガラスに投影して表示することを特徴とする、請求項1に記載のナビゲーション装置。   The navigation apparatus according to claim 1, wherein the image output unit projects and displays the guidance information on a windshield of the vehicle. 前記画像出力部は、ディスプレイに表示した実風景画像上に前記案内情報を重ねて表示することを特徴とする、請求項1に記載のナビゲーション装置。   The navigation apparatus according to claim 1, wherein the image output unit displays the guidance information in an overlapping manner on an actual scenery image displayed on a display. 実風景に重ねて表示した案内情報によって利用者を誘導するナビゲーション装置で実行されるナビゲーション方法であって、
1以上の案内情報の中から提示する案内情報を特定する案内情報特定ステップと、
自車前方の風景を平面的に捉えたときの当該平面上の障害物の位置を特定する障害物検知ステップと、
前記平面上に前記案内情報を表示したときに前記障害物との重畳面積が少ない位置を特定し、当該位置を表示位置とする表示位置決定ステップと、
前記表示位置に前記案内情報を表示する画像出力ステップとを備えたナビゲーション方法。
A navigation method that is executed by a navigation device that guides a user with guidance information that is displayed superimposed on a real landscape,
A guide information specifying step for specifying guide information to be presented from one or more guide information;
An obstacle detection step for identifying the position of the obstacle on the plane when the scenery ahead of the vehicle is captured in a plane;
A display position determining step of identifying a position with a small overlapping area with the obstacle when the guidance information is displayed on the plane, and setting the position as a display position;
An image output step of displaying the guidance information at the display position.
JP2004354519A 2004-12-07 2004-12-07 Navigation device and navigation method Pending JP2006162442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004354519A JP2006162442A (en) 2004-12-07 2004-12-07 Navigation device and navigation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004354519A JP2006162442A (en) 2004-12-07 2004-12-07 Navigation device and navigation method

Publications (1)

Publication Number Publication Date
JP2006162442A true JP2006162442A (en) 2006-06-22

Family

ID=36664634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004354519A Pending JP2006162442A (en) 2004-12-07 2004-12-07 Navigation device and navigation method

Country Status (1)

Country Link
JP (1) JP2006162442A (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007101744A1 (en) * 2006-03-07 2007-09-13 Robert Bosch Gmbh Method and system for displaying navigation instructions
WO2008044309A1 (en) 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
WO2008068849A1 (en) 2006-12-05 2008-06-12 Navitime Japan Co., Ltd. Navigation system, portable terminal device, and peripheral-image display method
EP2075541A1 (en) * 2007-12-31 2009-07-01 STMicroelectronics Design and Application GmbH Improved vehicle navigation system
WO2009084129A1 (en) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation Navigation device
WO2010016379A1 (en) * 2008-08-05 2010-02-11 アイシン精機株式会社 Target position identifying apparatus
JP2011002322A (en) * 2009-06-18 2011-01-06 Toyota Motor Corp Power supply control device of navigation system
WO2011059552A3 (en) * 2009-10-30 2011-09-15 Teejet Technologies Illinois, Llc Method and apparatus for guiding a vehicle
JP4948684B1 (en) * 2011-06-22 2012-06-06 パイオニア株式会社 Head-up display and control method
JP2012138005A (en) * 2010-12-27 2012-07-19 Ns Solutions Corp Transport support system and transport support method
US8280665B2 (en) 2008-09-30 2012-10-02 Aisin Seiki Kabushiki Kaisha Calibration device for on-vehicle camera
JP2012233904A (en) * 2012-06-29 2012-11-29 Pioneer Electronic Corp Information display device, information display method, information display program, and recording medium
WO2013088557A1 (en) * 2011-12-15 2013-06-20 パイオニア株式会社 Display device and display method
WO2013114617A1 (en) * 2012-02-03 2013-08-08 パイオニア株式会社 Image-display device, method for displaying image, and image-display program
US9269007B2 (en) 2013-06-14 2016-02-23 Denso Corporation In-vehicle display apparatus and program product
WO2016185691A1 (en) * 2015-05-20 2016-11-24 株式会社デンソー Image processing apparatus, electronic mirror system, and image processing method
WO2017002209A1 (en) * 2015-06-30 2017-01-05 三菱電機株式会社 Display control device, display control method, and display control program
CN108202747A (en) * 2016-12-16 2018-06-26 现代自动车株式会社 Vehicle and the method for controlling the vehicle
CN108313124A (en) * 2017-01-17 2018-07-24 北京行易道科技有限公司 The method and apparatus for detecting vehicle-surroundings barrier
JPWO2017094427A1 (en) * 2015-12-01 2018-10-11 日本精機株式会社 Head-up display
WO2018211591A1 (en) * 2017-05-16 2018-11-22 三菱電機株式会社 Display control device and display control method
WO2019004245A1 (en) * 2017-06-30 2019-01-03 パナソニックIpマネジメント株式会社 Display system, information presentation system comprising display system, method for control of display system, program, and mobile body comprising display system
DE102018214346A1 (en) 2017-08-29 2019-02-28 Yazaki Corporation Vehicle display device and display control method
DE102018215350A1 (en) 2017-09-12 2019-03-14 Yazaki Corporation Vehicle display device and display control method
JPWO2017221945A1 (en) * 2016-06-20 2019-05-23 京セラ株式会社 Display device, display system, moving object, and display method
WO2020115865A1 (en) * 2018-12-06 2020-06-11 三菱電機株式会社 Driving assistance control device, method, program, and recording medium

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007101744A1 (en) * 2006-03-07 2007-09-13 Robert Bosch Gmbh Method and system for displaying navigation instructions
WO2008044309A1 (en) 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
WO2008068849A1 (en) 2006-12-05 2008-06-12 Navitime Japan Co., Ltd. Navigation system, portable terminal device, and peripheral-image display method
WO2009084129A1 (en) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation Navigation device
EP2075541A1 (en) * 2007-12-31 2009-07-01 STMicroelectronics Design and Application GmbH Improved vehicle navigation system
WO2010016379A1 (en) * 2008-08-05 2010-02-11 アイシン精機株式会社 Target position identifying apparatus
KR101205428B1 (en) 2008-08-05 2012-11-27 아이신세이끼가부시끼가이샤 Target position identifying apparatus
US8077199B2 (en) 2008-08-05 2011-12-13 Aisin Seiki Kabushiki Kaisha Target position identifying apparatus
JPWO2010016379A1 (en) * 2008-08-05 2012-01-19 アイシン精機株式会社 Target location device
US8280665B2 (en) 2008-09-30 2012-10-02 Aisin Seiki Kabushiki Kaisha Calibration device for on-vehicle camera
US8260541B2 (en) 2009-06-18 2012-09-04 Toyota Jidosha Kabushiki Kaisha Power supply control apparatus of navigation system
JP2011002322A (en) * 2009-06-18 2011-01-06 Toyota Motor Corp Power supply control device of navigation system
US8374790B2 (en) 2009-10-30 2013-02-12 Teejet Technologies Illinois, Llc Method and apparatus for guiding a vehicle
WO2011059552A3 (en) * 2009-10-30 2011-09-15 Teejet Technologies Illinois, Llc Method and apparatus for guiding a vehicle
JP2012138005A (en) * 2010-12-27 2012-07-19 Ns Solutions Corp Transport support system and transport support method
JP4948684B1 (en) * 2011-06-22 2012-06-06 パイオニア株式会社 Head-up display and control method
WO2012176288A1 (en) * 2011-06-22 2012-12-27 パイオニア株式会社 Head-up display and control method
WO2013088557A1 (en) * 2011-12-15 2013-06-20 パイオニア株式会社 Display device and display method
JPWO2013088557A1 (en) * 2011-12-15 2015-04-27 パイオニア株式会社 Display device and display method
WO2013114617A1 (en) * 2012-02-03 2013-08-08 パイオニア株式会社 Image-display device, method for displaying image, and image-display program
JP2012233904A (en) * 2012-06-29 2012-11-29 Pioneer Electronic Corp Information display device, information display method, information display program, and recording medium
US9269007B2 (en) 2013-06-14 2016-02-23 Denso Corporation In-vehicle display apparatus and program product
WO2016185691A1 (en) * 2015-05-20 2016-11-24 株式会社デンソー Image processing apparatus, electronic mirror system, and image processing method
JP2016220011A (en) * 2015-05-20 2016-12-22 株式会社デンソー Image processing apparatus, electronic mirror system, and image processing method
WO2017002209A1 (en) * 2015-06-30 2017-01-05 三菱電機株式会社 Display control device, display control method, and display control program
DE112015006662T5 (en) 2015-06-30 2018-05-03 Mitsubishi Electric Corporation DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND DISPLAY CONTROL PROGRAM
JPWO2017002209A1 (en) * 2015-06-30 2017-06-29 三菱電機株式会社 Display control apparatus, display control method, and display control program
JPWO2017094427A1 (en) * 2015-12-01 2018-10-11 日本精機株式会社 Head-up display
EP3385776A4 (en) * 2015-12-01 2019-08-07 Nippon Seiki Co., Ltd. HIGH HEAD DISPLAY
JPWO2017221945A1 (en) * 2016-06-20 2019-05-23 京セラ株式会社 Display device, display system, moving object, and display method
US10917619B2 (en) 2016-06-20 2021-02-09 Kyocera Corporation Display apparatus, display system, moveable body, and display method
CN108202747A (en) * 2016-12-16 2018-06-26 现代自动车株式会社 Vehicle and the method for controlling the vehicle
CN108202747B (en) * 2016-12-16 2022-05-17 现代自动车株式会社 Vehicle and method of controlling the same
CN108313124A (en) * 2017-01-17 2018-07-24 北京行易道科技有限公司 The method and apparatus for detecting vehicle-surroundings barrier
CN108313124B (en) * 2017-01-17 2024-04-26 北京行易道科技有限公司 Method and device for detecting obstacle around vehicle
WO2018211591A1 (en) * 2017-05-16 2018-11-22 三菱電機株式会社 Display control device and display control method
JPWO2018211591A1 (en) * 2017-05-16 2019-11-14 三菱電機株式会社 Display control apparatus and display control method
US11248926B2 (en) 2017-05-16 2022-02-15 Mitsubishi Electric Corporation Display control device and display control method
JP2019012483A (en) * 2017-06-30 2019-01-24 パナソニックIpマネジメント株式会社 Display system, information presentation system including display system, display system control method, program, and moving body including display system
JP7113259B2 (en) 2017-06-30 2022-08-05 パナソニックIpマネジメント株式会社 Display system, information presentation system including display system, display system control method, program, and mobile object including display system
WO2019004245A1 (en) * 2017-06-30 2019-01-03 パナソニックIpマネジメント株式会社 Display system, information presentation system comprising display system, method for control of display system, program, and mobile body comprising display system
JP2019039883A (en) * 2017-08-29 2019-03-14 矢崎総業株式会社 Vehicle display device and display control method
DE102018214346A1 (en) 2017-08-29 2019-02-28 Yazaki Corporation Vehicle display device and display control method
JP6991794B2 (en) 2017-08-29 2022-01-13 矢崎総業株式会社 Vehicle display device and display control method
DE102018214346B4 (en) 2017-08-29 2024-03-07 Yazaki Corporation Vehicle display device and display control method
DE102018215350A1 (en) 2017-09-12 2019-03-14 Yazaki Corporation Vehicle display device and display control method
WO2020115865A1 (en) * 2018-12-06 2020-06-11 三菱電機株式会社 Driving assistance control device, method, program, and recording medium
JPWO2020115865A1 (en) * 2018-12-06 2021-03-18 三菱電機株式会社 Driving support control device

Similar Documents

Publication Publication Date Title
JP2006162442A (en) Navigation device and navigation method
JP6763448B2 (en) Visually enhanced navigation
US11535155B2 (en) Superimposed-image display device and computer program
US11511627B2 (en) Display device and computer program
JP5962594B2 (en) In-vehicle display device and program
JP4788426B2 (en) Vehicle display system
JP6926976B2 (en) Parking assistance device and computer program
US11525694B2 (en) Superimposed-image display device and computer program
US20090240426A1 (en) Navigation device and navigation method
RU2677122C1 (en) Vehicle displaying device
JP2009020089A (en) NAVIGATION DEVICE, NAVIGATION METHOD, AND NAVIGATION PROGRAM
JP2007292713A (en) Navigation device
JPWO2007129382A1 (en) Navigation apparatus and method
US11493357B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
JP2010257253A (en) Vehicle display device
WO2013161028A1 (en) Image display device, navigation device, image display method, image display program and recording medium
JP2007286170A (en) Display screen adjusting device, display screen adjusting method, display screen adjusting program and recording medium
JP2017032436A (en) Movement guide system, movement guide method and computer program
JP4798549B2 (en) Car navigation system
JPWO2008047449A1 (en) Image display device, display control method, display control program, and recording medium
WO2012086053A1 (en) Image adjustment device, control method, program, and storage medium
JP2021038978A (en) Superimposed image display device and computer program
JP5231595B2 (en) Navigation device
EP3729000A1 (en) Method, device and system for displaying augmented reality poi information
JP7302389B2 (en) Superimposed image display device and computer program