[go: up one dir, main page]

JP2019101138A - Data structure of map data - Google Patents

Data structure of map data Download PDF

Info

Publication number
JP2019101138A
JP2019101138A JP2017229993A JP2017229993A JP2019101138A JP 2019101138 A JP2019101138 A JP 2019101138A JP 2017229993 A JP2017229993 A JP 2017229993A JP 2017229993 A JP2017229993 A JP 2017229993A JP 2019101138 A JP2019101138 A JP 2019101138A
Authority
JP
Japan
Prior art keywords
data
mirror
feature
information
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017229993A
Other languages
Japanese (ja)
Inventor
誠 松丸
Makoto Matsumaru
誠 松丸
良司 野口
Ryoji Noguchi
良司 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2017229993A priority Critical patent/JP2019101138A/en
Publication of JP2019101138A publication Critical patent/JP2019101138A/en
Pending legal-status Critical Current

Links

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a data structure of map data for recording information on a curve mirror.SOLUTION: Map data FM including positional data FMB 3 which indicates positions of a feature and object kind data FMB 2 which indicates the kind of the feature in association with each other, is used for processing that an on-vehicle terminal determines whether the feature specified by the positional data FMB 3 is a curve mirror or the like on the basis of the object kind data FMB 2.SELECTED DRAWING: Figure 3

Description

本願は、端末及びサーバで記憶される地図データのデータ構造の技術分野に関する。   The present application relates to the technical field of the data structure of map data stored in a terminal and a server.

自動運転車両では、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)センサなどのセンサで計測した地物位置と、自動運転用の地図データに記述された地物位置と、をマッチングして高精度に自車位置を推定する必要がある。利用する地物として標識や看板などがあり、これらの地物の位置を含む自動運転用の地図データは、安定した自動運転を行うために、現実に即して整備・更新を行う必要がある。   In an autonomous driving vehicle, the feature position measured by a sensor such as a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) sensor is matched with the feature position described in map data for automatic It is necessary to estimate the vehicle position to the accuracy. There are signs and signs as features to be used, and map data for automatic operation including the positions of these features need to be maintained and updated according to reality in order to perform stable automatic operation. .

このための一技術として、地表面にレーザー光を出射し、その反射光を受光して得られた点群データを地図データの利用・更新等に活かすレーザー計測技術の開発が進められている。例えば、特許文献1には、点群データに建物や街路樹等、道路面以外のデータも多く含まれているところ、この中から道路面を計測しているデータを抽出する技術が開示されている。特許文献1の技術を用いることにより、地表面を計測した点群データから道路領域を判定することができる。また、特許文献1の技術を含む上記レーザー計測技術を用いれば、上記道路面以外に、道路脇等に設置されている標識などの地物を検出することも可能である。   As one technique for this purpose, development of laser measurement technology has been advanced in which laser light is emitted to the ground surface and point cloud data obtained by receiving the reflected light is utilized for utilization / update of map data and the like. For example, Patent Document 1 discloses a technique for extracting data measuring a road surface from among points cloud data including many data other than the road surface, such as buildings and road trees, etc. There is. By using the technology of Patent Document 1, it is possible to determine a road area from point cloud data obtained by measuring the ground surface. Moreover, if the said laser measurement technique including the technique of patent document 1 is used, it is also possible to detect terrestrial features, such as a sign installed in the roadside etc. besides the said road surface.

特開2017−9378号公報Unexamined-Japanese-Patent No. 2017-9378

ここで、道路上には、車両の運転者からは視認できない、例えば車両が進行する道路に脇道から進入しようとする人や自転車を視認するためのカーブミラーが設置されている場合がある。カーブミラーは、上記レーザー計測技術に用いられるレーザー光の反射率が高い。従って、カーブミラーに上記人等が映っているタイミングで上記LiDARセンサからカーブミラーにレーザー光を出射すると、その反射光に含まれている上記人等の像により、その人等が、あたかもカーブミラーの位置に存在しているかのように検出されてしまう場合があるという問題点があった。この問題点は、当該人等の誤検出により、自動運転中の車両に対して不要なブレーキ操作が行われる等の問題点に繋がる。これらの問題点は、カーブミラーの位置が予め認識できていることで解決し得ると考えられる。   Here, on the road, there may be a case where a curved mirror, which is not visible to the driver of the vehicle, for example, for visually recognizing a person who intends to enter the road on which the vehicle travels from the side road or a bicycle is installed. The curved mirror has a high reflectance of laser light used in the above-described laser measurement technology. Therefore, when a laser beam is emitted from the LiDAR sensor to the curve mirror at the timing when the above person etc. are reflected on the curve mirror, the person etc. is as if it were a curve mirror according to the image of the person etc. included in the reflected light. There is a problem that it may be detected as if it exists at the position of. This problem leads to problems such as unnecessary braking operation being performed on the vehicle during automatic driving due to erroneous detection of the person or the like. It is considered that these problems can be solved by recognizing the position of the curve mirror in advance.

そこで本願は、こうした問題点及び要請に鑑みて為されたもので、その課題の一例は、カーブミラーに関する情報を記録するための地図データのデータ構造を提供することにある。   Accordingly, the present application has been made in view of the above problems and needs, and an example of the problem is to provide a data structure of map data for recording information on a curve mirror.

請求項1に記載の発明は、地物の位置を示す位置情報と、前記地物の種類を示す種類情報と、を関連付けて含む地図データのデータ構造であって、前記種類情報として、前記位置情報により特定される所定の前記地物がミラーを有する地物であることを示す情報が記録されており、移動体に搭載された端末が、前記位置情報により特定される前記地物がミラーを有する地物であるかどうかを前記種類情報に基づいて判定する処理に用いられることを特徴とする前記地図データのデータ構造である。   The invention according to claim 1 is a data structure of map data including position information indicating the position of a feature and type information indicating the type of the feature, the position being the type information as the type information. The information indicating that the predetermined feature specified by the information is a feature having a mirror is recorded, and the terminal mounted on the mobile body has the feature specified by the position information a mirror. It is a data structure of the said map data characterized by being used for the process which determines based on the said type information whether it is a terrestrial feature to have.

実施形態の地図データのデータ構造を示すブロック図である。It is a block diagram which shows the data structure of the map data of embodiment. 実施例の地図データ管理システムの概要構成を示すブロック図である。It is a block diagram showing a schematic structure of a map data management system of an example. (A)は実施例の送信データのフォーマットを例示する図である。(B)は実施例の地図データのフォーマットを例示する図である。(A) is a figure which illustrates the format of the transmission data of an Example. (B) is a figure which illustrates the format of the map data of an Example. 実施例のカーブミラー予測範囲の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the curve mirror prediction range of an Example. (A)は実施例の地図データ管理システムによる送信データの送信処理の動作例を示すフローチャートである。(B)は実際のミラーの一例を示す図である。(A) is a flowchart which shows the operation example of the transmission processing of transmission data by the map data management system of an Example. (B) is a figure which shows an example of an actual mirror. 実施例のカーブミラー等の情報を用いた処理の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the process using information, such as a curve mirror of an Example. 実施例のカーブミラー等の情報を用いた処理の動作例の詳細を示すフローチャートである。It is a flowchart which shows the detail of the operation example of the process using information, such as a curve mirror of an Example.

本願発明を実施するための形態について、図1を用いて説明する。なお、図1は、本実施形態の地図データのデータ構造の構成を示すブロック図である。   A mode for carrying out the present invention will be described with reference to FIG. In addition, FIG. 1 is a block diagram which shows a structure of the data structure of the map data of this embodiment.

図1に示すように、本実施形態のデータ構造は、地物の位置を示す位置情報1Aと、上記地物の種類を示す種類情報1Bと、を関連付けて含む地図データFMのデータ構造である。   As shown in FIG. 1, the data structure of the present embodiment is a data structure of map data FM including position information 1A indicating the position of a feature and type information 1B indicating the type of the feature in association with each other. .

そして、種類情報1Bとして、位置情報1Aにより特定される所定の地物が、ミラーを有する地物であることを示す情報が記録されており、地図データFMは、移動体に搭載された端末が、位置情報1Aにより特定される地物がミラーを有する地物であるかどうかを種類情報1Bに基づいて判定する処理に用いられる。   Then, information indicating that the predetermined feature specified by the position information 1A is a feature having a mirror is recorded as the type information 1B, and the map data FM is obtained by the terminal mounted on the moving body It is used for the process which determines whether the terrestrial feature identified by the positional information 1A is a terrestrial feature having a mirror based on the type information 1B.

以上説明したように、本実施形態の地図データFMのデータ構造は、位置情報1Aと、位置情報1Aに関連付けられた種類情報1Bと、を含み、上記端末が、位置情報1Aにより特定される地物がミラーを有する地物であるかどうかを種類情報1Bに基づいて判定する処理に地図データFMが用いられるので、ミラーを有する地物に関する情報を記録するための地図データのデータ構造を提供することができる。   As described above, the data structure of the map data FM according to the present embodiment includes the position information 1A and the type information 1B associated with the position information 1A, and the terminal is identified by the position information 1A. Since map data FM is used to determine whether an object is a feature having a mirror based on the type information 1B, a data structure of map data for recording information on the feature having a mirror is provided. be able to.

図2−図7を用いて実施例について説明する。なお以下に説明する実施例は、本実施形態を、地図データ管理システムSに適用した場合の実施例である。また、図2は実施例の地図データ管理システムの概要構成を示すブロック図であり、図3は実施例の地図データのフォーマットを例示する図等であり、図4は実施例のカーブミラー予測範囲の算出方法を説明するための図である。更に、図5は実施例の地図データ管理システムによる送信データの送信処理の動作例を示すフローチャート等であり、図6は実施例のカーブミラー等の情報を用いた処理の動作例を示すフローチャートであり、図7は実施例のカーブミラー等の情報を用いた処理の動作例の詳細を示すフローチャートである。   An embodiment will be described with reference to FIGS. The embodiment described below is an embodiment in which the present embodiment is applied to the map data management system S. 2 is a block diagram showing a schematic configuration of the map data management system of the embodiment, FIG. 3 is a diagram etc. illustrating the format of map data of the embodiment, and FIG. 4 is a curve mirror prediction range of the embodiment It is a figure for demonstrating the calculation method of. Further, FIG. 5 is a flowchart showing an operation example of transmission processing of transmission data by the map data management system of the embodiment, and FIG. 6 is a flowchart showing an operation example of processing using information such as a curve mirror of the embodiment. FIG. 7 is a flowchart showing details of an operation example of processing using information of a curve mirror or the like according to the embodiment.

[1.地図データ管理システムSの構成及び概要]
図2に示すように、本実施例の地図データ管理システムSは、地図データを管理するサーバ装置100と、複数の車両のそれぞれに搭載される車載端末200(実施形態の端末の一例)と、を含んで構成され、サーバ装置100と各車載端末200とは、例えばインターネット等のネットワークNWを介して諸データの授受が可能に接続されている。なお、図2では車載端末200を一台示しているが、地図データ管理システムSは複数の車載端末200を含んで構成してもよい。また、サーバ装置100についても複数の装置で構成してもよい。
[1. Configuration and Outline of Map Data Management System S]
As shown in FIG. 2, the map data management system S of this embodiment includes a server device 100 that manages map data, and an on-board terminal 200 (an example of a terminal of the embodiment) mounted on each of a plurality of vehicles. The server device 100 and each in-vehicle terminal 200 are connected so as to be able to transmit and receive various data via a network NW such as the Internet, for example. Although one in-vehicle terminal 200 is shown in FIG. 2, the map data management system S may include a plurality of in-vehicle terminals 200. Further, the server apparatus 100 may also be configured by a plurality of apparatuses.

車載端末200は、車載端末200と共に後述するLiDARセンサが搭載された車両において、LiDARセンサが自ら出射したレーザー光の、当該車両の周辺に存在する地物からの反射光を受光することにより当該地物を検出し、その検出結果に対応するデータ等を、後述する実施例のデータ構造を有する送信データとして、サーバ装置100に送信する。このとき、実施例の地物としては、道路脇の必要な箇所に国又は地方自治体等が設置したいわゆるカーブミラーに加えて、一個人が例えば自らが所有する駐車場と道路との境界部分に設置したミラーが挙げられる。以下の説明では、これらを纏めて「カーブミラー等」と称する。これに加えて車体端末200は、カーブミラー等による上記レーザー光の反射光に基づいて、当該カーブミラー等に対応した後述の処理を行う。   In the vehicle mounted with the LiDAR sensor described later together with the vehicle-mounted terminal 200, the vehicle-mounted terminal 200 receives the reflected light of the laser light emitted by the LiDAR sensor from the feature existing in the vicinity of the vehicle. An object is detected, and data and the like corresponding to the detection result are transmitted to the server apparatus 100 as transmission data having the data structure of the embodiment described later. At this time, in addition to the so-called curve mirror installed by the country or local government etc. at a required location beside the road, one individual installed at the boundary between the parking lot owned by oneself and the road, for example. Mirrors are included. In the following description, these are collectively called "curve mirror etc." In addition to this, the vehicle body terminal 200 performs the process described later corresponding to the curve mirror or the like based on the reflected light of the laser beam by the curve mirror or the like.

サーバ装置100は、複数の車載端末200それぞれから受信した複数の上記送信データに基づいて、サーバ装置100に記録されている後述の地図データを更新すると共に、いずれかの車載端末100からの要求に応じて、当該要求に対応する地図データを当該要求した車載端末200に送信する。なお、上記地図データの更新は、サーバ装置100から指示を受けた他の装置が行うこととしてもよい。   The server device 100 updates map data, which will be described later, recorded in the server device 100 based on the plurality of transmission data received from each of the plurality of in-vehicle terminals 200, and responds to a request from any of the in-vehicle terminals 100. In response, the map data corresponding to the request is transmitted to the requested on-vehicle terminal 200. The update of the map data may be performed by another device that has received an instruction from the server device 100.

[2.車載端末200の構成]
次に、本実施例の車載端末200の構成について説明する。
[2. Configuration of in-vehicle terminal 200]
Next, the configuration of the on-vehicle terminal 200 of the present embodiment will be described.

図2に示すように、車載端末200は、大別して、制御部201と、記憶部202と、通信部203と、インターフェース部204を含んで構成されており、外部機器であるLiDARセンサ205及び内界センサ206に接続されている。   As shown in FIG. 2, the on-vehicle terminal 200 is roughly divided into a control unit 201, a storage unit 202, a communication unit 203, and an interface unit 204. It is connected to the field sensor 206.

記憶部202は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等により構成されており、OS(Operating System)、実施例の処理プログラム、地図データ及び各種データ等を記憶する。地図データには、LiDARセンサ205による検出の対象となる地物について、その位置を示す地図位置情報と、当該地物と他の地物とを識別するための地物IDが記述されている。このとき、地図位置情報と地物IDは一の地物に紐付く情報であるため、地物IDは当該一の地物の位置を示す位置情報の一つということができる。なお、上記地物の例としては、本実施例のカーブミラー等の他に、例えば、車載端末200が搭載されている車両の周囲に存在する、人、他の車両、信号機、看板、建築物及び道路脇の植生等が挙げられる。また、記憶部202が記憶する地図データと同様の地図データ(即ち、地物毎に、地図位置情報と地物IDが記述された地図データ)が、サーバ装置100の記憶部102にも記憶されており、車載装置200とサーバ装置100それぞれにおいて地物IDにより同一の地物を特定することができる。更に、記憶部202が記憶する地図データは、例えば全国の地図データを記憶しておくこととしてもよいし、車両の現在位置を含む一定地域に対応する地図データをサーバ装置100等から予め受信して記憶しておくこととしてもよい。   The storage unit 202 is configured of, for example, a hard disk drive (HDD) or a solid state drive (SSD), and stores an operating system (OS), a processing program of the embodiment, map data, various data, and the like. The map data describes map position information indicating the position of a feature to be detected by the LiDAR sensor 205, and a feature ID for identifying the feature from another feature. At this time, since the map position information and the feature ID are information linked to one feature, the feature ID can be said to be one of position information indicating the position of the one feature. In addition to the curved mirror and the like of the present embodiment, for example, a person, another vehicle, a traffic light, a signboard, and a building exist around the vehicle on which the on-board terminal 200 is mounted. And vegetation along the road. Also, map data similar to the map data stored in the storage unit 202 (that is, map data in which map position information and feature ID are described for each feature) is stored in the storage unit 102 of the server device 100 The same feature can be specified by the feature ID in each of the in-vehicle apparatus 200 and the server apparatus 100. Furthermore, the map data stored in the storage unit 202 may store, for example, map data of the whole country, or map data corresponding to a certain area including the current position of the vehicle is received in advance from the server device 100 or the like. May be stored.

通信部203は、車載端末200とサーバ装置100との通信状態を制御する。   The communication unit 203 controls the communication state between the in-vehicle terminal 200 and the server device 100.

インターフェース部204は、上記LiDARセンサ205及び内界センサ206と、車載端末200と、の間でデータの授受を行う際のインターフェース機能を実現する。   The interface unit 204 implements an interface function when data is exchanged between the LiDAR sensor 205 and the internal sensor 206 and the on-vehicle terminal 200.

LiDARセンサ205は、例えば車両のルーフ部分等に取り付けられ、一機能として、車両の周囲にレーザ光の照射点で円を描くようにパルス状のレーザー光(より具体的には、例えばパルス状の赤外線レーザー光)を出射し走査する。このときLiDARセンサ205は、例えばルーフ部分から下向きに一定の角度でレーザー光を出射する。そして、車両の周囲にある各地物の表面上の点で反射した光を受光し、各点における反射強度を示す反射強度データ、及び点群距離データ等を生成する。この反射強度データは、レーザー光の、地面や地物による反射強度を示すデータである。また、点群距離データは、レーザ光が照射された方向と、その方向に存在する地面や地物におけるレーザ光の照射点までの距離を示すデータである。これらの反射強度データと点群距離データを総称してセンサーデータと呼ぶ。なお、LiDARセンサ205は、車両フロント部やリア部などに複数取り付けられることで、それぞれが取得した視野範囲の反射強度データと点群距離データを合成して、車両の周囲のセンサーデータを生成してもよい。   The LiDAR sensor 205 is attached to, for example, a roof portion of a vehicle, and as one function, a pulse-like laser beam (more specifically, for example, a pulse-like shape) to draw a circle at the irradiation point of the laser beam around the vehicle. Infrared laser beam) is emitted and scanned. At this time, the LiDAR sensor 205 emits laser light downward at a constant angle, for example, from the roof portion. Then, the light reflected at the points on the surface of each feature around the vehicle is received, and reflection intensity data indicating the reflection intensity at each point, point cloud distance data, and the like are generated. The reflection intensity data is data indicating the reflection intensity of the laser light by the ground and features. The point group distance data is data indicating the direction in which the laser beam is irradiated and the distance to the point on the ground or feature on which the laser beam is irradiated. These reflection intensity data and point cloud distance data are generically called sensor data. A plurality of LiDAR sensors 205 are attached to the front and rear of the vehicle to combine the reflection intensity data and point cloud distance data of the field of view acquired by each, and generate sensor data of the surroundings of the vehicle. May be

LiDARセンサ205は、上記反射強度を測定すると即時にセンサーデータを生成し、インターフェース部204を介して車載端末200に送信する。制御部201は、LiDARセンサ205からセンサーデータを受信すると、受信したセンサーデータを、センサーデータの受信時の車両の位置(即ちLiDARセンサ205を含む車載端末200の位置)を示す測定位置情報と、センサーデータの受信時の日時を示す測定日時情報に対応付けて記憶部202に記憶させる。なお、制御部201は、記憶部202に記憶させたセンサーデータ、測定位置情報及び測定日時情報のうち、測定から所定時間が経過したもの、或いは、サーバ装置100に送信したものについては、記憶部202から削除してもよい。   The LiDAR sensor 205 immediately generates sensor data when the reflection intensity is measured, and transmits the sensor data to the on-vehicle terminal 200 via the interface unit 204. When the control unit 201 receives sensor data from the LiDAR sensor 205, the control unit 201 measures the received sensor data as measured position information indicating the position of the vehicle at the time of reception of the sensor data (that is, the position of the in-vehicle terminal 200 including the LiDAR sensor 205). It is stored in the storage unit 202 in association with measurement date and time information indicating the date and time of reception of sensor data. Note that the control unit 201 stores the sensor data, the measurement position information, and the measurement date and time information stored in the storage unit 202 for which the predetermined time has elapsed from the measurement or the information transmitted to the server device 100. It may be deleted from 202.

内界センサ206は、車両に搭載される、衛星測位センサ(GNSS(Global Navigation Satellite System))、ジャイロセンサ、車速センサ等の総称である。   The internal sensor 206 is a generic term such as a satellite positioning sensor (GNSS (Global Navigation Satellite System)), a gyro sensor, a vehicle speed sensor, and the like mounted on a vehicle.

制御部201は、制御部201全体を制御するCPU(Central Processing Unit)と、制御部201を制御する制御プログラム等が予め記憶されているROM(Read Only Memory)と、各種データを一時的に格納するRAM(Random Access Memory)と、により構成されている。そして、CPUが、ROMや記憶部202に記憶された各種プログラムを読み出し実行することにより、実施例の地図データ管理システムSによる送信データの送信処理及び実施例のカーブミラー等の情報を用いた処理を含む各種機能を実現する。   The control unit 201 temporarily stores various data, such as a central processing unit (CPU) for controlling the entire control unit 201, a read only memory (ROM) in which a control program for controlling the control unit 201 and the like is stored in advance. And a random access memory (RAM). Then, the CPU reads and executes various programs stored in the ROM and the storage unit 202, thereby performing transmission processing of transmission data by the map data management system S of the embodiment and processing using information such as a curve mirror of the embodiment. To realize various functions including

制御部201は、推定自車位置情報を取得する。推定自車位置情報は、車載端末200外の装置が生成したものであってもよいし、制御部201が生成したものであってもよい。推定自車位置情報は、例えば、LiDARセンサ205で計測した地物位置と、自動運転用の地図データの地物位置と、をマッチングして生成したり、内界センサ206で検出した情報と上記地図データに基づいて生成したり、これらの組み合わせにより生成することができる。   The control unit 201 acquires estimated own vehicle position information. The estimated own vehicle position information may be generated by a device outside the on-board terminal 200, or may be generated by the control unit 201. The estimated vehicle position information may be generated, for example, by matching the feature position measured by the LiDAR sensor 205 with the feature position of map data for automatic driving, or information detected by the inner sensor 206 and the above It can be generated based on map data, or a combination of these.

また、制御部201は、推定自車位置情報と、LiDARセンサ205からのセンサーデータと、に基づいて、例えば道路脇に存在する地物のうちカーブミラー等を検出し、当該検出結果に相当する送信データ1を、実施例の送信データ1のデータ構造によりサーバ装置100に送信する。このカーブミラー等の検出処理については、後ほど図5を用いて詳述する。   Further, the control unit 201 detects, for example, a curve mirror or the like among features present on the side of the road based on the estimated own vehicle position information and the sensor data from the LiDAR sensor 205, and corresponds to the detection result. The transmission data 1 is transmitted to the server apparatus 100 according to the data structure of the transmission data 1 of the embodiment. The detection process of the curve mirror etc. will be described in detail later using FIG.

ここで、実施例の上記送信データ1のデータ構造について、図3(A)を用いて説明する。   Here, the data structure of the transmission data 1 according to the embodiment will be described with reference to FIG.

実施例のカーブミラー等を含む各地物それぞれについての実施例の送信データ1は、図3(A)に例示するように、基本情報TMBと、認識オブジェクト情報TMOと、特有情報TMSと、により構成されるデータ構造を備えている。   The transmission data 1 of the embodiment for each feature including the curve mirror etc. of the embodiment is composed of the basic information TMB, the recognition object information TMO, and the specific information TMS, as illustrated in FIG. 3A. Has a data structure that

このうち基本情報TMBは、ヘッダTMB1と、車両メタデータTMB2と、位置データTMB3と、により構成されている。このときヘッダTMB1は、送信データ1としてのデータフォーマットのヴァージョンや送信データ1のデータを送信した時を示すタイムスタンプを示すデータである。車両メタデータTMB2は、車載装置200が搭載されている車両を他の車両から識別するための車両ID、当該車両の大きさを示すデータ及び車載端末200に接続されているセンサの種類を示すデータ等が含まれている。なお車両メタデータTMB2としては、車載端末200に接続されているセンサとして、実施例のLiDARセンサ205の他に、周囲を撮像して画像データを出力するカメラがあることを想定している。位置データTMB3は、ある物体(以下、当該物体を適宜「オブジェクト」と称する)を車載端末200で検出・認識したタイミングにおける当該車載端末200が搭載されている車両の位置を示すデータである。このとき当該位置は、一般には緯度及び経度により示されるものであり、これに加えて、高度(標高)データが含まれていてもよい。   Among them, the basic information TMB is composed of a header TMB1, vehicle metadata TMB2, and position data TMB3. At this time, the header TMB1 is data indicating a version of a data format as the transmission data 1 and a time stamp indicating when data of the transmission data 1 is transmitted. The vehicle metadata TMB2 is a vehicle ID for identifying a vehicle on which the in-vehicle apparatus 200 is mounted from another vehicle, data indicating the size of the vehicle, and data indicating the type of sensor connected to the on-vehicle terminal 200. Etc. are included. As the vehicle metadata TMB2, in addition to the LiDAR sensor 205 of the embodiment, there is assumed to be a camera connected to the in-vehicle terminal 200, which picks up the surroundings and outputs image data. The position data TMB3 is data indicating the position of the vehicle on which the on-board terminal 200 is mounted at the timing when the on-board terminal 200 detects and recognizes an object (hereinafter, the object is appropriately referred to as the "object"). At this time, the position is generally indicated by latitude and longitude, and in addition to this, elevation (altitude) data may be included.

次に認識オブジェクト情報TMOは、物体IDデータTMO1と、物体種別データTMO2と、検出日時データTMO3と、位置データTMO4と、形状データTMO5と、大きさデータTMO6と、により構成されている。このとき物体IDデータTMO1は、送信データ1によりその諸元等が送信される地物(以下、当該地物を適宜「送信対象地物」と称する)を他の地物から識別するためのIDデータである。この物体IDデータTMO1は、検出された地物が初めて検出されたものであった場合は、空白データとしてもよい。物体種別データTMO2は、送信対象地物の種類(例えば、「交通標識」、「信号機」、「カーブミラー」等の種類であり、「カーブミラー」においてはポールに取り付けられているミラーの個数によって種類を分けても良い)を特定するためのコードデータであり、今回の例では「カーブミラー等」であることを示す値が設定される。検出日時データTMO3は、LiDARセンサ205を用いて送信対象地物を検出した日時を示すデータである。位置データTMO4は、送信対象地物が存在する位置として検出した緯度及び経度並びに高さ(標高)を示すデータである。形状データTMO5は、送信対象地物の形状(例えば、丸い形状、四角い形状、等の形状)を示すデータである。最後に大きさデータTMO6は、送信対象地物の特徴部分の縦横の大きさを示すデータである。なおカーブミラー等の場合、当該特徴部分とは、ミラーの部分である。また、大きさデータTMO6における横方向の大きさは、ミラー面と平行で且つミラーの直径と同じ長さの水平な線分の両端の位置を使って記述される。   The recognition object information TMO is composed of object ID data TMO1, object type data TMO2, detection date data TMO3, position data TMO4, shape data TMO5, and size data TMO6. At this time, the object ID data TMO 1 is an ID for identifying a feature (hereinafter, the feature is appropriately referred to as a “target feature to be sent”) to which the specifications and the like are transmitted by the transmission data 1 from other features. It is data. The object ID data TMO1 may be blank data if the detected feature is detected for the first time. The object type data TMO2 is a type of a transmission target feature (for example, a type such as "traffic sign", "traffic light", "curve mirror", etc., and "curve mirror" depends on the number of mirrors attached to a pole) It is code data for specifying the type), and in this example, a value indicating “curve mirror etc.” is set. The detection date data TMO3 is data indicating the date when the transmission target feature is detected using the LiDAR sensor 205. The position data TMO4 is data indicating the latitude and longitude and the height (elevation) detected as the position where the transmission target feature exists. The shape data TMO5 is data indicating the shape (for example, a shape such as a round shape, a square shape, or the like) of the transmission target feature. Finally, the size data TMO 6 is data indicating the vertical and horizontal sizes of the feature portion of the transmission target feature. In the case of a curved mirror or the like, the characteristic portion is a portion of the mirror. Further, the lateral size in the size data TMO 6 is described using the positions of both ends of the horizontal line segment parallel to the mirror surface and having the same length as the diameter of the mirror.

更に特有情報TMSは、カーブミラー等に特有の情報として付加される情報であり、位置高さデータTMS1と、曲率データTMS2と、反射有無データTMS3と、により構成されている。このとき位置高さデータTMS1は、カーブミラー等におけるミラーの部分の地表からの高さを示すデータである。曲率データTMS2は上記ミラーの曲率を示すデータであり、当該カーブミラー等を介して取得したセンサーデータから認識された物体の形状を補正するために用いることができる。反射有無データTMS3は、カーブミラー等がミラーとして機能したか否かを示すデータであり、例えば時間帯ごとに機能したか否かを登録することが好ましい。これによってミラーとして機能しない時間帯では、当該カーブミラー等がミラーとして利用できないことを判断できるので、後述するカーブミラー等の情報を用いた処理の動作を省略する等ができる。   Furthermore, the specific information TMS is information added as information specific to a curve mirror or the like, and is configured of position height data TMS1, curvature data TMS2, and reflection presence / absence data TMS3. At this time, the position height data TMS1 is data indicating the height from the ground of the portion of the mirror in the curve mirror or the like. The curvature data TMS2 is data indicating the curvature of the mirror, and can be used to correct the shape of an object recognized from sensor data acquired through the curve mirror or the like. The reflection / non-reflection data TMS3 is data indicating whether or not a curve mirror or the like has functioned as a mirror, and for example, it is preferable to register whether or not the function has been performed for each time zone. Thus, in a time zone in which the mirror does not function as a mirror, it can be determined that the curve mirror etc. can not be used as a mirror, so that it is possible to omit the operation of processing using information such as a curve mirror described later.

一方制御部201は、推定自車位置情報と、地図データで示されるカーブミラー等の地図位置情報に基づいて、自車両(即ちLiDARセンサ205)から見た実際のカーブミラー等の位置を予測する。このとき、制御部201は、ある程度の余裕を持って、カーブミラー等の位置が含まれる予測範囲を算出・設定する。なお以下の説明において、実施例のカーブミラー等の位置が含まれる予測範囲を、単に「カーブミラー予測範囲」と称する。   On the other hand, the control unit 201 predicts the actual position of a curve mirror or the like viewed from the host vehicle (that is, the LiDAR sensor 205) based on the estimated vehicle position information and map position information such as a curve mirror indicated by map data. . At this time, the control unit 201 calculates and sets a prediction range including the position of a curve mirror or the like with a certain margin. In the following description, the prediction range in which the position of the curve mirror or the like of the embodiment is included is simply referred to as "curve mirror prediction range".

ここで、図4を用いて、カーブミラー予測範囲の設定方法について具体的に説明する。図4における座標系等は次の通りである。なお図4では、実施例のカーブミラー等に含まれるカーブミラーの位置が含まれるカーブミラー予測範囲について示している。   Here, a setting method of the curve mirror prediction range will be specifically described with reference to FIG. The coordinate system etc. in FIG. 4 are as follows. FIG. 4 shows a curve mirror prediction range including the position of the curve mirror included in the curve mirror and the like of the embodiment.

地図座標系:X,Y
車両座標系:X,Y
地図座標系におけるカーブミラー地図位置:mx,my
車両座標系におけるカーブミラー予測位置:lx,ly
地図座標系における推定自車位置:x,y
地図座標系における推定自車方位角:Ψ
なお、上記車両座標系とは、車体端末200が搭載されている車両の位置を基準(原点)とする座標系をいう。
Map coordinate system: X m , Y m
Vehicle coordinate system: X V , Y V
Curve mirror map position in map coordinate system: mx m , my m
Curve mirror predicted position in vehicle coordinate system: lx v , ly v
Estimated vehicle position in the map coordinate system: x m , y m
Estimated vehicle azimuth in map coordinate system: Ψ m
The above-mentioned vehicle coordinate system refers to a coordinate system using the position of the vehicle on which the vehicle body terminal 200 is mounted as a reference (origin).

制御部201は、推定自車位置情報の示す推定自車位置に基づき、車両の進行方向(例えば、10m先)にあるカーブミラーの地図位置情報の示すカーブミラー地図位置から、対応するカーブミラー予測範囲を算出する。ここで図4に示すように、車両Vが走行する道路(レーン)の左の道路脇に存在するカーブミラーを検出する場合において、当該カーブミラーの位置を含むカーブミラー予測範囲を算出する場合について具体的に説明する。まず、制御部201は、カーブミラー地図位置と推定自車位置に基づいてカーブミラー予測位置301を算出する。カーブミラー予測位置は、次の(1)式で求められる。   Based on the estimated own vehicle position indicated by the estimated own vehicle position information, the control unit 201 predicts the corresponding curve mirror from the curve mirror map position indicated by the map position information of the curve mirror in the traveling direction (for example, 10 m ahead) of the vehicle Calculate the range. Here, as shown in FIG. 4, in the case of detecting a curve mirror existing on the left side of the road (lane) on which the vehicle V travels, the case of calculating a curve mirror prediction range including the position of the curve mirror This will be described specifically. First, the control unit 201 calculates a curve mirror predicted position 301 based on the curve mirror map position and the estimated own vehicle position. The curved mirror predicted position is obtained by the following equation (1).

次に、制御部201は、カーブミラー予測位置301を基準にカーブミラー予測範囲311を設定する。具体的には、カーブミラー予測位置301を含む一定の範囲をカーブミラー予測範囲311とする。そして、制御部201は、センサーデータから、カーブミラー予測範囲311内の反射強度を示すカーブミラーについてのセンサーデータ321を抽出する。 Next, the control unit 201 sets a curve mirror prediction range 311 based on the curve mirror prediction position 301. Specifically, a fixed range including the curve mirror predicted position 301 is set as a curve mirror predicted range 311. Then, the control unit 201 extracts sensor data 321 on a curve mirror indicating the reflection intensity in the curve mirror prediction range 311 from the sensor data.

制御部201は、こうして抽出したセンサーデータ321を、カーブミラー地図位置に対応する地物IDと、センサーデータ321の抽出元であるセンサーデータに対応する測定日時情報と対応付けて、記憶部202に記憶する。このようにして得られたセンサーデータ321を含むカーブミラー等の情報を用いた実施例の処理については、後ほど図6を用いて詳述する。   The control unit 201 associates the sensor data 321 extracted in this way with the feature ID corresponding to the curve mirror map position and the measurement date and time information corresponding to the sensor data which is the extraction source of the sensor data 321 in the storage unit 202. Remember. The process of the embodiment using information of a curve mirror or the like including the sensor data 321 obtained in this manner will be described in detail later using FIG.

[3.サーバ装置100の構成]
次に、サーバ装置100の構成について説明する。図2に示すように、サーバ装置100は、大別して、制御部101、記憶部102、通信部103、表示部104及び操作部105を含んで構成されている。
[3. Configuration of Server Device 100]
Next, the configuration of the server device 100 will be described. As shown in FIG. 2, the server apparatus 100 is roughly divided into a control unit 101, a storage unit 102, a communication unit 103, a display unit 104, and an operation unit 105.

記憶部102は、例えばHDDやSSD等により構成されており、OS、上記地図データ、車載端末200から受信した送信データ及びその他各種データ等を記憶する。   The storage unit 102 is configured by, for example, an HDD or an SSD, and stores the OS, the map data, transmission data received from the in-vehicle terminal 200, and various other data.

通信部103は、車載端末200との通信状態を制御する。   The communication unit 103 controls the communication state with the on-vehicle terminal 200.

表示部104は、例えば、液晶ディスプレイ等により構成されており、文字や画像等の情報を表示する。   The display unit 104 is configured of, for example, a liquid crystal display or the like, and displays information such as characters and images.

操作部105は、例えば、キーボード、マウス等により構成されており、オペレータからの操作指示を受け付け、その指示内容を指示信号として制御部101に出力する。   The operation unit 105 includes, for example, a keyboard, a mouse, and the like, receives an operation instruction from an operator, and outputs the content of the instruction to the control unit 101 as an instruction signal.

制御部101は、制御部101全体を制御するCPUと、制御部101を制御する制御プログラム等が予め記憶されているROMと、各種データを一時的に格納するRAMと、により構成されている。そして、CPUが、ROMや記憶部102に記憶された各種プログラムを読み出し実行することにより、実施例の地図データ管理システムSによる送信データの受信処理を含む各種機能を実現する。   The control unit 101 includes a CPU that controls the entire control unit 101, a ROM in which a control program that controls the control unit 101 and the like is stored in advance, and a RAM that temporarily stores various data. Then, the CPU reads and executes various programs stored in the ROM and the storage unit 102 to realize various functions including reception processing of transmission data by the map data management system S of the embodiment.

制御部101は、一又は複数の車載端末200それぞれから受信した複数の上記送信データを受信し、それらを用いて、対応する地物に対応する地図データを更新する。   The control unit 101 receives a plurality of the transmission data received from each of the one or a plurality of on-vehicle terminals 200, and uses them to update the map data corresponding to the corresponding feature.

ここで、実施例の地図データのデータ構造について、図3(B)を用いて説明する。   Here, a data structure of map data of the embodiment will be described using FIG. 3 (B).

実施例の車載端末200及びサーバ装置100にそれぞれ記憶されている地図データFMは、図3(B)に例示するように、基本情報FMBと、特有情報FMSと、により構成されるデータ構造を備えている。   The map data FM stored in each of the on-vehicle terminal 200 and the server device 100 according to the embodiment has a data structure configured by basic information FMB and specific information FMS, as illustrated in FIG. 3B. ing.

このうち基本情報FMBは、物体IDデータFMB1と、物体種別データFMB2(実施形態の種類情報1Bの一例)と、位置データFMB3(実施形態の位置情報1Aの一例)と、大きさデータFMB4と、により構成されている。このとき物体IDデータFMB1は、対応する地物を他の地物から識別するためのIDデータである。物体種別データFMB2は、上記物体種別データTMO2と同様に、対応する地物の種類を特定するためのコードデータであり、今回の例では「カーブミラー等」であることを示す値が設定される。位置データFMB3は、対応する地物が存在する位置の緯度及び経度並びに高さ(標高)を示すデータである。大きさデータFMB4は、上記大きさデータTMO6と同様に、対応する地物の特徴部分の縦横の大きさを示すデータである。なお、位置データFMB3に加えて、当該地物がどの道路リンクに属するのかを示す情報を付加してもよい。   Among them, basic information FMB includes object ID data FMB1, object type data FMB2 (an example of type information 1B of the embodiment), position data FMB3 (an example of position information 1A of the embodiment), and size data FMB4. It is composed of At this time, the object ID data FMB1 is ID data for identifying the corresponding feature from the other features. The object type data FMB2 is code data for specifying the type of the corresponding feature, as in the case of the object type data TMO2, and in the present example, a value indicating "curve mirror etc." is set. . The position data FMB3 is data indicating the latitude and longitude and the height (elevation) of the position where the corresponding feature exists. The size data FMB4 is data indicating the vertical and horizontal sizes of the feature part of the corresponding feature, similarly to the size data TMO6. In addition to the position data FMB3, information indicating which road link the feature belongs to may be added.

次に、特有情報FMSは、カーブミラーに特有の情報として付加される情報であり、曲率データFMS1と、観察対象データFMS2と、形状データFMS3と、所有者データFMS4と、使用不可時間帯データFMS5と、により構成されている。このとき曲率データFMS1は、上記曲率データTMS2と同様に、対応する地物がカーブミラー等である場合におけるそのミラーの曲率を示すデータである。観察対象データFMS2は、対応する地物がカーブミラー等である場合におけるそのミラーに映し出される対象物(例えば合流する脇道たる道路等)を示すデータであり、具体的には当該映し出される道路等を他の道路等と識別するための道路IDデータである。なお、カーブミラーを見る方向(若しくはカーブミラーを見るときの道路を示す道路IDデータ)と関連付けて、ミラーに映し出される対象物を登録することが好ましい。形状データFMS3は、上記形状データTMO5と同様に、対応する地物の形状を示すデータである。所有者データFMS4は、対応する地物がカーブミラー等である場合におけるその所有者(例えば、国又は地方自治体であるか、或いは個人所有であるかの区分)を示すデータである。使用不可時間帯データFMS5は、対応する地物がカーブミラー等である場合において、例えば車両から観て当該カーブミラー等の背後に太陽が位置する時間帯は、LiDARセンサ205では、そのカーブミラー等を使って、観察対象データFMS2が示す道路等に存在する物体などを検出できないので、その時間帯を示すデータである。なお、使用不可時間帯データFMS5としては、例えば車両に搭載されるであろうセンサーの種類ごとに設けてもよい。例えば、センサーとしてのカメラについては、ミラーに朝露が付着する時間帯が使用不可時間帯データFMS5として想定される。また例えば当該カーブミラー等の一部が季節によって街路樹により隠されてしまう場合は、その季節を示すデータを使用不可時間帯データFMS5としてもよい。なお、上記特有情報FMSのうち、観察対象データFMS2、所有者データFMS4及び使用不可時間帯データFMS5は、例えば、対応するカーブミラー等が設置された段階で、その設置者からの情報に基づいて地図データFM内に記述されるように構成することができる。   Next, the specific information FMS is information added as information specific to the curve mirror, and the curvature data FMS1, the observation target data FMS2, the shape data FMS3, the owner data FMS4, and the unusable time zone data FMS5 And consists of. At this time, the curvature data FMS1 is data indicating the curvature of a corresponding feature when the corresponding feature is a curve mirror or the like, as in the curvature data TMS2. The observation target data FMS2 is data indicating an object (for example, a road as a merging side road) to be displayed on the mirror when the corresponding feature is a curve mirror etc. Specifically, the road etc. It is road ID data for identifying with another road etc. In addition, it is preferable to associate the direction in which the curve mirror is viewed (or the road ID data indicating the road when the curve mirror is viewed), and to register an object projected on the mirror. The shape data FMS3 is data indicating the shape of the corresponding feature, as in the case of the shape data TMO5. The owner data FMS4 is data indicating the owner (e.g., classification of whether it is a state or a local government or private ownership) when the corresponding feature is a curve mirror or the like. When the corresponding feature is a curve mirror or the like, the unavailable time zone data FMS5 is, for example, a curve mirror or the like in the LiDAR sensor 205 in a time zone in which the sun is located behind the curve mirror or the like as viewed from the vehicle. Since the object etc. which exist in the road etc. which observation object data FMS2 show can not be detected using these, it is data which show the time zone. The unusable time zone data FMS 5 may be provided, for example, for each type of sensor that may be mounted on a vehicle. For example, for a camera as a sensor, a time zone in which morning dew adheres to a mirror is assumed as unusable time zone data FMS5. Further, for example, when a part of the curve mirror or the like is hidden by the street tree due to the season, data indicating the season may be used as the unavailable time zone data FMS5. Among the specific information FMS, the observation object data FMS2, the owner data FMS4, and the unusable time zone data FMS5 are, for example, based on the information from the installer at the stage when the corresponding curve mirror etc. are installed. It can be configured to be described in the map data FM.

[4.地図データ管理システムSの動作例]
[4.1.カーブミラー等の検出時の動作例]
次に、図5(A)のフローチャートを用いて、地図データ管理システムSの動作例のうち、車載端末200によるカーブミラー等の検出時の動作例について説明する。なお、図5のフローチャートでは、一の車載端末200がそのLiDARセンサ205による検出結果を用いて上記送信データ1を生成し、これをサーバ装置100に送信する流れについて説明しているが、地図データ管理システムSに含まれる各車載端末200について同様の処理が実行される。また、図5(A)の車載端末200のステップS101〜ステップS105の処理は、定期的に(例えば、所定時間毎に、及び/又は、車載端末200が搭載された車両が所定距離移動する毎に)実行され、車載端末200によるステップS105の処理を受けて、サーバ装置100はステップS201〜ステップS202の処理を実行する。
[4. Operation Example of Map Data Management System S]
[4.1. Example of operation at detection of curve mirror etc.]
Next, among the operation examples of the map data management system S, an operation example at the time of detection of a curve mirror or the like by the on-board terminal 200 will be described using the flowchart of FIG. 5A. In the flowchart of FIG. 5, the flow of transmitting data 1 generated by the one on-vehicle terminal 200 using the detection result of the LiDAR sensor 205 and transmitting it to the server device 100 is described, but map data The same processing is performed for each of the on-vehicle terminals 200 included in the management system S. Also, the processing of step S101 to step S105 of the on-vehicle terminal 200 of FIG. 5A is performed periodically (for example, every predetermined time and / or each time the vehicle equipped with the on-vehicle terminal 200 moves for a predetermined distance) The server device 100 executes the processing of step S201 to step S202 in response to the processing of step S105 by the on-vehicle terminal 200.

まず、車載端末200の制御部201は、推定自車位置情報を取得する(ステップS101)。   First, the control unit 201 of the on-vehicle terminal 200 acquires estimated own vehicle position information (step S101).

次に、制御部201は、LiDARセンサ205からのセンサーデータに基づき、車載端末200が搭載されている車両の移動方向に沿って存在しているカーブミラー等(図4参照)と思われる地物を認識する(ステップS102)。このステップS102について具体的には、一般のカーブミラーでは、図5(B)に例示するように、ミラーMR1及びミラーMR2が固定されているポールPLには矢印付きの「注意」といったマークMKが備えられていることが多いことから、上記センサーデータに基づいて上記マークMKを検出することにより、当該マークMKが取り付けられている地物がカーブミラー等であると認識することができる。また例えば、制御部201は、LiDARセンサ205からのレーザー光の出射角度によっては検出し得ない位置に検出される物体の属性等に基づいてその地物がカーブミラー等であると認識することができる。より具体的には、例えば水平方向から上方に向かって出射したレーザー光により車両が検出された場合、その車両は、カーブミラー等のミラーに映った車両であると判断でき、これにより制御部201は、当該車両の位置がカーブミラー等のミラーの位置であると認識することができる。次に制御部201は、ステップS101で取得した推定自車位置情報の示す推定自車位置に対応する地図データFMから、ステップS102で認識した地物(カーブミラー等と思われる地物)の地図位置情報を取得する(ステップS103)。このとき、制御部201は、上述したように、車両の進行方向にあるカーブミラーの地図位置情報と地物IDを取得する。   Next, based on the sensor data from the LiDAR sensor 205, the control unit 201 is a feature that seems to be a curve mirror or the like (see FIG. 4) existing along the moving direction of the vehicle in which the on-board terminal 200 is mounted. Are recognized (step S102). More specifically, in step S102, in a general curve mirror, as illustrated in FIG. 5B, a mark MK such as "attention" with an arrow is attached to the pole PL to which the mirror MR1 and the mirror MR2 are fixed. Since it is often provided, by detecting the mark MK based on the sensor data, it can be recognized that the feature to which the mark MK is attached is a curve mirror or the like. Also, for example, the control unit 201 may recognize that the ground object is a curve mirror or the like based on the attribute or the like of the object detected at a position that can not be detected depending on the emission angle of the laser light from the LiDAR sensor 205 it can. More specifically, when a vehicle is detected by, for example, laser light emitted upward from the horizontal direction, it can be determined that the vehicle is a vehicle reflected in a mirror such as a curve mirror, whereby the control unit 201 The position of the vehicle can be recognized as the position of a mirror such as a curve mirror. Next, from the map data FM corresponding to the estimated own vehicle position indicated by the estimated own vehicle position information acquired in step S101, the control unit 201 maps the feature (a feature considered to be a curve mirror or the like) recognized in step S102. Position information is acquired (step S103). At this time, as described above, the control unit 201 acquires the map position information and the feature ID of the curve mirror in the traveling direction of the vehicle.

次に、制御部201は、ステップS102のセンサーデータに基づき、ステップS102で認識したカーブミラー等におけるミラーの曲率、その形状及び地表からの高さを判定する(ステップS104)。このとき制御部201は、ステップS102で認識したカーブミラー等に例えば白線が映っていたとすると、その歪み具合から、当該ミラーの曲率を判定することができる。その後制御部201は、ステップS104までに得られた各データを用いて、図3(A)に例示するデータ構造を有する送信データ1を生成し、サーバ装置100へ送信する。その後制御部201は、車載端末200としての送信データ1の生成及び送信処理を終了する。   Next, the control unit 201 determines the curvature of the mirror in the curve mirror or the like recognized in step S102, the shape thereof, and the height from the ground based on the sensor data in step S102 (step S104). At this time, if, for example, a white line appears on the curve mirror or the like recognized in step S102, the control unit 201 can determine the curvature of the mirror based on the degree of distortion. Thereafter, the control unit 201 generates transmission data 1 having a data structure exemplified in FIG. 3A using each data obtained up to step S104, and transmits the transmission data 1 to the server apparatus 100. After that, the control unit 201 ends the process of generating and transmitting transmission data 1 as the on-vehicle terminal 200.

これに対して、サーバ装置100の制御部101は、車載端末200から上記送信データ1を受信すると(ステップS201)、これを用いて記憶部102に記録されている地図データFMを更新する(ステップS202)。その後制御部101は、地図データ更新処理を終了する。これにより、サーバ装置100の記憶部102には、複数の車載端末200それぞれから送信された複数の送信データ1により更新された地図データFMが蓄積されることとなる。   On the other hand, when the control unit 101 of the server device 100 receives the transmission data 1 from the in-vehicle terminal 200 (step S201), the control unit 101 updates the map data FM recorded in the storage unit 102 using this (step S201). S202). Thereafter, the control unit 101 ends the map data update process. As a result, the map data FM updated by the plurality of transmission data 1 transmitted from each of the plurality of on-vehicle terminals 200 is accumulated in the storage unit 102 of the server device 100.

なお、ステップS103において、地図データFMから地物の地図位置情報を取得できない場合には、ステップS102で認識した地物は、新たに設置された地物(この場合、新たに設置されたカーブミラー等)であると判断し、物体IDデータTMO1は空白とし、当該カーブミラー等についての送信データ1を受信したサーバ装置100の制御部101は、地図データFMに新たなカーブミラー等の情報を登録して、地図データFMを更新する。   In step S103, when the map position information of the feature can not be acquired from the map data FM, the feature recognized in step S102 is a newly installed feature (in this case, a newly installed curve mirror Etc.), the object ID data TMO1 is left blank, and the control unit 101 of the server apparatus 100 that has received the transmission data 1 for the curve mirror etc. registers information such as a new curve mirror etc. in the map data FM And update the map data FM.

[4.2.カーブミラー等の情報を用いた処理の動作例]
次に、図6及び図7のフローチャートを用いて、車体端末200による実施例のカーブミラー等の情報を用いた処理の動作例について説明する。また、当該実施例のカーブミラー等の情報を用いた処理は、定期的に(例えば、所定時間ごとに、及び/又は、車載端末200が搭載された車両が所定距離移動するごとに)実行される。
[4.2. Operation example of processing using information such as curve mirror]
Next, with reference to the flowcharts of FIGS. 6 and 7, an operation example of a process by the vehicle body terminal 200 using information such as a curve mirror of the embodiment will be described. Further, the process using the information such as the curve mirror of the embodiment is executed periodically (for example, every predetermined time and / or each time the vehicle on which the on-vehicle terminal 200 is mounted moves a predetermined distance). Ru.

まず、車体端末200の制御部201は、図5(A)ステップS101と同様にして推定自車位置情報を取得する(ステップS211)。次に、制御部201は、地図データFMから、ステップS211で取得された推定自車位置情報により示される自車近辺に存在すカーブミラー等について、その位置データFMB3、その物体IDデータFMB1及びその他の情報を取得する(ステップS212。図3(B)参照。)。   First, the control unit 201 of the vehicle body terminal 200 acquires estimated own vehicle position information in the same manner as step S101 in FIG. 5A (step S211). Next, from the map data FM, the control unit 201 obtains position data FMB3, its object ID data FMB1, and others of a curve mirror or the like existing in the vicinity of the vehicle indicated by the estimated vehicle position information acquired in step S211. Information (step S212, see FIG. 3 (B)).

次に、制御部201は、推定自車位置情報の示す推定自車位置と、カーブミラー等についての位置データFMB3が示すカーブミラー等の地図位置及び位置データFMB3が示す当該カーブミラー等の高さから、カーブミラー予測範囲を算出・設定する(ステップS213。図4参照。)。   Next, the control unit 201 determines the estimated own vehicle position indicated by the estimated own vehicle position information, the map position such as a curve mirror indicated by position data FMB3 for a curve mirror etc., and the height of the curve mirror etc indicated by position data FMB3. Then, the curve mirror prediction range is calculated and set (step S213, see FIG. 4).

次に、制御部201は、LiDARセンサ205が検出したセンサーデータのうち上記ステップS213で設定したカーブミラー予測範囲内のものを抽出し、その抽出結果に基づいて、カーブミラー等に向けて出射されたレーザー光があったか否かを判定する(ステップS214)。より具体的に制御部201は、まず、センサーデータと対応付けて記憶されている測定位置情報の測定位置と、LiDARセンサ205がレーザー光を出射する際の出射角に基づいて、カーブミラー予測範囲を含む範囲にレーザー光を出射して検出したセンサーデータを特定する。次いで、制御部201は、当該特定したセンサーデータにおけるカーブミラー予測範囲内の部分のうち、当該カーブミラー等の高さに相当する部分(即ち、当該カーブミラー等のミラーからの反射光のセンサーデータ以下、同様。)を抽出する。例えば、制御部201は、車両方向を基準とするカーブミラー予測範囲の方位角θ(図4参照)に対応する部分のうち、上記車両座標系において得られた当該車両におけるLiDARセンサ205の位置までの高さと、上記地図座標系におけるカーブミラー等のミラーまでの高さと、の差分として得られる当該カーブミラー等の高さに相当する部分を抽出する。そして、制御部201は、その抽出結果に基づいて、カーブミラー等に向けて出射したレーザー光があるか否かを判定する。ステップS214の判定において、カーブミラー等に向けて出射したレーザー光がない場合(ステップS214:NO)、制御部201は上記ステップS211に戻って上述した処理を繰り返す。一方ステップS214の判定において、カーブミラー等に向けて出射したレーザー光があった場合(ステップS214:YES)、次に制御部201は、当該レーザー光の反射光から検出されたセンサーデータに基づいて、当該レーザー光の出射先にカーブミラー等が存在するか否かを判定する(ステップS215)。即ち制御部201は、例えば、前述のステップS102で行われたのと同じ手法により、レーザー光の出射先にカーブミラー等(のミラー)が存在することを判定することができる。ステップS215の判定において、レーザー光の出射先にカーブミラー等が存在しない場合(ステップS215:YES)、制御部201は、ステップS212で取得した物体IDデータFMB1により識別されるカーブミラー等が何らかの理由で存在しなくなっている旨を、当該物体IDデータFMB1と共にサーバ装置100に送信する(ステップS216)。上記ステップS215の判定で「YES」となる場合は、例えば、カーブミラー等が個人の所有によるもので、それが当該個人により撤去された場合が挙げられる。ここで、個人の所有によるカーブミラー等であれば、カーブミラー等が存在しなくなったことについての情報の信頼性を高いものとして扱い撤去されたものと判断することができる。一方、国や地方公共団体が設置したカーブミラー等であれば、カーブミラー等が存在しなくなった可能性を低いと判断し、他の車両からも同様の情報が所定数以上集まった場合に、撤去されたと判断することができる。これによりサーバ装置100は、送信されてきた物体IDデータFMB1により示されるカーブミラー等の情報を、地図データFMから削除する等の処理を行う。その後、制御部201は、実施例のカーブミラー等の情報を用いた処理を終了する。   Next, the control unit 201 extracts the sensor data detected by the LiDAR sensor 205 within the curve mirror prediction range set in the above step S213, and based on the extraction result, it is emitted toward the curve mirror etc. It is determined whether or not there is a laser beam (step S214). More specifically, the control unit 201 first estimates the curve mirror prediction range based on the measurement position of the measurement position information stored in association with the sensor data and the emission angle when the LiDAR sensor 205 emits the laser light. The laser light is emitted to the range including the and sensor data detected is specified. Next, the control unit 201 causes the sensor data of the reflected light from the portion corresponding to the height of the curve mirror etc. (ie, the portion of the portion within the curve mirror prediction range in the specified sensor data) The same applies below). For example, the control unit 201 controls the position of the LiDAR sensor 205 in the vehicle obtained in the vehicle coordinate system in the portion corresponding to the azimuth .theta. (See FIG. 4) of the curve mirror prediction range based on the vehicle direction. A portion corresponding to the height of the curve mirror or the like obtained as a difference between the height of and the height to the mirror such as the curve mirror in the map coordinate system is extracted. Then, based on the extraction result, the control unit 201 determines whether or not there is a laser beam emitted toward a curve mirror or the like. If it is determined in step S214 that there is no laser beam emitted toward the curve mirror or the like (step S214: NO), the control unit 201 returns to step S211 and repeats the above-described process. On the other hand, when there is a laser beam emitted toward a curve mirror or the like in the determination of step S214 (step S214: YES), the control unit 201 next determines based on sensor data detected from the reflected light of the laser beam. It is determined whether a curve mirror or the like is present at the emission destination of the laser beam (step S215). That is, for example, the control unit 201 can determine that (a mirror of) a curve mirror or the like is present at the emission destination of the laser light by the same method as that performed in step S102 described above. If it is determined in step S215 that a curve mirror or the like does not exist at the laser light emission destination (step S215: YES), the control unit 201 determines the curve mirror or the like identified by the object ID data FMB1 acquired in step S212 The fact that the object ID data FMB1 disappears is transmitted to the server apparatus 100 together with the object ID data FMB1 (step S216). In the case of “YES” in the determination of step S215, for example, the case where the curve mirror or the like is owned by an individual and it is removed by the individual may be mentioned. Here, in the case of a curved mirror or the like owned by an individual, it can be determined that the reliability of the information about the absence of the curved mirror or the like is treated as high and the information is removed. On the other hand, in the case of a curved mirror or the like installed by a country or a local public entity, it is determined that the possibility of the absence of the curved mirror or the like is low, and a similar number of similar information is gathered from other vehicles, It can be judged that it was removed. Thus, the server apparatus 100 performs processing such as deleting information such as a curve mirror indicated by the transmitted object ID data FMB1 from the map data FM. Thereafter, the control unit 201 ends the process using the information of the curve mirror and the like of the embodiment.

一方ステップS215の判定において、レーザー光の出射先にカーブミラー等が存在していた場合(ステップS215:NO)、制御部201は、当該カーブミラー等からの反射光のセンサーデータを用いた処理を実行する(ステップS217)。このとき、ステップS217の処理として具体的には、例えば、当該カーブミラー等に映っている物体についての処理を回避すべく、当該カーブミラー等からの反射光のセンサーデータを無視する処理がある。また例えば、カーブミラー等からの反射光のセンサーデータに基づき、そのカーブミラー等のミラーに映っている車両等を検出する処理がある。   On the other hand, if it is determined in step S215 that a curve mirror or the like is present at the laser light emission destination (step S215: NO), the control unit 201 performs processing using sensor data of reflected light from the curve mirror or the like. It executes (step S217). At this time, as the process of step S217, specifically, there is a process of ignoring sensor data of light reflected from the curve mirror or the like in order to avoid processing of an object appearing on the curve mirror or the like. Further, for example, there is processing for detecting a vehicle or the like reflected in a mirror such as a curve mirror based on sensor data of light reflected from the curve mirror or the like.

ここで、ステップS217の処理としての、カーブミラー等のミラーに映っている車両等を検出する処理について、具体的に図7を用いて説明する。即ち、図7に示すように、ステップS217の処理としての、カーブミラー等のミラーに映っている車両等を検出する処理では、制御部201は、カーブミラー等からの反射光のセンサーデータにより、地物としての車両が検出されているか否かを判定する(ステップS2171)。ステップS2171の判定において車両が検出されない場合(ステップS2171:NO)、制御部201は図6に戻って実施例のカーブミラー等の情報を用いた処理を終了する。一方ステップS2171の判定において車両が検出されている場合(ステップS2171:YES)、制御部201は、当該反射強度の反射光が得られたレーザー光の出射方向を判定する(ステップS2172)。ステップS2172の判定において、当該レーザー光の出射方向が、カーブミラー等のミラーの方向に相当する位置である場合(ステップS2172:上方)、制御部201は、ステップS2171で検出された車両が、カーブミラー等のミラーに映った車両であると判定し、それに対応した、例えば車両の減速処理等を行う(ステップS2174)。この際、ステップS212で取得した物体IDデータFMB1により識別されるカーブミラー等の観察対象データFMS2を参照することで、どの道路から車両が接近しつつあるか等を判断することができる。その後制御部201は、図6に戻って実施例のカーブミラー等の情報を用いた処理を終了する。一方ステップS2172の判定において、当該レーザー光の出射方向が、ミラーの方向に相当する位置でない場合(ステップS2172:上方以外)、制御部201は、ステップS2171で検出された車両が、通常の、例えば車体端末200が搭載されている車両が移動している道路又はその対向車線を移動している他の車両であると判定し、それに対応した、例えば車線変更処理等を行う(ステップS2173)。その後制御部201は、図6に戻って実施例のカーブミラー等の情報を用いた処理を終了する。   Here, a process of detecting a vehicle or the like appearing on a mirror such as a curve mirror as the process of step S217 will be specifically described with reference to FIG. That is, as shown in FIG. 7, in the process of detecting a vehicle or the like reflected on a mirror such as a curve mirror as the process of step S217, the control unit 201 detects sensor data of reflected light from the curve mirror or the like. It is determined whether a vehicle as a feature is detected (step S2171). When the vehicle is not detected in the determination of step S2171 (step S2171: NO), the control unit 201 returns to FIG. 6 and ends the process using the information of the curve mirror and the like of the embodiment. On the other hand, when the vehicle is detected in the determination of step S2171 (step S2171: YES), the control unit 201 determines the emission direction of the laser beam from which the reflected light of the reflection intensity is obtained (step S2172). If it is determined in step S2172 that the emission direction of the laser light corresponds to the direction of a mirror such as a curve mirror (step S2172: upward), the control unit 201 determines that the vehicle detected in step S2171 is a curve. It is determined that the vehicle is a vehicle reflected in a mirror such as a mirror, and, for example, deceleration processing of the vehicle is performed (step S2174). At this time, by referring to the observation object data FMS2 such as a curve mirror identified by the object ID data FMB1 acquired in step S212, it can be determined from which road the vehicle is approaching. Thereafter, the control unit 201 returns to FIG. 6 and ends the process using the information of the curve mirror and the like of the embodiment. On the other hand, if it is determined in step S2172 that the emission direction of the laser light is not a position corresponding to the direction of the mirror (step S2172: other than upward), the control unit 201 determines that the vehicle detected in step S2171 is normal, for example It is determined that the vehicle on which the vehicle body terminal 200 is mounted is moving or the other vehicle moving in the opposite lane, and lane change processing or the like corresponding thereto is performed (step S2173). Thereafter, the control unit 201 returns to FIG. 6 and ends the process using the information of the curve mirror and the like of the embodiment.

以上説明したように、本実施例における地図データ管理システムSにおける地図データFMは、位置データFMB3と、物体種別データFMB2と、を関連付けて含む地図データFMであって、車載端末200が、位置データFMB3により特定される地物がカーブミラー等であるかどうかを物体種別データFMB2に基づいて判定する処理に用いられる。従って、カーブミラー等に関する情報を記録するための地図データのデータ構造を提供することができる。   As described above, the map data FM in the map data management system S in the present embodiment is the map data FM including the position data FMB3 and the object type data FMB2 in association with each other, and the in-vehicle terminal 200 is the position data It is used for the process which determines whether the terrestrial feature specified by FMB3 is a curve mirror etc. based on object type data FMB2. Therefore, it is possible to provide a data structure of map data for recording information on a curve mirror or the like.

また、地図データFMは、位置データFMB3により特定される地物がカーブミラー等であると判定され、且つ当該位置データFMB3が示す位置から所定範囲内においてLiDARセンサ205によりカーブミラー等が検出された場合、当該位置にカーブミラー等があることを前提とした処理に用いられるので、より正確にカーブミラー等の位置を正確に検出して当該処理を実行することができる。   In the map data FM, it is determined that the feature specified by the position data FMB3 is a curve mirror or the like, and the curve mirror or the like is detected by the LiDAR sensor 205 within a predetermined range from the position indicated by the position data FMB3. In this case, the processing is performed on the premise that there is a curve mirror or the like at the position, so that the position of the curve mirror or the like can be detected more accurately and the processing can be performed.

更に、図6ステップS217において、レーザー光のカーブミラー等からの反射光に基づく反射強度データを除外して地物の位置を特定する場合には、より正確に当該位置を特定することができる。   Further, in the case where the position of the feature is specified by excluding the reflection intensity data based on the reflected light from the curved mirror or the like of the laser light in step S217 in FIG. 6, the position can be specified more accurately.

更にまた、図6ステップS217において、レーザー光のカーブミラー等からの反射光に基づいて、車載端末200が搭載されている車両から見て死角に存在する他の車両等の物体を検出するので(図7ステップS2174参照)、当該他の車両を容易に回避等することができる。   Furthermore, in step S217 in FIG. 6, since an object such as another vehicle present at a blind spot when viewed from the vehicle on which the on-vehicle terminal 200 is mounted is detected based on the reflected light from the curve mirror etc. See FIG. 7 step S2174), the other vehicle can be easily avoided.

また、車載端末200が、カーブミラー等の位置から所定範囲内においてレーザー光の出射を制限する場合には、カーブミラー等からの乱反射等を抑制して、より正確に他の地物を検出することができる。   Further, when the on-vehicle terminal 200 restricts emission of laser light within a predetermined range from the position of a curve mirror or the like, irregular reflection from the curve mirror or the like is suppressed to detect other features more accurately. be able to.

更に、カーブミラー等についての地図データFMとして、当該カーブミラー等の属性を示す情報(曲率データFMS1等)が位置データFMB3に関連付けられて含まれるので、より正確に、当該カーブミラー等の位置を特定することができる。このとき、当該属性を示す情報として、曲率データFMS1、形状データFMS3、及び大きさデータFMB4のうち少なくともいずれか一つが含まれれば、より正確にカーブミラー等の位置を特定することができる。   Furthermore, as the map data FM for a curve mirror etc., information (curvature data FMS1 etc.) indicating the attribute of the curve mirror etc. is associated with the position data FMB3 and included, so the position of the curve mirror etc. is more accurately It can be identified. At this time, if at least one of the curvature data FMS1, the shape data FMS3, and the size data FMB4 is included as the information indicating the attribute, the position of the curve mirror or the like can be specified more accurately.

更にまた、所有者データFMS4が地図データFMに含まれているので、所有者に応じたカーブミラー等の位置検出処理等(例えば、個人所有のカーブミラー等の場合は位置が移動されることを前提とした処理を行う等)を行うことができ、より正確にカーブミラー等の位置を特定することができる。   Furthermore, since the owner data FMS4 is included in the map data FM, position detection processing of a curve mirror or the like according to the owner, etc. (for example, in the case of a privately owned curve mirror, the position is moved It is possible to perform the processing based on the premise, etc., and it is possible to specify the position of the curve mirror etc. more accurately.

また、使用不可時間帯データが含まれているので、例えば霧や視界不良の情報を踏まえてより正確にカーブミラー等の位置を検出することができる。   Further, since the unavailable time zone data is included, it is possible to more accurately detect the position of the curve mirror or the like based on, for example, the information on fog or poor visibility.

なお、上述した実施例では、車体端末200にLiDARセンサ205が接続されている場合について説明したが、これ以外に、可視光を撮像可能な例えばCMOS(Complementary Metal Oxide Semiconductor)センサを搭載したカメラが車体端末200に接続され、当該カメラの撮像データを用いて地物を検出する場合に本願を適用することも可能である。この場合、センサーデータとしては、撮像データである画像若しくは動画像が取り扱われ、画像認識処理によって地物の種別、位置、大きさなどの認識オブジェクト情報FMO及び特有情報FMSを認識することができる。   In the embodiment described above, the case where the LiDAR sensor 205 is connected to the vehicle body terminal 200 has been described, but in addition to this, for example, a camera equipped with a complementary metal oxide semiconductor (CMOS) sensor capable of capturing visible light It is also possible to apply the present invention to the case where the feature is detected by using the imaging data of the camera connected to the vehicle body terminal 200. In this case, as sensor data, an image or moving image which is imaging data is handled, and recognition object information FMO such as feature type, position, size and the like and feature information FMS such as features can be recognized by image recognition processing.

また、図5乃至図7に示すフローチャートに相当するプログラムを、光ディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得して記録しておき、これらを汎用のマイクロコンピュータ等により読み出して実行することで、当該マイクロコンピュータ等を実施例の制御部101又は制御部201として機能させることも可能である。   Also, programs corresponding to the flowcharts shown in FIG. 5 to FIG. 7 are recorded in a recording medium such as an optical disk or a hard disk, or obtained via a network such as the Internet and recorded. It is also possible to cause the microcomputer or the like to function as the control unit 101 or the control unit 201 in the embodiment by reading out and executing the process using a computer or the like.

1 送信データ
1A 位置情報
1B ミラー情報
S 地図データ管理システム
100 サーバ装置
101、201 制御部
200 車載端末
205 LiDARセンサ
FM 地図データ
FMB 基本情報
FMS 特有情報
FMB1 物体IDデータ
FMB2 物体種別データ
FMB3 位置データ
FMB4 大きさデータ
FMS1 曲率データ
FMS2 観察対象データ
FMS3 形状データ
FMS4 所有者データ
FMS5 使用不可時間帯データ
1 Transmission data 1A Position information 1B Mirror information S Map data management system 100 Server unit 101, 201 Control unit 200 On-board terminal 205 LiDAR sensor FM Map data FMB Basic information FMS specific information FMB1 Object ID data FMB2 Object type data FMB3 Position data FMB4 Large Data FMS1 curvature data FMS2 observation target data FMS3 shape data FMS4 owner data FMS5 unavailable time zone data

Claims (9)

地物の位置を示す位置情報と、前記地物の種類を示す種類情報と、を関連付けて含む地図データのデータ構造であって、
前記種類情報として、前記位置情報により特定される所定の前記地物が、ミラーを有する地物であることを示す情報が記録されており、
移動体に搭載された端末が、前記位置情報により特定される前記地物がミラーを有する地物であるかどうかを前記種類情報に基づいて判定する処理に用いられることを特徴とする前記地図データのデータ構造。
A data structure of map data including position information indicating the position of a feature and type information indicating the type of the feature in association with each other,
As the type information, information indicating that the predetermined feature identified by the position information is a feature having a mirror is recorded,
The map data characterized in that a terminal mounted on a moving body is used to determine based on the type information whether or not the feature specified by the position information is a feature having a mirror. Data structure of.
請求項1に記載のデータ構造において、
前記種類情報として、ミラーを有する地物であることを示す情報が記録されている前記地物について、当該ミラーの属性情報が前記位置情報に関連付けられて記録されることを特徴とする前記送信データのデータ構造。
In the data structure according to claim 1,
Transmission data characterized in that attribute information of the mirror is recorded in association with the position information for the feature in which information indicating that the feature has a mirror is recorded as the type information Data structure of.
請求項2に記載のデータ構造において、
前記ミラーの属性情報には、前記ミラーによって観察することが可能な道路を示す情報が前記位置情報に関連付けられて含まれることを特徴とする前記送信データのデータ構造。
In the data structure according to claim 2,
The data structure of the transmission data, wherein the attribute information of the mirror includes information indicating a road that can be observed by the mirror in association with the position information.
請求項2に記載のデータ構造において、
前記ミラーの属性情報には、前記ミラーの曲率、前記ミラーの形状、及び前記ミラーのサイズのうち少なくともいずれか一つが含まれることを特徴とする前記地図データのデータ構造。
In the data structure according to claim 2,
The data structure of the map data, wherein the attribute information of the mirror includes at least one of a curvature of the mirror, a shape of the mirror, and a size of the mirror.
請求項2に記載のデータ構造において、
前記ミラーの属性情報には、前記位置情報が示す前記ミラーを有する地物の所有者が、個人であるか否かを判別するための情報が、前記位置情報に関連付けられて記録されることを特徴とする前記送信データのデータ構造。
In the data structure according to claim 2,
In the attribute information of the mirror, information for determining whether the owner of the feature having the mirror indicated by the position information is an individual is recorded in association with the position information. Data structure of the transmission data characterized by the above.
請求項2に記載のデータ構造において、
前記ミラーの属性情報には、前記位置情報が示す前記ミラーを有する地物が、ミラーとして使用できない時間帯を示す情報が前記位置情報に関連付けられて含まれることを特徴とする前記送信データのデータ構造。
In the data structure according to claim 2,
The data of the transmission data, wherein the attribute information of the mirror includes information indicating a time zone in which the feature having the mirror indicated by the position information can not be used as a mirror in association with the position information Construction.
請求項1から請求項7のいずれか一項に記載のデータ構造において、
前記移動体に搭載されたセンサーによって、前記ミラーを有することが示されている前記地物の位置の物体を検出する場合には、当該位置にミラーがあることを前提とした処理を行うように、前記端末を機能させるために用いられることを特徴とする前記地図データのデータ構造。
In the data structure according to any one of claims 1 to 7,
When detecting an object at the position of the feature which is shown to have the mirror by the sensor mounted on the movable body, processing is performed on the premise that the mirror is at the position. A data structure of the map data used to make the terminal function.
請求項7に記載のデータ構造において、
前記ミラーを有することを前提とした処理では、前記移動体に搭載された端末が、前記検出手段から前記ミラーへ出射された光の反射光に基づいて、前記ミラーによって観察することが可能な道路をに存在する物体を検出する処理に用いられることを特徴とする前記地図データのデータ構造。
In the data structure according to claim 7,
In the processing on the premise of having the mirror, a road on which the terminal mounted on the movable body can observe the mirror based on the reflected light of the light emitted from the detection unit to the mirror A data structure of the map data, which is used for a process of detecting an object present in the image.
請求項7に記載のデータ構造において、
前記ミラーがあることを前提とした処理では、前記移動体に搭載された端末が、前記検出手段から前記ミラーへ出射された光の反射光を除外して物体の位置を特定する処理に用いられることを特徴とする前記地図データのデータ構造。
In the data structure according to claim 7,
In the processing premised on the presence of the mirror, a terminal mounted on the moving body is used for processing of specifying the position of an object by excluding the reflected light of the light emitted from the detection means to the mirror. A data structure of the map data characterized in that.
JP2017229993A 2017-11-30 2017-11-30 Data structure of map data Pending JP2019101138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017229993A JP2019101138A (en) 2017-11-30 2017-11-30 Data structure of map data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017229993A JP2019101138A (en) 2017-11-30 2017-11-30 Data structure of map data

Publications (1)

Publication Number Publication Date
JP2019101138A true JP2019101138A (en) 2019-06-24

Family

ID=66973469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017229993A Pending JP2019101138A (en) 2017-11-30 2017-11-30 Data structure of map data

Country Status (1)

Country Link
JP (1) JP2019101138A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021063398A (en) * 2019-10-16 2021-04-22 株式会社東芝 System and method
JP2021156821A (en) * 2020-03-30 2021-10-07 パイオニア株式会社 Data processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021063398A (en) * 2019-10-16 2021-04-22 株式会社東芝 System and method
JP2021156821A (en) * 2020-03-30 2021-10-07 パイオニア株式会社 Data processing device
JP2024180656A (en) * 2020-03-30 2024-12-26 パイオニア株式会社 Data Processing Unit

Similar Documents

Publication Publication Date Title
JP7067536B2 (en) Vehicle controls, methods and storage media
CN112639918B (en) Map system, vehicle-side device, method, and storage medium
US20210199463A1 (en) Map generation system, server, vehicle-side device, method, and non-transitory computer-readable storage medium for autonomously driving vehicle
US10620317B1 (en) Lidar-based high definition map generation
CN111688682B (en) Driving control system
US11531348B2 (en) Method and apparatus for the detection and labeling of features of an environment through contextual clues
CN112074885A (en) Lane marking location
CN112639919A (en) Vehicle-side device, server, method, and storage medium
CN113538966B (en) Vehicle Sensor System
CN104691447A (en) System and method for dynamically focusing vehicle sensors
CN113508277A (en) Lane Marking Localization and Fusion
WO2017208396A1 (en) Feature data structure, storage medium, information processing device, and detection device
CN112740224A (en) Automated crowdsourcing of road environment information
JP2022016460A (en) A computer-readable recording medium that records a deteriorated feature identification device, a deteriorated feature identification system, a deteriorated feature identification method, a deteriorated feature identification program, and a deteriorated feature identification program.
JP2024083388A (en) Control device, control method, and program
WO2022191922A4 (en) Improved position accuracy using sensor data
JP2025083454A (en) Information processing device, map data generation device, method, and program
JP2024133552A (en) Determination device, determination method, and determination program
JP2019101138A (en) Data structure of map data
JP2024009306A (en) Data structure of map data
CN114913503B (en) Prompt point determining method and device, server, vehicle and storage medium
JP2007034920A (en) Intersection recognition system and intersection recognizing method
CN106537172B (en) Method for determining the position and/or orientation of a sensor
CN115107778A (en) map generator
JP2019168985A (en) Control device, control method, program and storage medium