[go: up one dir, main page]

KR101828255B1 - Driving path updating apparatus based on driving information and environment recognition and method thereof - Google Patents

Driving path updating apparatus based on driving information and environment recognition and method thereof Download PDF

Info

Publication number
KR101828255B1
KR101828255B1 KR1020160019981A KR20160019981A KR101828255B1 KR 101828255 B1 KR101828255 B1 KR 101828255B1 KR 1020160019981 A KR1020160019981 A KR 1020160019981A KR 20160019981 A KR20160019981 A KR 20160019981A KR 101828255 B1 KR101828255 B1 KR 101828255B1
Authority
KR
South Korea
Prior art keywords
environment recognition
recognition result
unmanned vehicle
information
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020160019981A
Other languages
Korean (ko)
Other versions
KR20170098070A (en
Inventor
김종희
최지훈
이영일
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020160019981A priority Critical patent/KR101828255B1/en
Publication of KR20170098070A publication Critical patent/KR20170098070A/en
Application granted granted Critical
Publication of KR101828255B1 publication Critical patent/KR101828255B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 주행정보 및 환경인식을 기반으로 한 주행영역 갱신 장치 및 이의 제어방법에 관한 것이다. 본 발명의 일 실시 예에 따른 주행영역 갱신 장치는, 무인차량에 장착된 센서를 통해 환경인식을 수행하고, 환경인식결과를 기 설정된 기준선을 기준으로 회전시키는 환경인식결과기준선변환부, 현재 시점 이전까지 누적된 제1 환경인식결과와 현재 시점에서 획득한 제2 환경인식결과를 융합하는데 이용되는 파라미터를 산출하는 융합함수파라미터산출부 및 상기 산출된 파라미터를 이용하여 상기 누적된 제1 환경인식결과와 상기 제2 환경인식결과를 융합하고, 융합결과를 이용하여 현재 시점의 주행영역을 갱신하는 주행영역갱신부를 포함한다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a traveling area update apparatus based on travel information and environment recognition, and a control method thereof. The navigation area update apparatus according to an embodiment of the present invention includes an environment recognition result base line conversion unit that performs environment recognition through a sensor mounted on an unmanned vehicle and rotates the environment recognition result based on a predetermined reference line, And a parameter used to fuse the second environment recognition result obtained at the present time to the accumulated first environment recognition result and the accumulated first environment recognition result using the calculated parameter, And a traveling area updating unit that fuses the second environment recognition result and updates the current traveling area using the fusion result.

Description

주행정보 및 환경인식 기반 주행영역 갱신 장치 및 그 제어방법{DRIVING PATH UPDATING APPARATUS BASED ON DRIVING INFORMATION AND ENVIRONMENT RECOGNITION AND METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a driving area updating apparatus,

본 발명은 주행정보 및 환경인식을 기반으로 한 주행영역 갱신 장치 및 이의 제어방법에 관한 것으로, 보다 구체적으로 제한된 공간에서 운용되는 무인차량의 자율주행을 위한 경로를 계획할 때 무인차량이 자율주행하는 주행영역을 갱신하는 것이 가능한 장치 및 그 제어방법에 관한 것이다.More particularly, the present invention relates to a traveling area update apparatus based on travel information and environment recognition, and a control method thereof. More specifically, when planning a route for autonomous operation of an unmanned vehicle operated in a limited space, And a control method thereof.

최근 기술 발전에 힘입어, 무인차량에 대한 개발이 활발히 진행되고 있다. 무인차량은, 운전자의 조작 없이도 스스로 도로 상황을 파악해 목적지까지 도착할 수 있는 자동차를 의미할 수 있다. 무인차량은 차량 내부에 사람이 존재하는지 여부에 무관하게, 사람의 조작이 없이 스스로 자율주행이 가능한 차량을 포괄하는 의미일 수 있다.Due to recent technological advances, development of unmanned vehicles is actively underway. An unmanned vehicle may mean a vehicle that can ascertain the road situation by itself and arrive at its destination without the driver's operation. The unmanned vehicle may be meant to encompass a vehicle capable of self-running without any human operation, regardless of whether or not a person is present inside the vehicle.

무인차량의 자율주행에 있어 주행정보(또는 항법정보)와 환경인식에 의한 주행영역 정보는 무인차량이 주행해야 할 경로를 선정하는데 있어서 매우 중요한 정보이다. In autonomous navigation of unmanned vehicles, driving information (or navigation information) and driving range information based on environment recognition are very important information in selecting an unmanned vehicle to travel.

그러나, 무인차량이 동일한 경로(또는 주행영역)를 반복적으로 주행하더라도, 주행정보의 불확실성(Uncertainty) 및 환경인식 결과의 불확실성이 존재하게 되므로, 무인차량의 경로선정에 있어서도 불확실성에 기인한 어려움이 존재하게 된다.However, even if the unmanned vehicle travels repeatedly in the same route (or the traveling region), uncertainty in the traveling information and uncertainty in the result of the environment recognition exist, so that difficulties due to uncertainty exist in the route selection of the unmanned vehicle .

또한, 미리 구축된 네비게이션 정보와 같은 주행정보는 구축될 당시의 주행정보와 환경에 강한 의존성을 가지고 있어, 무인차량의 자율주행 시에는 주행정보의 불확실성이 반영되어 경로계획을 수행하는데 있어 효과적인 정보로 사용되기 어려운 점이 발생해 왔다.In addition, the driving information such as navigation information, which is constructed in advance, has a strong dependency on driving information and environment at the time of construction, and uncertainty of driving information is reflected at the time of autonomous driving of the unmanned vehicle, It has been difficult to use.

본 발명의 일 목적은 사전에 구축된 주행정보와 무인차량의 환경인식결과를 누적하여 신뢰성이 향상된 주행영역 정보를 획득하는 것이 가능한 주행영역 갱신 장치 및 그 제어방법을 제공하는 데에 있다.It is an object of the present invention to provide a traveling area updating apparatus and a control method therefor which can acquire traveling area information with improved reliability by accumulating traveling information constructed in advance and environment recognition results of an unmanned vehicle.

본 발명의 일 실시 예에 따른 주행영역 갱신 장치는, 무인차량에 장착된 센서를 통해 환경인식을 수행하고, 환경인식결과를 기 설정된 기준선을 기준으로 회전시키는 환경인식결과기준선변환부, 현재 시점 이전까지 누적된 제1 환경인식결과와 현재 시점에서 획득한 제2 환경인식결과를 융합하는데 이용되는 파라미터를 산출하는 융합함수파라미터산출부 및 상기 산출된 파라미터를 이용하여 상기 누적된 제1 환경인식결과와 상기 제2 환경인식결과를 융합하고, 융합결과를 이용하여 현재 시점의 주행영역을 갱신하는 주행영역갱신부를 포함한다.The navigation area update apparatus according to an embodiment of the present invention includes an environment recognition result base line conversion unit that performs environment recognition through a sensor mounted on an unmanned vehicle and rotates the environment recognition result based on a predetermined reference line, And a parameter used to fuse the second environment recognition result obtained at the present time to the accumulated first environment recognition result and the accumulated first environment recognition result using the calculated parameter, And a traveling area updating unit that fuses the second environment recognition result and updates the current traveling area using the fusion result.

실시 예에 있어서, 상기 환경인식결과는, 상기 센서를 통해 획득한 데이터를 이용하여 상기 무인차량의 주행가능성을 확률로 나타낸 정보이고, 격자형태로 저장되는 것을 특징으로 한다.In an embodiment, the environment recognition result is information indicating a possibility of running of the unmanned vehicle using a probability, using data acquired through the sensor, and is stored in a lattice form.

실시 예에 있어서, 상기 누적된 제1 환경인식결과는, 상기 기 설정된 기준선을 기준으로 격자형태로 저장된 정보이고, 상기 환경인식결과기준선변환부는, 상기 무인차량의 주행방향을 포함하는 주행정보를 이용하여, 상기 주행방향에 대응하는 선을 기준으로 상기 환경인식결과를 격자형태로 생성하며, 상기 기 설정된 기준선과 상기 주행방향에 대응하는 선 사이의 각도차이에 근거하여, 상기 주행방향에 대응하는 선을 기준으로 생성된 환경인식결과를 상기 기 설정된 기준선에 대응되도록 회전시켜 상기 제2 환경인식결과를 획득하는 것을 특징으로 한다.In an embodiment, the accumulated first environment recognition result is information stored in a grid form on the basis of the preset reference line, and the environment recognition result base line conversion unit uses the running information including the running direction of the unmanned vehicle A line corresponding to the running direction is generated on the basis of a line corresponding to the running direction, and on the basis of an angle difference between the predetermined reference line and a line corresponding to the running direction, And acquires the second environment recognition result by rotating the environment recognition result generated based on the second environment recognition result to correspond to the preset reference line.

실시 예에 있어서, 상기 주행정보는, 상기 무인차량의 위치정보를 더 포함하고, 상기 융합함수파라미터산출부는, 상기 무인차량의 위치정보, 상기 제1 및 제2 환경인식결과에서 중첩된 격자의 좌표정보, 상기 기 설정된 기준선 및 주행영역의 폭값을 이용하여, 상기 주행영역의 일측과 상기 무인차량 사이의 제1 폭값 및 상기 주행영역의 타측과 상기 무인차량 사이의 제2 폭값을 상기 파라미터로 산출하는 것을 특징으로 한다.In the embodiment, the running information may further include position information of the unmanned vehicle, and the fusion function parameter calculating unit may calculate the fusion function parameter based on the position information of the unmanned vehicle, the coordinates of the overlapped grids in the first and second environment recognition results The first width value between one side of the running area and the unmanned vehicle, and the second width value between the other side of the running area and the unmanned vehicle using the width, the predetermined reference line and the width value of the running area .

실시 예에 있어서, 상기 주행영역갱신부는, 상기 제1 폭값 및 상기 제2 폭값을 이용하여 가중치를 산출하고, 상기 가중치를 상기 제1 환경인식결과 및 상기 제2 환경인식결과에 각각 적용하여 현재 시점의 누적된 제3 환경인식결과를 산출하고, 상기 제3 환경인식결과를 이용하여 상기 현재 시점의 주행영역을 갱신하는 것을 특징으로 한다.In an embodiment, the travel area updating unit may calculate a weight using the first width value and the second width value, apply the weight to the first environment recognition result and the second environment recognition result, The third environment recognition result of the second environment recognition unit, and updates the current time zone using the third environment recognition result.

본 발명의 일 실시 예에 따른 주행영역 갱신 장치의 제어방법은, 무인차량에 장착된 센서를 통해 환경인식을 수행하고, 환경인식결과를 기 설정된 기준선을 기준으로 회전시키는 단계, 현재 시점 이전까지 누적된 제1 환경인식결과와 현재 시점에서 획득한 제2 환경인식결과를 융합하는데 이용되는 파라미터를 산출하는 단계및 상기 산출된 파라미터를 이용하여 상기 누적된 제1 환경인식결과와 상기 제2 환경인식결과를 융합하고, 융합결과를 이용하여 현재 시점의 주행영역을 갱신하는 단계를 포함한다.A control method of a travel area updating apparatus according to an embodiment of the present invention includes the steps of performing environment recognition through a sensor mounted on an unmanned vehicle and rotating the environment recognition result based on a preset reference line, Calculating a first environment recognition result and a second environment recognition result obtained at a current time by using the calculated parameters, And updating the current travel region using the fusion result.

본 발명에 의하면, 무인차량이 자율주행할 때마다 주행정보의 차이로 인하여 발생하는 주행 가능 영역의 시간 변화에 따른 불확실성을, 무인차량이 운용되는 공간에서 반복적으로 주행을 수행할수록 감소시킬 수 있다. 즉, 본 발명은 누적된 환경인식결과를 활용하여 주행정보의 시간 변화에 따른 불확실성을 감소시켜 경로계획을 수행할 때 신뢰성이 향상된 경로계획 결과를 획득할 수 있다. According to the present invention, it is possible to reduce the uncertainty due to the time variation of the travelable area caused by the difference in travel information every time the unmanned vehicle autonomously travels, as the travel of the unmanned vehicle is repeatedly performed in the space where the unmanned vehicle operates. That is, the present invention can obtain the path planning result with improved reliability when performing the path planning by reducing the uncertainty according to the time change of the travel information by utilizing the accumulated environment recognition result.

이에 따라, 본 발명은 무인차량의 자율주행에 있어 경로계획 성능을 향상시킬 수 있는 갱신된 주행영역 정보를 제공할 수 있다.Accordingly, the present invention can provide updated travel area information that can improve route planning performance in autonomous navigation of an unmanned vehicle.

도 1은 본 발명과 관련된 주행영역 갱신 장치를 나타낸 블록도이다.
도 2는 본 발명과 관련된 융합함수의 파라미터를 산출하는 방법을 설명하기 위한 개념도이다.
도 3은 본 발명과 관련된 융합함수를 나타낸 그래프이다.
1 is a block diagram showing a traveling area updating apparatus according to the present invention.
2 is a conceptual diagram for explaining a method of calculating a parameter of a fusion function related to the present invention.
3 is a graph showing the fusion function associated with the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

도 1은 본 발명과 관련된 주행영역 갱신 장치를 나타낸 블록도이다.1 is a block diagram showing a traveling area updating apparatus according to the present invention.

도 1을 참조하면, 본 발명과 관련된 주행영역 갱신 장치는, 무인차량의 환경인식결과를 기 설정된 기준선을 기준으로 회전시키는 환경인식결과기준선변환부(100), 현재 시점 이전까지 누적된 제1 환경인식결과와 현재 시점에서 획득한 제2 환경인식결과를 융합하는데 필요한 융합함수파라미터산출부(200) 및 산출된 파라미터를 적용한 융합함수를 이용하여 누적된 환경인식결과와 현재 시점에서 획득한 환경인식결과를 융합하여 주행영역을 갱신하는 주행영역갱신부(300)로 구성된다.Referring to FIG. 1, the travel area update apparatus according to the present invention includes an environment recognition result base line conversion unit 100 for rotating an environment recognition result of an unmanned vehicle based on a predetermined reference line, a first environment A fusion function parameter calculator 200 for fusion of the recognition result with the second environment recognition result obtained at the present time, and an environment recognition result obtained at the present time using the fusion function using the calculated parameters And a traveling area updating unit (300) for updating the traveling area.

도시되진 않았지만, 본 발명과 관련된 주행영역 갱신 장치는, 환경인식결과, 누적된 환경인식결과 등과 같은 정보(또는 데이터)를 저장하는 메모리, 무인 차량을 둘러싼 주변 환경 정보를 센싱하는 것이 가능한 센서를 더 포함할 수 있다.Although not shown, the travel area update apparatus related to the present invention includes a memory for storing information (or data) such as an environment recognition result and an accumulated environment recognition result, and a sensor capable of sensing surrounding information surrounding the unmanned vehicle .

상기 센서는, 근접센서(proximity sensor), 조도 센서(illumination sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 주행영역 갱신 장치는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensor may be a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gravity sensor (G-sensor), a gyroscope sensor, a motion sensor an infrared sensor, an ultrasonic sensor, an optical sensor (for example, a camera), an environmental sensor (for example, a barometer, a hygrometer, a thermometer , A radiation detection sensor, a heat detection sensor, a gas detection sensor, etc.). Meanwhile, the traveling area update apparatus disclosed in the present specification can combine and utilize information sensed by at least two of the sensors.

본 명세서에서 설명하는 주행영역 갱신 장치는, 무인차량에 구비된(또는 장착된) 하나의 장치일 수도 있고, 무인차량 자체를 의미할 수도 있다. 다만, 이에 한정되지 않고, 주행영역 갱신 장치는, 무인차량의 외부에 구비되어, 무인차량과 통신이 가능한(또는 무인 차량을 제어하는 것이 가능한) 별도의 장치(예를 들어, 서버)일 수도 있다.The travel area update apparatus described in the present specification may be a single apparatus provided (or mounted) on the unmanned vehicle, or may mean the unmanned vehicle itself. However, the present invention is not limited to this, and the travel area update device may be a separate device (for example, a server) provided outside the unmanned vehicle and capable of communicating with the unmanned vehicle (or capable of controlling the unmanned vehicle) .

또한, 상기 센서는, 무인차량에 장착되어, 주행영역 갱신 장치와 통신이 가능하도록 형성될 수 있다. 또한, 상기 센서는, 무인차량의 주변 환경 정보를 센싱하고, 센싱된 정보(또는 데이터)를 주행영역 갱신 장치(또는, 환경인식결과기준선변환부(100))로 유/무선 통신을 통해 전송할 수 있다.Further, the sensor may be mounted on an unmanned vehicle, and may be formed so as to be able to communicate with the travel area update apparatus. Further, the sensor senses the surrounding information of the unmanned vehicle and transmits the sensed information (or data) to the traveling area update device (or the environment recognition result base line conversion section 100) through wired / wireless communication have.

상기 센서는, 본 명세서에서 설명하는 주행영역 갱신 장치에 포함되는 일 구성요소로 이해될 수 있다.The sensor can be understood as a component included in the travel area update apparatus described in this specification.

환경인식결과기준선변환부(100)는, 무인차량에 장착된 센서를 통해 환경인식을 수행하고, 환경인식결과를 기 설정된 기준선을 기준으로 회전시킬 수 있다.The environment recognition result base line conversion unit 100 can perform environment recognition through the sensor mounted on the unmanned vehicle and rotate the environment recognition result based on a predetermined reference line.

구체적으로, 환경인식결과기준선변환부(100)는, 무인차량에 장착된 센서를 통해 획득한 데이터를 가공하여 무인차량의 주행가능성을 확률의 형태로 표현한 환경인식결과를 생성할 수 있다. 본 명세서에서 설명하는 환경인식결과는, 센서를 통해 획득한 데이터를 이용(가공)하여 상기 무인차량의 주행가능성을 확률로 나타낸 정보이고, 일 예로, 격자형태로 저장될 수 있다. 즉, 환경인식결과기준선변환부(100)는 센서를 통해 획득된 데이터를 이용하여 환경인식을 수행하고, 환경인식결과를 격자형태로 저장(생성)할 수 있다.Specifically, the environment recognition result base line conversion unit 100 can generate the environment recognition result in which the driving ability of the unmanned vehicle is expressed in the form of probability by processing the data acquired through the sensor mounted on the unmanned vehicle. The environment recognition result described in the present specification is information indicating the possibility of running of the unmanned vehicle by using (processing) the data acquired through the sensor, and may be stored as a grid, for example. That is, the environment recognition result base line conversion unit 100 can perform environment recognition using the data obtained through the sensor, and store (generate) environment recognition results in a grid form.

이 때, 환경인식결과기준선변환부(100)는, 무인차량의 위치 및 주행방향을 추정한 주행정보(항법정보)를 이용할 수 있다.At this time, the environment recognition result base line conversion unit 100 can use the running information (navigation information) that estimates the position and running direction of the unmanned vehicle.

환경인식결과기준선변환부(100)는, 상기 무인차량의 주행방향을 포함하는 주행정보를 이용하여, 상기 주행방향에 대응하는 선을 기준으로 상기 환경인식결과를 격자형태로 생성할 수 있다. The environment recognition result base line conversion unit 100 can generate the environment recognition result in a lattice form on the basis of the line corresponding to the running direction, using the running information including the running direction of the unmanned vehicle.

또한, 환경인식결과기준선변환부(100)는, 기 설정된 기준선과 상기 주행방향에 대응하는 선 사이의 각도차이에 근거하여, 상기 주행방향에 대응하는 선을 기준으로 생성된 환경인식결과를 상기 기 설정된 기준선에 대응되도록 회전시킬 수 있다. 이하에서는, 상기 기 설정된 기준선에 대응되도록 회전시킨 환경인식결과를 "제2 환경인식결과(

Figure 112016016891792-pat00001
)" 또는 "기준선변환환경인식결과(
Figure 112016016891792-pat00002
)"로 명명하기로 한다.The environment recognition result base line conversion unit 100 converts the environment recognition result generated based on the line corresponding to the running direction into the reference line based on the angle difference between the predetermined reference line and the line corresponding to the running direction, And can be rotated so as to correspond to the set reference line. Hereinafter, the environment recognition result rotated to correspond to the preset reference line is referred to as "second environment recognition result (
Figure 112016016891792-pat00001
) "Or" baseline conversion environment recognition result (
Figure 112016016891792-pat00002
).

상기 제2 환경인식결과(

Figure 112016016891792-pat00003
)는, 현재 시점에서 획득한 환경인식결과를 기 설정된 기준선을 기준으로(또는, 상기 기 설정된 기준선에 대응하도록) 회전한 정보일 수 있다.The second environment recognition result (
Figure 112016016891792-pat00003
) May be information obtained by rotating the environment recognition result acquired at the current time point on the basis of a predetermined reference line (or corresponding to the preset reference line).

한편, 본 발명과 관련된 주행영역 갱신 장치에는, 현재 시점 이전까지 누적된 환경인식결과가 메모리에 저장되어 있을 수 있다. 본 명세서에서는, 상기 현재 시점 이전까지 누적된 환경인식결과를 "제1 환경인식결과(

Figure 112016016891792-pat00004
)"로 명명하기로 한다.Meanwhile, in the traveling area updating apparatus according to the present invention, the environment recognition results accumulated until the present time point may be stored in the memory. In the present specification, the environment recognition result accumulated until the present time is referred to as "first environment recognition result (
Figure 112016016891792-pat00004
).

상기 현재 시점 이전까지의 누적된 제1 환경인식결과는, 상기 기 설정된 기준선을 기준으로 격자형태로 저장된 정보일 수 있다.The accumulated first environment recognition result up to the current time point may be information stored in a grid form based on the preset reference line.

본 명세서에서 설명하는 기 설정된 기준선은, 일 예로, 진북방향에 대응하는 가상선일 수 있다. The preset reference line described in this specification may be, for example, a virtual line corresponding to the true north direction.

본 발명과 관련된 주행영역 갱신 장치는, 현재 시점 이전까지 누적된 제1 환경인식결과(

Figure 112016016891792-pat00005
)와 현재 시점에서 획득한 환경인식결과(제2 환경인식결과(
Figure 112016016891792-pat00006
))를 융합할 수 있다. 이를 위해, 환경인식결과기준선변환부(100)는, 주행방향에 대응하는 선이 상기 기 설정된 기준선에 대응되도록, 상기 주행방향에 대응하는 선을 기준으로 생성된 환경인식결과를 회전시킬 수 있다. 이로 인해 생성(회전)된 제2 환경인식결과(
Figure 112016016891792-pat00007
)의 기준선과 제1 환경인식결과(
Figure 112016016891792-pat00008
)의 기준선은, 기 설정된 기준선(예를 들어, 진북방향을 향하는 가상선)으로 동일할 수 있다.The traveling area updating apparatus according to the present invention includes a first area recognition result accumulating unit
Figure 112016016891792-pat00005
) And the environmental recognition result obtained at the present time (the second environmental recognition result
Figure 112016016891792-pat00006
) Can be fused. To this end, the environment recognition result base line conversion unit 100 may rotate the environment recognition result generated based on the line corresponding to the running direction so that a line corresponding to the running direction corresponds to the preset reference line. The second environment recognition result (rotated) generated thereby
Figure 112016016891792-pat00007
) And the first environment recognition result (
Figure 112016016891792-pat00008
) May be the same as a predetermined reference line (for example, a virtual line directed toward the true north direction).

융합함수파라미터산출부(200)는, 현재 시점 이전까지 누적된 제1 환경인식결과와 현재 시점에서 획득한 제2 환경인식결과를 융합하는데 이용되는 파라미터를 산출할 수 있다.The fusion function parameter calculation unit 200 may calculate a parameter used to fuse the first environment recognition result accumulated up to the current time point and the second environment recognition result obtained at the current time.

구체적으로, 융합함수파라미터산출부(200)는, 누적된 제1 환경인식결과(

Figure 112016016891792-pat00009
)와, 현재 시점에서 획득되어 상기 기 설정된 기준선에 대응하도록 회전된 제2 환경인식결과(
Figure 112016016891792-pat00010
)에서 중첩이 되는 영역을 융합하기 위한 융합함수의 파라미터를 계산할 수 있다.More specifically, the fusion function parameter calculation unit 200 calculates the fusion environment parameter
Figure 112016016891792-pat00009
A second environment recognition result obtained at the current point of time and rotated to correspond to the preset reference line
Figure 112016016891792-pat00010
The parameters of the fusion function for fusing the overlapping regions can be calculated.

도 2는 본 발명과 관련된 융합함수의 파라미터를 산출하는 방법을 설명하기 위한 개념도이다.2 is a conceptual diagram for explaining a method of calculating a parameter of a fusion function related to the present invention.

도 2를 참조하면, 상기 주행정보에는, 무인차량의 위치정보가 포함될 수 있다. 무인차량의 위치정보는, 일 예로, 도 2에 도시된 것과 같이, 무인차량의 현재위치(203)에 해당하는 좌표정보

Figure 112016016891792-pat00011
일 수 있다.Referring to FIG. 2, the travel information may include location information of an unmanned vehicle. As shown in FIG. 2, the position information of the unmanned vehicle may be, for example, coordinate information corresponding to the current position 203 of the unmanned vehicle
Figure 112016016891792-pat00011
Lt; / RTI >

또한, 주행정보에는, 이미 알고 있는 주행영역(또는 주행가능영역)(201)의 폭값(W)이 포함될 수 있다.In addition, the travel information may include a width value W of a travel region (or travelable region) 201 which is already known.

융합함수파라미터산출부(200)는, 상기 무인차량의 위치정보(

Figure 112016016891792-pat00012
), 상기 제1 환경인식결과(
Figure 112016016891792-pat00013
) 및 상기 제2 환경인식결과(
Figure 112016016891792-pat00014
)에서 중첩된 격자의 좌표정보(
Figure 112016016891792-pat00015
), 상기 기 설정된 기준선(202) 및 주행영역(201)의 폭값(W)을 이용하여, 상기 주행영역의 일측과 상기 무인차량 사이의 제1 폭값(W_L) 및 상기 주행영역의 타측과 상기 무인차량 사이의 제2 폭값(W_R)을 파라미터로 산출할 수 있다. 즉, 상기 제1 폭값(W_L) 및 제2 폭값(W_R)은, 융합함수의 파라미터일 수 있다.The fusion function parameter calculation unit 200 calculates the fusion function parameter based on the position information of the unmanned vehicle
Figure 112016016891792-pat00012
), The first environment recognition result (
Figure 112016016891792-pat00013
) And the second environment recognition result (
Figure 112016016891792-pat00014
) Coordinate information of the overlapped grid (
Figure 112016016891792-pat00015
A first width value W_L between one side of the traveling region and the unmanned vehicle and a second width value W_L between the other side of the traveling region and the width of the unmanned vehicle using the preset reference line 202 and the width value W of the traveling region 201. [ The second width value W_R between the vehicles can be calculated as a parameter. That is, the first width value W_L and the second width value W_R may be parameters of a fusion function.

제1 및 제2 환경인식결과(

Figure 112016016891792-pat00016
,
Figure 112016016891792-pat00017
)에서 중첩된 격자의 좌표정보는 다른 말로, 제1 및 제2 환경인식결과(
Figure 112016016891792-pat00018
,
Figure 112016016891792-pat00019
)에서 중첩된 복수의 격자들 중 융합 대상이 되는 격자의 좌표정보(또는 위치정보)(
Figure 112016016891792-pat00020
)를 의미할 수 있다.The first and second environment recognition results (
Figure 112016016891792-pat00016
,
Figure 112016016891792-pat00017
The coordinate information of the overlapped grid in other words, the first and second environment recognition results (
Figure 112016016891792-pat00018
,
Figure 112016016891792-pat00019
(Or position information) of the lattice to be fusion target among the plurality of lattices superposed in the
Figure 112016016891792-pat00020
). ≪ / RTI >

상기 제1 폭값(W_L)은, 일 예로, 주행영역(201)에서 무인차량(203)과 주행영역(201)의 좌측면 사이의 폭값을 의미할 수 있다.The first width value W_L may mean a width value between the unmanned vehicle 203 and the left side surface of the running area 201 in the running area 201, for example.

또한, 상기 제2 폭값(W_R)은, 일 예로, 주행영역(201)에서 무인차량(203)과 주행영역(201)의 우측면 사이의 폭값을 의미할 수 있다.The second width value W_R may mean a width value between the unmanned vehicle 203 and the right side surface of the running area 201 in the running area 201. [

주행영역갱신부(300)는, 상기 산출된 파라미터(제1 폭값 및 제2 폭값)을 이용하여 가중치를 산출할 수 있다. 상기 가중치은 일 예로 수학식 1에 기재된 융합 함수(F(P_M))의해 산출될 수 있다.The running area updating unit 300 can calculate the weight using the calculated parameters (the first width value and the second width value). The weight can be calculated, for example, by the fusion function F (P_M) described in Equation (1).

Figure 112016016891792-pat00021
Figure 112016016891792-pat00021

이 때, 상기 융합 함수(F(P_M))는, 무인차량의 현재위치(203)에서 기 설정된 기준선(진북방향 기준선)(202)을 기준으로, 좌 우에 대하여 서로 다른 수식이 적용되며, 그 결과는 도 3에 도시된 것과 같이, 대칭형 융합 함수로 나타날 수 있다.At this time, the fusion function F (P_M) is different from that of the unmanned vehicle based on the predetermined reference line (true north direction reference line) 202 at the current position 203 of the unmanned vehicle, May be represented by a symmetric fusion function, as shown in FIG.

주행영역갱신부(300)는, 상기 제1 폭값(W_L) 및 상기 제2 폭값(W_R)을 이용하여 가중치(예를 들어, F(P_M))를 산출할 수 있다. 또한, 주행영역갱신부는, 상기 가중치를 상기 제1 환경인식결과(

Figure 112016016891792-pat00022
) 및 상기 제2 환경인식결과(
Figure 112016016891792-pat00023
)에 각각 적용하여 현재 시점의 누적된 제3 환경인식결과(
Figure 112016016891792-pat00024
)를 산출할 수 있다.The travel region updating unit 300 may calculate a weight value (e.g., F (P_M)) using the first width value W_L and the second width value W_R. Further, the travel area updating unit may calculate the weighted value as the first environment recognition result (
Figure 112016016891792-pat00022
) And the second environment recognition result (
Figure 112016016891792-pat00023
) To calculate the accumulated third environment recognition result (
Figure 112016016891792-pat00024
) Can be calculated.

상기 제3 환경인식결과(

Figure 112016016891792-pat00025
)는, 일 예로 수학식 2와 같이 산출될 수 있다.The third environment recognition result (
Figure 112016016891792-pat00025
) Can be calculated, for example, as shown in Equation (2).

Figure 112016016891792-pat00026
Figure 112016016891792-pat00026

상기 제3 환경인식결과(

Figure 112016016891792-pat00027
)는, 제1 환경인식결과(
Figure 112016016891792-pat00028
)와 가중치(F(P_M))를 곱한 값과 제2 환경인식결과(
Figure 112016016891792-pat00029
)와 가중치(F(P_M))를 곱한 값을 더한 값일 수 있다.The third environment recognition result (
Figure 112016016891792-pat00027
), The first environment recognition result (
Figure 112016016891792-pat00028
) And the weight (F (P_M)) and the second environment recognition result (
Figure 112016016891792-pat00029
) And a weight (F (P_M)).

무인차량의 현재위치가 주행경로(201)의 중앙에 위치할수록(다른 말로, 제1 및 제2 환경인식결과에서 중첩된 격자가 주행경로의 중앙에 위치할수록) 가중치가 커지게 되고, 이로 인해 무인차량의 자율주행이 가능한 확률(환경인식결과)는 커지게 된다. As the current position of the unmanned vehicle is located at the center of the traveling path 201 (in other words, as the overlapping grids are located at the center of the traveling path in the first and second environment recognition results), the weight increases, The probability that the vehicle can be autonomously driven (environment recognition result) becomes large.

또한, 무인차량의 현재위치가 주행경로(201)의 가장자리(즉, 일측 또는 타측)에 가까울수록 가중치가 작아지게 되고, 이로 인해 무인차량의 자율주행이 가능한 확률(환경인식결과)는 작아지게 된다.Further, as the current position of the unmanned vehicle is closer to the edge (i.e., one side or the other side) of the traveling path 201, the weight becomes smaller, and the probability of the unmanned vehicle to autonomously travel (the environment recognition result) becomes smaller .

주행영역갱신부(300)는, 제1 및 제2 환경인식결과에서 중첩된 모든 격자에 대하여 상기 수학식 1 및 2의 연산을 수행하고, 이로 인해 도출되는 제3 환경인식결과(

Figure 112016016891792-pat00030
)를 이용하여 현재 시점의 주행영역(또는 주행가능영역)을 갱신할 수 있다.The traveling region updating unit 300 performs the operations of Equations 1 and 2 on all the grids superimposed on the first and second environment recognition results, and outputs the third environment recognition result (
Figure 112016016891792-pat00030
(Or travelable area) of the present time point can be updated by using the current time zone.

상기 갱신에 의해, 현재 시점의 주행영역의 폭값 또는 이미 알고 있는 주행영역의 폭값은 전체적으로/부분적으로 변경될 수 있다.By this update, the width value of the running area at the current time point or the width value of the already known running area can be changed in whole or in part.

이러한 구성을 통해, 본 발명은 무인차량이 자율주행할 때마다 주행정보의 차이로 인하여 발생하는 주행 가능 영역의 시간 변화에 따른 불확실성을, 무인차량이 운용되는 공간에서 반복적으로 주행을 수행할수록 감소시킬 수 있다. 즉, 본 발명은 누적된 환경인식결과를 활용하여 주행정보의 시간 변화에 따른 불확실성을 감소시켜 경로계획을 수행할 때 신뢰성이 향상된 경로계획 결과를 획득할 수 있다.With this configuration, the present invention reduces the uncertainty due to the time variation of the travelable area generated due to the difference in travel information every time the unmanned vehicle autonomously travels, as the travel of the unmanned vehicle is repeatedly performed in the space where the unmanned vehicle is operated . That is, the present invention can obtain the path planning result with improved reliability when performing the path planning by reducing the uncertainty according to the time change of the travel information by utilizing the accumulated environment recognition result.

이에 따라, 본 발명은 무인차량의 자율주행에 있어 경로계획 성능을 향상시킬 수 있는 갱신된 주행영역 정보를 제공할 수 있다.Accordingly, the present invention can provide updated travel area information that can improve route planning performance in autonomous navigation of an unmanned vehicle.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 주행영역 갱신 장치의 환경인식결과기준선변환부(100), 융합함수파라미터산출부(200) 및 주행영역갱신부(300) 중 적어도 하나를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). Also, the computer may include at least one of the reference recognition unit 100, the fusion function parameter calculation unit 200, and the travel area update unit 300 of the travel area update apparatus. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

100: 환경인식결과기준선변환부
200: 융합함수파라미터산출부
300: 주행영역갱신부
100: environment recognition result base line conversion unit
200: fusion function parameter calculation unit
300:

Claims (6)

무인차량에 장착된 센서를 통해 환경인식을 수행하고, 환경인식결과를 기 설정된 기준선을 기준으로 회전시키는 환경인식결과기준선변환부;
현재 시점 이전까지 누적된 제1 환경인식결과와 현재 시점에서 획득한 제2 환경인식결과를 융합하는데 이용되는 파라미터를 산출하는 융합함수파라미터산출부; 및
상기 산출된 파라미터를 이용하여 상기 누적된 제1 환경인식결과와 상기 제2 환경인식결과를 융합하고, 융합결과를 이용하여 현재 시점의 주행영역을 갱신하는 주행영역갱신부를 포함하고,
상기 누적된 제1 환경인식결과는, 상기 기 설정된 기준선을 기준으로 격자형태로 저장된 정보이고,
상기 환경인식결과기준선변환부는,
상기 무인차량의 주행방향을 포함하는 주행정보를 이용하여, 상기 주행방향에 대응하는 선을 기준으로 상기 환경인식결과를 격자형태로 생성하며,
상기 기 설정된 기준선과 상기 주행방향에 대응하는 선 사이의 각도차이에 근거하여, 상기 주행방향에 대응하는 선을 기준으로 생성된 환경인식결과를 상기 기 설정된 기준선에 대응되도록 회전시켜 상기 제2 환경인식결과를 획득하고,
상기 주행정보는, 상기 무인차량의 위치정보를 더 포함하고,
상기 융합함수파라미터산출부는,
상기 무인차량의 위치정보, 상기 제1 및 제2 환경인식결과에서 중첩된 격자의 좌표정보, 상기 기 설정된 기준선 및 주행영역의 폭값을 이용하여, 상기 주행영역의 일측과 상기 무인차량 사이의 제1 폭값 및 상기 주행영역의 타측과 상기 무인차량 사이의 제2 폭값을 상기 파라미터로 산출하는 것을 특징으로 하는 주행영역 갱신 장치.
An environment recognition result baseline converting unit that performs environment recognition through a sensor mounted on an unmanned vehicle and rotates the environment recognition result based on a predetermined reference line;
A fusion function parameter calculation unit for calculating a parameter used to fuse the first environment recognition result accumulated up to the present time point and the second environment recognition result obtained at the current time point; And
And a traveling area updating unit that fuses the accumulated first environment recognition result and the second environment recognition result using the calculated parameters and updates a current traveling area using the fusion result,
The accumulated first environment recognition result is information stored in a grid form on the basis of the preset reference line,
The environment recognition result baseline conversion unit,
Generates the environment recognition result in a lattice form on the basis of a line corresponding to the running direction using the running information including the running direction of the unmanned vehicle,
Based on an angle difference between the predetermined reference line and a line corresponding to the running direction, rotating the environment recognition result generated based on the line corresponding to the running direction to correspond to the preset reference line, Obtain the results,
Wherein the traveling information further includes position information of the unmanned vehicle,
The fusion function parameter calculation unit may calculate,
And a second area recognition unit that calculates a first area between the one side of the traveling area and the unmanned vehicle by using the position information of the unmanned vehicle, the coordinate information of the overlapped grids in the first and second environment recognition results, Width value, and a second width value between the other side of the traveling region and the unmanned vehicle, using the parameters.
제 1 항에 있어서,
상기 환경인식결과는,
상기 센서를 통해 획득한 데이터를 이용하여 상기 무인차량의 주행가능성을 확률로 나타낸 정보이고, 격자형태로 저장되는 것을 특징으로 하는 주행영역 갱신 장치.
The method according to claim 1,
The environment recognition result includes:
Wherein the information on the probability of running of the unmanned vehicle is stored in the form of a lattice by using the data obtained through the sensor.
삭제delete 삭제delete 제 1 항에 있어서,
상기 주행영역갱신부는,
상기 제1 폭값 및 상기 제2 폭값을 이용하여 가중치를 산출하고, 상기 가중치를 상기 제1 환경인식결과 및 상기 제2 환경인식결과에 각각 적용하여 현재 시점의 누적된 제3 환경인식결과를 산출하고, 상기 제3 환경인식결과를 이용하여 상기 현재 시점의 주행영역을 갱신하는 것을 특징으로 하는 주행영역 갱신 장치.
The method according to claim 1,
The traveling region update unit may update,
Calculating weight values using the first width value and the second width value, applying the weight values to the first environment recognition result and the second environment recognition result, respectively, to calculate an accumulated third environment recognition result at the current time point And updates the travel area at the current time point by using the third environment recognition result.
무인차량에 장착된 센서를 통해 환경인식을 수행하고, 환경인식결과를 기 설정된 기준선을 기준으로 회전시키는 단계;
현재 시점 이전까지 누적된 제1 환경인식결과와 현재 시점에서 획득한 제2 환경인식결과를 융합하는데 이용되는 파라미터를 산출하는 단계; 및
상기 산출된 파라미터를 이용하여 상기 누적된 제1 환경인식결과와 상기 제2 환경인식결과를 융합하고, 융합결과를 이용하여 현재 시점의 주행영역을 갱신하는 단계를 포함하고,
상기 누적된 제1 환경인식결과는, 상기 기 설정된 기준선을 기준으로 격자형태로 저장된 정보이고,
상기 회전시키는 단계는,
상기 무인차량의 주행방향을 포함하는 주행정보를 이용하여, 상기 주행방향에 대응하는 선을 기준으로 상기 환경인식결과를 격자형태로 생성하는 단계; 및
상기 기 설정된 기준선과 상기 주행방향에 대응하는 선 사이의 각도차이에 근거하여, 상기 주행방향에 대응하는 선을 기준으로 생성된 환경인식결과를 상기 기 설정된 기준선에 대응되도록 회전시켜 상기 제2 환경인식결과를 획득하는 단계를 포함하고,
상기 주행정보는, 상기 무인차량의 위치정보를 더 포함하고,
상기 산출하는 단계는,
상기 무인차량의 위치정보, 상기 제1 및 제2 환경인식결과에서 중첩된 격자의 좌표정보, 상기 기 설정된 기준선 및 주행영역의 폭값을 이용하여, 상기 주행영역의 일측과 상기 무인차량 사이의 제1 폭값 및 상기 주행영역의 타측과 상기 무인차량 사이의 제2 폭값을 상기 파라미터로 산출하는 것을 특징으로 하는 주행영역 갱신 장치의 제어방법.
Performing environmental recognition through a sensor mounted on an unmanned vehicle, and rotating an environment recognition result based on a predetermined reference line;
Calculating parameters to be used for fusing the first environment recognition result accumulated up to the current time point and the second environment recognition result obtained at the current time point; And
And a step of fusing the accumulated first environment recognition result and the second environment recognition result using the calculated parameters and updating the current time running area using the fusion result,
The accumulated first environment recognition result is information stored in a grid form on the basis of the preset reference line,
Wherein the rotating comprises:
Generating the environment recognition result in a lattice form on the basis of a line corresponding to the running direction using the running information including the running direction of the unmanned vehicle; And
Based on an angle difference between the predetermined reference line and a line corresponding to the running direction, rotating the environment recognition result generated based on the line corresponding to the running direction to correspond to the preset reference line, Obtaining a result,
Wherein the traveling information further includes position information of the unmanned vehicle,
Wherein the calculating step comprises:
And a second area recognition unit that calculates a first area between the one side of the traveling area and the unmanned vehicle by using the position information of the unmanned vehicle, the coordinate information of the overlapped grids in the first and second environment recognition results, Width value and a second width value between the other side of the traveling region and the unmanned vehicle are calculated as the parameters.
KR1020160019981A 2016-02-19 2016-02-19 Driving path updating apparatus based on driving information and environment recognition and method thereof Active KR101828255B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160019981A KR101828255B1 (en) 2016-02-19 2016-02-19 Driving path updating apparatus based on driving information and environment recognition and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160019981A KR101828255B1 (en) 2016-02-19 2016-02-19 Driving path updating apparatus based on driving information and environment recognition and method thereof

Publications (2)

Publication Number Publication Date
KR20170098070A KR20170098070A (en) 2017-08-29
KR101828255B1 true KR101828255B1 (en) 2018-02-13

Family

ID=59760013

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160019981A Active KR101828255B1 (en) 2016-02-19 2016-02-19 Driving path updating apparatus based on driving information and environment recognition and method thereof

Country Status (1)

Country Link
KR (1) KR101828255B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240170231A (en) * 2023-05-26 2024-12-03 김범준 Control method using the perception result of a perception module

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100745975B1 (en) * 2004-12-30 2007-08-06 삼성전자주식회사 Method and device for moving to the minimum breadcrumb using a grid map
JP2009157430A (en) * 2007-12-25 2009-07-16 Toyota Motor Corp Coordinate correction method, coordinate correction program, and autonomous mobile robot

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100745975B1 (en) * 2004-12-30 2007-08-06 삼성전자주식회사 Method and device for moving to the minimum breadcrumb using a grid map
JP2009157430A (en) * 2007-12-25 2009-07-16 Toyota Motor Corp Coordinate correction method, coordinate correction program, and autonomous mobile robot

Also Published As

Publication number Publication date
KR20170098070A (en) 2017-08-29

Similar Documents

Publication Publication Date Title
KR102518532B1 (en) Apparatus for determining route of autonomous vehicle and method thereof
US11073831B2 (en) Autonomous driving using a standard navigation map and lane configuration determined based on prior trajectories of vehicles
EP3335006B1 (en) Controlling error corrected planning methods for operating autonomous vehicles
KR102226350B1 (en) Autonomous visual navigation
KR101975728B1 (en) Side slip compensation control method for autonomous vehicles
CN111033422B (en) Drift correction between planning and control phases of operating an autonomous vehicle
CN110390240B (en) Lane post-processing in an autonomous vehicle
KR101581286B1 (en) System and method for path planning for autonomous navigation of driverless ground vehicle
US8903644B2 (en) Digest for localization or fingerprinted overlay
JP6032163B2 (en) 3D object recognition apparatus, 3D object recognition method, and moving body
JP6543373B2 (en) Control type planning and control system used for autonomous driving vehicles
KR101439921B1 (en) Slam system for mobile robot based on vision sensor data and motion sensor data fusion
KR20180052673A (en) System delay estimation method for autonomous vehicle control
KR20180051568A (en) System delay correction control method for autonomous vehicles
KR102561263B1 (en) Electronic apparatus and operating method for generating a map data
US20180050694A1 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
JP2019501809A (en) Method and system for following the speed of an autonomous vehicle
JP2019008431A (en) Route search apparatus and route search method
KR20180051571A (en) Vehicle location point delivery method for autonomous vehicles
EP3659884B1 (en) Predetermined calibration table-based method for operating an autonomous driving vehicle
US12411013B2 (en) Mobile body, method of controlling mobile body, and program
EP3901662A1 (en) Systems and methods to determine risk distribution based on sensor coverages of a sensor system for an autonomous driving vehicle
KR101935279B1 (en) Location estimation device for autonomous vehicle and method thereof
CN111033423B (en) Method for evaluating a positioning system of an autonomous vehicle
EP3659886B1 (en) Method to determine vehicle load of autonomous driving vehicle using predetermined load calibration tables

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20160219

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20171121

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20180201

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20180206

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20180207

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20210209

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20220120

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20230118

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20240119

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20250123

Start annual number: 8

End annual number: 8