KR20220151572A - Method and System for change detection and automatic updating of road marking in HD map through IPM image and HD map fitting - Google Patents
Method and System for change detection and automatic updating of road marking in HD map through IPM image and HD map fitting Download PDFInfo
- Publication number
- KR20220151572A KR20220151572A KR1020220056145A KR20220056145A KR20220151572A KR 20220151572 A KR20220151572 A KR 20220151572A KR 1020220056145 A KR1020220056145 A KR 1020220056145A KR 20220056145 A KR20220056145 A KR 20220056145A KR 20220151572 A KR20220151572 A KR 20220151572A
- Authority
- KR
- South Korea
- Prior art keywords
- map
- image
- ipm
- road surface
- fitting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3859—Differential updating map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/183—Compensation of inertial measurements, e.g. for temperature effects
- G01C21/188—Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Manufacturing & Machinery (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 자율주행 분야에서 지도 자동 갱신 방법에 관한 것으로, 특히 IPM으로 차량의 전면 카메라 이미지에서 원근 효과를 제거하고 2D 도메인으로 다시 매핑하여 정밀도로지도 영역과 피팅함으로써, 매우 낮은 계산 비용과 저가의 카메라 및 GPS/IMU 센서만으로도 높은 정확도의 갱신 결과를 얻을 수 있는 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법 및 시스템에 관한 것이다.The present invention relates to a method for automatically updating a map in the field of autonomous driving, in particular, by removing a perspective effect from a front camera image of a vehicle with IPM and remapping it into a 2D domain to fit a map area with precision, resulting in very low computational cost and low cost It relates to a method and system for automatically updating a precision map that automatically determines and updates changes in a road surface object through an IPM image and a precision map fitting that can obtain a high-accuracy update result only with a camera and a GPS/IMU sensor.
자율 주행, 운전자 지원 시스템 및 내비게이션과 관련된 거의 모든 최신 애플리케이션에서 도로 표시는 도로에서 스스로 위치를 파악할 수 있도록 하므로 중요하다(M. Schreiber, C. Knoppel, and U. Franke, “Laneloc: Lane marking based localization using highly accurate maps,” IEEE Intelligent Vehicles Symposium, 2013.).In almost all modern applications involving autonomous driving, driver assistance systems, and navigation, road markings are important because they allow them to locate themselves on the road (M. Schreiber, C. Knoppel, and U. Franke, “Laneloc: Lane marking based localization using highly accurate maps,” IEEE Intelligent Vehicles Symposium, 2013.).
자율 주행에 대한 많은 접근법(예; J. Ziegler, P. Bender, T. Dang, and C. Stiller, "Trajectory planning for bertha local, continuous method," IEEE Intelligent Vehicles Symposium, 2014.)은, 예를 들어 교통 차선과 정지선을 포함하는 고정밀지도를 사용하여 기동을 계획하고 다양한 교통 상황을 인식한다. 갱신 대상인 객체는 고속도로에서 도시 환경에 이르기까지 교통 밀도, 시야, 장애물 유형 (차량, 트럭, 자전거, 보행자 등), 도로 차선 수, 도로 서설물과 같은 많은 요인이 다양하다.Many approaches to autonomous driving (e.g. J. Ziegler, P. Bender, T. Dang, and C. Stiller, "Trajectory planning for bertha local, continuous method," IEEE Intelligent Vehicles Symposium, 2014.) It uses high-precision maps that include traffic lanes and stop lines to plan maneuvers and recognize different traffic situations. Objects to be updated vary from highways to urban environments, depending on many factors such as traffic density, visibility, type of obstacles (vehicles, trucks, bicycles, pedestrians, etc.), number of road lanes, and road markings.
도로 및 차선 표시 감지는 카메라 기반 운전자 지원 시스템에서 중요한 주제이고 그 역사는 1990 년대 초반으로 거슬러 올라간다(E. Dickmanns, B. Mysliwetz, and T. Christians, "An intergrated spatio-temporal approach to automatic visual guidance of autonomous vehicles," IEEE Transactions on Systems, Man and Cybernetics, 1990.).Road and lane marking detection is an important topic in camera-based driver assistance systems, dating back to the early 1990s (E. Dickmanns, B. Mysliwetz, and T. Christians, "An integrated spatio-temporal approach to automatic visual guidance of autonomous vehicles," IEEE Transactions on Systems, Man and Cybernetics, 1990.).
이 주제에 대한 접근 방식의 수가 매우 많다. 초기 작업의 대부분은 특히 고속도로(예 : P. Charbonnier, F. Diebolt, Y. Guillard, and F. Peyret, "Road markings recognition using image processing," IEEE Conference on Intelligent Transportatoin Systems, 1997., K. Kluge and S. Lakshamanan, "A deformable-template approach to lane detection," IEEE Intelligent Vehicles Symposium, 2005. 및, J. C. McCall and M. M. Trivedi, "An integrated robust approach to lane marking detection and lane tracking," IEEE Intelligent Vehicles Symposium, 2004.)에서 차선 표시 감지에 중점을 두었다.The number of approaches to this subject is very large. Most of the early work was specifically on highways (e.g. P. Charbonnier, F. Diebolt, Y. Guillard, and F. Peyret, "Road markings recognition using image processing," IEEE Conference on Intelligent Transportatoin Systems, 1997., K. Kluge and S. Lakshamanan, "A deformable-template approach to lane detection," IEEE Intelligent Vehicles Symposium, 2005. and, J. C. McCall and M. M. Trivedi, "An integrated robust approach to lane marking detection and lane tracking," IEEE Intelligent Vehicles Symposium, 2004 .) focused on lane marking detection.
보다 최근의 접근 방식은 도시 지역에서 도로 형상의 추적을 향하고 있다. 예를 들어, S. Vacec, C. Schimmel, and R. Dillman, "Road-marking analysis for antonomous vehicle guidance," European Conference on Mobile Robots, 2007.에서는 입자 필터를 활용하는 방법으로 노면 표시를 추적하는데 사용되었다. 이러한 접근 방식은 고정밀지도를 얻는데 필요한 객체 감지 또는 장면 이해가 아닌 대부분 추적 용도로 설계되었다. 도로 표시의 객체 기반 감지에 대한 한 가지 초기 접근 방식은 J. Rebut, A. Bensrhair, and G. Toulminet, "Image segmentation and pattern recognition for road marking analysis," IEEE International Symposium on Industrial Electronics, 2004.에서와 같이 특징 추출을 위한 주파수 변환과 분류를 위한 K-Nearest Neighbour 방법을 사용하는 화살표 분류를 다루었다. 또 다른 제안인 W. Nan, L. Wei, Z. Chunmin, Y. Huai, and J. Jiren, "The detection and recognition of arrow markings recognition based on monocular vision," IEEE International Symposium on Industrial Electronics, 2004.은 화살표 분류를 위해 Haar Wavelet을 사용한다. P. Foucher, Y. Sebsadji, J.-P. Tarel, P. Charbonnier, and P. Nicolle, "Detection and recognition of urban road markings using images," IEEE International conference on Intelligent Transportation Systems, 2011.에서 화살표는 중앙값 필터링을 통해 분할 된 다음 템플릿 매칭을 사용하여 분류했다. Zebra 교차점과 같이 기하학적 제약 조건을 충족하는 세그먼트를 클러스터링하여 분류 할 수도 있다. 다른 유형의 표시를 감지하는 알고리즘도 제안되었으며, 정지선 감지에 초점이 맞춰진 T. Marita, M. Negru, R. Danescu, and S. Nedevschi, "stop-line detection and localization method for intersection scenarios," IEEE International Conference on Intelligent Computer Communication and Processing, 2010.과 Y.-W. Seo and R. Rajkumar, "A vision system for detecting and tracking of stop-lines," IEEE International Conference on Intelligent Transportation Systems, 2014.에서도 제안되었다.A more recent approach is towards tracking road geometry in urban areas. For example, S. Vacec, C. Schimmel, and R. Dillman, "Road-marking analysis for antonomous vehicle guidance," European Conference on Mobile Robots, 2007. It became. These approaches are designed mostly for tracking purposes, not object detection or scene understanding, which is necessary to obtain high-precision maps. One early approach to object-based detection of road markings is from J. Rebut, A. Bensrhair, and G. Toulminet, "Image segmentation and pattern recognition for road marking analysis," IEEE International Symposium on Industrial Electronics, 2004. Similarly, we dealt with frequency transformation for feature extraction and arrow classification using the K-Nearest Neighbor method for classification. Another proposal, W. Nan, L. Wei, Z. Chunmin, Y. Huai, and J. Jiren, "The detection and recognition of arrow markings recognition based on monocular vision," IEEE International Symposium on Industrial Electronics, 2004. We use the Haar Wavelet for arrow classification. P. Foucher, Y. Sebsadji, J.-P. In Tarel, P. Charbonnier, and P. Nicolle, "Detection and recognition of urban road markings using images," IEEE International conference on Intelligent Transportation Systems, 2011. Arrows were segmented via median filtering and then classified using template matching. . It can also be classified by clustering segments that satisfy geometric constraints, such as zebra junctions. Algorithms for detecting other types of markings have also been proposed, T. Marita, M. Negru, R. Danescu, and S. Nedevschi, "stop-line detection and localization method for intersection scenarios," IEEE International, focusing on stop-line detection. Conference on Intelligent Computer Communication and Processing, 2010. and Y.-W. It was also proposed in Seo and R. Rajkumar, "A vision system for detecting and tracking of stop-lines," IEEE International Conference on Intelligent Transportation Systems, 2014.
차량 감지에 대한 철저한 최근 리뷰가 제시된 S. Sun et al., "On-road vehicle detection: a review", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 28, no 5, may 2006, pp. 694-711.에서는 거리 측정기(Laser 또는 Lidar)와 결합 된 방법을 제외한 모든 방법이 컴퓨터 비전 기반으로 되어있다.For a thorough recent review of vehicle detection, S. Sun et al., "On-road vehicle detection: a review", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 28,
카메라를 사용하는 방법은 객체의 특징점(T. Rabie et al., "Active-Vision based traffic surveillance and control", Vision Interface Annual Conference (VI’01), Toronto, Canada, June 2001.) 또는 가장자리 선(R. Okada and K. Onoguchi, "Obstacle Detection Using Projective Invariant and Vanishing Lines", 9th IEEE International Conference on Computer Vision (ICCV’03), Nice, France, Oct. 2003.)을 추적하는 방법을 사용한다. 일반적으로 카메라 이미지의 특징 요소의 세분화는 광학 흐름G.P. Stein and A. Shashua, "A robust method for computing vehicle ego-motion", IEEE Intelligent Vehicle Symposium (IV'00), Piscataway, NJ, USA, Oct. 2000., 조밀한 추정과 색상, 텍스처 제약B. Heisele, "Motion-based object detection and tracking in color images sequences", Fourth Asian Conference on Computer Vision (ACCV'00), Taipei, China, Jan. 2000, pp 1028-1033. 또는 정적 지도의 매개 변수화C. Braillon et al., "Real-time moving obstacle detection using optical flow models", IEEE Intelligent Vehicle Symposium (IV’00), Tokyo, Japan, June 2006, pp 466-471.를 도입하여 수행 할 수 있다.The method of using the camera is based on object features (T. Rabie et al., "Active-Vision based traffic surveillance and control", Vision Interface Annual Conference (VI'01), Toronto, Canada, June 2001.) or edge lines ( R. Okada and K. Onoguchi, "Obstacle Detection Using Projective Invariant and Vanishing Lines", 9th IEEE International Conference on Computer Vision (ICCV'03), Nice, France, Oct. 2003.). In general, the segmentation of feature elements of a camera image is based on optical flowG.P. Stein and A. Shashua, "A robust method for computing vehicle ego-motion", IEEE Intelligent Vehicle Symposium (IV'00), Piscataway, NJ, USA, Oct. 2000., Dense Estimation and Color and Texture ConstraintsB. Heisele, "Motion-based object detection and tracking in color images sequences", Fourth Asian Conference on Computer Vision (ACCV'00), Taipei, China, Jan. 2000, pp 1028-1033. or parameterization of a static mapC. It can be performed by introducing Braillon et al., "Real-time moving obstacle detection using optical flow models", IEEE Intelligent Vehicle Symposium (IV’00), Tokyo, Japan, June 2006, pp 466-471.
스테레오 비전을 사용하면 스테레오 장비가 보정 된 경우, 한 쌍의 이미지에서 일치하는 픽셀의 깊이를 삼각 측량으로 추정 할 수 있다. SchreiberSchreiber, D.; Alefs, B.; Clabian, M. "Single Camera Lane Detection and Tracking", In Proceedings of IEEE Conference on Intelligent Transportation Systems, Vienna, Austria, 13-16 September 2005; pp. 302-307.는 전방을 향한 단일 카메라를 사용하여 차선 표시를 감지하고 추적하여 도로 경계를 구분하는 강력한 계획을 제안했다. McCall과 Trivedi McCall, J.C.; Trivedi, M.M. "Video-Based Lane Estimation and Tracking for Driver Assistance: Survey, System, and Evaluation", IEEE Trans. Intell. Transport. Syst. 2006, 7, 20-37.는 도로의 차선 표시를 추정하고, 추적하기 위한 비디오 기반 운전자 보조 시스템을 설계했다. Liu Liu, Y.-C.; Lin, K.-Y.; Chen, Y.-S. "Bird’s-Eye View Vision System for Vehicle Surrounding Monitoring.", In Proceedings of RobVis 2008, Auckland, New Zealand, 18-20 February 2008; pp. 207-218.는 차량에 6개의 카메라를 설치하고 6개의 카메라에서 뷰를 스티칭 한 차량 주변 모니터링을 위한 조감도 비전 시스템을 제안했다. With stereo vision, the depth of matching pixels in a pair of images can be estimated by triangulation, provided the stereo equipment is calibrated. SchreiberSchreiber, D.; Alefs, B.; Clabian, M. "Single Camera Lane Detection and Tracking", In Proceedings of IEEE Conference on Intelligent Transportation Systems, Vienna, Austria, 13-16 September 2005; pp. 302-307. proposed a robust scheme to demarcate road boundaries by using a single forward-facing camera to detect and track lane markings. McCall and Trivedi McCall, J.C.; Trivedi, M.M. "Video-Based Lane Estimation and Tracking for Driver Assistance: Survey, System, and Evaluation", IEEE Trans. Intell. Transport. Syst. 2006, July, 20-37. designed a video-based driver assistance system for estimating and tracking lane markings on the road. Liu Liu, Y.-C.; Lin, K.-Y.; Chen, Y.-S. "Bird's-Eye View Vision System for Vehicle Surrounding Monitoring.", In Proceedings of RobVis 2008, Auckland, New Zealand, 18-20 February 2008; pp. 207-218. proposed a bird's eye vision system for monitoring the vehicle's surroundings by installing six cameras on the vehicle and stitching the views from the six cameras.
일반적으로 제안된 IPM(Inverse Perspective Mapping) 방법은 서로 다른 변환 메커니즘을 사용한다. 동종 좌표의 선형 매핑을 기반으로 Muad Mallot, H.A.; Bulthoff, H.H.; Little, J.J.; Bohrer, S. "Inverse Perspective Mapping Simplifies Optical Flow Computation and Obstacle Detection.", Biol. Cybern. 1991, 64, 177-185.는 IPM의 수학적 이론을 다루었다. 다른 연구에서 Tan, Dale, Anderson 및 Johnston Tan, S.; Dale, J.; Anderson, A.; Johnston, A. "Inverse Perspective Mapping and Optic Flow: A Calibration Method and a Quantitative Analysis." Image Vision Comput. 2006, 24, 153-165.은 IPM을 위한 기본 기하학적 변환 구조와 공식을 제공한다.In general, the proposed Inverse Perspective Mapping (IPM) methods use different conversion mechanisms. Based on linear mapping of homogeneous coordinates, Muad Mallot, H.A.; Bulthoff, H.H.; Little, J.J.; Bohrer, S. "Inverse Perspective Mapping Simplifies Optical Flow Computation and Obstacle Detection.", Biol. Cybern. 1991, 64, 177-185. treated the mathematical theory of IPM. In another study, Tan, Dale, Anderson and Johnston Tan, S.; Dale, J.; Anderson, A.; Johnston, A. "Inverse Perspective Mapping and Optic Flow: A Calibration Method and a Quantitative Analysis." Image Vision Comput. 2006, 24, 153-165. provide basic geometric transformation structures and formulas for IPM.
Bertozzi Bertozzi, M.; Broggi, A.; Fascioli, A. "Stereo Inverse Perspective Mapping: Theory and Applications." Image Vision Comput. 1998, 16, 585-590.는 homologous 점을 찾기 위한 휴리스틱 검색 방법을 제안했다. 일부 연구자들은 IPM모델을 계산하기 위해 소실점 현상을 사용하기도 했다.Bertozzi Bertozzi, M.; Broggi, A.; Fascioli, A. "Stereo Inverse Perspective Mapping: Theory and Applications." Image Vision Comput. 1998, 16, 585-590. proposed a heuristic search method for finding homologous points. Some researchers have also used the vanishing point phenomenon to calculate IPM models.
Nieto, M.; Salgado, L.; Jaureguizar, F.; Cabrera, J. "Stabilization of Inverse Perspective Mapping Images Based on Robust Vanishing Point Estimation." In Proceedings of IEEE Conference on Intelligent Vehicles Symposium, Istanbul, Turkey, 13-15 June 2007; pp. 315-320., Muad, A.M.; Hussain, A.; Samad, S.A.; Mustaffa, M.M.; Majlis, B.Y. "Implementation of Inverse Perspective Mapping Algorithm for the Development of an Automatic Lane Tracking System." In Proceedings of IEEE Region 10 Conference TENCON, Chiang Mai, Thailand, 21-24 November 2004; pp. 207-210.Nieto, M.; Salgado, L.; Jaureguizar, F.; Cabrera, J. "Stabilization of Inverse Perspective Mapping Images Based on Robust Vanishing Point Estimation." In Proceedings of IEEE Conference on Intelligent Vehicles Symposium, Istanbul, Turkey, 13-15 June 2007; pp. 315-320., Muad, A.M.; Hussain, A.; Samad, S.A.; Mustaffa, M.M.; Majlis, B.Y. "Implementation of Inverse Perspective Mapping Algorithm for the Development of an Automatic Lane Tracking System." In Proceedings of IEEE Region 10 Conference TENCON, Chiang Mai, Thailand, 21-24 November 2004; pp. 207-210.
IPM은 카메라의 위치와 도로 방향의 정보를 사용하여 원근 효과가 제거된 조감도 이미지를 생성한다. 원근 보정을 통해 훨씬 더 효율적이고 강력한 도로 감지, 차선 표시 추적 또는 패턴 인식 알고리즘을 구현할 수 있다. 실제로 IPM은 도로에 대한 차량의 위치를 감지하기 위한 목적뿐만 아니라 장애물 감지(V. Kastrinaki, M. Zervakis, K. Kalaitzakis, "A survey of video processing techniques for traffic applications", Image Vision Comput. 21 (4) (2003) 359-381., N. Simond, M. Parent, "Obstacle detection from ipm and super-homography", in: IROS, IEEE, 2007, pp. 4283-4288.), 여유 공간 추정(P. Cerri, P. Grisleri, "Free space detection on highways using time correlation between stabilized sub-pixel precision IPM images", in: Proceedings of the IEEE International Conference on Robotics and Automation, Barcelona, Spain, 2005, pp. 2223-2228.), 감지(M. Guanglin, P. Su-Birm, S. Miiller-Schneiders, A. Ioffe, A. Kummert, "Vision based pedestrian detection-reliable pedestrian candidate detection by combining IPM and a 1D profile", in: Proceedings of the IEEE Intelligent Transportation Systems Conference, 또는 자아 움직임 추정 C. Lundquist, T.B. Sch_n, "Joint ego-motion and road geometry estimation, Inform". Fusion 12 (4) (2011) 253-263.), 보행자와 같은 다른 많은 ADAS 관련 애플리케이션에서도 사용되었다.IPM uses the camera position and road direction information to create a bird's-eye view image with perspective effect removed. Perspective correction allows much more efficient and robust road detection, lane marking tracking or pattern recognition algorithms to be implemented. In practice, IPM is used not only for the purpose of detecting the vehicle's position relative to the road, but also for obstacle detection (V. Kastrinaki, M. Zervakis, K. Kalaitzakis, "A survey of video processing techniques for traffic applications", Image Vision Comput. 21 (4 ) (2003) 359-381., N. Simond, M. Parent, "Obstacle detection from ipm and super-homography", in: IROS, IEEE, 2007, pp. 4283-4288.), free space estimation (P. Cerri, P. Grisleri, "Free space detection on highways using time correlation between stabilized sub-pixel precision IPM images", in: Proceedings of the IEEE International Conference on Robotics and Automation, Barcelona, Spain, 2005, pp. 2223-2228. ), detection (M. Guanglin, P. Su-Birm, S. Miiller-Schneiders, A. Ioffe, A. Kummert, "Vision based pedestrian detection-reliable pedestrian candidate detection by combining IPM and a 1D profile", in: Proceedings of the IEEE Intelligent Transportation Systems Conference, or ego-motion estimation C. Lundquist, T.B. Sch_n, "Joint ego-motion and road geometry estimation, Inform". Fusion 12 (4) (2011) 253-263.), Even in many ADAS related applications has been used
따라서 IPM은 지능형 차량이 처리해야 하는 수많은 자동화 작업에서 가장 중요하다. IPM은 세 가지 핵심 가정하에 작동한다. 도로는 평평한 표면이어야 하고, 카메라에서 도로로 강체 변형이 있어야 하며, 도로에는 장애물이 없어야 한다. 이것은 도로가 다른 차량, 보호벽, 보행자 등으로 채워지는 경우가 매우 많아서 현실적으로 최소한의 가정이다. 문헌에서 도로 감지를 지원하는 몇 가지 예가 있다(예 : J. McCall, M. Trivedi, "evaluation of a vision based lane tracker designed for driver assistance systems" 153-158., A. Muad, A. Hussain, S. Samad, M. Mustaffa, B. Majlis, "Implementation of inverse perspective mapping algorithm for the development of an automatic lane tracking system," in: Proceedings of the IEEE International Conference TENCON, vol. A, Chiang Mai, Tailandia, 2004, pp. 207-210., F. Dornaika, J. Alvarez, A. Sappa, A. Lopez, "A new framework for stereo sensor pose through road segmentation and registration", IEEE Trans. Intell. Transp. Syst. 12 (4) (2011) 954-966.,).Therefore, IPM is of paramount importance in the numerous automation tasks that intelligent vehicles have to handle. IPM operates under three key assumptions. The road should be a flat surface, there should be a rigid body transformation from the camera to the road, and the road should be clear of obstacles. This is a realistic minimum assumption as roads are very often filled with other vehicles, barriers, pedestrians, etc. There are several examples in the literature supporting road sensing, e.g. J. McCall, M. Trivedi, "evaluation of a vision based lane tracker designed for driver assistance systems" 153-158., A. Muad, A. Hussain, S Samad, M. Mustaffa, B. Majlis, "Implementation of inverse perspective mapping algorithm for the development of an automatic lane tracking system," in: Proceedings of the IEEE International Conference TENCON, vol. A, Chiang Mai, Tailandia, 2004, pp. 207-210., F. Dornaika, J. Alvarez, A. Sappa, A. Lopez, "A new framework for stereo sensor pose through road segmentation and registration", IEEE Trans. Intell. Transp. Syst. 12 (4 ) (2011) 954-966.,).
다른 저자들은 또한 차선 표시 감지를 위해 조정 가능한 필터를 사용하고 IPM 이미지에서 필터링을 유지하여 전체 관심 영역에 걸쳐 단일 커널 크기를 사용할 수 있도록 했다(J. McCall, M. Trivedi, "Performance evaluation of a vision based lane tracker designed for driver assistance systems", in: Proceedings of the IEEE Intelligent Vehicles Symposium, Las Vegas, NV, USA, 2005, pp. 153-158.). 또한, 이미지가 새로운 참조 시스템에 매핑되기 때문에 여러 카메라를 사용하여 단일 IPM 이미지 모자이크를 생성할 수 있다(C. Guo, S. Mita, D. McAllester, "Stereovision-based road boundary detection for intelligent vehicles in challenging scenarios", in: Proceedings of the IEEE International Conference on Intelligent Robots and Systems, St. Louis, MO, USA, 2009, pp. 1723-1728., M. Bertozzi, A. Broggi, "GOLD: a parallel real-time stereo vision system for generic obstacle and lane detection", IEEE Trans. Image Proc. 7 (1) (1998) 62-81.).Other authors have also used tunable filters for lane marking detection and retained filtering in IPM images, allowing the use of a single kernel size over the entire region of interest (J. McCall, M. Trivedi, "Performance evaluation of a vision based lane tracker designed for driver assistance systems", in: Proceedings of the IEEE Intelligent Vehicles Symposium, Las Vegas, NV, USA, 2005, pp. 153-158.). In addition, multiple cameras can be used to generate a single IPM image mosaic, as the images are mapped to a new reference system (C. Guo, S. Mita, D. McAllester, "Stereovision-based road boundary detection for intelligent vehicles in challenging scenarios", in: Proceedings of the IEEE International Conference on Intelligent Robots and Systems, St. Louis, MO, USA, 2009, pp. 1723-1728., M. Bertozzi, A. Broggi, "GOLD: a parallel real-time stereo vision system for generic obstacle and lane detection", IEEE Trans. Image Proc. 7 (1) (1998) 62-81.).
또한, IPM 이미지를 계산하기 위해 개발중인 전용 하드웨어 시스템도 있다 (L. Luo, I. Koh, S. Park, R. Ahn, J. Chong, "A software-hardware cooperative implementation of bird's-eye view system for camera-on-vehicle", in: Proceedings of the IEEE International Conference on Network Infrastructure and Digital Content, Beijing, China). 피치 변화는 브레이크 또는 가속 조작이 요구되는 동안 발생하는 반면, 롤 변화는 심한 회전 중에 나타날 것으로 예상된다. 이 문제는 P. Coulombeau, C. Laurgeau, "Vehicle yaw, pitch, roll and 3D lane shape recovery by vision", in: Proceedings of the IEEE Intelligent Vehicles Symposium, Versailles, France, 2002, pp. 619-625. R. Labayrade, D. Aubert, "A single framework for vehicle roll, pitch, yaw estimation and obstacles detection by stereovision", in: Proceedings of the IEEE Intelligent Vehicles Symposium, Columbus, OH, USA, 2003, pp. 31-36. F. Dornaika, J. Alvarez, A. Sappa, A. Lopez, "A new framework for stereo sensor pose through road segmentation and registration", IEEE Trans. Intell. Transp. Syst. 12 (4) (2011) 954-966., M. Nieto, L. Salgado, F. Jaureguizar, J. Cabrera, "Stabilization of inverse perspective mapping images based on robust vanishing point estimation", in: Proceedings of the IEEE Intelligent Vehicles Symposium, Istanbul, Turkey, 2007, pp. 315-320.에서 확인되었다.There is also a dedicated hardware system under development to compute IPM images (L. Luo, I. Koh, S. Park, R. Ahn, J. Chong, "A software-hardware cooperative implementation of bird's-eye view system for camera-on-vehicle", in: Proceedings of the IEEE International Conference on Network Infrastructure and Digital Content, Beijing, China). Pitch changes occur during brake or acceleration manoeuvres, while roll changes are expected to occur during heavy turns. This problem is discussed in P. Coulombeau, C. Laurgeau, "Vehicle yaw, pitch, roll and 3D lane shape recovery by vision", in: Proceedings of the IEEE Intelligent Vehicles Symposium, Versailles, France, 2002, pp. 619-625. R. Labayrade, D. Aubert, "A single framework for vehicle roll, pitch, yaw estimation and obstacles detection by stereovision", in: Proceedings of the IEEE Intelligent Vehicles Symposium, Columbus, OH, USA, 2003, pp. 31-36. F. Dornaika, J. Alvarez, A. Sappa, A. Lopez, "A new framework for stereo sensor pose through road segmentation and registration", IEEE Trans. Intell. Transp. Syst. 12 (4) (2011) 954-966., M. Nieto, L. Salgado, F. Jaureguizar, J. Cabrera, "Stabilization of inverse perspective mapping images based on robust vanishing point estimation", in: Proceedings of the IEEE Intelligent Vehicles Symposium, Istanbul, Turkey, 2007, pp. 315-320.
실제로 일부 저자는 차량의 롤/피치 추정에 작은 오류가 있어도 엄청난 지형 분류 오류가 발생한다고 주장한다. S. Thrun, M. Montemerlo, A. Aron, Probabilistic terrain analysis for high-speed desert driving, in: Proceedings of the Robotics Science and Systems Conference, University of Pennsylvania, Philadelphia, PA, 2006, pp. 21-28.. A. Broggi, S. Cattani, P.P. Porta, P. Zani, A laserscanner-vision fusion system implemented on the terramax autonomous vehicle, in: Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, Beijing, China, 2006, pp. 111-116.에서는 비전과 레이저 데이터를 융합하는 알고리즘이 제안되었다. Indeed, some authors argue that even small errors in vehicle roll/pitch estimation lead to huge terrain classification errors. S. Thrun, M. Montemerlo, A. Aron, Probabilistic terrain analysis for high-speed desert driving, in: Proceedings of the Robotics Science and Systems Conference, University of Pennsylvania, Philadelphia, PA, 2006, pp. 21-28.. A. Broggi, S. Cattani, P.P. Porta, P. Zani, A laserscanner-vision fusion system implemented on the terramax autonomous vehicle, in: Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, Beijing, China, 2006, pp. 111-116., an algorithm that fuses vision and laser data is proposed.
자율주행차 연구에 대한 관심 증가에도 불구하고 복잡한 도시 환경에서의 인식 기반 측위는 여전히 문제를 해결해야 할 것이 많다. 널리 사용되는 GPS는 고층 건물로 인한 다중 경로 문제로 인해 제한되는 경우가 있다. 이러한 한계를 극복하기 위해 Light Detection and Ranging(LiDAR) 센서 카메라와 같은 감지 센서가 솔루션으로 강조되었다. LiDAR SLAM(동시 위치 파악 및 매핑) J. Zhang and S. Singh, "LOAM: Lidar odometry and mapping in realtime." in Proc. Robot.: Sci. Sys. Conf., 2014, vol. 2, no. 9. 및 Visual SLAM R. Mur-Artal, J. M. M. Montiel, and J. D. Tardos, "ORB-SLAM: A versatile and accurate monocular SLAM system," IEEE Trans. Robot., vol. 31, no. 5, pp. 1147-1163, Oct. 2015.을 포함하는 여러 방법은 환경에 대한 사전 지식 없이도 놀라운 성능을 보고했다. 그러나 사전 지식(사용 가능한 사전 맵)을 사용하면 이러한 SLAM 문제를 해결 할 수 있다. Despite the growing interest in autonomous vehicle research, perception-based positioning in complex urban environments remains challenging. The widely used GPS is sometimes limited by multipath problems caused by tall buildings. To overcome these limitations, detection sensors such as Light Detection and Ranging (LiDAR) sensor cameras have been highlighted as a solution. LiDAR Simultaneous Localization and Mapping (SLAM) J. Zhang and S. Singh, "LOAM: Lidar odometry and mapping in realtime." in Proc. Robot.: Sci. Sys. Conf., 2014, vol. 2, no. 9. and Visual SLAM R. Mur-Artal, J. M. M. Montiel, and J. D. Tardos, "ORB-SLAM: A versatile and accurate monocular SLAM system," IEEE Trans. Robot., vol. 31, no. 5, p. 1147-1163, Oct. 2015. reported surprising performance without prior knowledge of the environment. However, with prior knowledge (available prior maps), these SLAM problems can be solved.
LiDAR에서 사전 맵을 구성 할 수도 있다. Barsan et al. I.A. Barsan, S.Wang, A. Pokrovsky, and R.Urtasun, "Learning to localize using a LiDAR intensity map." in Proc. Conf. Robot Learn., 2018, pp. 605-616.는 차량 자세를 추정하기 위해 딥 러닝 기법을 사용하여 포인트 클라우드 맵의 Intensity 정보를 사용했다. Wolcott과 Eustice R. W. Wolcott and R. M. Eustice, "Visual localization within lidar maps for automated urban driving," in Proc. IEEE/RSJ Intl. Conf. Intell. Robots Sys., 2014, pp. 176-183.는 합성 뷰에서 3D 포인트 클라우드의 렌더링 된 이미지와 실제 카메라 이미지 간의 NMI(Normalized Mutual Information)를 계산하여 차량의 포즈를 추정했다. Kim et al.는 스테레오 카메라 이미지를 사용하여 3D지도에서 위치 파악을 수행했다. 포인트 클라우드지도에 대한 시각적 위치 파악을 향상시키기 위해 특정 연구에서는 관련 시각적 특징을 지도에 삽입하는 방법을 보고했다(H. Kim, T. Oh, D. Lee, and H. Myung, "Image-based localization using prior map database and monte carlo localization," in Proc. Intl. Conf. Ubiquitous Robots Ambient Intell., 2014, pp. 308-310., N. Labs.NAVER LABS HDMap Dataset. 2019, [Online].Available: https: //hdmap.naverlabs.com/.).You can also configure advance maps in LiDAR. Barsan et al. I.A. Barsan, S. Wang, A. Pokrovsky, and R. Urtasun, "Learning to localize using a LiDAR intensity map." in Proc. Conf. Robot Learn., 2018, pp. 605-616. used the intensity information of the point cloud map using deep learning techniques to estimate the vehicle attitude. Wolcott and Eustice R. W. Wolcott and R. M. Eustice, "Visual localization within lidar maps for automated urban driving," in Proc. IEEE/RSJ Intl. Conf. Intell. Robots Sys., 2014, pp. 176-183. estimated the pose of the vehicle by calculating the normalized mutual information (NMI) between the rendered image of the 3D point cloud and the real camera image in the composite view. Kim et al. performed localization on a 3D map using stereo camera images. To improve visual localization for point cloud maps, certain studies have reported methods to insert relevant visual features into maps (H. Kim, T. Oh, D. Lee, and H. Myung, "Image-based localization using prior map database and monte carlo localization," in Proc. Intl. Conf. Ubiquitous Robots Ambient Intell., 2014, pp. 308-310., N. Labs.NAVER LABS HDMap Dataset. 2019, [Online].Available: https http://hdmap.naverlabs.com/.).
포인트 클라우드의 기하학적 정보는 조명 분산의 영향을 덜 받기 때문에 환경의 시각적 변화에 대응이 가능하다. HD 맵에는 고정밀 MMS(Mobile Mapping System) 또는 고해상도 항공/위성 이미지에서 얻은 포인트 클라우드에서 구성된 압축 3D 벡터 형태의 의미 정보가 포함된다. HD 지도는 벡터 형태의 의미 정보와 전역 좌표를 가지고 있기 때문에 지도는 작은 용량으로 큰 영역을 나타낼 수 있다.Because the geometric information of the point cloud is less affected by light dispersion, it is possible to respond to visual changes in the environment. HD maps contain semantic information in the form of compressed 3D vectors constructed from point clouds obtained from high-precision Mobile Mapping System (MMS) or high-resolution aerial/satellite imagery. Since the HD map has semantic information in vector form and global coordinates, the map can represent a large area with a small capacity.
예를 들어, N. Labs.NAVER LABS HDMap Dataset. 2019, [Online].Available: https: //hdmap.naverlabs.com/에서 제공하는 HD 맵은 17MB 이내 의 11 × 11km 영역을 캡슐화 하였다. 이는 복잡한 도시 데이터 셋(J. Jeong, Y. Cho, Y.-S. Shin, H. Roh, and A. Kim, "Complex urban dataset with multi-level sensors from highly diverse urban environments," Intl. J. Robot. Res., vol. 38, no. 6, pp. 642-657, 2019.)에서 동일한 영역의 포인트 클라우드 맵 데이터 크기가 약 500MB라는 점을 고려하면 30배 더 효율적이다.For example, N. Labs.NAVER LABS HDMap Dataset. 2019, [Online].Available: The HD map provided by https://hdmap.naverlabs.com/ encapsulates an area of 11 × 11 km within 17 MB. This is a complex urban dataset (J. Jeong, Y. Cho, Y.-S. Shin, H. Roh, and A. Kim, "Complex urban dataset with multi-level sensors from highly diverse urban environments," Intl. J. Robot. Res., vol. 38, no. 6, pp. 642-657, 2019.), it is 30 times more efficient considering that the point cloud map data size of the same area is about 500 MB.
Ma et al. W.-C. Ma et al., "Exploiting sparse semantic HD maps for self-driving vehicle localization," 2019, arXiv:1908.03274. 차선 및 교통 표지 정보로 구성된 HD 맵을 사용했다. Welte et al. A.Welte, P. Xu, P. Bonnifait, and C. Zinoune, "Estimating the reliability of georeferenced lane markings for map-aided localization," in Proc. IEEE Intell. Vehicle Symp., 2019, pp. 1225-1231.은 칼만 smoothing process를 통해 지도에 저장된 표시를 사용하여 차량 위치를 추정했다. Poggenhans et al. F. Poggenhans, N. O. Salscheider, and C. Stiller, "Precise localization in high-definition roadmaps for urban regions," in Proc. IEEE/RSJ Intl. Conf. Intell. Robots Sys., 2018, pp. 2167-2174.은 도로 표시와 도로 경계 정보가 포함 된 HD지도를 사용했다. 각 감지기는 스테레오 이미지 입력에서 특징을 추출하고 무향 칼만 필터 (UKF)를 사용하여 지형지물을 지도와 일치시켜 위치를 추정했다. Vivacqua et al.은 카메라로 추정한 차선 표시 점과 HD 맵의 차선 정보를 매칭하여 위치를 추정했다.Ma et al. W. -C. Ma et al., "Exploiting sparse semantic HD maps for self-driving vehicle localization," 2019, arXiv:1908.03274. An HD map consisting of lane and traffic sign information was used. Welte et al. A. Welte, P. Xu, P. Bonnifait, and C. Zinoune, "Estimating the reliability of georeferenced lane markings for map-aided localization," in Proc. IEEE Intell. Vehicle Symp., 2019, pp. 1225-1231. estimated vehicle positions using marks stored on the map through a Kalman smoothing process. Poggenhans et al. F. Poggenhans, N. O. Salscheider, and C. Stiller, "Precise localization in high-definition roadmaps for urban regions," in Proc. IEEE/RSJ Intl. Conf. Intell. Robots Sys., 2018, pp. 2167-2174. used HD maps with road markings and road boundary information. Each detector extracted features from the stereo image input and used an unscented Kalman filter (UKF) to match the feature to a map to estimate its location. Vivacqua et al. estimated the location by matching the lane mark points estimated by the camera with the lane information of the HD map.
본 발명은 전술한 배경적 지식을 통해 본 발명은, HD 맵에 포함된 라벨 정보와 CNN(Convolutional Neural Network)를 통해 이미지에서 추정된 의미 정보의 연관성을 계산하여 객체 단위의 맵 갱신 여부를 판단하고, 서브 미터 수준의 정확도를 갖는 갱신 객체의 글로벌 위치 결정을 위한 시스템을 방법을 제공하는데 과제가 있다.Through the background knowledge described above, the present invention calculates the correlation between label information included in the HD map and semantic information estimated from an image through a convolutional neural network (CNN) to determine whether or not to update the map in object units, However, the problem is to provide a system method for determining the global position of an update object with sub-meter level accuracy.
전술한 과제를 해결하기 위해, 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법은, 주행중인 차량에 탑재된 하나 이상의 센서로부터 차량의 전방 뷰 이미지를 포함하는 차량정보를 수집하는 단계, 상기 전방 뷰 이미지 내에 존재하는 카메라에 의한 왜곡을 보정하여 보정 이미지를 생성하는 단계, 상기 보정 이미지를 역 관점 매핑을 통해 IPM 이미지로 변환하는 단계, 상기 차량정보에 포함되는 차량 GPS 측위 좌표를 이용하여 사전 지도 정보로부터 HD 맵을 획득하고, 사전 지도 정보에 포함되는 HD 맵 상에서 IPM 영역을 추출하여 IPM 이미지에 대응하는 베이스 맵을 생성하는 단계, 상기 IPM 이미지에 대한 다방향 보정을 통해 IPM 이미지의 포즈를 보정하여 IPM 이미지와 베이스 맵을 피팅하는 단계 및, 상기 베이스 맵의 기존 노면객체에 대하여 IPM 이미지와의 비교를 통해 갱신여부를 판단하는 단계를 포함할 수 있다.In order to solve the above-described problems, an auto-update method for automatically determining and updating a change in a road surface object through an IPM image and a precision-map fitting according to an embodiment of the present invention is one mounted on a vehicle in motion. Collecting vehicle information including a front view image of the vehicle from the above sensors, generating a corrected image by correcting distortion by a camera existing in the front view image, and converting the corrected image into an IPM image through inverse perspective mapping. obtaining a HD map from preliminary map information by using vehicle GPS positioning coordinates included in the vehicle information, extracting an IPM area from the HD map included in the preliminary map information, and generating a base map corresponding to the IPM image. Generating, correcting the pose of the IPM image through multi-directional correction of the IPM image, fitting the IPM image and the base map, and comparing the existing road surface object of the base map with the IPM image to determine whether to update It may include the step of determining.
또한, 전술한 과제를 해결하기 위해, 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템은, 주행중인 차량에 탑재된 하나 이상의 센서로부터 차량의 전방 뷰 이미지를 포함하는 차량정보를 수집하는 차량정보 수집부, 상기 전방 뷰 이미지 내에 존재하는 카메라에 의한 왜곡을 보정하여 보정 이미지를 생성하는 이미지 보정부, 상기 보정 이미지를 역 관점 매핑을 통해 IPM 이미지로 변환하는 이미지 변환부, 상기 차량정보에 포함되는 차량 GPS 측위 좌표를 이용하여 사전 지도 정보로부터 HD 맵을 획득하고, 상기 HD 맵 상에서 IPM 영역을 추출하여 IPM 이미지에 대응하는 베이스 맵을 생성하는 맵 생성부, 상기 IPM 이미지에 대한 다방향 보정을 통해 IPM 이미지의 포즈를 보정하여 IPM 이미지와 베이스 맵을 피팅하는 맵 피팅부 및, 상기 베이스 맵의 기존 노면객체에 대하여 IPM 이미지와의 비교를 통해 갱신여부를 판단하는 판단부를 포함할 수 있다.In addition, in order to solve the above-described problems, an automatic roadmap update system for automatically determining and updating changes in road surface objects through IPM image and precision roadmap fitting according to an embodiment of the present invention is mounted on a running vehicle. A vehicle information collection unit that collects vehicle information including a front view image of the vehicle from one or more sensors, an image correction unit that generates a corrected image by correcting distortion by a camera existing in the front view image, and the corrected image. An image conversion unit that converts an IPM image through inverse perspective mapping, obtains an HD map from preliminary map information using the vehicle GPS positioning coordinates included in the vehicle information, and extracts an IPM area from the HD map to correspond to the IPM image. A map generating unit for generating a base map for the IPM image, a map fitting unit for fitting the IPM image and the base map by correcting the pose of the IPM image through multi-directional correction, and IPM for existing road surface objects in the base map. It may include a determination unit for determining whether to update through comparison with the image.
본 발명의 실시예에 따르면, IPM 변환 이미지를 정밀도로지도와 매칭하는 방법으로 신속하게 도로시설물 객체의 갱신 여부를 판단하고, 객체의 공간좌표를 계산하는 것으로, IPM으로 Top-View 이미지 변환은 완전한 정사영상이 아니므로 정밀도로지도와 매칭 할 때 IMU 센서의 yaw 오차와 GPS의 위도, 오차를 보정함으로써 정확한 4DoF (X, Y, Z, Yaw에 대한)를 얻을 수 있는 효과가 있다.According to an embodiment of the present invention, by quickly determining whether a road facility object is updated by matching the IPM converted image with the map with precision, and calculating the spatial coordinates of the object, Top-View image conversion to IPM is complete. Since it is not an orthographic image, there is an effect of obtaining accurate 4DoF (for X, Y, Z, and Yaw) by correcting the yaw error of the IMU sensor and the latitude and error of the GPS when matching with the map with precision.
또한, 본 발명의 실시예에 따르면, 정밀도로지도 갱신의 자원을 매우 효과적으로 줄일 수 있으며, 신속하게 자동 갱신을 가능하게 하고, 또한, 비교적 저렴한 모노카메라 및, 저가 GPS/IMU 등으로 정확한 측위 정보를 얻을 수 있으므로 자율주행에 자차 측위 솔루션으로의 활용 등 광범위한 응용이 가능하도록 하는 효과가 있다.In addition, according to an embodiment of the present invention, it is possible to very effectively reduce the resource of precision map update, enable rapid automatic update, and also provide accurate positioning information with a relatively inexpensive monocamera and low-cost GPS/IMU. Since it can be obtained, it has the effect of enabling a wide range of applications, such as using it as a self-vehicle positioning solution for autonomous driving.
도 1은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에서 적용된 이진화 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 이진화 결과를 예시한 도면이다.
도 4는 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에서 적용된 횡방향 보정 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 Yaw 보정결과를 예시한 도면이다.
도 6 및 도 7은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 종방향 보정 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 노면객체의 탐지를 위한 공간좌표 데이터를 예시한 도면이다.
도 9는 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 노면객체의 갱신방법을 설명하기 위한 도면이다.
도 10은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 노면객체의 갱신결과를 예시한 도면이다.
도 11은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템을 나타낸 도면이다.1 is a diagram showing a method for automatically updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a road map fitting according to an embodiment of the present invention.
2 is a diagram for explaining a binarization method applied in a method for automatically updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a road map fitting according to an embodiment of the present invention.
3 is a diagram illustrating a binarization result according to a method for automatically updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a precision map fitting according to an embodiment of the present invention.
4 is a diagram for explaining a lateral direction correction method applied in a method for automatically updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a precision road map fitting according to an embodiment of the present invention.
5 is a diagram illustrating a result of yaw correction according to a method of automatically updating a road surface object by automatically determining and updating a change of a road surface object through an IPM image and a road map fitting according to an embodiment of the present invention.
6 and 7 are diagrams for explaining a longitudinal correction method according to the method of automatically updating a road surface object by automatically determining and updating a change of a road surface object through an IPM image and a road map fitting according to an embodiment of the present invention; to be.
8 illustrates spatial coordinate data for detecting a road surface object according to a method for automatically updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a precision road map fitting according to an embodiment of the present invention. it is a drawing
9 is a diagram for explaining a method of updating a road surface object according to the method of automatically updating a road surface object by automatically determining and updating a change of a road surface object through an IPM image and a road surface map fitting according to an embodiment of the present invention.
10 is a diagram illustrating an update result of a road surface object according to a method of automatically updating a road surface object by automatically determining and updating a change of a road surface object through an IPM image and a precision map fitting according to an embodiment of the present invention.
11 is a diagram showing an automatic updating system for updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a precision map fitting according to an embodiment of the present invention.
상기한 바와 같은 본 발명을 첨부된 도면들과 실시예들을 통해 상세히 설명하도록 한다. The present invention as described above will be described in detail through the accompanying drawings and embodiments.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that technical terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in the present invention should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in the present invention, and are excessively inclusive. It should not be interpreted in a positive sense or in an excessively reduced sense. In addition, when the technical terms used in the present invention are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that those skilled in the art can correctly understand. In addition, general terms used in the present invention should be interpreted as defined in advance or according to context, and should not be interpreted in an excessively reduced sense.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various elements or steps described in the invention, and some of the elements or steps are included. It should be construed that it may not be, or may further include additional components or steps.
또한, 본 발명에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Also, terms including ordinal numbers such as first and second used in the present invention may be used to describe components, but components should not be limited by the terms. Terms are used only to distinguish one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.
본 발명은, HD 맵에 포함된 라벨정보 및 CNN(Convolutional Neural Network)를 통해 이미지에서 추정된 의미 정보의 연관성을 계산하여 객체 단위의 맵 갱신 여부를 판단하고, 서브 미터 수준의 정확도를 갖는 갱신 객체의 글로벌 위치 결정 방법을 제공할 수 있다. The present invention calculates the correlation between label information included in the HD map and semantic information estimated from an image through a convolutional neural network (CNN) to determine whether or not to update the map in object units, and to update the object with sub-meter level accuracy. It is possible to provide a global positioning method of
상세하게는, 본 발명의 실시예에 따르면 차량 내 탑재된 카메라로부터 수집한 이미지에 대하여 IPM(Inverse Perspective Mapping)을 통해 월드 좌표계에 배치하여 HD 맵의 동일 위치에 피팅함으로써 카메라에서 인식된 노면 도로 시설물 객체 - 이하, '노면객체'라 함 -의 갱신을 판단한다. 여기서, 노면객체는 도로 상의 차선, 횡단보도 등을 가리키며, 차량은 삭제된다.In detail, according to an embodiment of the present invention, the image collected from the camera mounted in the vehicle is placed in the world coordinate system through Inverse Perspective Mapping (IPM) and fitted to the same location on the HD map, thereby reducing the road surface and road facility recognized by the camera. The update of the object - hereinafter referred to as 'road surface object' - is determined. Here, the road surface objects refer to lanes and crosswalks on the road, and vehicles are deleted.
또한, 본 발명의 실시예에 따르면, 노면에 그림자의 영향으로 이진화를 실패하는 것을 방지하기 위한 알고리즘을 사용하고 객체의 외곽선을 추출하는 영상 분할(Segmentation)결과를 이용하여 그림자에 영향을 제거한 IPM 결과를 획득한다.In addition, according to an embodiment of the present invention, IPM results obtained by removing the influence of shadows by using an algorithm for preventing failure of binarization due to the influence of shadows on the road surface and using image segmentation results for extracting the outlines of objects. Acquire
그리고, HD 맵의 공간좌표를 활용하여 IPM 상의 객체 공간좌표를 추출하는 방법으로 맵의 객체를 갱신한다.And, by utilizing the spatial coordinates of the HD map, the object of the map is updated by extracting the spatial coordinates of the object on the IPM.
이하, 도면을 참조하여 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도(HD Map) 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법 및 시스템을 설명한다. 이때 노면객체의 변화를 자동으로 판단하고 갱신하는 과정은 실시간으로 이뤄질 수 있음은 물론이다.Hereinafter, a precision roadmap auto-update method and system for automatically determining and updating a change in a road surface object through fitting an IPM image and a high-definition map (HD Map) according to an embodiment of the present invention will be described with reference to the drawings. Of course, the process of automatically determining and updating the change of the road surface object can be performed in real time.
도 1은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법을 나타낸 도면이다. 1 is a diagram showing a method for automatically updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a road map fitting according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법은, 주행중인 차량에 탑재된 하나 이상의 센서로부터 차량의 전방 뷰 이미지를 포함하는 차량정보를 수집하는 단계(S100), 전방 뷰 이미지 내에 존재하는 카메라에 의한 왜곡을 보정하여 보정 이미지를 생성하는 단계(S110), 보정 이미지를 역 관점 매핑을 통해 IPM 이미지로 변환하는 단계(S120), 차량정보에 포함되는 차량 GPS 측위 좌표를 이용하여 사전 지도 정보로부터 HD 맵을 획득하고, HD 맵 상에서 IPM 영역을 추출하여 IPM 이미지에 대응하는 베이스 맵을 생성하는 단계(S130), IPM 이미지에 대한 다방향 보정을 통해 IPM 이미지의 포즈를 보정하여 IPM 이미지와 베이스 맵을 피팅하는 단계(S140) 및, 베이스 맵의 기존 노면객체에 대하여 IPM 이미지와의 비교를 통해 갱신여부를 판단하는 단계(S150)를 포함할 수 있다.Referring to FIG. 1, a method for automatically updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a road map fitting according to an embodiment of the present invention includes one or more sensors mounted on a vehicle in motion. Collecting vehicle information including a front view image of the vehicle from (S100), generating a corrected image by correcting distortion by a camera existing in the front view image (S110), and converting the corrected image through reverse perspective mapping. Converting to an IPM image (S120), obtaining an HD map from preliminary map information using vehicle GPS positioning coordinates included in vehicle information, extracting an IPM area from the HD map, and generating a base map corresponding to the IPM image Step (S130), fitting the IPM image and the base map by correcting the pose of the IPM image through multi-directional correction of the IPM image (S140), and comparing the base map with the existing road surface object with the IPM image. It may include determining whether to update (S150).
주행중인 차량에 탑재된 하나 이상의 센서로부터 차량의 전방 뷰 이미지를 포함하는 차량정보를 수집하는 단계(S100)는, 차량 내 탑재되는 하나 이상의 센서 또는 모듈, 일례로서 차량의 전방 뷰 이미지를 획득하는 전방 카메라, GPS 좌표를 생성하는 GNSS 및, 차량의 속도, 방향, 중력 및 가속도를 측정하는 관성 측정장치(Inertial Measurement Unit; IMU) 등으로부터 주행중인 차량의 전방에 대한 전방 뷰 이미지를 포함하는 차량정보를 수집하는 단계이다. 본 단계에서는 차량 카메라가 촬영한 전방 뷰 이미지를 녹화하는 동시에, 이와 동기하여 차량의 GPS 좌표, IMU 값을 함께 저장할 수 있다.Collecting vehicle information including a front view image of the vehicle from one or more sensors mounted on the running vehicle (S100) includes acquiring one or more sensors or modules mounted in the vehicle, for example, a front view image of the vehicle. Vehicle information including a front view image of the front of the vehicle in motion from a camera, a GNSS that generates GPS coordinates, and an inertial measurement unit (IMU) that measures the speed, direction, gravity, and acceleration of the vehicle. This is the stage of collection. In this step, the front view image captured by the vehicle camera may be recorded, and the GPS coordinates and IMU values of the vehicle may be stored together in synchronization therewith.
다음으로, 전방 뷰 이미지 내에 존재하는 카메라에 의한 왜곡을 보정하여 보정 이미지를 생성하는 단계(S110)는, 카메라의 고유의 특성, 일례로서 접선왜곡 또는 방사왜곡 등에 의한 이미지의 왜곡 현상을 보정한다. 본 단계에서는 카메라와 관련된 내, 외부 파라미터를 추출하고, 이를 이용하여 전방 뷰 이미지에 대한 왜곡을 보정하게 된다.Next, in step S110 of generating a correction image by correcting the distortion by the camera existing in the front view image, distortion of the image due to tangential distortion or radial distortion, as an example, is corrected. In this step, internal and external parameters related to the camera are extracted, and distortion of the front view image is corrected using the extracted parameters.
다음으로, 보정 이미지를 역 관점 매핑을 통해 IPM 이미지로 변환하는 단계(S120)에서는 역 관점 매핑 기법을 통해 보정된 전방 뷰 이미지를 원근감이 제거된 도로 평면상에 투영하게 된다.Next, in the step of converting the corrected image into an IPM image through inverse perspective mapping (S120), the front view image corrected through the inverse perspective mapping technique is projected onto a road plane from which perspective is removed.
먼저, 카메라와 관련된 왜곡이 보정된 이미지에 대하여, 이진화 과정을 통해 노면객체를 정확하게 식별할 수 있도록 한다.First, with respect to the camera-related distortion-corrected image, the road surface object can be accurately identified through a binarization process.
이를 위한 절차로서, S110 단계는 전방 뷰 이미지에 도로 시설물에 대해 학습된 딥러닝 인식 알고리즘, 예를 들어 mask R-CNN이나 YOLO 등의 알고리즘을 적용하여 분할된 노면객체를 인식하는 단계를 포함할 수 있고, 이러한 노면객체 인식 단계는, 전방 뷰 이미지에 대한 평균값 적용 알고리즘 또는 가우시안 분포 알고리즘을 이용한 적응형 이진화 절차를 통해 이진화를 수행하는 단계 및, 분할된 노면객체를 재구성하여 보정 이미지를 생성하는 단계로 세분화될 수 있다.As a procedure for this, step S110 applies a deep learning recognition algorithm, such as mask R-CNN or YOLO, learned about road facilities to a front view image to recognize segmented road objects. May include recognizing. The step of recognizing a road surface object is a step of performing binarization through an adaptive binarization procedure using an average value application algorithm or a Gaussian distribution algorithm for a front view image, and a step of generating a corrected image by reconstructing divided road objects. can be subdivided.
도 2는 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에서 적용된 이진화 방법을 설명하기 위한 도면이다.2 is a diagram for explaining a binarization method applied in a method for automatically updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a road map fitting according to an embodiment of the present invention.
이와 관련하여, 노면에 대한 IPM 이미지는 이진화 처리를 통해 노면객체의 에지 및 꼭지점을 식별할 수 있음에 따라, 필수적으로 이진화 처리가 요구된다. 이진화 처리에서 가장 큰 문제점은 그림자의 영향에 의한 이진화 오류 문제이다. 도로 주변 건물에 의해 노면에 그림자가 존재하는 경우, 이러한 이미지의 히스토그램 영역은 사람의 눈에는 서로 다른 명도를 보이지만 실제로는 같거나 비슷한 명도를 가짐에 따라, 양지의 노면바닥의 명도와 음지의 노면표시가 거의 유사한 명도임에 따라 이진화시 동일하게 음영처리가 되어 이진화를 위한 임계값을 결정하기 어렵게 된다.In this regard, since the IPM image of the road surface can identify edges and vertices of road surface objects through binarization, binarization is necessarily required. The biggest problem in the binarization process is the binarization error due to the influence of shadows. When shadows exist on the road surface due to buildings around the road, the histogram areas of these images show different brightness to the human eye, but actually have the same or similar brightness. Since the values are almost similar in brightness, they are equally shaded during binarization, making it difficult to determine the threshold for binarization.
따라서, 이미지 전체에서 양지와 음영지역의 임계값으로 이진화 하는 전역이진화(Global Threshold)는 불가능하다.Therefore, global threshold, which is binarized with threshold values of sunny and shaded areas in the entire image, is impossible.
한편, 대표적인 이진화 알고리즘으로 알려진 오츠 이진화 알고리즘(Otsu's Method)은 임계값을 임의로 정해 픽셀을 두 부류로 나누고 두 부류의 명암 분포를 구하는 작업을 반복하는 것으로, 모든 경우의 수 중에서 두 부류의 명암 분포가 가장 균일할 때의 임계값을 선택하여 이진화 한다. 이러한 오츠 이진화 알고리즘은 장점은 전체 이미지에서 최적의 임계값을 자동으로 찾아준다는 점이다. 반면, 전체 이미지 픽셀에 대해 계산 하여야 하므로 속도가 빠르지 않고, 원본 이미지(a)의 명암 분포가 그림자 등에 의해 불균일한 경우에는 올바른 결과물을 얻기 힘들다는 단점이 있다(도 2의 (b)).On the other hand, Otsu's Method, known as a representative binarization algorithm, divides pixels into two classes by arbitrarily setting a threshold and repeats the operation of obtaining the intensity distribution of the two classes. Binarization is performed by selecting the most uniform threshold. The advantage of this Otsu binarization algorithm is that it automatically finds the optimal threshold value in the entire image. On the other hand, it is not fast because it must be calculated for all image pixels, and it is difficult to obtain correct results when the brightness distribution of the original image (a) is non-uniform due to shadows (Fig. 2 (b)).
반면, 적응형 이진화(Adaptive Threshold) 알고리즘은 전역 이진화 방식의 이러한 단점을 보완하는 것으로, 원본 이미지 도 3의 (a)에서 조명이 일정하지 않거나 배경색이 다수인 경우, 또는 하나의 임계값으로 선명한 이진화 이미지를 만들어 내기 힘든 경우에 더 좋은 결과를 얻을 수 있다. 이는 이미지를 여러 영역으로 나눈 뒤, 그 주변 픽셀 값만 활용하여 임계값을 구한다. 적응형 이진화 알고리즘으로는, 계산 방식에 따라 가우시안 분포보다 선명하나 노이즈가 존재하는 평균값(Adapted-Mean) 알고리즘이 있고, 평균값 알고리즘 보다는 선명도는 떨어지나 노이즈가 비교적 적은 가우시안 분포 알고리즘(Adapted-Gaussian)이 있다.On the other hand, the Adaptive Threshold algorithm compensates for this disadvantage of the global binarization method, and in the original image (a) of FIG. Better results can be obtained in cases where it is difficult to produce an image. After dividing the image into several areas, it calculates the threshold using only the pixel values around the area. Adaptive binarization algorithms include the Adapted-Mean algorithm, which is sharper than Gaussian distribution but has noise, depending on the calculation method, and the Gaussian distribution algorithm (Adapted-Gaussian), which is less sharp than the average algorithm but has relatively less noise. .
적응형 이진화 알고리즘의 적용하는 방법은, 먼저 대상 이미지를 N개의 부분으로 블록을 설정하여 각각의 블록 별로 임계값을 정한다. 이때, 임계값은 평균값일 때 이웃한 픽셀의 평균값을 임계값으로 정하며, 가우시안 분포일때는 가우시안 분포에 따른 가중치의 합으로 임계값을 정하게 된다. 그리고, 임계값이 정해지면 정해진 임계값을 바탕으로 각 블럭별로 이진화를 진행한다. 따라서 전역을 대상으로 이진화를 적용한 것보다 더 선명하고 부드러운 결과를 얻을 수 있다. 대부분의 이미지는 그림자가 있거나 조명 차이가 있음에 따라, 본 발명의 실시예에 따른 지도 자동갱신 방법에서는 전역 이진화보다 적응형 이진화를 적용하는 것이 바람직하다.In the method of applying the adaptive binarization algorithm, first, a target image is set into blocks with N parts, and a threshold value is determined for each block. At this time, when the threshold value is an average value, the average value of neighboring pixels is determined as the threshold value, and when the threshold value is a Gaussian distribution, the threshold value is determined by the sum of weights according to the Gaussian distribution. Then, when the threshold value is determined, binarization is performed for each block based on the determined threshold value. Therefore, sharper and smoother results can be obtained than applying binarization to the entire region. Since most images have shadows or lighting differences, it is preferable to apply adaptive binarization rather than global binarization in the map auto-update method according to an embodiment of the present invention.
도 2의 (b)는 오츠 이진화 방법을 적용한 예로서, 최적의 임계값은 96으로 설정한 결과이다. 도 2의 (c)는 적응형 이진화 방법 중, 평균값을 적용한 결과이며 노이즈가 가우시안 보다 많지만 선명한 결과를 얻을 수 있다는 특징이 있다. 또한, 도 2의 (d)는 적응형 이진화 방법 중, 가우시안 분포를 적용한 결과이며 평균값 방법보다는 노이즈가 적으나 결과가 덜 선명하다는 것을 알 수 있다. 2 (b) is an example of applying the Otsu binarization method, and is a result of setting the optimal threshold to 96. (c) of FIG. 2 is a result of applying the average value among the adaptive binarization methods, and has more noise than Gaussian, but is characterized in that a clear result can be obtained. In addition, (d) of FIG. 2 is the result of applying the Gaussian distribution among the adaptive binarization methods, and it can be seen that the results are less sharp although the noise is less than that of the average value method.
또한, 실제 도로의 노면은 배수로 경사와, 날씨, 도로 주변 건물의 영향 등의 여러 도로 상황으로 인하여 빛의 반사와 그림자 차이가 다수 존재할 수 있다. 이에 따라, 이미지 히스토그램에 기반한 임계값을 이용한 이진화 방법과, 오츠 알고리즘에 기반한 전역 이진화 방법(Global binarization method)에 의해서는 의도한 결과를 얻기 어려움에 따라 적응형 이진화 알고리즘 사용이 적합하다고 할 수 있다.In addition, the road surface of an actual road may have a number of differences in light reflection and shadow due to various road conditions such as the slope of a drainage channel, weather, and the influence of buildings around the road. Accordingly, it can be said that the use of an adaptive binarization algorithm is suitable according to the difficulty of obtaining an intended result by the binarization method using a threshold value based on the image histogram and the global binarization method based on the Otsu algorithm.
도 3는 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 이진화 결과를 예시한 도면으로서, 도 3의 (a), (b)의 좌측상단은 IPM 이미지, 우측상단은 IPM 이미지에 대한 히스토그램, 좌측 하단은 객체 추적된 IPM 이미지 및, 좌측하단은 적응형 이진화 이미지를 나타내고 있다.3 is a diagram illustrating a binarization result according to a method of automatically updating a road surface object by automatically determining and updating a change of a road surface object through an IPM image and a precision map fitting according to an embodiment of the present invention, in FIG. 3 ( In a) and (b), the upper left corner shows an IPM image, the upper right corner shows a histogram of the IPM image, the lower left corner shows an object-tracked IPM image, and the lower left corner shows an adaptive binarization image.
도시된 바와 같이, 적응형 이진화를 적용하면 도 3의 (a), (b)의 우측하단 이미지와 같이 그림자 경계면에 얼룩 무늬가 나타나게 된다. 이러한 얼룩 무늬는 부분 블록에 대한 이진화를 적용하더라도 명암 분포의 불균일 문제에 의해 발생하는 것이므로, 이러한 문제를 해결하기 위해, 본 발명의 실시예에 따르면 마스크 방식의 컨벌루션 신경망 네트워크(CNN)를 사용하여 노면 표지의 영상분할(image segmentation) 처리로 필터링하여 얼룩을 제거하게 된다.As shown, when adaptive binarization is applied, a zebra pattern appears on the shadow boundary as shown in the lower right image of FIGS. 3(a) and (b). Since these zebra patterns are caused by the non-uniformity of light-dark distribution even when binarization is applied to partial blocks, in order to solve this problem, according to an embodiment of the present invention, a mask-type convolutional neural network (CNN) is used to The stain is removed by filtering through image segmentation processing of the label.
도 3의 (c)는 원본인 2번 이미지에 대한 전술한 적응형 이진화 이후 필터링을 수행한 적용한 1번 이미지 및, 전술한 일반적인 이진화를 수행한 3번 이미지를 예시하고 있다.(c) of FIG. 3 illustrates an
다음으로, 적응형 이진화 과정을 통해 이진화된 이미지에서 등장하는 노면객체들의 분할된 조각을 이용하여 원래 크기의 이미지로 재구성함으로써 IPM 이미지를 도출한다.Next, the IPM image is derived by reconstructing the image in its original size using the segmented pieces of the road surface objects appearing in the image binarized through the adaptive binarization process.
상세하게는, IPM 이미지는 전방 뷰 이미지를 취득하는 차량의 흔들림이나 노면 상태 등 많은 요소에 의해 pitch, roll, yaw가 달라짐에 따라, 최초의 roll은 지표면과 평행하다고 가정하고, yaw는 IMU센서의 출력값을 사용하여 산출한다.In detail, as pitch, roll, and yaw of the IPM image vary depending on many factors such as the shaking of the vehicle or the condition of the road surface that acquires the front view image, the initial roll is assumed to be parallel to the ground surface, and the yaw is the IMU sensor's It is calculated using the output value.
또한, Pitch는 노면의 상태, 예를 들어 오르막 또는 내리막길, 과속 방지턱 등에 따라 달라지는데 이와 관련된 피치각도(θp)는 이하의 수학식 1에 의해 도출해 낼 수 있다.In addition, the pitch varies depending on the condition of the road surface, for example, an uphill or downhill road, a speed bump, etc., and the related pitch angle (θ p ) can be derived by
피치각도(θp)를 반영한 X, Y좌표 계산식은 상기의 수학식 1과 같다. 그러나, 차량을 통해 θp와 X, Y를 측정하는 것을 부정확하고 어려움에 따라, 본 발명의 실시예에서는 HD 맵과 동일한 IPM 이미지를 얻기 위해 후술하는 횡방향 매칭과 종방향 피팅 방법을 적용할 수 있다.The X, Y coordinate calculation formula reflecting the pitch angle (θ p ) is the same as
다음으로, 차량정보에 포함되는 차량 GPS 측위 좌표를 이용하여 사전 지도 정보로부터 HD 맵을 획득하고, HD 맵 상에서 IPM 영역을 추출하여 IPM 이미지에 대응하는 베이스 맵을 생성하는 단계(S130)에서는, 원근효과가 제거된 IPM 이미지가 실제 HD 맵과 동일한 영역에 위치하기 위한 보정 절차를 수행하기 위해, 사전 지도 정보로부터 HD 맵을 획득하고, HD 맵 상에서 IPM에 대응하는 영역을 추출하여 피팅을 위한 베이스 맵(base map)을 생성하게 된다.Next, in step S130 of acquiring an HD map from the preliminary map information using the vehicle GPS positioning coordinates included in the vehicle information and extracting an IPM area from the HD map to generate a base map corresponding to the IPM image (S130), In order to perform a correction procedure for positioning the IPM image from which effects have been removed in the same area as the actual HD map, an HD map is obtained from prior map information, and an area corresponding to the IPM is extracted from the HD map to be a base map for fitting. (base map) is created.
다음으로, IPM 이미지에 대한 다방향 보정을 통해 IPM 이미지의 포즈를 보정하여 IPM 이미지와 베이스 맵을 피팅하는 단계(S140)는, S130 단계에서 생성된 베이스 맵과 IPM 이미지간의 피팅(fitting)을 통해 IPM 이미지를 사전 지도와 일치시키는 단계이다.Next, the step of fitting the IPM image and the base map by correcting the pose of the IPM image through multi-directional correction of the IPM image (S140) is performed by fitting between the base map generated in step S130 and the IPM image. This is the step of matching the IPM image with the preliminary map.
도 4는 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에서 적용된 횡방향 보정 방법을 설명하기 위한 도면으로서, 횡방향 피팅 단계에서는, 먼저 IMU로부터 획득한 부정확한 Yaw값을 보정하기 위해 보정값을 산출한다. 이러한 횡방향 피팅은 평면상의 좌/우측에 대한 이동으로 볼 수 있다.4 is a diagram for explaining a lateral correction method applied in a method for automatically updating a road surface object by automatically determining and updating a change in a road object through an IPM image and a precision map fitting according to an embodiment of the present invention. In the direction fitting step, a correction value is first calculated to correct the inaccurate yaw value obtained from the IMU. This lateral fit can be viewed as a movement relative to the left/right side of the plane.
상세하게는, Yaw의 보정값은 다음의 과정을 거쳐 산출할 수 있다. 이는 HD 맵의 양쪽 끝 차선 선분의 각도(θ1, θ2)를 이용하여 산출할 수 있으며, 먼저 HD 맵의 차선의 각도(θa, θb) 및, IPM 이미지 차선의 각도(θc, θd)를 구하고(도 4의 (a)), 각 차선의 각도 차를 통해 선분의 각도(θ1, θ2)를 산출할 수 있다(도 4의 (b)), 여기서, 선분의 각도(θ1, θ2)의 평균값(θy)은 IMU의 오차 값으로 볼 수 있으므로, 차선을 평균값(θy)만큼 회전하여 yaw 보정을 수행할 수 있다(도 4의 (c)).In detail, the correction value of Yaw can be calculated through the following process. This can be calculated using the angles (θ 1 , θ 2 ) of the lane segments at both ends of the HD map, and first, the angles (θ a , θ b ) of the HD map lanes and the angles (θ c , θ c , θ d ) is obtained (FIG. 4 (a)), and the angles (θ 1 , θ 2 ) of the line segments can be calculated through the angle difference of each lane (FIG. 4 (b)). Here, the angle of the line segment Since the average value (θ y ) of (θ 1 , θ 2 ) can be regarded as the error value of the IMU, yaw correction can be performed by rotating the lane by the average value (θ y ) (FIG. 4(c)).
도 5는 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 Yaw 보정결과를 예시한 도면으로서, case #1(a) 및 case #2(b)에 나타난 바와 같이, 보정 전 IPM의 차선이 보정 후 HD 맵 차선과 일정수준 이상 일치하도록 보정된 것을 확인할 수 있다.5 is a diagram illustrating the Yaw correction result according to the method of automatically updating a road surface object by automatically determining and updating a change of a road surface object through an IPM image and a precision roadmap fitting according to an embodiment of the present invention,
한편, 전술한 바와 같이 pitch의 각을 산출하기는 어려움에 따라, 전방 뷰 이미지의 차선 각도와, IPM을 수행하기 위한 ROI 영역의 각도를 조정하여 베이스 맵과 일치시킨다. 또한, 차선과의 간격도 베이스 맵과 동일하게 횡방향 스케일을 조정해서 횡방향으로 일치하는 이미지를 생성하게 된다.Meanwhile, as described above, since it is difficult to calculate the pitch angle, the lane angle of the front view image and the angle of the ROI area for performing IPM are adjusted to match the base map. In addition, the horizontal scale of the distance from the lane is adjusted in the same way as the base map, so that an image that matches the horizontal direction is created.
다음으로, 종방향 보정 단계를 수행할 수 있다. 도 6 및 도 7은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 종방향 보정 방법을 설명하기 위한 도면으로서, 종방향에서의 IPM 이미지와 베이스 맵과의 피팅 방법을 나타내고 있다. 종방향 보정은 평면상에서 상하측 이동으로 볼 수 있다.Next, a longitudinal correction step may be performed. 6 and 7 are diagrams for explaining a longitudinal correction method according to the method of automatically updating a road surface object by automatically determining and updating a change of a road surface object through an IPM image and a road map fitting according to an embodiment of the present invention; As , the fitting method between the IPM image and the base map in the longitudinal direction is shown. Longitudinal correction can be viewed as up and down movement on a plane.
먼저, 종방향에 대한 피팅의 경우, IPM 이미지 및 베이스 맵의 차선을 수직방향으로 회전했을 때, 노면객체의 윗부분의 차이(nmin)는 도 6의 (a), (b)에 나타난 바와 같이, IPM 이미지 및 베이스 맵의 차선간 차이를 통해 산출할 수 있으며, 이를 수학식으로 나타내면 이하의 수학식 2와 같다.First, in the case of longitudinal fitting, when the lanes of the IPM image and the base map are rotated in the vertical direction, the difference (n min ) of the upper part of the road surface object is as shown in (a) and (b) of FIG. , It can be calculated through the difference between the lanes of the IPM image and the base map, and this is expressed as
여기서, nmin은 음수값이 된다.Here, n min becomes a negative value.
또한, IPM 이미지 및 베이스 맵의 차선의 수직방향 회전시, 노면객체의 아랫부분의 차이(mmin)는 도 7의 (a), (b)에 나타난 바와 같이, IPM 이미지 및 베이스 맵의 차선간 차이를 통해 산출할 수 있으며, 이를 수학식으로 나타내면 이하의 수학식 3와 같다.In addition, when the lanes of the IPM image and the base map are rotated in the vertical direction, the difference (m min ) of the lower part of the road object is between the lanes of the IPM image and the base map, as shown in (a) and (b) of FIG. It can be calculated through the difference, and this is expressed as
그리고, 피팅시 윗부분의 차이(nmin) 및 아랫부분의 차이(mmin)의 평균값(lmin)은 아래의 수학식 4로 산출할 수 있다.In addition, the average value (l min ) of the difference between the upper part (n min ) and the lower part (m min ) during fitting can be calculated by
이에 따라, 평균값(lmin)이 음수일 경우에는 IPM 이미지를 상단으로 이동하고, 양수일 경우에는 하단으로 이동하여 종방향 피팅을 수행할 수 있다.Accordingly, when the average value (l min ) is a negative number, the IPM image is moved to the upper side, and when it is a positive number, the longitudinal fitting is performed by moving the IPM image to the lower side.
이후, 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에서는 피팅된 IPM 이미지에 대한 이진화 처리를 통해 노면객체의 에지(edge) 및 꼭지점을 찾을 수 있다.Thereafter, in the method of automatically updating a road surface object by automatically determining and updating a change in a road surface object through fitting an IPM image and a road surface object according to an embodiment of the present invention, the edge of the road surface object through binarization processing on the fitted IPM image (edge) and vertices can be found.
다음으로, 베이스 맵의 기존 노면객체에 대하여 IPM 이미지와의 비교를 통해 갱신여부를 판단하는 단계(S150)로서, 시스템은 IPM 이미지에서 노면객체를 식별하고, 사전지도를 활용하여 해당 도로의 갱신 여부를 판단하게 된다.Next, as a step of determining whether to update the existing road surface object of the base map by comparing it with the IPM image (S150), the system identifies the road surface object in the IPM image and uses the preliminary map to determine whether or not the road is updated. will judge
본 발명의 실시예에 따르면, 사전 지도 정보를 통해 카메라의 GPS 측위 좌표를 이용하여 지도로부터 카메라 주변의 객체를 획득할 수 있고, IPM 이미지에서 검출(detecting)된 객체와의 비교를 통해 매칭이 가능함에 따라 갱신 여부를 판단하게 된다. 이러한 단계는 객체 탐지 과정과 HD 맵 객체 비교 판단 과정으로 이루어질 수 있다.According to an embodiment of the present invention, it is possible to obtain objects around the camera from a map using the GPS positioning coordinates of the camera through prior map information, and matching is possible through comparison with objects detected in the IPM image. Depending on this, it is determined whether or not to update. This step may consist of an object detection process and an HD map object comparison and determination process.
먼저, 객체 탐지(detecting) 과정으로서, 카메라 이미지로부터 객체를 인식하여 탐지하는 모듈에서 전달된 객체 정보 중, IPM 이미지 영역에 포함되는 객체를 사전 지도 정보에서 추출하여 비교 대상 객체로 선출할 수 있다.First, as an object detection process, among object information transmitted from a module that recognizes and detects an object from a camera image, an object included in an IPM image area may be extracted from prior map information and selected as a comparison target object.
도 8은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 노면객체의 탐지를 위한 공간좌표 데이터를 예시한 도면으로서, 프로브 차량에서 IPM 되는 ROI 영역은 사전 계측을 통해 차량의 GPS 원점과 떨어진 거리와 위치로 실측된다. 이후, IPM 이미지에서 탐지된 각 객체 위치는 GPS 수신 좌표와 IMU의 헤딩정보를 통해서 비례 위치(도 8의 (a))가 계산되고, 사전 지도 정보의 HD 맵 객체 공간좌표(도 8의 (b))를 통해 탐지된 객체의 위치와 GPS 오차 범위에 있는 모든 객체가 비교대상 객체가 된다.8 illustrates spatial coordinate data for detecting a road surface object according to a method for automatically updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a precision road map fitting according to an embodiment of the present invention. As a drawing, the ROI area to be IPMed in the probe vehicle is actually measured as a distance and location away from the GPS origin of the vehicle through preliminary measurement. Then, for each object position detected in the IPM image, the proportional position (Fig. 8(a)) is calculated through the GPS reception coordinates and the IMU heading information, and the HD map object spatial coordinates of the preliminary map information (Fig. 8(b) )), the position of the detected object and all objects within the GPS error range become the objects to be compared.
그리고, HD 맵 객체 비교 판단 과정으로서, 전술한 객체 탐지 과정에서 GPS 오차 범위와 IMU 센서의 헤딩정보를 통해 베이스 맵을 생성할 수 있고, 베이스 맵에 해당되는 데이터베이스 객체와 IPM 이미지 영역 내의 탐지된 객체 간 비교가 가능하게 된다.And, as an HD map object comparison and determination process, a base map can be generated through the GPS error range and the heading information of the IMU sensor in the above object detection process, and the database object corresponding to the base map and the detected object in the IPM image area comparison between them is possible.
도 9는 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법을 설명하기 위한 도면으로서, 검출객체와 지도정보 제공 시스템의 데이터 베이스의 객체간의 비교를 통해 객체의 변화없음, 삭제, 변경 및 생성 등을 판단할 수 있다.9 is a diagram for explaining a method for automatically updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a precision road map fitting according to an embodiment of the present invention, and a system for providing detection objects and map information. It is possible to determine whether there is no change, deletion, change, or creation of an object through comparison between objects in the database.
이때, RTK 방식의 GPS에 의한 오차 범위 내에서 두 비교 객체 간 거리가 일정거리 이내일 경우에는 동일 객체로 판단할 수 있고, 객체간 거리로 동일 객체인 것으로 판단된 경우에도 차선, 화살표 등의 객체의 종류를 비교하여 해당 객체의 변경 여부를 판단할 수 있다. 또한, 데이터 베이스의 객체 중심점의 일정거리 이내에 검출(detecting)된 객체가 존재하지 않으면 해당 데이터베이스 객체는 삭제된 것으로 판단할 수 있다.At this time, if the distance between the two comparison objects is within a certain distance within the error range by the RTK method GPS, it can be determined as the same object, and even when it is determined that the object is the same object based on the distance between the objects, objects such as lanes and arrows It is possible to determine whether the corresponding object has been changed by comparing the types of . In addition, if the detected object does not exist within a certain distance from the central point of the object in the database, it may be determined that the corresponding database object has been deleted.
반대로, 검출 객체의 중심점의 일정거리 이내에 매칭되는 데이터베이스의 객체가 존재하지 않으면 해당 검출 객체는 신규(생성)로 판단할 수 있다.Conversely, if an object in the database that is matched within a certain distance of the center point of the detected object does not exist, the corresponding detected object may be determined to be new (created).
도 10은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법에 따른 노면객체의 갱신결과를 예시한 도면으로서, 도 10의 (a), (b)에서 검출된 중앙의 화살표는 (c)의 베이스 맵에서 존재하지 않는 객체일 수 있고, 이러한 경우 신규 객체로 판단할 수 있다. 신규로 판단된 객체의 공간좌표는 주변 객체의 공간좌표나 이미지좌표와의 공간좌표 관계로부터 계산될 수 있다. 즉, 신규 판단 객체의 공간좌표는 그 주변에 있는 주변 객체의 공간좌표나 이미지좌표를 활용하여 상호간 좌표 거리에 대한 비례식으로부터 계산되어 획득될 수 있다.10 is a diagram illustrating the update result of a road surface object according to the method of automatically updating a road surface object by automatically determining and updating a change of a road surface object through an IPM image and a precision road map fitting according to an embodiment of the present invention; The central arrow detected in (a) and (b) of Fig. 10 may be an object that does not exist in the base map of (c), and in this case, it may be determined as a new object. The spatial coordinates of the newly determined object may be calculated from a spatial coordinate relationship with the spatial coordinates or image coordinates of surrounding objects. That is, the spatial coordinates of the new judgment object may be calculated and obtained from a proportional expression for mutual coordinate distances using the spatial coordinates or image coordinates of surrounding objects.
이하, 도면을 참조하여 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템의 구조를 상세히 설명한다.Hereinafter, with reference to the drawings, the structure of the automatic updating system for automatically determining and updating road surface objects through IPM image and precision map fitting according to an embodiment of the present invention will be described in detail.
도 11은 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템을 나타낸 도면이다.11 is a diagram showing an automatic updating system for updating a road surface object by automatically determining and updating a change in a road surface object through an IPM image and a precision map fitting according to an embodiment of the present invention.
도 11을 참조하면, 본 발명의 실시예에 따른 IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신시스템은, 주행중인 차량에 탑재된 하나 이상의 센서로부터 차량의 전방 뷰 이미지를 포함하는 차량정보를 수집하는 차량정보 수집부(110), 전방 뷰 이미지 내에 존재하는 카메라에 의한 왜곡을 보정하여 보정 이미지를 생성하는 이미지 보정부(120), 보정 이미지를 역 관점 매핑을 통해 IPM 이미지로 변환하는 이미지 변환부(130), 차량정보에 포함되는 차량 GPS 측위 좌표를 이용하여 사전 지도 정보로부터 HD 맵을 획득하고, HD 맵 상에서 IPM 영역을 추출하여 IPM 이미지에 대응하는 베이스 맵을 생성하는 맵 생성부(140), IPM 이미지에 대한 다방향 보정을 통해 IPM 이미지의 포즈를 보정하여 IPM 이미지와 베이스 맵을 피팅하는 맵 피팅부(150) 및, 베이스 맵의 기존 노면객체에 대하여 IPM 이미지와의 비교를 통해 갱신여부를 판단하는 판단부(160)를 포함할 수 있다.Referring to FIG. 11, an automatic road map updating system for automatically determining and updating changes in road surface objects through IPM image and precision road map fitting according to an embodiment of the present invention includes one or more sensors mounted on a running vehicle. A vehicle
차량정보 수집부(110)는 차량에 탑재되어 전방 뷰 카메라 및 GNSS 등에 연결되고, 주행 중에 도로를 촬영하여 도로에 대한 정보를 획득함으로써, 지도정보 제공 시스템(200) 등에서 제공하는 정밀도로지도의 변경 사항을 자동으로 확인하여 갱신할 수 있도록 하는 것으로서, 주행중인 차량의 카메라, GNSS 및 IMU로부터 각종 차량정보를 수집할 수 있다.The vehicle
이미지 보정부(120)는 차량정보에 포함되는 전방 뷰 이미지에 대한 보정, 특히 카메라의 특성에 따라 이미지에 발생하는 방사 또는 접선 왜곡과 같은 왜곡에 대한 보정을 수행할 수 있고, 이와 관련된 내, 외부 파라미터를 추출하여 보정에 이용할 수 있다.The
이미지 변환부(130)는 적응형 이진화 과정을 통해 보정된 이미지를 이진화하고 평면상에 투영하는 IPM 절차를 수행하여 IPM 이미지로 전환할 수 있다.The
맵 생성부(140)는 IPM 이미지에 대응하는 영역에 대한 베이스 맵을 생성할 수 있다. 수집된 차량정보에는 GNSS로부터 제공되는 차량 GPS 측위 좌표를 포함하고 있고, 맵 생성부(140)는 사전 지도 정보로부터 HD 맵을 획득하여 IPM 이미지에 해당하는 영역을 추출하고, IPM과 유사하게 투영한 베이스 맵을 생성할 수 있다.The
맵 피팅부(150)는 IPM 이미지를 베이스 맵에 대비하여 Yaw, 횡방향, 종방향 등으로의 회전을 통해 이미지 포즈를 보정할 수 있다. 이때, Yaw는 IMU로부터 취득하여 횡방향 피팅을 통해 보정하며, IPM 이미지와 베이스 맵의 차선간 차이를 기준으로 IPM 이미지를 회전하여 종방향 피팅을 수행할 수 있다. The map
판단부(160)는 IPM 이미지와 베이스 맵을 비교하여 오차 범위 내에 존재하는 노면객체에 대하여, 두 비교 객체 간 거리가 일정거리 이내 일 경우 동일 객체로 판단하고, 객체의 종류 및 존재 여부에 따라 변경, 삭제 또는 생성을 판단할 수 있다.The
또한, 본 발명의 일 실시예에 따른 지도 자동갱신 시스템(100)은, 판단부(160)에 의해 상기 베이스 맵의 기존 노면객체에 대하여 IPM 이미지와의 비교에 따라, 새로운 노면객체가 존재하는 경우 그 주변에 있는 주변 노면객체들과의 공간좌표 관계로부터 새로운 노면객체의 공간좌표를 획득하여 새로운 노면객체를 사전 지도 정보에 추가하는 맵 갱신부를 더 포함할 수 있다.In addition, the automatic
이러한 맵 갱신부는, 노면객체 식별에 따라 지도정보 제공 시스템(200) 등에 구축된 데이터 베이스에 구축된 지도정보를 신속하게 자동갱신할 수 있도록 한다.Such a map updating unit allows the map information built in the database built in the map
특히, 본 발명의 실시예에 따른 시스템이 다수의 차량에 탑재되는 경우, 다수의 시스템으로부터 동일 공간좌표의 노면객체에 대한 정보를 수집 및 갱신함에 따라 지도 자동갱신에 대한 신뢰성을 높일 수 있다.In particular, when the system according to the embodiment of the present invention is mounted on a plurality of vehicles, the reliability of automatic map renewal can be increased by collecting and updating information on road surface objects of the same spatial coordinates from a plurality of systems.
상기한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서, 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.Although many details are specifically described in the above description, this should be interpreted as an example of a preferred embodiment rather than limiting the scope of the invention. Therefore, the invention should not be defined by the described examples, but should be defined by what is equivalent to the claims and claims.
100 : 지도 자동갱신 시스템
110 : 차량정보 수집부
120 : 이미지 보정부
130 : 이미지 변환부
140 : 맵 생성부
150 : 맵 피팅부
160 : 판단부
200 : 지도정보 제공 시스템100: Map automatic renewal system
110: vehicle information collection unit
120: image correction unit
130: image conversion unit
140: map generator
150: map fitting unit
160: judgment unit
200: Map information provision system
Claims (9)
주행중인 차량에 탑재된 하나 이상의 센서로부터 차량의 전방 뷰 이미지를 포함하는 차량정보를 수집하는 단계;
상기 전방 뷰 이미지 내에 존재하는 카메라에 의한 왜곡을 보정하여 보정 이미지를 생성하는 단계;
상기 보정 이미지를 역 관점 매핑을 통해 IPM 이미지로 변환하는 단계;
상기 차량정보에 포함되는 차량 GPS 측위 좌표를 이용하여 사전 지도 정보로부터 HD 맵을 획득하고, 사전 지도 정보에 포함되는 HD 맵 상에서 IPM 영역을 추출하여 IPM 이미지에 대응하는 베이스 맵을 생성하는 단계;
상기 IPM 이미지에 대한 다방향 보정을 통해 IPM 이미지의 포즈를 보정하여 IPM 이미지와 베이스 맵을 피팅하는 단계; 및
상기 베이스 맵의 기존 노면객체에 대하여 IPM 이미지와의 비교를 통해 갱신여부를 판단하는 단계를 포함하는, IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법.As a map automatic renewal method by an automatic map renewal system,
Collecting vehicle information including a front view image of the vehicle from one or more sensors mounted on the running vehicle;
generating a corrected image by correcting distortion by a camera existing in the front view image;
converting the corrected image into an IPM image through inverse perspective mapping;
obtaining an HD map from preliminary map information using vehicle GPS positioning coordinates included in the vehicle information, extracting an IPM area from the HD map included in the preliminary map information, and generating a base map corresponding to the IPM image;
correcting the pose of the IPM image through multi-directional correction of the IPM image and fitting the IPM image and the base map; and
A precision road map that automatically determines and updates changes in road objects through IPM image and precision map fitting, including the step of determining whether to update through comparison with the IPM image of the existing road surface object of the base map. renewal method.
상기 보정 이미지를 역 관점 매핑을 통해 IPM 이미지로 변환하는 단계는,
상기 전방 뷰 이미지에 도로 시설물에 대해 학습된 딥러닝 인식 알고리즘을 적용하여 분할된 노면객체를 인식하는 단계를 포함하는, IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템.According to claim 1,
Converting the corrected image into an IPM image through inverse perspective mapping,
Automatically determining and updating changes in road surface objects through IPM image and precision map fitting, including the step of recognizing segmented road surface objects by applying a deep learning recognition algorithm learned about road facilities to the front view image Map auto-update system with precision.
상기 전방 뷰 이미지에 도로 시설물에 대해 학습된 딥러닝 인식 알고리즘을 적용하여 분할된 노면객체를 인식하는 단계는,
상기 전방 뷰 이미지에 대한 평균값 적용 알고리즘 또는 가우시안 분포 알고리즘을 이용한 적응형 이진화 절차를 통해 이진화를 수행하는 단계; 및
분할된 노면객체를 외곽선 추출된 객체 영역만 필터링하여 재구성하는 상기 IPM 이미지를 생성하는 단계를 포함하는, IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템.According to claim 2,
Recognizing divided road surface objects by applying a deep learning recognition algorithm learned about road facilities to the front view image,
performing binarization on the front-view image through an adaptive binarization procedure using an average value application algorithm or a Gaussian distribution algorithm; and
Generating the IPM image that reconstructs the segmented road surface object by filtering only the outline-extracted object area, and automatically determining and updating the change of the road surface object through the IPM image and precision map fitting. renewal system.
상기 IPM 이미지에 대한 다방향 보정을 통해 IPM 이미지의 포즈를 보정하여 IPM 이미지를 베이스 맵에 피팅하는 단계는,
상기 IPM 이미지에 대응하는 IMU 센서의 출력값을 이용하여 Yaw를 계산하는 단계;
상기 HD 맵의 양측 차선 선분의 제1 각도( 1, 2)를 산출하는 단계;
상기 제1 각도( 1, 2)의 평균값( y)을 산출하는 단계;
상기 IPM 이미지를 평균값( y) 만큼 회전하여 Yaw를 보정하는 단계; 및
Yaw이 보정된 IPM 이미지에 등장하는 차선의 각도 및 간격을 횡방향 스케일로 조정하여 횡방향 피팅을 수행하는 단계를 포함하는, IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템.According to claim 1,
The step of fitting the IPM image to the base map by correcting the pose of the IPM image through multi-directional correction of the IPM image,
calculating yaw using an output value of an IMU sensor corresponding to the IPM image;
A first angle of a segment of the lane on both sides of the HD map ( 1 , 2 ) calculating;
The first angle ( 1 , 2 ) of the mean ( calculating y );
The average value of the IPM image ( correcting the yaw by rotating as much as y ); and
Yaw adjusts the angle and spacing of the lanes appearing in the calibrated IPM image to the lateral scale to perform lateral fitting, automatically determining the change of the road surface object through map fitting with precision with the IPM image, and Map auto-update system with renewing precision.
상기 Yaw이 보정된 IPM 이미지에 등장하는 차선의 각도 및 간격을 횡방향 스케일로 조정하여 횡방향 피팅을 수행하는 단계 이후,
상기 IPM 이미지 및 베이스 맵의 차선을 수직방향으로 회전했을 때, 노면객체의 윗부분의 차이(nmin)및 아랫부분의 차이(mmin)를 산출하는 단계; 및
산출된 윗부분의 차이(nmin)및 아랫부분의 차이(mmin)를 이용하여 종방향 피팅을 수행하는 단계를 포함하는, IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템.According to claim 4,
After the step of performing lateral fitting by adjusting the angle and spacing of lanes appearing in the yaw-corrected IPM image with a lateral scale,
calculating a difference between an upper part (n min ) and a lower part (m min ) of a road surface object when the lanes of the IPM image and the base map are rotated in a vertical direction; and
Automatically determine the change of the road surface object through the IPM image and precision map fitting, including the step of performing longitudinal fitting using the calculated upper part difference (n min ) and lower part difference (m min ), Map auto-update system with renewing precision.
상기 노면객체의 윗부분의 차이(nmin) 및 상기 노면객체의 아래부분의 차이(mmin)는, 각각 이하의 수학식,
으로 산출되고(단, n은 음수), 상기 종방향 피팅을 수행하기 위한 이동거리()는, 이하의 수학식,
으로 산출되는, IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템.According to claim 5,
The difference between the upper part of the road surface object (n min ) and the lower part of the road surface object (m min ) is expressed by the following equations,
It is calculated as (where n is a negative number), and the movement distance for performing the longitudinal fitting ( ) is the following equation,
It is an auto-update map system that automatically determines and renews changes in road surface objects through IPM image and precision map fitting.
상기 베이스 맵의 기존 노면객체에 대하여 IPM 이미지와의 비교를 통해 갱신여부를 판단하는 단계 이후,
새로운 노면객체가 존재하는 경우, 주변 노면객체와의 공간좌표 관계로부터 새로운 노면객체의 공간좌표를 획득하여 상기 사전 지도 정보에 추가하는 단계를 포함하는, IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템.According to claim 1,
After the step of determining whether to update the existing road surface object of the base map through comparison with the IPM image,
If there is a new road surface object, obtaining the spatial coordinates of the new road surface object from the spatial coordinate relationship with the surrounding road surface objects and adding them to the preliminary map information, through the IPM image and precision map fitting Map auto-update system with precision that automatically judges and updates changes.
상기 전방 뷰 이미지 내에 존재하는 카메라에 의한 왜곡을 보정하여 보정 이미지를 생성하는 이미지 보정부;
상기 보정 이미지를 역 관점 매핑을 통해 IPM 이미지로 변환하는 이미지 변환부;
상기 차량정보에 포함되는 차량 GPS 측위 좌표를 이용하여 사전 지도 정보로부터 HD 맵을 획득하고, 상기 HD 맵 상에서 IPM 영역을 추출하여 IPM 이미지에 대응하는 베이스 맵을 생성하는 맵 생성부;
상기 IPM 이미지에 대한 다방향 보정을 통해 IPM 이미지의 포즈를 보정하여 IPM 이미지와 베이스 맵을 피팅하는 맵 피팅부; 및
상기 베이스 맵의 기존 노면객체에 대하여 IPM 이미지와의 비교를 통해 갱신여부를 판단하는 판단부를 포함하는, IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템.a vehicle information collection unit that collects vehicle information including a front view image of the vehicle from one or more sensors mounted on the running vehicle;
an image correction unit generating a correction image by correcting distortion caused by a camera existing in the front view image;
an image converter converting the corrected image into an IPM image through inverse perspective mapping;
a map generator that obtains an HD map from preliminary map information using vehicle GPS positioning coordinates included in the vehicle information, extracts an IPM area from the HD map, and generates a base map corresponding to the IPM image;
a map fitting unit for fitting the IPM image and a base map by correcting the pose of the IPM image through multi-directional correction; and
With respect to the existing road surface object of the base map, a precision road map that automatically determines and updates the change of the road surface object through the IPM image and precision map fitting, including a determination unit that determines whether to update through comparison with the IPM image renewal system.
상기 판단부에 의해 상기 베이스 맵의 기존 노면객체에 대하여 IPM 이미지와의 비교에 따라, 새로운 노면객체가 존재하는 경우 주변 노면객체와의 공간좌표 관계로부터 새로운 노면객체의 공간좌표를 획득하여 상기 사전 지도 정보에 추가하는 맵 갱신부를 더 포함하는, IPM 이미지와 정밀도로지도 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 시스템.According to claim 8,
According to the comparison of the existing road surface object of the base map with the IPM image by the determination unit, if a new road surface object exists, the spatial coordinates of the new road surface object are obtained from the spatial coordinate relationship with the surrounding road surface objects, and the preliminary map An automatic map updating system with precision that automatically determines and updates changes in road surface objects through an IPM image and precision map fitting, further comprising a map update unit that adds information.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20210058493 | 2021-05-06 | ||
| KR1020210058493 | 2021-05-06 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20220151572A true KR20220151572A (en) | 2022-11-15 |
| KR102824305B1 KR102824305B1 (en) | 2025-06-24 |
Family
ID=84041769
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020220056145A Active KR102824305B1 (en) | 2021-05-06 | 2022-05-06 | Method and System for change detection and automatic updating of road marking in HD map through IPM image and HD map fitting |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102824305B1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN118115688A (en) * | 2024-04-18 | 2024-05-31 | 华能信息技术有限公司 | Mine cavity three-dimensional map construction method and system for unmanned mine car |
| KR102783596B1 (en) * | 2024-07-15 | 2025-03-19 | 주식회사 캐이트워크 | Method for generating basic object information in bird’s eye view |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100588563B1 (en) * | 2004-04-19 | 2006-06-14 | 현대자동차주식회사 | Lane Recognition Method Using Image |
| KR101454153B1 (en) | 2013-09-30 | 2014-11-03 | 국민대학교산학협력단 | Navigation system for unmanned ground vehicle by sensor fusion with virtual lane |
| KR20200142315A (en) * | 2019-06-12 | 2020-12-22 | 주식회사 카카오 | Method and apparatus of updating road network |
-
2022
- 2022-05-06 KR KR1020220056145A patent/KR102824305B1/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100588563B1 (en) * | 2004-04-19 | 2006-06-14 | 현대자동차주식회사 | Lane Recognition Method Using Image |
| KR101454153B1 (en) | 2013-09-30 | 2014-11-03 | 국민대학교산학협력단 | Navigation system for unmanned ground vehicle by sensor fusion with virtual lane |
| KR20200142315A (en) * | 2019-06-12 | 2020-12-22 | 주식회사 카카오 | Method and apparatus of updating road network |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN118115688A (en) * | 2024-04-18 | 2024-05-31 | 华能信息技术有限公司 | Mine cavity three-dimensional map construction method and system for unmanned mine car |
| KR102783596B1 (en) * | 2024-07-15 | 2025-03-19 | 주식회사 캐이트워크 | Method for generating basic object information in bird’s eye view |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102824305B1 (en) | 2025-06-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11900627B2 (en) | Image annotation | |
| JP7485749B2 (en) | Video-based localization and mapping method and system - Patents.com | |
| US11670087B2 (en) | Training data generating method for image processing, image processing method, and devices thereof | |
| CN112308913B (en) | Vehicle positioning method and device based on vision and vehicle-mounted terminal | |
| CN100494900C (en) | A Monocular Vision Navigation Approach to Environment Perception for Autonomous Moving Vehicles | |
| JP5714940B2 (en) | Moving body position measuring device | |
| Chen et al. | Next generation map making: Geo-referenced ground-level LIDAR point clouds for automatic retro-reflective road feature extraction | |
| Guo et al. | Robust road detection and tracking in challenging scenarios based on Markov random fields with unsupervised learning | |
| JP6442834B2 (en) | Road surface height shape estimation method and system | |
| Nedevschi et al. | A sensor for urban driving assistance systems based on dense stereovision | |
| EP3516582A1 (en) | Autonomous route determination | |
| KR102316818B1 (en) | Method and apparatus of updating road network | |
| Józsa et al. | Towards 4D virtual city reconstruction from Lidar point cloud sequences | |
| KR102824305B1 (en) | Method and System for change detection and automatic updating of road marking in HD map through IPM image and HD map fitting | |
| Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
| CN117152210A (en) | Image dynamic tracking method and related device based on dynamic observation field angle | |
| Dornaika et al. | A new framework for stereo sensor pose through road segmentation and registration | |
| CN118015132B (en) | Method and device for processing vehicle driving data and storage medium | |
| Nadav et al. | Off-road path and obstacle detection using monocular camera | |
| CN117953446A (en) | Lane marking method, vehicle-mounted device, storage medium and vehicle | |
| CN116259001A (en) | Multi-view fusion three-dimensional pedestrian posture estimation and tracking method | |
| Bichsel et al. | Low-obstacle detection using stereo vision | |
| Yang et al. | Road detection by RANSAC on randomly sampled patches with slanted plane prior | |
| Jaspers et al. | Fast and robust b-spline terrain estimation for off-road navigation with stereo vision | |
| Huang et al. | Autonomous Vehicles Localisation Based on Semantic Map Matching Method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20220506 |
|
| PA0201 | Request for examination | ||
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240412 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20250424 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20250619 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20250620 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |