KR102797025B1 - System and method for providing parking information based on 3d positioning through deep learning model - Google Patents
System and method for providing parking information based on 3d positioning through deep learning model Download PDFInfo
- Publication number
- KR102797025B1 KR102797025B1 KR1020230153549A KR20230153549A KR102797025B1 KR 102797025 B1 KR102797025 B1 KR 102797025B1 KR 1020230153549 A KR1020230153549 A KR 1020230153549A KR 20230153549 A KR20230153549 A KR 20230153549A KR 102797025 B1 KR102797025 B1 KR 102797025B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- parking
- vehicle
- positioning
- still image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
본 개시 내용에 따르면 딥러닝 모델을 통한 3차원 측위에 기초하여 주차 정보를 제공하기 위한 시스템 및 방법이 제공된다. 상기 시스템은, 영상 촬영 디바이스로부터 수신되는 주차장 촬영 영상으로부터 정지 영상 프레임을 추출하도록 구성되는 영상 수신부; 상기 정지 영상 프레임에 대한 딥러닝 추론을 수행함으로써 영상 내 차량에 대한 3차원 측위 정보를 획득하도록 구성되는 3차원 측위 추론부; 광학 보정 정보에 기초하여 상기 3차원 측위 정보에 대한 보정을 수행함으로써 보정된 3차원 측위 정보를 획득하도록 구성되는 측위 정보 보정부; 및 상기 보정된 3차원 측위 정보로부터 획득되는 그라운드 점유 좌표에 기초하여 상기 주차장 내 주차면의 점유 정보를 포함하는 주차 정보를 제공하도록 구성되는 주차 정보 제공부를 포함할 수 있다.
본 개시 내용에 따르면, 주차장 촬영 영상을 이용하여 주차 정보를 제공하는 데 있어, 딥러닝 모델을 통한 3차원 측위와 광학 보정으로 은폐된 주차 공간뿐만 아니라 차량 위치까지 정확한 정보를 제공할 수 있는 효과가 있다.According to the present disclosure, a system and method for providing parking information based on three-dimensional positioning through a deep learning model are provided. The system may include an image receiving unit configured to extract a still image frame from a parking lot capture image received from an image capturing device; a three-dimensional positioning inference unit configured to obtain three-dimensional positioning information about a vehicle in the image by performing deep learning inference on the still image frame; a positioning information correction unit configured to obtain corrected three-dimensional positioning information by performing correction on the three-dimensional positioning information based on optical correction information; and a parking information providing unit configured to provide parking information including occupancy information of a parking space in the parking lot based on ground occupancy coordinates obtained from the corrected three-dimensional positioning information.
According to the present disclosure, in providing parking information using a parking lot shooting video, it is possible to provide accurate information on not only hidden parking spaces but also vehicle locations through three-dimensional positioning and optical correction using a deep learning model.
Description
본 발명은 딥러닝 모델을 통한 3차원 측위에 기초하여 주차 정보를 제공하기 위한 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for providing parking information based on three-dimensional positioning through a deep learning model.
근래에 촬영 디바이스의 촬영 영상에 기초하여 주차장의 주차 여부를 판단하기 위한 시도들이 이루어져 왔다. 이러한 종래의 주차 여부 판단 방법들은 일반적으로 촬영된 영상을 딥러닝 또는 색상/휘도 프로세싱 등의 방법으로 영상 내 차량 형상이 차지하는 부분을 식별하고 이를 각 주차면 경계선 사각형 또는 폴리곤과 교차 여부를 연산하여 주차 여부를 판단하는 방식으로 수행된다. Recently, attempts have been made to determine whether a parking lot is parked based on images captured by a camera device. These conventional parking determination methods generally identify the portion of the image occupied by the vehicle shape using deep learning or color/luminance processing, and determine whether or not a parking space is parked by calculating whether or not it intersects with each parking space boundary square or polygon.
이러한 종래의 주차 여부 판단 방법의 경우 차량 형상이 차량이 주차한 주차면이 아닌 인접 주차면을 침범하지 않아야 한다는 전제 조건이 요구된다. In the case of these conventional methods of determining whether a vehicle is parked, a prerequisite is required that the shape of the vehicle does not encroach on adjacent parking spaces other than the parking space where the vehicle is parked.
그러나, 이러한 전제 조건을 충족하기 위해서는 탑 뷰(Top View) 형태의 촬영된 영상이 요구되며, 이를 위해서는 상당히 높은 고도의 건물이 주차장에 존재하거나, 많은 수의 촬영 카메라 설치용 폴대를 설치해야 하거나 또는 24시간 동안 촬영용 드론을 작동시켜야 하므로 비용 측면에서 비효율적이라는 문제점이 있다. 즉, 종래의 카메라 촬영 영상으로 인한 주차 판단 방법은 이러한 효과 대비 비용 측면에서 수용 곤란한 방식이라는 점에서 대중화의 한계가 있다.However, in order to meet these prerequisites, a top-view type of captured image is required, which requires the presence of a fairly tall building in the parking lot, the installation of a large number of camera installation poles, or the operation of a filming drone for 24 hours, which is inefficient in terms of cost. In other words, the conventional parking judgment method using camera captured images has limitations in popularization because it is difficult to accept in terms of cost compared to the effect.
한편, 사물의 정확한 위치를 판단하기 위한 다른 방법으로 2차원 영상에서 3차원 영상을 추정할 수 있는 딥러닝 모델을 개발하는 방법이 고려될 수 있다. 이러한 딥러닝 모델은 2차원 영상에서 획득되는 사물 특징점 위치 정보들과 메타 정보, 해당 사물의 실제 3차원에서의 특징점 위치와 메타 정보를 딥러닝 모델의 학습용 데이터 세트로 구성하여 딥러닝으로 하여금 2차원 영상에서 3차원 특징점 위치를 추정할 수 있게 하는 방법이다. Meanwhile, as another method for determining the exact location of an object, a method of developing a deep learning model capable of estimating a 3D image from a 2D image can be considered. This deep learning model is a method of configuring object feature point location information and meta information obtained from a 2D image, and the actual 3D feature point location and meta information of the object as a training data set for the deep learning model, thereby allowing deep learning to estimate 3D feature point locations from a 2D image.
그러나, 이러한 방법은 다수 개 모델들을 단계별로 연계하고 보정 단계까지 조합해야 하는 견고하지 못한 구성으로 인해, 측위 가능한 대상 사물의 수량이 1~2개 내외로 명백한 한계가 있고 대상 사물이 타 사물에 의해 가려지지 않고 완전히 노출되는 이상적인 촬영 조건에서만 운용할 수 있다.However, this method has a weak configuration that requires linking multiple models step by step and combining them up to the correction stage, and has an obvious limitation on the number of target objects that can be positioned (about 1 to 2), and can only be operated under ideal shooting conditions where the target object is fully exposed without being obscured by other objects.
따라서, 전술한 방법 역시 카메라당 수십 대 이상의 차량을 촬영해야 하고 차체의 상당부분이 서로 겹쳐져 가려지는 형태로 촬영될 수밖에 없는 주차 관제 시스템의 영상을 분석하는 방법으로 사용하는 데는 명확한 한계가 있다.Therefore, the aforementioned method also has clear limitations in analyzing images from parking control systems, which must film dozens of vehicles per camera and inevitably film significant portions of the vehicle bodies overlapping each other.
이러한 문제를 해결하기 위해 본 개시 내용은 딥러닝 모델을 통한 3차원 측위에 기초하여 주차 정보를 제공하기 위한 시스템 및 방법을 제공하는 것을 목적으로 한다.To solve these problems, the present disclosure aims to provide a system and method for providing parking information based on three-dimensional positioning through a deep learning model.
본 개시 내용에 따르면, 광학 렌즈를 통해 촬영된 2차원 촬영 영상에서 딥러닝 모델을 통해 획득한 차량 형상의 특징점 좌표와 광학 보정 정보를 연계하여 차량의 3차원 좌표와 방향을 산출하고 이를 통해 정밀하게 파악되는 주차장 그라운드 평면 상의 차량 점유 좌표를 통해 은폐된 주차 공간과 차량 위치까지 파악함과 동시에 최소의 카메라로 많은 차량의 주차 여부를 정확히 판단할 수 있게 하는 시스템 및 방법이 제공된다.According to the present disclosure, a system and method are provided that calculates a three-dimensional coordinate and direction of a vehicle by linking coordinates of feature points of a vehicle shape obtained through a deep learning model from a two-dimensional shooting image captured through an optical lens and optical correction information, and thereby precisely identifies vehicle occupancy coordinates on a parking lot ground plane, thereby identifying even hidden parking spaces and vehicle locations, and at the same time accurately determining whether a large number of vehicles are parked with a minimum number of cameras.
본 개시 내용의 일 실시예에 따르면, 딥러닝 모델을 통한 3차원 측위에 기초하여 주차 정보를 제공하기 위한 시스템이 제공된다. 상기 시스템은, 영상 촬영 디바이스로부터 수신되는 주차장 촬영 영상으로부터 정지 영상 프레임을 추출하도록 구성되는 영상 수신부; 상기 정지 영상 프레임에 대한 딥러닝 추론을 수행함으로써 영상 내 차량에 대한 3차원 측위 정보를 획득하도록 구성되는 3차원 측위 추론부; 광학 보정 정보에 기초하여 상기 3차원 측위 정보에 대한 보정을 수행함으로써 보정된 3차원 측위 정보를 획득하도록 구성되는 측위 정보 보정부; 및 상기 보정된 3차원 측위 정보로부터 획득되는 그라운드 점유 좌표에 기초하여 상기 주차장 내 주차면의 점유 정보를 포함하는 주차 정보를 제공하도록 구성되는 주차 정보 제공부를 포함할 수 있다.According to one embodiment of the present disclosure, a system for providing parking information based on three-dimensional positioning through a deep learning model is provided. The system may include an image receiving unit configured to extract a still image frame from a parking lot capture image received from an image capturing device; a three-dimensional positioning inference unit configured to obtain three-dimensional positioning information about a vehicle in the image by performing deep learning inference on the still image frame; a positioning information correction unit configured to obtain corrected three-dimensional positioning information by performing correction on the three-dimensional positioning information based on optical correction information; and a parking information providing unit configured to provide parking information including occupancy information of a parking space in the parking lot based on ground occupancy coordinates obtained from the corrected three-dimensional positioning information.
또한, 상기 3차원 측위 정보는, 상기 차량의 3차원 형상의 공간 좌표를 나타내기 위한 포인트 또는 길이 정보, 또는 상기 3차원 공간 좌표가 상기 정지 영상 프레임에 투사된 2차원 좌표를 나타내기 위한 포인트 또는 길이 정보를 포함할 수 있다.Additionally, the three-dimensional positioning information may include point or length information for representing spatial coordinates of the three-dimensional shape of the vehicle, or point or length information for representing two-dimensional coordinates in which the three-dimensional spatial coordinates are projected onto the still image frame.
또한, 상기 광학 보정 정보는 상기 정지 영상 프레임의 팬(pan) 각도 및 틸트(tilt) 각도에 기초하여 산출되는 객체 길이 변화 비율 또는 객체 각도 변화 비율을 포함할 수 있다.Additionally, the optical correction information may include an object length change ratio or an object angle change ratio calculated based on a pan angle and a tilt angle of the still image frame.
또한, 상기 3차원 측위 추론부는, 상기 정지 영상 프레임으로부터 상기 광학 보정 정보를 추론하도록 추가적으로 구성될 수 있다. 또는, 상기 광학 보정 정보는, 상기 영상 촬영 디바이스의 속성으로부터 획득될 수 있다. 또는, 상기 광학 보정 정보는, 상기 3차원 측위 추론부의 추론 및 상기 영상 촬영 디바이스의 속성 모두에 기초하여 결정될 수 있다.In addition, the 3D positioning inference unit may be additionally configured to infer the optical correction information from the still image frame. Alternatively, the optical correction information may be obtained from a property of the image capturing device. Alternatively, the optical correction information may be determined based on both the inference of the 3D positioning inference unit and the property of the image capturing device.
또한, 상기 주차 정보 제공부는, 상기 그라운드 점유 좌표에 기초하여 결정되는 상기 차량의 3차원 형상의 바닥면이 점유한 부분을 나타내는 폴리곤(polygon) 또는 상기 차량의 3차원 형상의 바닥면이 상기 정지 영상 프레임에 투사된 위치를 나타내는 폴리곤과 주차면 경계선 폴리곤의 교차 수준을 비교함으로써 상기 차량이 해당 주차면을 점유하는지 여부를 판단하도록 구성될 수 있다.In addition, the parking information providing unit may be configured to determine whether the vehicle occupies a corresponding parking space by comparing the intersection level of a polygon representing a portion occupied by a floor surface of a three-dimensional shape of the vehicle determined based on the ground occupancy coordinates or a polygon representing a position where the floor surface of the three-dimensional shape of the vehicle is projected onto the still image frame with a parking space boundary polygon.
또한, 상기 정지 영상 프레임 내 각 차량에 대한 보정된 3차원 측위 정보가 상기 3차원 측위 추론부 및 상기 측위 정보 보정부에 의해 획득될 수 있다. 상기 주차 정보 제공부는, 상기 정지 영상 프레임 내 각 차량에 대한 보정된 3차원 측위 정보에 기초하여, 상기 주차장의 혼잡 정보, 이중 주차 차량 정보, 통로 이동 차량 정보, 일시 정지 차량 정보, 불법 주차 차량 정보를 포함하는 주차 정보를 제공하도록 추가적으로 구성될 수 있다.In addition, corrected 3D positioning information for each vehicle in the still image frame can be acquired by the 3D positioning inference unit and the positioning information correction unit. The parking information providing unit can be additionally configured to provide parking information including parking lot congestion information, double-parked vehicle information, passageway moving vehicle information, temporarily stopped vehicle information, and illegally parked vehicle information, based on the corrected 3D positioning information for each vehicle in the still image frame.
또한, 상기 3차원 측위 추론부는, 딥러닝 추론을 위해 디텍션(Detection) 모델 또는 세그멘테이션(Segmentation) 모델을 이용하도록 구성될 수 있다.Additionally, the 3D positioning inference unit may be configured to use a detection model or a segmentation model for deep learning inference.
본 개시 내용의 일 실시예에 따르면, 딥러닝 모델을 통한 3차원 측위에 기초하여 주차 정보를 제공하기 위한 방법이 제공될 수 있다. 상기 방법은, 영상 촬영 디바이스로부터 수신되는 주차장 촬영 영상으로부터 정지 영상 프레임을 추출하는 단계; 상기 정지 영상 프레임에 대한 딥러닝 추론을 수행함으로써 영상 내 차량에 대한 3차원 측위 정보를 획득하는 단계; 광학 보정 정보에 기초하여 상기 3차원 측위 정보에 대한 보정을 수행함으로써 보정된 3차원 측위 정보를 획득하는 단계; 및 상기 보정된 3차원 측위 정보로부터 획득되는 그라운드 점유 좌표에 기초하여 상기 주차장 내 주차면의 점유 정보를 포함하는 주차 정보를 제공하는 단계를 포함할 수 있다.According to one embodiment of the present disclosure, a method for providing parking information based on three-dimensional positioning through a deep learning model can be provided. The method can include the steps of: extracting a still image frame from a parking lot capture image received from an image capture device; performing deep learning inference on the still image frame to obtain three-dimensional positioning information on a vehicle in the image; performing correction on the three-dimensional positioning information based on optical correction information to obtain corrected three-dimensional positioning information; and providing parking information including occupancy information of a parking space in the parking lot based on ground occupancy coordinates obtained from the corrected three-dimensional positioning information.
또한, 상기 3차원 측위 정보는 상기 차량의 3차원 형상의 공간 좌표를 나타내기 위한 포인트 또는 길이 정보, 또는 상기 3차원 공간 좌표가 상기 정지 영상 프레임에 투사된 2차원 좌표를 나타내기 위한 포인트 또는 길이 정보를 포함할 수 있다.Additionally, the three-dimensional positioning information may include point or length information for representing spatial coordinates of the three-dimensional shape of the vehicle, or point or length information for representing two-dimensional coordinates in which the three-dimensional spatial coordinates are projected onto the still image frame.
또한, 상기 광학 보정 정보는 상기 정지 영상 프레임의 팬 각도 및 틸트 각도에 기초하여 산출되는 객체 길이 변화 비율 또는 객체 각도 변화 비율을 포함할 수 있다.Additionally, the optical correction information may include an object length change ratio or an object angle change ratio calculated based on a pan angle and a tilt angle of the still image frame.
또한, 상기 광학 보정 정보는, 상기 딥러닝 추론을 통해 상기 정지 영상 프레임으로부터 추론될 수 있다. 또는, 상기 광학 보정 정보는, 상기 영상 촬영 디바이스의 속성으로부터 획득될 수 있다. 또는, 상기 광학 보정 정보는 상기 딥러닝 추론 및 상기 영상 촬영 디바이스의 속성 모두에 기초하여 결정될 수 있다.Additionally, the optical correction information may be inferred from the still image frame through the deep learning inference. Alternatively, the optical correction information may be obtained from the properties of the image capturing device. Alternatively, the optical correction information may be determined based on both the deep learning inference and the properties of the image capturing device.
또한, 상기 주차 정보를 제공하는 단계는, 상기 그라운드 점유 좌표에 기초하여 결정되는 상기 차량의 3차원 형상의 바닥면이 점유한 부분을 나타내는 폴리곤 또는 상기 차량의 3차원 형상의 바닥면이 상기 정지 영상 프레임에 투사된 위치를 나타내는 폴리곤과 주차면 경계선 폴리곤의 교차 수준을 비교함으로써 상기 차량이 해당 주차면을 점유하는지 여부를 판단하는 단계를 포함할 수 있다.In addition, the step of providing the parking information may include a step of determining whether the vehicle occupies the corresponding parking space by comparing the intersection level of a polygon representing a portion occupied by a floor surface of a three-dimensional shape of the vehicle determined based on the ground occupancy coordinates or a polygon representing a position where the floor surface of the three-dimensional shape of the vehicle is projected onto the still image frame with a parking space boundary polygon.
또한, 상기 3차원 측위 정보를 획득하는 단계는 상기 정지 영상 프레임 내 각 차량에 대한 3차원 측위 정보를 획득하는 단계를 포함하고, 상기 보정된 3차원 측위 정보를 획득하는 단계는 상기 정지 영상 프레임 내 각 차량에 대한 보정된 3차원 측위 정보를 획득하는 단계를 포함할 수 있다. 상기 주차 정보를 제공하는 단계는, 상기 정지 영상 프레임 내 각 차량에 대한 보정된 3차원 측위 정보에 기초하여, 상기 주차장의 혼잡 정보, 이중 주차 차량 정보, 통로 이동 차량 정보, 일시 정지 차량 정보, 불법 주차 차량 정보를 포함하는 주차 정보를 제공하는 단계를 더 포함할 수 있다.In addition, the step of acquiring the three-dimensional positioning information may include a step of acquiring three-dimensional positioning information for each vehicle in the still image frame, and the step of acquiring the corrected three-dimensional positioning information may include a step of acquiring corrected three-dimensional positioning information for each vehicle in the still image frame. The step of providing the parking information may further include a step of providing parking information including congestion information of the parking lot, information on double-parked vehicles, information on vehicles moving in an aisle, information on vehicles temporarily stopped, and information on illegally parked vehicles, based on the corrected three-dimensional positioning information for each vehicle in the still image frame.
또한, 상기 딥러닝 추론은 디텍션 모델 또는 세그멘테이션 모델을 이용하여 수행될 수 있다.Additionally, the deep learning inference can be performed using a detection model or a segmentation model.
본 개시 내용의 일 실시예에 따르면, 딥러닝 모델을 통한 3차원 측위에 기초하여 주차 정보를 제공하기 위한 방법을 실행하기 위한 컴퓨터-실행가능 명령들을 포함하는, 컴퓨터 판독가능 매체에 저장된 컴퓨터 프로그램이 제공될 수 있다.According to one embodiment of the present disclosure, a computer program stored on a computer-readable medium including computer-executable instructions for executing a method for providing parking information based on three-dimensional positioning using a deep learning model can be provided.
본 개시 내용에 따르면, 주차장 촬영 영상을 이용하여 주차 정보를 제공하는 데 있어, 딥러닝 모델을 통한 3차원 측위와 광학 보정으로 은폐된 주차 공간뿐만 아니라 차량 위치까지 정확한 정보를 제공할 수 있는 효과가 있다.According to the present disclosure, in providing parking information using a parking lot shooting video, it is possible to provide accurate information on not only hidden parking spaces but also vehicle locations through three-dimensional positioning and optical correction using a deep learning model.
또한, 본 개시 내용에 따르면, 차량들이 서로 겹쳐져서 촬영될 수밖에 없는 주차장에 설치된 카메라 영상을 활용하면서도 은폐되는 차체 및 주차 공간을 인식함으로써 예컨대 빈 주차면이 거의 없고 남아있는 빈 주차면 마저 주차된 차량들 틈 사이에 존재하여 잘 보이지 않게 되어 운전자의 배회 시간이 대폭 늘어날 수밖에 없는 상황에서 빈 주차면의 위치와 해당 경로를 안내하는 주차 정보 제공 시스템의 안내 정확도를 높일 수 있는 효과가 있다.In addition, according to the present disclosure, by utilizing images from cameras installed in a parking lot where vehicles inevitably overlap each other and are photographed, while recognizing concealed vehicle bodies and parking spaces, the guidance accuracy of a parking information provision system that provides guidance on the location of empty parking spaces and corresponding routes can be improved in a situation where, for example, there are few empty parking spaces and the remaining empty parking spaces are located between parked vehicles and are not easily visible, significantly increasing the driver's wandering time.
또한, 본 개시 내용에 따르면, 빈 주차면이 은폐되지 않도록 높은 촬영 각도를 확보하기 위해 높은 고도의 구조물을 확보할 필요성이나, 많은 수량의 카메라 설치용 폴대를 설치할 필요성이나, 설치 폴대, 실내 주차장 기둥, 천장 레이스웨이 등에 카메라를 촘촘하게 설치할 필요성 등이 사라지면서 주차 정보 제공 시스템의 구축 공사 비용을 최소화할 수 있는 효과가 있다.In addition, according to the present disclosure, the cost of constructing a parking information provision system can be minimized as the need for securing a high-altitude structure to secure a high shooting angle so that empty parking spaces are not concealed, the need for installing a large number of camera installation poles, and the need for densely installing cameras on installation poles, indoor parking lot pillars, ceiling raceways, etc. are eliminated.
또한, 본 개시 내용에 따르면, 실시간으로 디워핑(DeWarping) 영상을 생성하지 않고도 촬영 디바이스의 종류나 모델에 상관없이 촬영 영상에 대한 3차원 측위 정보와 광학 보정 정보를 제공할 수 있으며, 이에 따라 고가의 CCTV 또는 전용 모델 CCTV 대신에 방범용 CCTV와 같은 기존의 영상 감지 설비를 그대로 활용할 수 있게 되어 성능을 담보하면서도 비용 효율적으로 기존 주차장에 주차 정보 제공 시스템을 구축할 수 있는 장점이 있다.In addition, according to the present disclosure, it is possible to provide three-dimensional positioning information and optical correction information for a captured image regardless of the type or model of the capturing device without generating a dewarping image in real time, and thus, existing image detection equipment such as a crime prevention CCTV can be utilized as is instead of expensive CCTV or a dedicated model CCTV, thereby having the advantage of being able to cost-effectively construct a parking information provision system in an existing parking lot while ensuring performance.
도 1은 본 개시 내용의 일 실시예에 따른 주차 정보 제공 시스템이 적용되는 주차장을 나타내는 예시적인 도면이다.
도 2는 본 개시 내용의 일 실시예에 따른 주차 정보 제공 시스템의 구성 요소들을 나타내는 개략적인 도면이다.
도 3은 기존의 2차원 추론 모델 및 본 개시 내용에 따른 3차원 추론 모델에 의한 주차판단 정확도 차이를 보여주는 예시적인 도면이다.
도 4는 본 개시 내용의 일 실시예에 따른 주차 정보 제공 시스템에서 화각, 해상도, 설치 높이, 주차면 은폐율이 상이한 경우들에서 차량의 3차원 측위 정보와 광학 보정 정보를 산출하여 주차 정보를 제공하는 것을 나타내는 예시적인 도면이다.
도 5a는 영상 촬영 디바이스의 팬 각도 및 틸트 각도의 변화에 따라 투사되는 객체 형태 중 폭 길이가 변형됨을 나타내는 예시적인 도면이다.
도 5b는 영상 촬영 디바이스의 팬 각도 및 틸트 각도의 변화에 따른 객체 형태 중 폭 길이의 투사 변형 비율을 나타내는 예시적인 그래프이다.
도 6a는 영상 촬영 디바이스의 팬 각도 및 틸트 각도의 변화에 따라 투사되는 객체 형태 중 모서리 각도가 변형됨을 나타내는 예시적인 도면이다.
도 6b는 영상 촬영 디바이스의 팬 각도 및 틸트 각도의 변화에 따른 객체 형태 중 모서리 각도의 투사 변형 비율을 나타내는 예시적인 그래프이다.
도 7은 본 개시 내용의 일 실시예에 따른 시스템에 의한 3차원 측위 보정 결과를 분석 대상 주차장의 그라운드 좌표로 매칭한 결과를 나타내는 예시적인 도면이다.
도 8은 본 개시 내용의 일 실시예에 따른 시스템에서 산출된 주차 정보를 나타내는 예시적인 도면이다.
도 9는 본 개시 내용의 일 실시예에 따른 시스템에서 딥러닝 모델을 통한 3차원 측위에 기초하여 주차 정보를 제공하는 방법을 나타내는 예시적인 플로우 차트이다.FIG. 1 is an exemplary drawing showing a parking lot to which a parking information providing system according to one embodiment of the present disclosure is applied.
FIG. 2 is a schematic diagram illustrating components of a parking information providing system according to one embodiment of the present disclosure.
FIG. 3 is an exemplary diagram showing the difference in parking judgment accuracy between a conventional two-dimensional inference model and a three-dimensional inference model according to the present disclosure.
FIG. 4 is an exemplary diagram showing how to provide parking information by calculating three-dimensional positioning information and optical correction information of a vehicle in cases where the angle of view, resolution, installation height, and parking space concealment ratio are different in a parking information providing system according to one embodiment of the present disclosure.
FIG. 5a is an exemplary drawing showing that the width length of a projected object shape is changed according to changes in the pan angle and tilt angle of an image capturing device.
Figure 5b is an exemplary graph showing the projection deformation ratio of the width length of an object shape according to changes in the pan angle and tilt angle of the video capturing device.
FIG. 6a is an exemplary drawing showing that the corner angle of a projected object shape is changed according to changes in the pan angle and tilt angle of the video capturing device.
Figure 6b is an exemplary graph showing the projection deformation ratio of the corner angle of the object shape according to changes in the pan angle and tilt angle of the video capturing device.
FIG. 7 is an exemplary diagram showing the result of matching the three-dimensional positioning correction result by the system according to one embodiment of the present disclosure to the ground coordinates of the analysis target parking lot.
FIG. 8 is an exemplary diagram showing parking information produced by a system according to one embodiment of the present disclosure.
FIG. 9 is an exemplary flow chart illustrating a method for providing parking information based on three-dimensional positioning via a deep learning model in a system according to one embodiment of the present disclosure.
이하, 본 발명의 바람직한 실시예들을 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings. First, when adding reference numerals to components in each drawing, it should be noted that the same components are given the same numerals as much as possible even if they are shown in different drawings. In addition, when describing the present invention, if it is determined that a specific description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.
본 발명의 다양한 양상들이 아래에서 설명된다. 여기에서 제시되는 발명들은 폭넓은 다양한 형태들로 구현될 수 있으며 여기에서 제시되는 임의의 특정한 구조, 기능 또는 이들 모두는 단지 예시적이라는 것을 이해하도록 한다. 여기에서 제시되는 발명들에 기반하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 여기에서 제시되는 하나의 양상이 임의의 다른 양상들과 독립적으로 구현될 수 있으며 둘 이상의 이러한 양상들이 다양한 방식들로 결합될 수 있다는 것을 이해할 것이다. 예를 들어, 여기에서 설명되는 임의의 수의 양상들을 이용하여 장치가 구현될 수 있거나 또는 방법이 실시될 수 있다. 또한, 여기에서 설명되는 하나 이상의 양상들에 더하여 또는 이들 양상들이 아닌 다른 구조, 기능 또는 구조 및 기능을 이용하여 이러한 장치가 구현될 수 있거나 또는 이러한 방법이 실시될 수 있다.Various aspects of the present invention are described below. It is to be understood that the inventions disclosed herein may be embodied in a wide variety of forms and that any specific structure, function, or both disclosed herein are merely exemplary. Based on the inventions disclosed herein, one skilled in the art will appreciate that one aspect disclosed herein may be implemented independently of any other aspects, and that two or more of these aspects may be combined in various ways. For example, an apparatus may be implemented or a method may be practiced using any number of the aspects disclosed herein. Furthermore, such an apparatus may be implemented or such a method may be practiced using other structures, functions, or structures and functions in addition to or other than one or more of the aspects disclosed herein.
도 1은 본 개시 내용의 일 실시예에 따른 주차 정보 제공 시스템이 적용되는 주차장을 나타내는 예시적인 도면이다.FIG. 1 is an exemplary drawing showing a parking lot to which a parking information providing system according to one embodiment of the present disclosure is applied.
도 1에 도시된 바에 따르면, 본 개시 내용에 따른 주차 정보 제공 시스템(200)은 주차장(100) 내에 설치된 영상 촬영 디바이스들(170-1, 170-2, 170-N)로부터 주차장 촬영 영상을 수신하고, 주차장 촬영 영상에 기초하여 생성한 주차장(100) 내 주차 정보를 해당 주차장 관리 시스템, 외부 기관(300)(예를 들어, 상위 관제 시스템, 연계 서비스 시스템 등) 등으로 제공할 수 있다. 이때, 주차 정보는 주차장(100) 내 주차면(150-1, 150-2, 150-N) 점유 정보를 포함할 수 있다. As illustrated in FIG. 1, the parking information providing system (200) according to the present disclosure receives parking lot shooting images from video recording devices (170-1, 170-2, 170-N) installed in the parking lot (100), and provides parking information within the parking lot (100) generated based on the parking lot shooting images to a corresponding parking lot management system, an external organization (300) (e.g., an upper control system, a linked service system, etc.). At this time, the parking information may include occupancy information of parking spaces (150-1, 150-2, 150-N) within the parking lot (100).
영상 촬영 디바이스(170)는 주차장의 영상을 촬영하여 촬영한 영상 정보를 주차 정보 제공 시스템(200)으로 제공하도록 구성될 수 있다. 예를 들어, 영상 촬영 디바이스(170)는 주차장(100) 내 설치된 폐쇄회로 텔레비전(CCTV; Closed Circuit Television) 감시 카메라일 수 있으나, 이에 한정되지 않으며 스마트폰 등과 같이 영상 촬영 기능을 가진 다른 종류의 기기일 수 있다. 영상 촬영 디바이스(170)는 유무선 통신 방식을 통해 또는 영상 시그널에 의한 방법을 통해 또는 파일 저장 매체를 통해 촬영된 영상을 주차 정보 제공 시스템(200)으로 제공할 수 있다.The video recording device (170) may be configured to record a video of a parking lot and provide the recorded video information to the parking information providing system (200). For example, the video recording device (170) may be a closed circuit television (CCTV) surveillance camera installed in the parking lot (100), but is not limited thereto and may be another type of device having a video recording function, such as a smart phone. The video recording device (170) may provide the recorded video to the parking information providing system (200) through a wired or wireless communication method, a method using a video signal, or a file storage medium.
주차 정보 제공 시스템(100) 및 영상 촬영 디바이스(170) 간의 유무선 통신 방식은 RTSP(Real-Time Streaming Protocol), RTMP(Real-Time Messaging Protocol), HLS(Hypertext transfer protocol Live Streaming) 등과 같은 규격화된 영상 프로토콜이나 영상 촬영 디바이스(170) 자체에서 제공하는 전용 프로토콜을 통한 네트워크 통신 방식일 수 있다. The wired/wireless communication method between the parking information provision system (100) and the video recording device (170) may be a network communication method using a standardized video protocol such as RTSP (Real-Time Streaming Protocol), RTMP (Real-Time Messaging Protocol), HLS (Hypertext transfer protocol Live Streaming), etc., or a dedicated protocol provided by the video recording device (170) itself.
네트워크를 통해 전달시, 효율적인 트래픽 운용을 위해 영상 데이터는 H.264, H.265, MJPEG(Motion Joint Photographic Experts Group) 등과 같은 규격화된 영상 압축 코덱, 또는 이를 변형 또는 일부 기술을 추가한 타 영상 압축 코덱 또는 대체 가능한 타 영상 압축 코덱으로 인코딩되어 주차 정보 제공 시스템(200)으로 전달될 수 있다.When transmitted over a network, for efficient traffic operation, the video data may be encoded using a standardized video compression codec such as H.264, H.265, MJPEG (Motion Joint Photographic Experts Group), or another video compression codec that has modified or added some technology thereto, or another alternative video compression codec, and transmitted to the parking information provision system (200).
영상 시그널에 의한 전달시, 영상 데이터는 HDMI(High-Definition Multimedia Interface), DVI(Digital Visual Interface), HD-SDI(High Definition Serial Digital Interface), DisplayPort, VGA(Video Graphics Array), S-Video(Separate Video) 등과 같은 인터페이스의 영상 케이블을 통해 주차 정보 제공 시스템(200)으로 전달될 수 있다. When transmitting by video signal, the video data can be transmitted to the parking information provision system (200) through a video cable of an interface such as HDMI (High-Definition Multimedia Interface), DVI (Digital Visual Interface), HD-SDI (High Definition Serial Digital Interface), DisplayPort, VGA (Video Graphics Array), S-Video (Separate Video), etc.
도 2는 본 개시 내용의 일 실시예에 따른 주차 정보 제공 시스템의 구성 요소들을 나타내는 개략적인 도면이다.FIG. 2 is a schematic diagram illustrating components of a parking information providing system according to one embodiment of the present disclosure.
도 2에 도시된 바에 따르면, 본 개시 내용에 따른 주차 정보 제공 시스템(200)은 영상 수신부(210), 전처리부(220), 3차원 측위 추론부(250), 후처리부(260), 측위 정보 보정부(270) 및 주차 정보 제공부(290)을 포함하여 구성될 수 있다.As illustrated in FIG. 2, a parking information providing system (200) according to the present disclosure may be configured to include an image receiving unit (210), a preprocessing unit (220), a 3D positioning inference unit (250), a postprocessing unit (260), a positioning information correction unit (270), and a parking information providing unit (290).
영상 수신부(210)는 영상 촬영 디바이스(170)로부터 주차장(100) 촬영 영상을 수신하고, 수신한 주차장(100) 촬영 영상으로부터 정지 영상 프레임을 추출하도록 구성될 수 있다. 전술한 바와 같이, 영상 수신부(210)는 주차장 촬영 영상을 수신하기 위해 영상 촬영 디바이스(170)와 유무선 통신으로 연결되거나, 또는 영상 시그널 케이블을 통해 연결될 수 있다. 또는, 영상 수신부(210)는 파일 저장 매체를 통해 영상 촬영 디바이스(170)로부터 주차장(100) 촬영 영상을 제공받을 수 있다.The image receiving unit (210) may be configured to receive a captured image of the parking lot (100) from the image capturing device (170) and extract a still image frame from the received captured image of the parking lot (100). As described above, the image receiving unit (210) may be connected to the image capturing device (170) via wired or wireless communication, or may be connected via a video signal cable, in order to receive the captured image of the parking lot. Alternatively, the image receiving unit (210) may receive the captured image of the parking lot (100) from the image capturing device (170) via a file storage medium.
영상 시그널 케이블을 통해 영상을 수신하는 경우, 영상 수신부(210)는 캡쳐 입력 포트 처리 기능을 통해 영상 촬영 디바이스(170)로부터 주차장(100) 촬영 영상을 직접 제공받을 수 있다. 또한, 영상 수신부(210)는 캡쳐에 사용되는 입력 포트의 구분자를 별도로 지정할 수 있다. 또한, 주차장(100) 촬영 영상을 수신한 영상 수신부(210)는 주차장(100) 촬영 영상의 밝기, 명암비 및 선명도 수치를 변경한 후 정지 영상 프레임을 추출할 수 있다. 또한, 주차장(100) 촬영 영상을 수신한 영상 수신부(210)는 주차장(100) 촬영 영상의 상, 하, 좌, 우 각각 개별적으로 일정 픽셀 만큼 제외 처리한 후 정지 영상 프레임을 추출할 수도 있다.When receiving an image via a video signal cable, the image receiving unit (210) can directly receive the image of the parking lot (100) from the image shooting device (170) through the capture input port processing function. In addition, the image receiving unit (210) can separately designate the identifier of the input port used for capture. In addition, the image receiving unit (210) that has received the image of the parking lot (100) can change the brightness, contrast ratio, and sharpness values of the image of the parking lot (100) and then extract a still image frame. In addition, the image receiving unit (210) that has received the image of the parking lot (100) can individually exclude a certain number of pixels from the top, bottom, left, and right of the image of the parking lot (100) and then extract a still image frame.
네트워크를 통해 영상을 수신하는 경우, 영상 수신부(210)는 안정적인 수신을 위해 버퍼링 기능을 운영할 수 있다. 버퍼링 기능 사용시, 해당 기준은 버퍼 내에 보관되는 시간의 크기 또는 수신 패킷의 타임스탬프 등을 기준으로 선택될 수 있다. 또한, 영상 수신부(210)는 영상 촬영 디바이스(170)와의 네트워크 연결 인증을 위한 아이디(ID) 및 암호를 지정할 수 있다. 더 나아가, 프록시(proxy) 서버와 같은 중계 장비를 통하여 영상 촬영 디바이스(170)로부터 영상을 수신하는 경우, 영상 수신부(210)는 해당 중계에 필요한 프록시 장비의 네트워크 주소와 함께 프록시 통신용 아이디 및 암호 등을 또한 지정할 수 있다.When receiving an image through a network, the image receiving unit (210) can operate a buffering function for stable reception. When using the buffering function, the criterion can be selected based on the size of the time stored in the buffer or the timestamp of the received packet, etc. In addition, the image receiving unit (210) can designate an ID and password for network connection authentication with the image shooting device (170). Furthermore, when receiving an image from the image shooting device (170) through a relay device such as a proxy server, the image receiving unit (210) can also designate an ID and password for proxy communication, etc., along with the network address of the proxy device required for the relay.
네트워크를 통해 영상을 수신하는 경우, 영상 수신부(210)는 영상 촬영 디바이스(170)에 연결 유지 여부를 통지할지 여부를 선택할 수 있고, 주차장(100) 촬영 영상 수신 시에 유실 패킷이 있을 경우 이에 대해 재전송 요청 여부를 지정할 수 있으며, 주차장(100) 촬영 영상 수신이 지나치게 지연되었을 경우 해당 영상을 폐기할 기준을 설정할 수 있다. 또한, 영상 수신부(210)는 영상 촬영 디바이스(170)에 대한 연결 및 주차장(100) 촬영 영상의 경로 탐색에 필요한 정보를 설정할 수 있다. 이러한 정보는 IP 주소와 같은 네트워크 상의 장치 위치를 나타내는 정보를 포함할 수 있다. 또한, 영상 수신부(210)는 TCP(Transmission Control Protocol), UDP(User Datagram Protocol), Unicast, Multicast와 같은 네트워크를 통해 데이터를 받는데 사용할 세부 프로토콜을 지정할 수 있다. 또한, 영상 수신부(210)는 주차 정보 제공 시스템(200)의 시간 기준을 맞추기 위한 타임서버에 대한 경로를 지정할 수 있다. 또한, 영상 수신부(210)는 ON-VIF(Open Network Video Interface Forum)와 같은 영상 촬영 디바이스와의 탐색 및 통신을 위한 표준 규격을 사용할지 여부를 지정할 수 있다. 또한, 영상 수신부(210)는 통신 연결 해제 또는 문제 발생 시, 재접속 시도를 위한 기준 값을 지정할 수 있다.When receiving an image through a network, the image receiving unit (210) can select whether to notify the image capturing device (170) of whether to maintain the connection, specify whether to request retransmission in case of a lost packet when receiving an image captured in the parking lot (100), and set a criterion for discarding the image when the reception of the image captured in the parking lot (100) is excessively delayed. In addition, the image receiving unit (210) can set information necessary for connection to the image capturing device (170) and path search of the image captured in the parking lot (100). This information can include information indicating the location of the device on the network, such as an IP address. In addition, the image receiving unit (210) can specify a detailed protocol to be used for receiving data through the network, such as TCP (Transmission Control Protocol), UDP (User Datagram Protocol), Unicast, and Multicast. In addition, the image receiving unit (210) can specify a path to a time server for aligning the time standard of the parking information providing system (200). In addition, the video receiving unit (210) can specify whether to use a standard specification for searching and communicating with a video capturing device, such as ON-VIF (Open Network Video Interface Forum). In addition, the video receiving unit (210) can specify a reference value for reconnection attempts when a communication connection is disconnected or a problem occurs.
파일 저장 매체를 통해 영상을 입력받는 경우, 영상 수신부(210)는 입력 받을 파일의 경로를 지정할 수 있다.When receiving an image through a file storage medium, the image receiving unit (210) can specify the path of the file to be received.
전술한 바와 같이, 영상 수신부(210)는 주차장(100) 촬영 영상으로부터 정지 영상 프레임을 추출할 수 있다. 이때, 영상 수신부(210)는 수신한 주차장(100) 촬영 영상이 인코딩된 압축 영상일 경우 디코딩을 수행할 수 있으며, 인코딩된 영상이 아닐 경우에는 디코딩 단계를 생략하고 정지 영상 프레임을 추출할 수 있다. 디코딩에는 CPU(Central Processing unit)와 같은 중앙처리장치를 이용하거나 또는 GPU(Graphics Processing unit)와 같은 병렬 처리에 유리한 그래픽 처리 장치를 이용할 수 있다. GPU를 이용하는 경우, 영상 수신부(210)는 디코딩에 사용할 GPU-ID와 같은 GPU 식별자를 사용할 수 있다. 또한, 영상 수신부(210)는 압축 인코딩에 사용된 코덱을 사용자의 설정이 아닌 수신한 정보로부터 추출하여 자동으로 판단하여 해당 디코딩 루틴을 사용할 수 있도록 코덱 자동 판단 기능을 수행할 수 있다. 또한, 영상 수신부(210)는 디코딩 수행 시, 디코딩하지 않을 압축 영상 프레임의 범위 또는 간격 주기를 지정할 수 있다.As described above, the image receiving unit (210) can extract still image frames from the image captured of the parking lot (100). At this time, if the received image captured of the parking lot (100) is an encoded compressed image, the image receiving unit (210) can perform decoding, and if it is not an encoded image, the decoding step can be omitted and the still image frame can be extracted. For decoding, a central processing unit such as a CPU (Central Processing unit) can be used, or a graphic processing unit advantageous for parallel processing such as a GPU (Graphics Processing unit) can be used. When a GPU is used, the image receiving unit (210) can use a GPU identifier such as GPU-ID to be used for decoding. In addition, the image receiving unit (210) can perform an automatic codec determination function so that the codec used for compression encoding can be extracted from the received information rather than the user's settings and automatically determined so that the corresponding decoding routine can be used. Additionally, the video receiving unit (210) can specify a range or interval period of compressed video frames not to be decoded when performing decoding.
전처리부(230)는 주차장(100) 촬영 영상으로부터 추출한 영상 프레임을 3차원 측위 추론부(250)에서 처리하기 적합하도록 전처리하도록 구성될 수 있다. 이를 위하여, 전처리부(230)는 영상 프레임의 해상도를 3차원 측위 추론에 적합한 해상도로 변경할 수 있다. 또한, 3차원 측위 추론부(250)에서 GPU를 이용한 추론을 수행할 시, 전처리부(230)는 동시에 처리할 입력 영상 스트림의 개수, 추론을 위해 크기를 조정할 입력 영상의 가로 및 세로 해상도 크기, 입력 영상의 색상 채널의 수량 등을 이용하여 필요한 메모리 크기를 파악한 후, 해당 메모리 크기만큼 GPU 내 메모리 공간을 확보할 수 있다. 또한, 3차원 측위 추론부(250)에서 GPU를 이용한 추론을 수행할 시, 전처리부(230)는 이전 단계에서 전달받은 이미지의 색상 포맷이 다음 단계로 전달할 색상 포맷 대비 상이한 경우 색상 포맷을 변경하는 작업을 수행할 수 있다. 여기서, 색상 포맷의 변경 방식은 예컨대 Red, Green, Blue, Alpha 값을 Blue, Green, Red 값으로 변경하는 것처럼 영상의 색상을 표시하는 형식을 변경하는 것을 의미할 수 있다. 또는, 색상 포맷의 변경 방식은 32비트 형식을 24비트 형식으로 변경하는 것처럼 사용하는 데이터의 크기를 변경하는 것을 의미할 수 있다. 또는, 색상 포맷의 변경 방식은 인터리브드(interleaved) 포맷을 플라나(Planar) 포맷으로 변경하는 것처럼 프레임 이미지 저장 방식을 변경하는 것을 의미할 수 있다.The preprocessing unit (230) may be configured to preprocess the image frame extracted from the parking lot (100) shooting image so that it is suitable for processing by the 3D positioning inference unit (250). To this end, the preprocessing unit (230) may change the resolution of the image frame to a resolution suitable for 3D positioning inference. In addition, when the 3D positioning inference unit (250) performs inference using a GPU, the preprocessing unit (230) may determine the required memory size by using the number of input image streams to be processed simultaneously, the horizontal and vertical resolution sizes of the input image to be resized for inference, the number of color channels of the input image, etc., and may then secure memory space in the GPU equivalent to the corresponding memory size. In addition, when the 3D positioning inference unit (250) performs inference using a GPU, the preprocessing unit (230) may perform a task of changing the color format if the color format of the image transmitted in the previous step is different from the color format to be transmitted in the next step. Here, the change in color format may mean changing the format for displaying the colors of the image, such as changing the Red, Green, Blue, Alpha values to Blue, Green, Red values. Alternatively, the change in color format may mean changing the size of the data used, such as changing a 32-bit format to a 24-bit format. Alternatively, the change in color format may mean changing the frame image storage method, such as changing an interleaved format to a planar format.
3차원 측위 추론부(250)는 (전처리된) 정지 영상 프레임에 기초하여 영상 내 차량에 대한 3차원 측위 정보를 획득하도록 구성될 수 있다. 구체적으로, 3차원 측위 추론부(250)는 딥러닝 모델(255)을 통하여 딥러닝 추론을 수행함으로써 영상 내 차량에 대한 3차원 측위 정보를 획득할 수 있다. The 3D positioning inference unit (250) can be configured to obtain 3D positioning information about a vehicle in an image based on a (preprocessed) still image frame. Specifically, the 3D positioning inference unit (250) can obtain 3D positioning information about a vehicle in an image by performing deep learning inference through a deep learning model (255).
일 실시예에서, 3차원 측위 정보는 차량의 3차원 형상(예를 들어, 직육면체)의 공간 좌표를 나타내기 위한 포인트 또는 길이 정보, 또는 3차원 공간 좌표가 정지 영상 프레임에 투사된 2차원 좌표를 나타내기 위한 포인트 또는 길이 정보를 포함할 수 있다. In one embodiment, the three-dimensional positioning information may include point or length information for representing spatial coordinates of a three-dimensional shape of the vehicle (e.g., a rectangular solid), or point or length information for representing two-dimensional coordinates into which three-dimensional spatial coordinates are projected onto a still image frame.
예를 들어, 차량의 3차원 측위 정보는, 차량의 3차원 형상 중 특정 포인트들; 또는 차량을 포함하며 차량의 길이, 너비, 높이를 각 모서리의 길이로 하는 3차원 직육면체의 속성값 또는 특정 포인트들; 또는 상기 특정 3차원 포인트들의 3차원 공간 좌표가 2차원인 촬영 영상에 투사된 형태인 2차원 포인트들; 또는 촬영 영상의 화각 또는 틸트 값 또는 촬영 위치 좌표 중의 하나 이상과 결합 연산할 경우 3차원 공간 좌표를 획득할 수 있는 2차원 영상 포인트들; 또는 촬영 영상의 화각 또는 틸트 값 또는 촬영 위치 좌표 중의 하나 이상과 결합 연산할 경우 3차원 공간 좌표를 획득할 수 있는 특정 선분의 길이 값 또는 각도 값; 또는 상기 포인트들 좌표 목록 중의 일부가 방향 또는 크기를 나타내는 숫자의 조합으로 대체될 수 있는 포인트들 중 하나 이상을 포함할 수 있다.For example, the three-dimensional positioning information of a vehicle may include specific points of the three-dimensional shape of the vehicle; or attribute values or specific points of a three-dimensional rectangular solid including the vehicle and having the length, width, and height of the vehicle as the lengths of each edge; or two-dimensional points in the form of three-dimensional space coordinates of the specific three-dimensional points projected onto a two-dimensional photographed image; or two-dimensional image points from which three-dimensional space coordinates can be obtained when combined with one or more of the angle of view or tilt values or the photographed position coordinates of the photographed image; or length values or angle values of specific line segments from which three-dimensional space coordinates can be obtained when combined with one or more of the angle of view or tilt values or the photographed position coordinates of the photographed image; or points from which a part of the list of coordinates of the points can be replaced with a combination of numbers indicating a direction or a size.
3차원 측위 추론부(250)는 전달받은 정지 영상 프레임에 대한 추론을 딥러닝 모델(255)을 이용하여 진행하고 그 결과를 시스템의 메모리 또는 GPU의 메모리에 보관할 수 있다. 또한, 3차원 측위 추론부(250)는 적용할 딥러닝 모델(255)의 종류를 사용자가 선택할 수 있는 옵션 기능을 사용자에게 제공할 수 있다. 여기에서 선택 가능한 딥러닝 모델(255)은 디텍션(Detection) 모델과 같이 특정 객체를 탐지하여 구분하는 딥러닝 모델이거나 또는 세그멘테이션(Segmentation) 모델과 같이 이미지 또는 영상 정보를 여러 개의 픽셀 집합으로 나누는 딥러닝 모델일 수 있으나, 이에 한정되지 않으며 딥러닝 추론을 수행할 수 있는 다른 종류의 인공 신경망 모델일 수 있다. 예를 들어, 3차원 측위 추론부(250)는 디텍션 모델 중 이미지 프레임을 그리드 구역으로 나누고 각 그리드 별로 영상 내 제안된 물체의 추정 영역의 확률을 계산하는 YoLo(You only Look once) 계열의 딥러닝 모델을 선택 가능한 딥러닝 모델(255)로 사용자에게 제공할 수 있다. 또한, 예를 들어, 3차원 측위 추론부(250)는 세그멘테이션 모델 중 2차원 예측 마스크(Mask)형태의 픽셀 집합 정보를 획득하는 인스턴스 세그멘테이션 모델(Instance Segmentation Model)을 선택 가능한 딥러닝 모델(255)로 사용자에게 제공할 수 있다.The 3D positioning inference unit (250) can perform inference on the received still image frame using a deep learning model (255) and store the result in the memory of the system or the memory of the GPU. In addition, the 3D positioning inference unit (250) can provide the user with an optional function that allows the user to select the type of deep learning model (255) to be applied. The deep learning model (255) that can be selected here may be a deep learning model that detects and distinguishes a specific object, such as a detection model, or a deep learning model that divides image or video information into multiple sets of pixels, such as a segmentation model, but is not limited thereto and may be another type of artificial neural network model that can perform deep learning inference. For example, the 3D positioning inference unit (250) may provide the user with a deep learning model (255) that can be selected, such as a YoLo (You only Look once) series deep learning model that divides an image frame into grid areas and calculates the probability of an estimated area of a proposed object in the image for each grid among detection models. In addition, for example, the 3D positioning inference unit (250) may provide the user with an instance segmentation model that obtains pixel set information in the form of a 2D prediction mask among segmentation models, such as a deep learning model (255).
또한, 3차원 측위 추론부(250)는 추론 연산량을 줄여서 엣지(Edge) 장비와 같은 경량화된 장치에서 딥러닝 모델을 운용할 수 있도록, 딥러닝 신경망의 최적화 과정에서 편미분(gradient)의 중복을 줄이기 위한 방법을 적용할 수 있다. 또한, 추론 연산량을 줄이기 위한 다른 방식으로, 3차원 측위 추론부(250)는 신경망의 각 계층의 연산량을 균등하게 분배하여 연산의 병목 현상을 개선하는 딥러닝 모델 개선 방법을 적용할 수 있다. 또한, 추론 연산량을 줄이기 위해, 3차원 측위 추론부(250)는 차량 형상에 대한 3차원 객체(예를 들어, 직육면체)가 2차원 이미지에 투사되면서 발생하는 형상 변형 특성을 수치화시킨 값을 딥러닝 모델의 출력값으로 사용하여 모델 출력 값의 종류를 줄일 수 있다.In addition, the 3D positioning inference unit (250) may apply a method for reducing the redundancy of gradients in the optimization process of the deep learning neural network so as to operate the deep learning model in lightweight devices such as edge equipment by reducing the amount of inference computation. In addition, as another method for reducing the amount of inference computation, the 3D positioning inference unit (250) may apply a deep learning model improvement method for evenly distributing the amount of computation of each layer of the neural network to improve the bottleneck phenomenon of the computation. In addition, in order to reduce the amount of inference computation, the 3D positioning inference unit (250) may use a value obtained by quantifying the shape deformation characteristics that occur when a 3D object (e.g., a rectangular solid) for the shape of a vehicle is projected onto a 2D image as the output value of the deep learning model, thereby reducing the types of model output values.
여기서, 형상 변형 특성을 수치화시킨 값은 하나의 값이거나 또는 배열과 같이 여러 개의 값들의 조합일 수 있다. 또한, 형상 변형 특성의 수치화된 값 또는 그 중 일부 값은 차량을 둘러싼 3차원 입체의 특정 꼭지점에서 만나는 3개의 모서리들 간의 각도는 서로 수직이나, 2차원 이미지에 투사되면서 3개 모서리의 각도가 각각 0도에서 180도 사이의 특정한 값으로 변형되는 비율값일 수 있다. 또한, 형상 변형 특성의 수치화된 값 또는 그 중 일부 값은 차량을 둘러싼 3차원 입체에서 차량의 길이 방향, 높이 방향 및 폭 방향의 3개 모서리들 중 특정한 2개의 모서리들 간의 상호 길이 비율값일 수 있다. 또한, 형상 변형 특성의 수치화된 값 또는 그 중 일부 값은 3차원 단위 벡터 또는 3차원의 각도값 배열로 나타낼 수 있는 3차원 공간에서의 차량의 전면 방향을 2차원 영상에 투사하였을 경우의 2차원 공간에서의 단위 벡터 또는 각도값일 수 있다.Here, the value that quantifies the shape deformation characteristic may be a single value or a combination of multiple values such as an array. In addition, the quantified value of the shape deformation characteristic or some of its values may be a ratio value in which the angles between three edges that meet at a specific vertex of a three-dimensional solid surrounding the vehicle are perpendicular to each other, but when projected onto a two-dimensional image, the angles of the three edges are each transformed to a specific value between 0 and 180 degrees. In addition, the quantified value of the shape deformation characteristic or some of its values may be a mutual length ratio value between two specific edges among three edges in the length direction, height direction, and width direction of the vehicle in the three-dimensional solid surrounding the vehicle. In addition, the quantified value of the shape deformation characteristic or some of its values may be a unit vector or angle value in a two-dimensional space when the front direction of the vehicle in a three-dimensional space that can be expressed as a three-dimensional unit vector or an array of three-dimensional angle values is projected onto a two-dimensional image.
후처리부(260)는 3차원 측위 추론부(250)의 추론 결과를 후처리하여 정지 영상 프레임 내에 존재하는 다수의 차량 형상들의 3차원 측위 정보 또는 광학 보정 정보를 획득하도록 구성될 수 있다.The post-processing unit (260) may be configured to post-process the inference result of the 3D positioning inference unit (250) to obtain 3D positioning information or optical correction information of a plurality of vehicle shapes existing within a still image frame.
후처리부(260)는 딥러닝 모델(255)의 추론 결과를 GPU에서 호스트로 복사할 수 있다. 또한, 후처리부는 딥러닝 모델(255)에 따라 이에 적합한 후처리를 수행할 수 있다.The post-processing unit (260) can copy the inference results of the deep learning model (255) from the GPU to the host. In addition, the post-processing unit can perform appropriate post-processing according to the deep learning model (255).
예를 들어, 딥러닝 모델(255)이 YoLo계열과 같이 영상 내 물체의 추정 영역의 확률을 계산하는 방식인 경우, 후처리부(260)의 처리는 주어진 추정 영역에 대해 IoU(Intersection over Union) 값을 이용하여 NMS(Non Maximum Suppression) 처리를 통해 가장 적합한 추정 영역을 남기는 과정을 포함할 수 있다. 또한, 예를 들어, 딥러닝 모델(255)이 인스턴스 세그멘테이션 모델(Instance Segmentation Model)과 같이 2차원 예측 마스크(Mask) 형태의 픽셀 집합 정보를 획득하는 방식인 경우, 후처리부(260)의 처리는 픽셀 집합 정보를 임계값(Thresholding) 방식 또는 CRF(Conditional Random Field) 방식으로 처리하여 바이너리 마스크(Binary Mask) 방식으로 변환하는 과정을 포함할 수 있다.For example, if the deep learning model (255) is a method for calculating the probability of an estimated region of an object in an image, such as the YoLo series, the processing of the post-processing unit (260) may include a process of leaving the most suitable estimated region through NMS (Non Maximum Suppression) processing using the IoU (Intersection over Union) value for the given estimated region. In addition, for example, if the deep learning model (255) is a method for obtaining pixel set information in the form of a two-dimensional prediction mask, such as the instance segmentation model, the processing of the post-processing unit (260) may include a process of converting the pixel set information into a binary mask method by processing it in a thresholding method or a CRF (Conditional Random Field) method.
또한, 후처리부(260)의 처리는 바이너리 마스크 정보를 활용하여 추정된 경계선 정보를 차량의 3차원 상의 위치를 나타내는 3차원 직육면체의 좌표로 변환하는 과정을 포함할 수 있다. 또한, 후처리부(260)의 처리는 딥러닝 모델(255)에서의 추론에 사용된 결과값을 코드값으로 이용하여 대상 차량의 추정 종류 확률값을 산출하는 과정을 포함할 수 있다. 또한, 후처리부(260)는 차량의 방향을 나타내는 3차원 벡터 또는 3차원 축에 대한 방향 각도값 또는 해당 방향 벡터가 2차원 영상에 촬영 투사되었을 경우의 2차원 벡터 또는 2차원 기준 축에 대한 방향 각도값을 획득할 수 있다.In addition, the processing of the post-processing unit (260) may include a process of converting the estimated boundary line information into coordinates of a three-dimensional rectangular solid representing the three-dimensional position of the vehicle by utilizing binary mask information. In addition, the processing of the post-processing unit (260) may include a process of calculating an estimated type probability value of the target vehicle by utilizing the result value used for inference in the deep learning model (255) as a code value. In addition, the post-processing unit (260) may obtain a three-dimensional vector representing the direction of the vehicle, a direction angle value for a three-dimensional axis, or a two-dimensional vector or a direction angle value for a two-dimensional reference axis when the corresponding direction vector is photographed and projected onto a two-dimensional image.
측위 정보 보정부(270)는 광학 보정 정보에 기초하여 3차원 측위 정보에 대한 보정을 수행함으로써 보정된 3차원 측위 정보를 획득하도록 구성될 수 있다. 일 실시예에서, 광학 보정 정보는 정지 영상 프레임의 팬(pan) 각도 및 틸트(tilt) 각도에 기초하여 산출되는 객체 길이 변화 비율 또는 객체 각도 변화 비율을 포함할 수 있다(도 5 및 6 참조). 구현예에 따라, 3차원 측위 추론부(250)는 입력 영상 프레임으로부터 광학 보정 정보를 추론하여 측위 정보 보정부(270)로 제공할 수 있거나, 또는 광학 보정 정보는 영상 촬영 디바이스(170)의 속성(예를 들어, 설치 위치, 각도, 화각 정보 등)으로부터 획득되어 측위 정보 보정부(270)로 제공될 수 있거나, 또는 광학 보정 정보는 3차원 측위 추론부(250)의 추론 및 영상 촬영 디바이스(170)의 속성 모두에 기초하여 결정될 수 있다.The positioning information correction unit (270) may be configured to obtain corrected 3D positioning information by performing correction on the 3D positioning information based on the optical correction information. In one embodiment, the optical correction information may include an object length change ratio or an object angle change ratio calculated based on a pan angle and a tilt angle of a still image frame (see FIGS. 5 and 6 ). Depending on the implementation, the 3D positioning inference unit (250) may infer optical correction information from an input image frame and provide it to the positioning information correction unit (270), or the optical correction information may be obtained from properties of the image capturing device (170) (e.g., installation location, angle, field of view information, etc.) and provided to the positioning information correction unit (270), or the optical correction information may be determined based on both the inference of the 3D positioning inference unit (250) and the properties of the image capturing device (170).
또한, 측위 정보 보정부(270)는 딥러닝 모델(255)이 추론한 주차면(150) 구획 좌표 정보 또는 사용자가 설정한 주차면(150) 구획 좌표 정보 등을 차량의 3차원 측위 정보를 보정하는데 활용할 수 있다. 또한, 측위 정보 보정부(270)는 주차면(150) 구획 좌표 정보 중 주차면(150) 슬롯의 길이 또는 폭 또는 위치 정보를 보정에 활용할 수 있다. 또한, 측위 정보 보정부(270)는 주차면(150) 구획 좌표 정보 중 주차면이 촬영 영상에 나타내어지는 임의의 사각형의 길이 또는 폭 또는 위치 정보를 보정에 활용할 수 있다.In addition, the positioning information correction unit (270) can utilize the parking space (150) block coordinate information inferred by the deep learning model (255) or the parking space (150) block coordinate information set by the user to correct the 3D positioning information of the vehicle. In addition, the positioning information correction unit (270) can utilize the length or width or position information of the parking space (150) slot among the parking space (150) block coordinate information for correction. In addition, the positioning information correction unit (270) can utilize the length or width or position information of an arbitrary square where the parking space appears in the captured image among the parking space (150) block coordinate information for correction.
다음은 측위 정보 보정부(270)에 의해 수행될 수 있는 3차원 측위 정보 보정 과정의 일 예시이다.The following is an example of a 3D positioning information correction process that can be performed by the positioning information correction unit (270).
3차원 공간에서 차량을 포함하는 최소 직육면체의 차량 방향에 수직한 차폭 방향의 길이(Wc)는 촬영 디바이스(170)에서 피사체까지의 거리(dc), 차량의 정면 촬영 비율(rc), 피사체 차량 촬영시의 촬영 디바이스(170)의 틸트량(tc), 촬영 디바이스(170)의 Zoom배율(zc)을 변수로 가지는 수학식 1과 같이 표현할 수 있다.The length (Wc) of the minimum rectangular solid containing the vehicle in a three-dimensional space in the direction of the width of the vehicle perpendicular to the direction of the vehicle can be expressed as mathematical expression 1, which has as variables the distance ( dc ) from the photographing device (170) to the subject, the frontal photographing ratio of the vehicle ( rc ), the tilt amount ( tc ) of the photographing device (170) when photographing the subject vehicle, and the zoom magnification ( zc ) of the photographing device (170).
또한, 3차원 공간에서 주차면(150) 슬롯의 폭(Ws)은 동일한 방식으로 촬영 디바이스(170)에서 주차면(150)까지의 거리(ds), 피사체인 주차면(150)의 정면 촬영 비율(rs), 피사체 주차면(150) 촬영 시의 촬영 디바이스(170)의 Tilt량(ts), 촬영 디바이스(170)의 Zoom배율(Zs)을 가지는 수학식 2와 같이 표현할 수 있다.In addition, the width (W s ) of the slot of the parking lot (150) in the three-dimensional space can be expressed in the same manner as the mathematical expression 2 having the distance (d s ) from the shooting device (170) to the parking lot (150), the front shooting ratio (r s ) of the parking lot (150) as the subject, the tilt amount (t s ) of the shooting device (170) when shooting the subject parking lot (150), and the zoom magnification (Z s ) of the shooting device (170).
여기서, 촬영 영상 내에서 차량의 폭과 주차면(150)의 폭은 일정한 비례 관계(k)를 가지므로 차폭 방향의 길이(Wc)는 수학식 3과 같이 표현할 수 있다.Here, since the width of the vehicle and the width of the parking space (150) in the shooting image have a certain proportional relationship (k), the length in the vehicle width direction (W c ) can be expressed as in mathematical expression 3.
함수 F(d,r,t,z) 에서 촬영 대상 피사체까지의 거리 d는 타 변수와 무관한 독립 변수이면서, 피사체까지의 거리에 역비례하여 F(d,r,t,z)의 값이 변화할 수 있다. 또한, 촬영 디바이스(170)의 배율 z 또한 타 변수와 무관한 독립 변수이면서, F(d,r,t,z)의 값이 정비례로 변하게 할 수 있다. 그러므로 F(d,r,t,z)는 수학식 4와 같이 유추될 수 있다.In the function F(d,r,t,z), the distance d to the subject to be photographed is an independent variable unrelated to other variables, and the value of F(d,r,t,z) can change inversely proportional to the distance to the subject. In addition, the magnification z of the photographing device (170) is also an independent variable unrelated to other variables, and can cause the value of F(d,r,t,z) to change in direct proportion. Therefore, F(d,r,t,z) can be inferred as in mathematical expression 4.
여기서, 촬영 디바이스(170)의 배율은 변하지 않으므로, zs = zc 가 성립하여, J(zs) = J(zc) 가 성립한다. 또한, G(d)는 일차원 역비례 함수이므로 상수 m과 거리 d를 통해, G(d) = m/d 로 나타낼 수 있다.Here, since the magnification of the photographing device (170) does not change, z s = z c is established, and J(z s ) = J(z c ) is established. In addition, since G(d) is a one-dimensional inverse proportional function, it can be expressed as G(d) = m/d through the constant m and the distance d.
이러한 결과들을 반영하면 차폭 방향의 길이(Wc)는 수학식 5와 같이 다시 표현할 수 있다.Reflecting these results, the length in the width direction (Wc) can be re-expressed as in mathematical expression 5.
여기서, 촬영 디바이스(170)에서 피사체까지의 거리(dc)와 촬영 디바이스(170)에서 주차면(150)까지의 거리(ds)는 촬영 디바이스(170)가 설치된 지상 폴대의 위치(xp,yp)와 주차면(150)의 위치 좌표(xs,ys) 및 차량의 위치 픽셀 좌표(xc,yc)들을 이용하여 (ds/dc)를 수학식 6과 같이 산출할 수 있다.Here, the distance (d c ) from the shooting device (170) to the subject and the distance (d s ) from the shooting device (170) to the parking lot (150) can be calculated as (d s /d c ) using the position (x p , y p ) of the ground pole on which the shooting device (170) is installed, the position coordinates (x s , y s ) of the parking lot (150) , and the position pixel coordinates ( x c , y c ) of the vehicle, as in mathematical expression 6.
여기서, 함수 H(r,t)는 (도 5a 및 도 5b에 도시된 바와 같은) 팬 및 틸트 각도에 따른 객체의 크기 변화를 나타내는 함수이다. 함수 H(r,t)는 팬 각도(r) 및 틸트 각도(t)에 따른 투사각도로 수학식 7과 같이 표현할 수 있다.Here, the function H(r,t) is a function representing the change in the size of the object according to the pan and tilt angles (as shown in FIGS. 5a and 5b). The function H(r,t) can be expressed as a projection angle according to the pan angle (r) and the tilt angle (t) as in mathematical expression 7.
수학식 5 내지 수학식 7을 결합하면 다음과 같은 수학식 8로 표현되는 광학 보정 정보를 이용하여 3차원 측위 정보 중 차량의 폭을 보정할 수 있는 정보를 얻을 수 있음을 알 수 있다. By combining mathematical expressions 5 to 7, it can be seen that information capable of correcting the width of a vehicle among 3D positioning information can be obtained by using optical correction information expressed by the following mathematical expression 8.
다음은 광학 보정 정보로부터 얻을 수 있는 촬영 디바이스(170)의 영상 촬영의 팬 각도(r) 및 틸트 각도(t)를 이용하여 3차원 측위 정보 중 도면에 투사된 직육면체 모서리 각도의 보정식을 산출하는 사례이다(도 6a 및 6b 참조).The following is an example of calculating a correction formula for a corner angle of a rectangular solid projected on a drawing among three-dimensional positioning information using the pan angle (r) and tilt angle (t) of an image capture device (170) that can be obtained from optical correction information (see FIGS. 6a and 6b).
3차원 직육면체의 꼭지점을 이루는 각 모서리 간 각도는 수직이지만, 직육면체가 촬영되어 2차원 이미지에 촬영 투사될 경우, 촬영 중심과 각도가 모서리를 표현한 벡터와 일치하지 않는 이상, 모서리를 나타내는 선분 간의 각도는 수직이 아니게 된다. 이때 각도가 변화되는 비율은 촬영 디바이스(170)의 촬영 영상 프레임 상의 픽셀 정보로부터 얻을 수 있는 팬 각도(r) 및 틸트 각도(t)를 통하여 구할 수 있다. 측위 정보 보정부(270)는 이러한 비율을 이용하여 산출된 3차원 측위 정보 중 3차원 직육면체의 꼭지점의 보정 위치를 얻을 수 있다.The angle between each edge forming the vertex of a three-dimensional rectangular solid is vertical, but when the rectangular solid is photographed and projected onto a two-dimensional image, the angle between the line segments representing the corners is not vertical unless the shooting center and the angle match the vector expressing the corner. At this time, the rate at which the angle changes can be obtained through the pan angle (r) and the tilt angle (t) which can be obtained from the pixel information on the shooting image frame of the shooting device (170). The positioning information correction unit (270) can obtain the corrected position of the vertex of the three-dimensional rectangular solid from among the three-dimensional positioning information calculated by using this rate.
이때 각도가 변화되는 비율 P(r,t)은 (도 6a 및 6b에서 확인되는 바와 같이) 팬 각도(r) 및 틸트 각도(t)를 이용하여 수학식 9와 같이 표현할 수 있다.At this time, the rate at which the angle changes P(r,t) can be expressed as in mathematical expression 9 using the fan angle (r) and the tilt angle (t) (as confirmed in FIGS. 6a and 6b).
전술한 바와 같은 방식으로 보정된 3차원 측위 정보가 획득되면, 주차 정보 제공부(290)는 보정된 3차원 측위 정보로부터 그라운드 점유 좌표를 획득하고, 획득되는 그라운드 점유 좌표에 기초하여 주차장 내 주차면(150)의 점유 정보를 포함하는 주차 정보를 제공하도록 구성될 수 있다.When the corrected 3D positioning information is acquired in the manner described above, the parking information providing unit (290) can be configured to acquire ground occupancy coordinates from the corrected 3D positioning information and provide parking information including occupancy information of a parking space (150) in the parking lot based on the acquired ground occupancy coordinates.
이를 위해, 주차 정보 제공부(290)는 보정된 3차원 측위 좌표를 주차장의 그라운드 평면에 투사된 좌표(즉, 그라운드 점유 좌표)를 산출할 수 있다. 이러한 그라운드 평면은 주차장(100) 바닥을 나타내는 평면일 수 있다. 예를 들어, 그라운드 평면은 옥외 지상 평지에 주차된 주차장일 경우 지상 평면일 수 있다. 또한, 여러 개의 주차층으로 구성된 실내 주차동의 경우 그라운드 평면은 각 주차층마다 해당 주차층의 바닥들일 수 있다. 따라서, 이러한 실내 주차동의 경우 다수 개의 주차층에 대응되는 다수 개의 그라운드 평면이 존재할 수 있다. To this end, the parking information provider (290) can calculate coordinates projected on the ground plane of the parking lot from the corrected 3D positioning coordinates (i.e., ground occupancy coordinates). This ground plane may be a plane representing the floor of the parking lot (100). For example, the ground plane may be a ground plane in the case of a parking lot parked on an outdoor flat surface. In addition, in the case of an indoor parking structure consisting of multiple parking floors, the ground plane may be the floors of each parking floor. Accordingly, in the case of such an indoor parking structure, there may be multiple ground planes corresponding to multiple parking floors.
또한, 그라운드 점유 좌표는 보정된 3차원 측위 좌표(x,y,z)에서 (x,y,0)와 같이 객체의 높이를 0으로 하였을 때의 좌표일 수 있다.Additionally, the ground occupancy coordinates can be coordinates where the height of the object is set to 0, such as (x,y,0) in the corrected 3D positioning coordinates (x,y,z).
주차 정보 제공부(290)는 그라운드 점유 좌표에 기초하여 결정되는 차량의 3차원 형상의 바닥면이 점유한 부분을 나타내는 폴리곤(polygon)과 주차장 바닥면에 위치한 주차면 경계선 폴리곤의 교차 수준을 비교함으로써 해당 차량이 해당 주차면을 점유하는지 여부를 판단할 수 있다. 또한, 주차 정보 제공부(290)는 상기 차량의 3차원 형상의 바닥면이 정지 영상 프레임에 투사된 위치를 나타내는 폴리곤과 상기 주차면 경계선 폴리곤이 2차원 정지 영상 프레임 내에 촬영된 위치를 나타내는 폴리곤의 교차 수준을 비교함으로써 해당 차량이 해당 주차면을 점유하는지 여부를 판단할 수 있다.The parking information providing unit (290) can determine whether the vehicle occupies the corresponding parking space by comparing the intersection level of a polygon representing a portion occupied by the floor surface of a three-dimensional shape of the vehicle determined based on ground occupancy coordinates and a parking space boundary line polygon located on the floor surface of the parking lot. In addition, the parking information providing unit (290) can determine whether the vehicle occupies the corresponding parking space by comparing the intersection level of a polygon representing a position where the floor surface of the three-dimensional shape of the vehicle is projected onto a still image frame and a polygon representing a position where the parking space boundary line polygon is captured within a two-dimensional still image frame.
또한, 그라운드 점유 좌표는 촬영된 차량에 대해 2개 이상의 촬영 디바이스(170)에서 촬영된 이미지 프레임으로부터 도출될 경우 실제로는 동일한 차량이므로 도 7에서 예시된 일부 직사각형과 같이 그라운드 점유 좌표로 표시된 도형도 중복되어 표시될 수 있다. In addition, if the ground occupancy coordinates are derived from image frames captured by two or more capturing devices (170) for the captured vehicle, the shape indicated by the ground occupancy coordinates, such as some rectangles exemplified in FIG. 7, may also be displayed in duplicate since it is actually the same vehicle.
또한, 정지 영상 프레임 내 각 차량에 대한 보정된 3차원 측위 정보가 전술한 바와 같이 3차원 측위 추론부(250) 및 측위 정보 보정부(270)에 의해 획득될 수 있다. 주차 정보 제공부(290)는 정지 영상 프레임 내 각 차량에 대한 보정된 3차원 측위 정보에 기초하여 동일한 차량 위치 판단에 따른 필터링 및 필터링된 차량과 주차면(150) 간의 교차 비교를 통하여 주차장 내 다양한 주차 정보를 획득할 수 있다. 이러한 다양한 주차 정보는 주차장의 혼잡 정보, 이중 주차 차량 정보, 통로 이동 차량 정보, 일시 정지 차량 정보, 불법 주차 차량 정보 등을 포함할 수 있다(도 8 참조).In addition, the corrected 3D positioning information for each vehicle in the still image frame can be obtained by the 3D positioning inference unit (250) and the positioning information correction unit (270) as described above. The parking information providing unit (290) can obtain various parking information in the parking lot through filtering according to the judgment of the same vehicle position and cross-comparing the filtered vehicle with the parking space (150) based on the corrected 3D positioning information for each vehicle in the still image frame. This various parking information can include parking lot congestion information, double-parked vehicle information, passageway moving vehicle information, temporarily stopped vehicle information, illegally parked vehicle information, etc. (see FIG. 8).
도 3은 기존의 2차원 추론 모델 및 본 개시 내용에 따른 3차원 추론 모델에 의한 주차판단 정확도 차이를 보여주는 예시적인 도면이다.FIG. 3 is an exemplary diagram showing the difference in parking judgment accuracy between a conventional two-dimensional inference model and a three-dimensional inference model according to the present disclosure.
도 3에 도시된 바에 따르면, 본 개시 내용에 따른 딥러닝 모델을 통한 주차 정보 제공 시스템(200)에서 제공되는 주차 정보의 정확도가 종래의 2차원 영역 인식 딥러닝 모델을 적용한 경우의 주차 정보의 정확도에 비하여 크게 개선됨을 확인할 수 있다. 후술할 바와 같이, 본 개시 내용에 따른 시스템(200)은 주차면 별 점유 판단과 은폐 주차면의 주차여부 판단을 수행시에 훨씬 정확한 결과를 산출할 수 있다.As illustrated in FIG. 3, it can be confirmed that the accuracy of parking information provided by the parking information providing system (200) using a deep learning model according to the present disclosure is greatly improved compared to the accuracy of parking information when a conventional two-dimensional area recognition deep learning model is applied. As described below, the system (200) according to the present disclosure can produce much more accurate results when performing occupancy judgment for each parking space and judgment of whether or not to park in a concealed parking space.
촬영 디바이스의 촬영 영상에 기초하여 주차장의 주차 정보를 제공하는 종래의 시스템에서는 촬영 영상 내 차량들이 서로 겹침으로 차량들이 서로 가려지는 문제가 항상 있어왔다. In conventional systems that provide parking information in a parking lot based on images captured by a shooting device, there has always been a problem in which vehicles in the captured images overlap each other and obscure each other.
도 3의 좌측(310, 320, 330)은 종래의 2차원 영역 인식 딥러닝 모델을 이용한 만공차 판단 과정을 나타낸다. 이러한 종래의 모델에서 차량의 영역을 나타내는 직사각형과 각 주차면(150)을 매칭할 때, 차량의 노출된 경계선 또는 차량의 노출된 경계선을 포함하는 최소 직사각형이 해당 차량이 주차한 주차면(150)이 아닌 인접한 타 주차면(150)도 점유할 수 있으며, 실제로는 비어있는 주차면(150)들 중 상당수가 차량이 주차한 것으로 오판되어 주차면(150) 별 만공차 판단의 오차율이 40%를 넘어서는 것을 확인할 수 있다.The left side (310, 320, 330) of Fig. 3 shows a process of determining whether a vehicle is parked or not using a conventional two-dimensional area recognition deep learning model. In this conventional model, when matching a rectangle representing a vehicle area with each parking space (150), the exposed boundary line of the vehicle or the minimum rectangle including the exposed boundary line of the vehicle may occupy an adjacent parking space (150) other than the parking space (150) where the vehicle is parked, and in reality, it can be confirmed that a considerable number of empty parking spaces (150) are misjudged as being occupied by vehicles, and the error rate of determining whether a vehicle is parked or not exceeds 40% for each parking space (150).
반면에, 도 3의 우측(340, 350, 360)은 본 개시 내용에 따른 시스템(200)에서 3차원 측위 정보를 이용하여 만공차를 판단하는 과정을 나타낸다. 이러한 시스템(200)은 3차원 측위 정보를 이용함으로써 주차면(150) 별 점유된 주차면(150) 및 비어있는 주차면(150)의 판단을 수행할 수 있으며, 더 나아가, 차량에 의해 은폐된 주차면(150)의 주차 여부 판단을 수행할 수 있다. 도 3의 우측에 도시된 바와 같이, 주차 정보 제공 시스템(200)은 차량의 3차원 측위정보를 도출한 후, 해당 차량들의 바닥면과 주차면(150)을 매칭시키면서 은폐된 주차면(150)에 대해서도 만공차 판단을 정확하게 할 수 있음을 확인할 수 있다.On the other hand, the right side (340, 350, 360) of Fig. 3 shows a process of determining a full space by using three-dimensional positioning information in a system (200) according to the present disclosure. This system (200) can perform a judgment of an occupied parking space (150) and an empty parking space (150) for each parking space (150) by using three-dimensional positioning information, and further, can perform a judgment of whether a parking space (150) concealed by a vehicle is parked. As shown on the right side of Fig. 3, it can be confirmed that the parking information providing system (200) can accurately determine a full space even for a concealed parking space (150) by matching the floor surface of the corresponding vehicles and the parking space (150) after deriving three-dimensional positioning information of the vehicles.
도 4는 본 개시 내용의 일 실시예에 따른 주차 정보 제공 시스템에서 화각, 해상도, 설치 높이, 주차면 은폐율이 상이한 경우들에서 차량의 3차원 측위 정보와 광학 보정 정보를 산출하여 주차 정보를 제공하는 것을 나타내는 예시적인 도면이다.FIG. 4 is an exemplary diagram showing how to provide parking information by calculating three-dimensional positioning information and optical correction information of a vehicle in cases where the angle of view, resolution, installation height, and parking space concealment ratio are different in a parking information providing system according to one embodiment of the present disclosure.
도 4에 도시된 바에 따르면, 본 개시 내용에 따른 주차 정보 제공 시스템(200)에서 촬영 조건이 변경되는 조건에서도 3차원 측위 정보와 보정 정보를 산출할 수 있음을 확인할 수 있다. As illustrated in FIG. 4, it can be confirmed that the parking information providing system (200) according to the present disclosure can produce 3D positioning information and correction information even under conditions where shooting conditions change.
종래의 주차 시스템에서는 촬영 디바이스의 화각이 넓을 경우엔 촬영 영상의 광학적 왜곡이 발생하여, 이를 보정하기 위한 디워핑(DeWarping) 기능이 필수적으로 요구된다. 이러한 디워핑 기능이 적용되면 촬영 디바이스의 단가를 높이는 원인이 됨과 동시에 원본 촬영 영상인 디워핑 처리 전 동영상 및 주차 판단의 근거 영상인 디워핑 처리 후 촬영 영상을 모두 보관 및 관리해야하는 문제점이 있다. In conventional parking systems, when the angle of view of the shooting device is wide, optical distortion occurs in the shooting image, and a dewarping function is essential to correct this. If this dewarping function is applied, it increases the unit price of the shooting device, and there is a problem that both the original shooting image before dewarping processing and the shooting image after dewarping processing, which is the basis image for parking judgment, must be stored and managed.
반면에, 본 개시 내용에 따른 주차 정보 제공 시스템(200)은 3차원 측위 추론부(255) 및 측위 정보 보정부(270)에서 촬영 디바이스(170)의 촬영 변수인 팬 각도, 틸트 각도 및 줌의 변화를 반영하여 측위 정보와 보정 정보를 산출할 수 있다. 따라서, 도 4에 도시된 첫 번째 예시 영상(410) 및 네 번째 예시 영상(440)과 같이 디워핑 처리 없이는 상당한 워핑이 존재하는 영상에 대하여도 본 개시 내용에 따른 주차 정보 제공 시스템(200)은 디워핑 처리를 수행할 필요없이 3차원 측위 정보와 보정 정보를 산출할 수 있다.On the other hand, the parking information providing system (200) according to the present disclosure can calculate the positioning information and the correction information by reflecting the change in the pan angle, tilt angle, and zoom, which are the shooting variables of the shooting device (170), in the 3D positioning inference unit (255) and the positioning information correction unit (270). Therefore, even for an image in which significant warping exists without dewarping processing, such as the first example image (410) and the fourth example image (440) illustrated in FIG. 4, the parking information providing system (200) according to the present disclosure can calculate the 3D positioning information and the correction information without having to perform the dewarping processing.
도 5a는 영상 촬영 디바이스의 팬(pan) 각도 및 틸트(tilt) 각도의 변화에 따라 투사되는 객체 형태 중 폭 길이가 변형됨을 나타내는 예시적인 도면이고, 도 5b는 영상 촬영 디바이스의 팬 각도 및 틸트 각도의 변화에 따른 객체 형태 중 폭 길이의 투사 변형 비율을 나타내는 예시적인 그래프이다.FIG. 5a is an exemplary drawing showing that the width length of a projected object shape is transformed according to changes in the pan angle and tilt angle of an image capturing device, and FIG. 5b is an exemplary graph showing a projection transformation ratio of the width length of an object shape according to changes in the pan angle and tilt angle of an image capturing device.
도 6a는 영상 촬영 디바이스의 팬 각도 및 틸트 각도의 변화에 따라 투사되는 객체 형태 중 모서리 각도가 변형됨을 나타내는 예시적인 도면이며, 도 6b는 영상 촬영 디바이스의 팬 각도 및 틸트 각도의 변화에 따른 객체 형태 중 모서리 각도의 투사 변형 비율을 나타내는 예시적인 그래프이다.FIG. 6a is an exemplary drawing showing that a corner angle of a projected object shape is transformed according to changes in the pan angle and tilt angle of an image capturing device, and FIG. 6b is an exemplary graph showing a projection transformation ratio of a corner angle of an object shape according to changes in the pan angle and tilt angle of an image capturing device.
도 5a, 5b, 6a 및 6b에 도시된 바에 따르면, 주차장(100)을 촬영하는 촬영 디바이스(170)의 팬 각도(Pan(r)) 및 틸트 각도(Tilt(t))의 변화에 따라, 촬영된 객체(예를 들어, 차량)의 크기 및 각도가 3차원에서 2차원으로 투사될 때 변형됨을 확인할 수 있다. As shown in FIGS. 5a, 5b, 6a, and 6b, it can be confirmed that the size and angle of a photographed object (e.g., a vehicle) are transformed when projected from three dimensions to two dimensions according to changes in the pan angle (Pan(r)) and tilt angle (Tilt(t)) of the photographing device (170) that photographs the parking lot (100).
더 나아가, 도 5b 및 6b에 도시된 바와 같이, 0~90도 사이에서 팬 각도(Pan(r))가 커지면서 차량의 폭의 투사 변형 비율은 감소하지만, 모서리 각도의 투사 변형 비율은 유의하게 변동되지 않음을 알 수 있다. 또한, 도 5b 및 6b에 도시된 바와 같이, 0~90도 사이에서 틸트 각도(Tilt(t))가 커지면서 차량의 폭의 투사 변형 비율은 감소하며, 모서리 각도의 투사 변형 비율은 증가함을 알 수 있다.Furthermore, as illustrated in FIGS. 5b and 6b, it can be seen that as the pan angle (Pan(r)) increases between 0 and 90 degrees, the projection deformation ratio of the vehicle width decreases, but the projection deformation ratio of the corner angle does not significantly change. In addition, as illustrated in FIGS. 5b and 6b, it can be seen that as the tilt angle (Tilt(t)) increases between 0 and 90 degrees, the projection deformation ratio of the vehicle width decreases, and the projection deformation ratio of the corner angle increases.
도 7은 본 개시 내용의 일 실시예에 따른 시스템에 의한 3차원 측위 보정 결과를 분석 대상 주차장의 그라운드 좌표로 매칭한 결과를 나타내는 예시적인 도면이다.FIG. 7 is an exemplary diagram showing the result of matching the three-dimensional positioning correction result by the system according to one embodiment of the present disclosure to the ground coordinates of the analysis target parking lot.
도 7에 예시된 바와 같이, 본 개시 내용에 따른 주차 정보 제공 시스템(200)은 하나 이상의 영상 촬영 디바이스(170)로부터 수신한 촬영 영상(즉, 정지 영상 프레임)에 기초하여 획득한 그라운드 점유 좌표에 기초하여 주차장(100) 내 주차면(150)의 점유 여부를 판단할 수 있다.As illustrated in FIG. 7, the parking information providing system (200) according to the present disclosure can determine whether a parking space (150) in a parking lot (100) is occupied based on ground occupancy coordinates obtained based on captured images (i.e., still image frames) received from one or more image capturing devices (170).
예를 들어, 주차 정보 제공 시스템(200)은 분석 대상 주차장의 상태를 표시하기 위한 디스플레이 화면(710)에 각 주차면(150)을 나타내는 영역 및 차량의 3차원 형상의 바닥면이 점유한 부분을 나타내는 폴리곤 또는 차량의 3차원 형상의 바닥면이 해당 정지 영상 프레임에 투사된 위치를 나타내는 폴리곤을 표시할 수 있다. 이때 폴리곤이 위치하지 않는 주차면 영역(730)에 해당하는 주차면(150)은 점유되지 않은 주차면(150)으로 결정될 수 있으며, 폴리곤(750)이 위치하는 주차면 영역에 해당하는 주차면(150)은 점유된 주차면(150)으로 결정될 수 있다. 더 나아가, 촬영 영역이 중첩된 2개의 촬영 디바이스(170)들에 의해 동일한 차량이 두 개의 폴리곤들(750-1, 750-2)로 표시될 수 있으나 주차 정보 제공 시스템(200)은 필터링을 통하여 동일 차량으로 판단하여 처리할 수 있다.For example, the parking information providing system (200) may display an area representing each parking space (150) on a display screen (710) for displaying the status of the target parking lot, and a polygon representing a portion occupied by the floor surface of the three-dimensional shape of the vehicle, or a polygon representing a position where the floor surface of the three-dimensional shape of the vehicle is projected onto a corresponding still image frame. At this time, a parking space (150) corresponding to a parking space area (730) where a polygon is not located may be determined as an unoccupied parking space (150), and a parking space (150) corresponding to a parking space area where a polygon (750) is located may be determined as an occupied parking space (150). Furthermore, although the same vehicle may be displayed as two polygons (750-1, 750-2) by two photographing devices (170) whose photographing areas overlap, the parking information providing system (200) may determine and process them as the same vehicle through filtering.
도 8은 본 개시 내용의 일 실시예에 따른 시스템에서 산출된 주차 정보를 나타내는 예시적인 도면이다.FIG. 8 is an exemplary diagram showing parking information produced by a system according to one embodiment of the present disclosure.
도 8에 도시된 바와 같이, 본 개시 내용에 따르는 주차 정보 제공 시스템(200)은 도 7에 예시된 바와 같은 그라운드 좌표 매칭 결과에 기초하여 해당 주차장의 주차 정보를 제공할 수 있다. 주차 제공 시스템(200)은 해당 주차장 내 각 주차면의 점유 정보뿐만 아니라 주차장의 혼잡 정보, 이중 주차 차량 정보, 통로 이동 차량 정보, 일시 정지 차량 정보, 불법 주차 차량 정보 등을 포함하는 주차 정보를 제공할 수 있다.As illustrated in FIG. 8, the parking information providing system (200) according to the present disclosure can provide parking information of a corresponding parking lot based on the ground coordinate matching result as illustrated in FIG. 7. The parking information providing system (200) can provide parking information including not only occupancy information of each parking space in the corresponding parking lot, but also congestion information of the parking lot, double-parked vehicle information, passageway moving vehicle information, temporarily stopped vehicle information, illegally parked vehicle information, etc.
예를 들어, 해당 주차장(100)의 주차 정보를 제공하는 디스플레이 화면(810)(예를 들어, 주차 현황 전광판 등)에는 빈 주차면(830) 및 점유된 주차면(850) 정보가 표시될 수 있으며, 전체 주차면 수 대비 점유된 주차면의 비율, 통로 및 출입구에 위치한 차량들의 수 등에 기초하여 주차장의 혼잡 정보가 제공될 수 있다. 또한, 디스플레이 화면(810)에는 주차면(150)에 위치하지 않는(예를 들어, 통로 등) 차량(870) 정보가 표시될 수 있다. 이러한 주차면(170) 외부에 위치하는 차량(870) 정보 등은 연속되는 전후 정지 영상 프레임들을 분석함으로써 해당 차량이 이중 주차 차량인지, 또는 통로 이동 차량인지, 또는 일시 정지 차량인지, 또는 불법 주차 차량 인지 여부를 판단하는데 이용될 수 있다. For example, a display screen (810) (e.g., a parking status display board, etc.) providing parking information of the corresponding parking lot (100) may display information on empty parking spaces (830) and occupied parking spaces (850), and information on congestion of the parking lot may be provided based on the ratio of occupied parking spaces to the total number of parking spaces, the number of vehicles located in passageways and entrances, etc. In addition, the display screen (810) may display information on vehicles (870) that are not located in the parking space (150) (e.g., in passageways, etc.). Such information on vehicles (870) located outside the parking space (170), etc. may be used to determine whether the vehicle is a double-parked vehicle, a vehicle moving in the passageway, a vehicle temporarily stopped, or an illegally parked vehicle by analyzing consecutive preceding and following still image frames.
예를 들어, 주차면(170) 외부에 위치하는 차량(870) A가 전후 시간대 정지 영상 프레임들을 비교한 결과 통로를 따라 이동중 일 경우, 주차 정보 제공 시스템(200)은 차량 A를 통로 이동 차량으로 결정할 수 있다. 또한, 예를 들어, 주차면(170) 외부에 위치하는 차량(870) B가 전후 시간대 정지 영상 프레임들을 비교한 결과 특정 시간(예를 들어, 20분) 이상 정지해 있을 경우, 주차 정보 제공 시스템(200)은 차량 B를 불법 주차 차량으로 결정할 수 있다.For example, if a vehicle (870) A located outside a parking space (170) is moving along a passageway as a result of comparing still image frames from previous and previous time periods, the parking information providing system (200) may determine that vehicle A is a vehicle moving along the passageway. In addition, if a vehicle (870) B located outside a parking space (170) is stopped for a specific period of time (e.g., 20 minutes) or longer as a result of comparing still image frames from previous and previous time periods, the parking information providing system (200) may determine that vehicle B is an illegally parked vehicle.
도 9는 본 개시 내용의 일 실시예에 따른 시스템에서 딥러닝 모델을 통한 3차원 측위에 기초하여 주차 정보를 제공하는 방법을 나타내는 예시적인 플로우 차트이다.FIG. 9 is an exemplary flow chart illustrating a method for providing parking information based on three-dimensional positioning via a deep learning model in a system according to one embodiment of the present disclosure.
도 9에 도시된 바에 따르면, 본 개시 내용에 따른 주차 정보 제공 시스템(200)은 촬영 디바이스(170)로부터 주차장(100)을 촬영한 촬영 영상을 수신할 수 있다(901). 주차 정보 제공 시스템(200)은 수신한 촬영 영상으로부터 정지 영상 프레임을 추출할 수 있다(902). 주차 정보 제공 시스템(200)은 추출한 정지 영상 프레임을 전처리한 후 정지 영상 프레임에 대한 딥러닝 추론을 수행하고 후처리함으로써 영상 내 차량에 대한 3차원 측위 정보를 획득할 수 있다(903). 주차 정보 제공 시스템(200)은 광학 보정 정보에 기초하여 추론된 3차원 측위 정보에 대한 보정을 수행함으로써 보정된 3차원 측위 정보를 획득할 수 있다(904). 주차 정보 제공 시스템(200)은 보정된 3차원 측위 정보로부터 그라운드 점유 좌표를 획득할 수 있다(905). 주차 정보 제공 시스템(200)은 획득한 그라운드 점유 좌표에 기초하여 주차장(100) 내 주차면(150)의 점유 정보를 포함하는 주차 정보를 제공할 수 있다(906).As illustrated in FIG. 9, the parking information providing system (200) according to the present disclosure can receive a captured image of a parking lot (100) from a capturing device (170) (901). The parking information providing system (200) can extract a still image frame from the received captured image (902). The parking information providing system (200) can obtain three-dimensional positioning information about a vehicle in the image by preprocessing the extracted still image frame, performing deep learning inference on the still image frame, and performing postprocessing (903). The parking information providing system (200) can obtain corrected three-dimensional positioning information by performing correction on the inferred three-dimensional positioning information based on optical correction information (904). The parking information providing system (200) can obtain ground occupancy coordinates from the corrected three-dimensional positioning information (905). The parking information provision system (200) can provide parking information including occupancy information of a parking space (150) in a parking lot (100) based on acquired ground occupancy coordinates (906).
상술한 딥러닝 모델을 통한 3차원 측위 및 광학 보정 정보에 기초하여 주차 정보를 제공하는 방법은 컴퓨터 프로그램에 의하여 구현될 수 있다. 컴퓨터 프로그램은 본 개시 내용에 따른 딥러닝 모델을 통한 3차원 측위 및 광학 보정 정보에 기초하여 주차 정보를 제공하기 위한 기능 모듈들뿐만 아니라 이를 위한 컴퓨터-실행가능 명령들을 포함할 수 있다. 컴퓨터 프로그램의 컴퓨터-실행가능 명령들은 프로세서에 의해 실행될 때, 프로세서로 하여금 본 개시 내용의 딥러닝 모델을 통한 3차원 측위에 기초하여 주차 정보를 제공하기 위한 방법을 수행하게 할 수 있다.The method for providing parking information based on the three-dimensional positioning and optical correction information through the deep learning model described above can be implemented by a computer program. The computer program can include not only functional modules for providing parking information based on the three-dimensional positioning and optical correction information through the deep learning model according to the present disclosure, but also computer-executable instructions therefor. The computer-executable instructions of the computer program, when executed by a processor, can cause the processor to perform the method for providing parking information based on the three-dimensional positioning through the deep learning model of the present disclosure.
임의의 제시된 프로세스들에 있는 단계들의 임의의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 발명의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 예시적인 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is to be understood that any particular order or hierarchy of steps in any of the presented processes is an example of exemplary approaches. It is to be understood that, based on design priorities, the particular order or hierarchy of steps in the processes may be rearranged within the scope of the present invention. The appended method claims provide elements of the various steps in an exemplary order, but are not meant to be limited to the particular order or hierarchy presented.
본 명세서 사용되는 용어 "컴포넌트", "유닛 또는 부", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭할 수 있다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정, 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있고, 일 컴포넌트는 하나의 컴퓨터 내에 로컬화될 수 있고, 또는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다.The terms "component," "unit or part," "module," "system," and the like, as used herein, may refer to a computer-related entity, hardware, firmware, software, a combination of software and hardware, or an execution of software. For example, a component may be, but is not limited to, a process running on a processor, a processor, an object, a thread of execution, a program, and/or a computer. For example, both an application running on a computing device and the computing device may be a component. One or more components may reside within a processor and/or thread of execution, and a component may be localized on one computer or distributed between two or more computers. Additionally, these components may execute from various computer-readable media having various data structures stored therein.
제시된 실시예들에 대한 설명은 임의의 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 발명의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the disclosed embodiments is provided to enable any person skilled in the art to make or use the invention. Various modifications to these embodiments will be apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the invention. Thus, the invention is not intended to be limited to the disclosed embodiments, but is to be construed in the widest scope consistent with the principles and novel features disclosed herein.
100 : 주차장
150 : 주차면
170 : 촬영 디바이스
200 : 주차 정보 제공 시스템
210 : 영상 수신부
230 : 전처리부
250 : 3차원 측위 추론부
255 : 딥러닝 모델
260 : 후처리부
270 : 측위 정보 보정부
290 : 주차 정보 제공부
300 : 외부 기관100 : Parking lot
150 : Parking space
170 : Shooting device
200: Parking Information System
210 : Video receiver
230 : Preprocessing section
250: 3D positioning inference unit
255: Deep Learning Model
260 : Post-processing section
270: Positioning information correction unit
290: Parking Information Provider
300 : External agency
Claims (15)
영상 촬영 디바이스로부터 수신되는 주차장 촬영 영상으로부터 정지 영상 프레임을 추출하도록 구성되는 영상 수신부;
상기 정지 영상 프레임에 대한 딥러닝 추론을 수행함으로써 영상 내 차량에 대한 3차원 측위 정보를 획득하도록 구성되는 3차원 측위 추론부;
광학 보정 정보에 기초하여 상기 3차원 측위 정보에 대한 보정을 수행함으로써 보정된 3차원 측위 정보를 획득하도록 구성되는 측위 정보 보정부; 및
상기 보정된 3차원 측위 정보로부터 획득되는 그라운드 점유 좌표에 기초하여 상기 주차장 내 주차면의 점유 정보를 포함하는 주차 정보를 제공하도록 구성되는 주차 정보 제공부를 포함하고,
상기 광학 보정 정보는 상기 정지 영상 프레임의 팬(pan) 각도 및 틸트(tilt) 각도에 기초하여 산출되는 상기 정지 영상 프레임 내 각 차량의 길이 변화 비율 또는 각도 변화 비율을 포함하는,
주차 정보 제공 시스템.A system for providing parking information based on 3D positioning through a deep learning model.
An image receiving unit configured to extract a still image frame from a parking lot image captured from a video capturing device;
A 3D positioning inference unit configured to obtain 3D positioning information about a vehicle in an image by performing deep learning inference on the still image frame;
A positioning information correction unit configured to obtain corrected 3D positioning information by performing correction on the 3D positioning information based on optical correction information; and
A parking information providing unit configured to provide parking information including occupancy information of a parking space within the parking lot based on ground occupancy coordinates obtained from the above-mentioned corrected 3D positioning information,
The optical correction information includes a length change ratio or an angle change ratio of each vehicle within the still image frame, which is calculated based on a pan angle and a tilt angle of the still image frame.
Parking information provision system.
상기 3차원 측위 정보는 상기 차량의 3차원 형상의 공간 좌표를 나타내기 위한 포인트 또는 길이 정보, 또는 상기 3차원 형상의 공간 좌표가 상기 정지 영상 프레임에 투사된 2차원 좌표를 나타내기 위한 포인트 또는 길이 정보를 포함하는,
주차 정보 제공 시스템.In paragraph 1,
The above three-dimensional positioning information includes point or length information for representing the spatial coordinates of the three-dimensional shape of the vehicle, or point or length information for representing the two-dimensional coordinates projected onto the still image frame of the three-dimensional shape.
Parking information provision system.
상기 3차원 측위 추론부는 상기 정지 영상 프레임으로부터 상기 광학 보정 정보를 추론하도록 추가적으로 구성되거나, 또는
상기 광학 보정 정보는 상기 영상 촬영 디바이스의 속성으로부터 획득되거나, 또는
상기 광학 보정 정보는 상기 3차원 측위 추론부의 추론 및 상기 영상 촬영 디바이스의 속성 모두에 기초하여 결정되는,
주차 정보 제공 시스템.In paragraph 1,
The above 3D positioning inference unit is additionally configured to infer the optical correction information from the still image frame, or
The above optical correction information is obtained from the properties of the image capturing device, or
The above optical correction information is determined based on both the inference of the 3D positioning inference unit and the properties of the image capturing device.
Parking information provision system.
상기 주차 정보 제공부는,
상기 그라운드 점유 좌표에 기초하여 결정되는 상기 차량의 3차원 형상의 바닥면이 점유한 부분을 나타내는 폴리곤(polygon) 또는 상기 차량의 3차원 형상의 바닥면이 상기 정지 영상 프레임에 투사된 위치를 나타내는 폴리곤과 주차면 경계선 폴리곤의 교차 수준을 비교함으로써 상기 차량이 해당 주차면을 점유하는지 여부를 판단하도록 구성되는,
주차 정보 제공 시스템.In paragraph 1,
The above parking information provider is,
A method configured to determine whether the vehicle occupies a parking space by comparing the intersection level of a polygon representing a portion occupied by the floor surface of the three-dimensional shape of the vehicle based on the ground occupancy coordinates or a polygon representing a position where the floor surface of the three-dimensional shape of the vehicle is projected onto the still image frame with a parking space boundary polygon,
Parking information provision system.
상기 정지 영상 프레임 내 각 차량에 대한 보정된 3차원 측위 정보가 상기 3차원 측위 추론부 및 상기 측위 정보 보정부에 의해 획득되며,
상기 주차 정보 제공부는,
상기 정지 영상 프레임 내 각 차량에 대한 보정된 3차원 측위 정보에 기초하여, 상기 주차장의 혼잡 정보, 이중 주차 차량 정보, 통로 이동 차량 정보, 일시 정지 차량 정보, 불법 주차 차량 정보를 포함하는 주차 정보를 제공하도록 추가적으로 구성되는,
주차 정보 제공 시스템.In paragraph 5,
Corrected 3D positioning information for each vehicle in the still image frame is obtained by the 3D positioning inference unit and the positioning information correction unit,
The above parking information provider is,
Based on the corrected 3D positioning information for each vehicle in the still image frame, the system is additionally configured to provide parking information including parking lot congestion information, double-parked vehicle information, passageway moving vehicle information, temporarily stopped vehicle information, and illegally parked vehicle information.
Parking information provision system.
상기 3차원 측위 추론부는 딥러닝 추론을 위해 디텍션(Detection) 모델 또는 세그멘테이션(Segmentation) 모델을 이용하도록 구성되는,
주차 정보 제공 시스템.In paragraph 1,
The above 3D positioning inference unit is configured to use a detection model or a segmentation model for deep learning inference.
Parking information provision system.
영상 촬영 디바이스로부터 수신되는 주차장 촬영 영상으로부터 정지 영상 프레임을 추출하는 단계;
상기 정지 영상 프레임에 대한 딥러닝 추론을 수행함으로써 영상 내 차량에 대한 3차원 측위 정보를 획득하는 단계;
광학 보정 정보에 기초하여 상기 3차원 측위 정보에 대한 보정을 수행함으로써 보정된 3차원 측위 정보를 획득하는 단계; 및
상기 보정된 3차원 측위 정보로부터 획득되는 그라운드 점유 좌표에 기초하여 상기 주차장 내 주차면의 점유 정보를 포함하는 주차 정보를 제공하는 단계를 포함하고,
상기 광학 보정 정보는 상기 정지 영상 프레임의 팬 각도 및 틸트 각도에 기초하여 산출되는 상기 정지 영상 프레임 내 각 차량의 길이 변화 비율 또는 각도 변화 비율을 포함하는,
주차 정보 제공 방법.A method for providing parking information based on three-dimensional positioning using a deep learning model.
A step of extracting still image frames from parking lot footage received from a video capturing device;
A step of obtaining three-dimensional positioning information about a vehicle in an image by performing deep learning inference on the still image frame;
A step of obtaining corrected 3D positioning information by performing correction on the 3D positioning information based on optical correction information; and
A step of providing parking information including occupancy information of a parking space within the parking lot based on ground occupancy coordinates obtained from the above-mentioned corrected 3D positioning information ,
The optical correction information includes a length change ratio or an angle change ratio of each vehicle within the still image frame, which is calculated based on a pan angle and a tilt angle of the still image frame.
How to provide parking information.
상기 3차원 측위 정보는 상기 차량의 3차원 형상의 공간 좌표를 나타내기 위한 포인트 또는 길이 정보, 또는 상기 3차원 형상의 공간 좌표가 상기 정지 영상 프레임에 투사된 2차원 좌표를 나타내기 위한 포인트 또는 길이 정보를 포함하는,
주차 정보 제공 방법.In Article 8,
The above three-dimensional positioning information includes point or length information for representing the spatial coordinates of the three-dimensional shape of the vehicle, or point or length information for representing the two-dimensional coordinates projected onto the still image frame of the three-dimensional shape.
How to provide parking information.
상기 광학 보정 정보는 상기 딥러닝 추론을 통해 상기 정지 영상 프레임으로부터 추론되거나, 또는
상기 광학 보정 정보는 상기 영상 촬영 디바이스의 속성으로부터 획득되거나, 또는
상기 광학 보정 정보는 상기 딥러닝 추론 및 상기 영상 촬영 디바이스의 속성 모두에 기초하여 결정되는,
주차 정보 제공 방법.In Article 8,
The optical correction information is inferred from the still image frame through the deep learning inference, or
The above optical correction information is obtained from the properties of the image capturing device, or
The above optical correction information is determined based on both the deep learning inference and the properties of the image capturing device.
How to provide parking information.
상기 주차 정보를 제공하는 단계는,
상기 그라운드 점유 좌표에 기초하여 결정되는 상기 차량의 3차원 형상의 바닥면이 점유한 부분을 나타내는 폴리곤 또는 상기 차량의 3차원 형상의 바닥면이 상기 정지 영상 프레임에 투사된 위치를 나타내는 폴리곤과 주차면 경계선 폴리곤의 교차 수준을 비교함으로써 상기 차량이 해당 주차면을 점유하는지 여부를 판단하는 단계를 포함하는,
주차 정보 제공 방법.In Article 8,
The steps for providing the above parking information are:
A step of determining whether the vehicle occupies the parking space by comparing the intersection level of a polygon representing a portion occupied by the floor surface of the three-dimensional shape of the vehicle determined based on the ground occupancy coordinates or a polygon representing a position where the floor surface of the three-dimensional shape of the vehicle is projected onto the still image frame with a parking space boundary polygon,
How to provide parking information.
상기 3차원 측위 정보를 획득하는 단계는 상기 정지 영상 프레임 내 각 차량에 대한 3차원 측위 정보를 획득하는 단계를 포함하고,
상기 보정된 3차원 측위 정보를 획득하는 단계는 상기 정지 영상 프레임 내 각 차량에 대한 보정된 3차원 측위 정보를 획득하는 단계를 포함하며,
상기 주차 정보를 제공하는 단계는,
상기 정지 영상 프레임 내 각 차량에 대한 보정된 3차원 측위 정보에 기초하여, 상기 주차장의 혼잡 정보, 이중 주차 차량 정보, 통로 이동 차량 정보, 일시 정지 차량 정보, 불법 주차 차량 정보를 포함하는 주차 정보를 제공하는 단계를 더 포함하는,
주차 정보 제공 방법.In Article 12,
The step of obtaining the above 3D positioning information includes the step of obtaining 3D positioning information for each vehicle within the still image frame,
The step of obtaining the corrected 3D positioning information includes the step of obtaining the corrected 3D positioning information for each vehicle within the still image frame,
The steps for providing the above parking information are:
Further comprising a step of providing parking information including parking lot congestion information, double-parked vehicle information, passageway moving vehicle information, temporarily stopped vehicle information, and illegally parked vehicle information based on the corrected three-dimensional positioning information for each vehicle in the still image frame.
How to provide parking information.
상기 딥러닝 추론은 디텍션 모델 또는 세그멘테이션 모델을 이용하여 수행되는,
주차 정보 제공 방법.In Article 8,
The above deep learning inference is performed using a detection model or a segmentation model.
How to provide parking information.
A computer program stored on a computer-readable medium, comprising computer-executable instructions for executing a method according to any one of claims 8, 9 and 11 to 14.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230153549A KR102797025B1 (en) | 2023-11-08 | 2023-11-08 | System and method for providing parking information based on 3d positioning through deep learning model |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230153549A KR102797025B1 (en) | 2023-11-08 | 2023-11-08 | System and method for providing parking information based on 3d positioning through deep learning model |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR102797025B1 true KR102797025B1 (en) | 2025-04-21 |
Family
ID=95565104
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020230153549A Active KR102797025B1 (en) | 2023-11-08 | 2023-11-08 | System and method for providing parking information based on 3d positioning through deep learning model |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102797025B1 (en) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019091169A (en) * | 2017-11-13 | 2019-06-13 | キヤノン株式会社 | Image processing apparatus, control method for image processing apparatus, and program |
| US20200279483A1 (en) * | 2019-03-01 | 2020-09-03 | Amazon Technologies, Inc. | Identifying parking location using single camera reverse projection |
| KR102161948B1 (en) | 2020-06-29 | 2020-10-06 | 이홍기 | Parking guidance system applied with vehicle license plate recognition technology using neural network and method of providing parking vehicle location information thereof |
| KR102240638B1 (en) * | 2019-11-01 | 2021-04-15 | 주식회사 누리콘 | Parking guidance method and system using boundary pixel data estimated in vehicle image and analysis of vehicle model viewpoint |
| KR20230112037A (en) * | 2022-01-19 | 2023-07-26 | 주식회사 엠아이엔테크 | A device that creates a cctv spatial model using the ptz camera coordinates where the identified object is located at the center |
| KR20230141043A (en) * | 2022-03-31 | 2023-10-10 | 한국전자통신연구원 | Method for checking parking occupation status and apparatus for the same |
-
2023
- 2023-11-08 KR KR1020230153549A patent/KR102797025B1/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019091169A (en) * | 2017-11-13 | 2019-06-13 | キヤノン株式会社 | Image processing apparatus, control method for image processing apparatus, and program |
| US20200279483A1 (en) * | 2019-03-01 | 2020-09-03 | Amazon Technologies, Inc. | Identifying parking location using single camera reverse projection |
| KR102240638B1 (en) * | 2019-11-01 | 2021-04-15 | 주식회사 누리콘 | Parking guidance method and system using boundary pixel data estimated in vehicle image and analysis of vehicle model viewpoint |
| KR102161948B1 (en) | 2020-06-29 | 2020-10-06 | 이홍기 | Parking guidance system applied with vehicle license plate recognition technology using neural network and method of providing parking vehicle location information thereof |
| KR20230112037A (en) * | 2022-01-19 | 2023-07-26 | 주식회사 엠아이엔테크 | A device that creates a cctv spatial model using the ptz camera coordinates where the identified object is located at the center |
| KR20230141043A (en) * | 2022-03-31 | 2023-10-10 | 한국전자통신연구원 | Method for checking parking occupation status and apparatus for the same |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8145007B2 (en) | Image processing of regions in a wide angle video camera | |
| US8369399B2 (en) | System and method to combine multiple video streams | |
| KR101149651B1 (en) | Parking lot real time detection system using image analysis of omnidirectional camera and detection method thereof | |
| US11037308B2 (en) | Intelligent method for viewing surveillance videos with improved efficiency | |
| JP2009124685A (en) | Method and system for combining videos for display in real-time | |
| CN109005334A (en) | A kind of imaging method, device, terminal and storage medium | |
| CN111383204A (en) | Video image fusion method, fusion device, panoramic monitoring system and storage medium | |
| KR101238989B1 (en) | Parking lot real time detection system using image analysis of omnidirectional camera and detection method thereof | |
| CN113724527A (en) | Parking space management method | |
| KR102080456B1 (en) | method of controlling object tracking of PTZ camera by use of syntax data in compressed video | |
| AU2022279584A1 (en) | Video-conference endpoint | |
| US11044399B2 (en) | Video surveillance system | |
| CN116866580A (en) | Video encoding method and device, storage medium and electronic equipment | |
| CN112150355B (en) | Image processing method and related equipment | |
| KR102797025B1 (en) | System and method for providing parking information based on 3d positioning through deep learning model | |
| CN113132708B (en) | Method and apparatus for acquiring three-dimensional scene image using fisheye camera, device and medium | |
| CN118898704A (en) | Image processing method, device, electronic device and storage medium | |
| Brzeszcz et al. | Real‐time construction and visualisation of drift‐free video mosaics from unconstrained camera motion | |
| CN110570441B (en) | Ultra-high definition low-delay video control method and system | |
| Mangiat et al. | Inexpensive high dynamic range video for large scale security and surveillance | |
| KR102015082B1 (en) | syntax-based method of providing object tracking in compressed video | |
| CN115330711B (en) | Image video content management method and system based on data processing | |
| CN116311041A (en) | Regional interest evaluation method, medium and device for intelligent stadium | |
| KR20180017329A (en) | Image Pickup Apparatus | |
| Xu et al. | Framework for script based virtual directing and multimedia authoring in live video streaming |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| E701 | Decision to grant or registration of patent right | ||
| GRNT | Written decision to grant | ||
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |