KR20200145410A - Apparatus and method for obtaining location information for camera of vehicle - Google Patents
Apparatus and method for obtaining location information for camera of vehicle Download PDFInfo
- Publication number
- KR20200145410A KR20200145410A KR1020190074406A KR20190074406A KR20200145410A KR 20200145410 A KR20200145410 A KR 20200145410A KR 1020190074406 A KR1020190074406 A KR 1020190074406A KR 20190074406 A KR20190074406 A KR 20190074406A KR 20200145410 A KR20200145410 A KR 20200145410A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- camera
- location information
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H04N5/2257—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
Description
본 발명은 차량의 카메라에 의해 획득된 영상으로부터 주행 차량에 탑재된 카메라의 위치 정보를 획득하는 차량의 카메라 위치 정보 획득 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for obtaining camera location information of a vehicle for obtaining location information of a camera mounted on a driving vehicle from an image obtained by a camera of the vehicle.
일반적으로 차량은 화석 연료, 전기 등을 동력원으로 하여 도로 또는 선로를 주행하는 운송 장치를 의미한다.In general, a vehicle refers to a transportation device that travels on a road or track using fossil fuel, electricity, or the like as a power source.
차량은 기술의 발달에 따라 운전자에게 다양한 기능을 제공할 수 있도록 발전해왔다. 특히, 차량의 전장화 추세에 따라, 사고 직전 또는 사고 순간에 사고를 방지하기 위해 동작하는 능동형 안전 시스템(ASS: Active Safety System)을 구비하는 차량이 등장하였다.Vehicles have been developed to provide various functions to drivers according to the development of technology. In particular, according to the trend of electrification of vehicles, vehicles having an active safety system (ASS) that operate to prevent accidents just before or at the moment of accidents have appeared.
나아가, 최근에는 운전자의 부담을 경감시켜주고 편의를 증진시켜주기 위하여 차량 상태, 운전자 상태, 및 주변 환경과 같은 주행 환경에 대한 정보를 능동적으로 제공하는 첨단 운전자 지원 시스템(ADAS: Advanced Driver Assist System)이 탑재된 차량에 대한 연구가 활발히 진행되고 있다. Furthermore, in recent years, an advanced driver assistance system (ADAS: Advanced Driver Assist System) that actively provides information on the driving environment such as vehicle status, driver status, and surrounding environment in order to reduce the burden on the driver and improve convenience. Research on this equipped vehicle is actively underway.
첨단 운전자 지원 시스템은 현재 위치로부터 결정되는 주행 환경에 따라 동작하므로, 자차의 위치 추정이 선행될 수 있다. 이 때, 차량에 탑재된 카메라에 의해 획득된 주변 영상이 이용될 수 있고, 주변 영상을 효과적으로 활용하기 위해서는 카메라의 정확한 위치 정보를 확보할 필요가 있다.Since the advanced driver assistance system operates according to the driving environment determined from the current position, the position of the own vehicle may be estimated in advance. At this time, the surrounding image acquired by the camera mounted on the vehicle may be used, and in order to effectively utilize the surrounding image, it is necessary to secure accurate location information of the camera.
본 발명이 해결하고자 하는 과제는, 복수의 주변 영상에 대한 매칭 정보와 차량의 센서에 의해 획득된 차량의 변위 정보를 융합하여 카메라의 위치 정보를 획득하는 차량의 카메라 위치 정보 획득 장치 및 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide an apparatus and method for acquiring camera position information of a vehicle by fusing matching information for a plurality of surrounding images and displacement information of a vehicle acquired by a sensor of a vehicle to obtain camera position information. Is to do.
다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problem to be solved by the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.
본 발명의 일 실시예에 따른 차량의 카메라 위치 정보 획득 방법은, 차량에 마련된 카메라에 의해 복수의 시점에 획득된 복수의 주변 영상의 특징점을 매칭하는 단계; 상기 차량에 마련된 센서에 의해 감지된 상기 차량의 주행 정보를 기초로 상기 차량의 변위 정보를 획득하는 단계; 및 상기 획득된 차량의 변위 정보와 상기 특징점에 대한 매칭 정보를 융합하여 상기 카메라의 위치 정보를 획득하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method of obtaining camera location information of a vehicle includes: matching feature points of a plurality of surrounding images acquired at a plurality of viewpoints by a camera provided in the vehicle; Obtaining displacement information of the vehicle based on driving information of the vehicle detected by a sensor provided in the vehicle; And acquiring location information of the camera by fusing the obtained displacement information of the vehicle and matching information for the feature point.
본 발명의 일 실시예에 따른 차량의 카메라 위치 정보 획득 장치는, 차량에 마련된 카메라에 의해 복수의 시점에 획득된 복수의 주변 영상의 특징점을 매칭하는 매칭부; 상기 차량에 마련된 센서에 의해 감지된 상기 차량의 주행 정보를 기초로 상기 차량의 변위 정보를 획득하는 변위 정보 획득부; 및 상기 획득된 차량의 변위 정보와 상기 특징점에 대한 매칭 정보를 융합하여 상기 카메라의 위치 정보를 획득하는 융합부를 포함한다.According to an embodiment of the present invention, an apparatus for obtaining camera location information of a vehicle includes: a matching unit for matching feature points of a plurality of surrounding images acquired at a plurality of viewpoints by a camera provided in the vehicle; A displacement information acquisition unit that acquires displacement information of the vehicle based on driving information of the vehicle detected by a sensor provided in the vehicle; And a fusion unit that acquires location information of the camera by fusing the obtained displacement information of the vehicle and matching information on the feature point.
본 발명의 일 실시예에 따른 차량의 카메라 위치 정보 획득 장치 및 방법은, 보다 정확하게 카메라의 위치 정보를 획득할 수 있고, 이를 기반으로 차량의 추정 위치 정확도를 높일 수 있다. 구체적으로, 복수의 주변 영상에 대한 매칭 정보와 차량의 센서에 의해 획득된 차량의 변위 정보를 융합함으로써, 주변 영상에 기초한 카메라의 위치 정보의 축척을 복원함과 동시에, 센서의 바이어스도 보정하여, 차량의 3차원 위치를 정확하게 추정할 수 있다. In the apparatus and method for obtaining camera location information of a vehicle according to an embodiment of the present invention, it is possible to more accurately obtain the location information of the camera, and based on this, it is possible to increase the accuracy of the estimated location of the vehicle. Specifically, by fusing matching information for a plurality of surrounding images and displacement information of the vehicle obtained by the sensor of the vehicle, the scale of the camera's position information based on the surrounding images is restored, and the bias of the sensor is also corrected, The three-dimensional position of the vehicle can be accurately estimated.
도 1 및 2는 본 발명의 여러 가지 실시예에 따른 차량의 카메라 위치 정보 획득 시스템의 기능 블록도이다.
도 3은 본 발명의 일 실시예에 따른 차량의 카메라 위치 정보 획득 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 매칭부에 의해 획득된 광 흐름을 예시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 차량 중심과 카메라 사이의 오프셋을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 비용함수를 만족하는 축척이 상이한 카메라 궤적을 예시한 도면이다.1 and 2 are functional block diagrams of a system for obtaining camera location information of a vehicle according to various embodiments of the present invention.
3 is a flowchart of a method of obtaining camera location information of a vehicle according to an embodiment of the present invention.
4 is a diagram illustrating a light flow obtained by a matching unit according to an embodiment of the present invention.
5 is a diagram for explaining an offset between a vehicle center and a camera according to an embodiment of the present invention.
6 is a diagram illustrating camera trajectories having different scales satisfying a cost function according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and are common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout this specification.
도 1 및 2는 본 발명의 여러 가지 실시예에 따른 차량의 카메라 위치 정보 획득 시스템의 기능 블록도이다.1 and 2 are functional block diagrams of a system for obtaining camera location information of a vehicle according to various embodiments of the present invention.
본 발명의 차량의 카메라 위치 정보 획득 시스템은 차량의 카메라에 의해 획득된 주변 영상을 이용하여 카메라의 위치 정보를 획득할 수 있는 모든 시스템을 의미한다.The system for obtaining camera location information of a vehicle of the present invention refers to any system capable of obtaining location information of a camera using surrounding images obtained by the camera of the vehicle.
자율 주행 차량은 사전에 구축된 정밀 지도(HD map)를 이용하여 실시간 위치 인식을 하고 주변 환경 상황에 따라 경로 계획/변경 및 차량 제어를 할 필요가 있다. 정밀 지도 구축 방법 중 하나는 고성능 센서(RTK GPS, INS, LiDAR, 카메라)를 장착한 MMS(Mobile Mapping System) 차량을 이용하여 실제 도로 주행 환경을 주행하면서 3차원 포인트 클라우드 데이터(Point Cloud Data)를 획득하고, 획득된 포인트 클라우드 데이터 중 차선, 정지선, 표지판, 이정표 등과 같이 의미 있는 데이터가 벡터(vector) 형태로 표현함으로써 고정밀 지도를 구축할 수 있다. 이러한 방법은 고성능 센서를 장착한 MMS 차량을 이용하므로, 일부 구간이 변경된 경우, 변화 감지 구간을 인지하기 어려울 수 있다. 또한, 변경된 구간을 업데이트 하기 위해 MMS 차량으로 해당 구간을 주행하여 다시 3차원 포인트 클라우드 데이터를 획득하고, 다시 벡터 형태의 지도로 만드는 작업을 수행해야 하는데, 이를 위한 많은 비용과 시간이 요구될 수 있다.Autonomous vehicles need to recognize real-time location using a pre-built HD map, plan/change routes and control vehicles according to the surrounding environment. One of the ways to build a precision map is to use a MMS (Mobile Mapping System) vehicle equipped with a high-performance sensor (RTK GPS, INS, LiDAR, and camera) to drive the actual road driving environment while using 3D point cloud data. It is possible to construct a high-precision map by expressing meaningful data such as lanes, stop lines, signs, and milestones among the acquired and acquired point cloud data in a vector format. Since this method uses an MMS vehicle equipped with a high-performance sensor, when some sections are changed, it may be difficult to recognize the change detection section. In addition, in order to update the changed section, it is necessary to drive the section with an MMS vehicle to obtain 3D point cloud data again, and to perform the task of creating a vector map again, which can require a lot of cost and time. .
이를 해결하기 위해, 복수의 차량에서 생성된 부정확한 지도를 서버에서 취합 및 융합하여 정밀 지도와 유사한 정확도를 갖는 지도를 생성하는 방법들이 제안되고 있다. 이와 같은 방법을 구현하기 위해서는 정밀 지도의 도움 없이 차량이 스스로의 위치를 정확하게 추정할 필요가 있다. 하나의 방법으로는 차량의 휠 속도 정보 및 요레이트(Yaw Rate) 정보를 융합하여 차량의 상대적인 자세각 및 위치를 추정(이하, 오도메트리라 함)하는 방법이 있다. 하지만 이 방법은 평면상에서의 움직임을 가정하므로 3차원 지도 생성에 활용하기 어려우며, 휠 속도 센서의 환산 계수(Scaling Factor)를 추정하기 어려울 수 있다. 또한, 요레이트 센서의 경우 바이어스(Bias)를 포함하고 있어, 이를 고려하지 않을 경우 차량의 자세각 및 위치 정확도가 현저히 낮아질 수 있다.To solve this problem, methods of generating a map having an accuracy similar to that of a precision map by collecting and fusing inaccurate maps generated by a plurality of vehicles in a server have been proposed. In order to implement such a method, it is necessary for the vehicle to accurately estimate its own location without the aid of a precision map. As one method, there is a method of fusion of vehicle wheel speed information and yaw rate information to estimate the relative attitude angle and position of the vehicle (hereinafter referred to as odometry). However, since this method assumes motion on a plane, it is difficult to use for 3D map generation, and it may be difficult to estimate the scaling factor of the wheel speed sensor. In addition, since the yaw rate sensor includes a bias, if this is not considered, the attitude angle and position accuracy of the vehicle may be significantly lowered.
다른 방법으로서, 단안 카메라를 이용한 오도메트리(Monocular Visual Odometry) 기술은 고성능 센서를 이용하는 것에 비해 경제적이고, 3차원 자세각 및 위치를 추정할 수 있으며 어느 차량에나 쉽게 적용할 수 있다. 그러나, 이러한 방법은 영상 특징점의 추출 및 추적이 전제되어야 하고, 연산량이 많아 실시간 활용이 어려우며, 다수의 카메라나 라이다(LiDAR), GPS와 같은 별도의 센서를 이용하는 방식과 달리, 카메라의 이동과 공간의 크기에 대한 실제 축척을 정확히 알기 어려운데 따른 축척 모호성(Scale ambiguity)을 가질 수 있다.As another method, Monocular Visual Odometry technology using a monocular camera is economical compared to using a high-performance sensor, can estimate a three-dimensional attitude angle and position, and can be easily applied to any vehicle. However, this method requires extraction and tracking of image feature points, and it is difficult to use in real time due to a large amount of computation, and unlike a method using separate sensors such as multiple cameras, LiDAR, and GPS, It is difficult to know the actual scale for the size of the space, so it may have scale ambiguity.
따라서, 상술한 문제들을 개선하기 위해, 본 발명의 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 복수의 주변 영상에 대한 매칭 정보와 차량(V)의 센서에 의해 획득된 차량(V)의 변위 정보를 융합하여 카메라의 위치 정보를 획득할 수 있다. 이렇게 획득된 카메라 위치 정보는 자차의 위치 정보, 즉 차량(V)의 오도메트리 추정에 이용될 수 있다.Therefore, in order to improve the above-described problems, the
본 발명의 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)의 구성을 설명하기에 앞서, 본 발명에서의 변수와 좌표계를 정의한다.Before describing the configuration of the
본 발명은 카메라, 구체적으로 단안 카메라와 센서가 장착된 차량(V)(또는 로봇)을 강체로 가정하며, 카메라 오도메트리의 상태 변수(State Variable)는 카메라의 3차원 자세(6 자유도)와 자세 센서의 요레이트 바이어스(1 자유도)의 총 7 자유도로 구성되고, 카메라의 3차원 위치를 , 3차원 방향각(pitch, yaw, roll)를 각각 로 표시하고, 요레이트 바이어스 값을 로 표기한다. 키프레임은 연속되어 입력되는 복수의 주변 영상들 중 오도메트리 계산에 중요하다고 판단되는 영상으로 번째 키프레임에서의 변수는 로 표시한다. 또 번째 키프레임과 번째 키프레임 사이의 번째 센서 데이터 는 로 표시한다. (은 을 의미한다.)The present invention assumes a camera, specifically a vehicle (V) (or a robot) equipped with a monocular camera and a sensor as a rigid body, and the state variable of the camera odometry is a three-dimensional posture (6 degrees of freedom) of the camera. It consists of a total of 7 degrees of freedom of the yaw rate bias (1 degree of freedom) of the attitude sensor and the three-dimensional position of the camera. , 3D direction angle (pitch, yaw, roll) respectively And the yaw rate bias value Marked as. A key frame is an image judged to be important for odometry calculation among a plurality of consecutively inputted surrounding images. Variable at the first keyframe Is Denoted by In addition First keyframe and Between keyframes Second sensor data Is Denoted by ( silver Means.)
또한, 본 발명의 모든 좌표계는 기본적으로 카메라의 오른쪽 방향이 X축, 카메라의 아래 방향이 Y축, 그리고 카메라의 전방이 Z축인 영상 좌표계를 따른다.In addition, all coordinate systems of the present invention basically follow an image coordinate system in which the right direction of the camera is the X axis, the downward direction of the camera is the Y axis, and the front of the camera is the Z axis.
또한, 본 발명은 크게 (영상)오도메트리 좌표계와 키프레임 카메라 좌표계, 키프레임 차량(V) 좌표계를 정의하여 사용한다. 오도메트리 좌표계는 카메라의 시작 자세를 원점 및 좌표계로 하여 현재의 카메라의 위치와 자세를 표현한다. 키프레임 카메라 좌표계는 키프레임이 촬영된 카메라의 위치 및 자세를 원점 및 좌표계로 하여 현재 카메라의 위치와 자세를 표현한다. 유사하게 키프레임 차량(V) 좌표계는 카메라가 아닌 차량(V)의 위치와 자세를 원점 및 좌표계로 한다. 차량(V)의 중심은 후륜 차축의 중심점으로 한다. 별도의 표시가 없는 변수는 오도메트리 좌표계를 기준으로 하며, 키프레임 카메라 좌표계에서 표현된 변수 는 , 키프레임 차량(V) 좌표계에서 표현된 변수 는 와 같이 표현한다. 또한 k번째 카메라 좌표계 기준으로 표현된 k+1번째 카메라 좌표계의 변수 는 와 같이 표현한다. 전역 좌표계 기준으로 표현된 k번째 카메라 좌표계의 는 와 같이 표현한다.In addition, the present invention largely defines and uses a (video) odometry coordinate system, a key frame camera coordinate system, and a key frame vehicle (V) coordinate system. The odometry coordinate system expresses the current position and posture of the camera using the starting position of the camera as the origin and the coordinate system. The key frame camera coordinate system expresses the position and posture of the current camera by using the position and posture of the camera in which the key frame is captured as the origin and coordinate system. Similarly, the key frame vehicle (V) coordinate system uses the position and posture of the vehicle (V), not the camera, as the origin and coordinate system. The center of the vehicle V is the center point of the rear axle. Variables not indicated separately are based on the odometry coordinate system, and are expressed in the keyframe camera coordinate system. Is , Variable expressed in the key frame vehicle (V) coordinate system Is Expressed like this. Also, a variable of the k+1st camera coordinate system expressed as a reference to the kth camera coordinate system Is Expressed like this. Of the kth camera coordinate system expressed in terms of the global coordinate system Is Expressed like this.
상술한 전제를 기초로, 이하에서는 본 발명의 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)의 구성을 설명한다.Based on the above-described premise, the following describes the configuration of the
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 카메라 및 센서가 마련된 차량(V); 및 차량(V)의 카메라 위치 정보를 획득하는 차량(V)의 카메라 위치 정보 획득 장치(100)를 포함할 수 있다.Referring to FIG. 1, a
차량(V)의 카메라 위치 정보 획득 시스템(1)은 차량(V)의 카메라 위치 정보 획득 장치(100)와 차량(V) 간에 유선 또는 무선 통신이 가능하도록 마련될 수 있다. 구체적으로, 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 CAN통신 방법을 채택하여 차량(V)의 카메라 위치 정보 획득 장치(100)와 차량(V) 간 유선 통신 환경을 구현할 수 있다. 이와는 달리, 다른 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 공지된 여러 가지 통신 방법을 채택함으로써 정보 제공 차량(V)과 위치 추정 장치 간에 정보 교환이 가능한 환경을 제공할 수 있다. 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 CDMA, GSM, W-CDMA, TD-SCDMA, WiBro, LTE, EPC 등의 공지된 통신 방법을 채택하여 기지국을 경유하는 통신 환경을 제공할 수 있다. 이와는 달리, 다른 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), WFD(Wi-Fi Direct), UWB(Ultra wideband), 적외선 통신(IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication)와 같은 통신 방법에 따라 소정 거리 이내에서 정보 제공 차량(V)과 위치 추정 장치 간에 통신이 가능한 환경을 제공할 수도 있다. 다만, 차량(V)의 카메라 위치 정보 획득 시스템(1)이 채택하는 통신하는 방법은 상술한 실시예에 한정되지 않는다.The
차량(V)은 주변 환경을 감지하기 위한 감지 수단을 구비할 수 있다. 일 실시예에 따른 감지 수단은 차량(V) 주변으로 펄스를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 에코 펄스를 수신하여 주행 환경을 감지하는 레이더(Radar), 차량(V) 주변으로 레이저를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 레이저를 수신하는 라이다(LiDAR), 및/또는 차량(V) 주변으로 초음파를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 에코 초음파를 수신하는 초음파 센서 등을 포함할 수 있다. The vehicle V may be provided with a sensing means for sensing the surrounding environment. The sensing means according to an embodiment is a radar that detects a driving environment by irradiating a pulse around the vehicle V and receiving an echo pulse reflected from an object located in a corresponding direction, and a laser around the vehicle V. And/or a LiDAR that receives a laser reflected from an object located in a corresponding direction, and/or an ultrasonic wave is irradiated around the vehicle (V), and an echo ultrasound reflected from an object located in the corresponding direction is received. It may include an ultrasonic sensor and the like.
또한, 차량(V)은 감지 수단으로서 카메라를 포함할 수 있다. 카메라는 차량(V)의 전방, 측방, 및/또는 후방을 향하도록 마련되어, 해당 방향으로의 주변 영상을 촬영할 수 있다. 촬영된 주변 영상은 영상처리 과정을 통해 카메라 위치 정보 획득에 이용될 수 있다.Further, the vehicle V may include a camera as a sensing means. The camera is provided to face the front, side, and/or rear of the vehicle V, and the surrounding images in the corresponding direction may be photographed. The captured surrounding image may be used to obtain camera location information through an image processing process.
또한, 차량(V)은 감지 수단으로서 GPS 모듈을 포함할 수 있다. GPS 모듈은 적어도 하나의 GPS(Global Position System) 위성으로부터 항법 데이터(Navigation Data)를 포함하는 위성 신호를 수신할 수 있다. 차량(V)은 위성 신호에 기초하여 GPS 기반 정보 제공 차량(V)의 현재 위치 좌표 등을 획득할 수 있다.In addition, the vehicle V may include a GPS module as a sensing means. The GPS module may receive a satellite signal including navigation data from at least one Global Position System (GPS) satellite. The vehicle V may obtain the coordinates of the current location of the vehicle V providing GPS-based information based on a satellite signal.
또한, 차량(V)은 주행 정보를 감지하는 센서를 포함할 수 있다. 일 실시예에 따른 센서는 차량(V)의 휠 속도를 감지하는 휠 속도 감지 센서, 및 차량(V)의 요레이트를 포함하는 자세 정보를 감지하는 자세 센서를 포함할 수 있다.In addition, the vehicle V may include a sensor that detects driving information. The sensor according to an embodiment may include a wheel speed detection sensor that senses a wheel speed of the vehicle V, and a pose sensor that senses attitude information including a yaw rate of the vehicle V.
또한, 차량(V)은 본 발명의 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 방법을 수행하는 명령어를 포함하는 프로그램을 저장하는 저장 수단을 더 포함할 수 있다. 일 실시예에 따른 저장 수단은 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 및/또는 광디스크 등을 포함할 수 있다.In addition, the vehicle V may further include a storage means for storing a program including a command for performing a method of obtaining camera location information of the vehicle V according to an embodiment of the present invention. The storage means according to an embodiment is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.). ), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), Magnetic Memory, magnetic disk, and/or optical disk.
또한, 차량(V)은 차량(V)의 카메라 위치 정보 획득 시스템(1)이 채택한 통신 방법에 따라 차량(V)의 카메라 위치 정보 획득 장치(100)와 통신 가능한 통신 모듈을 더 포함할 수 있다. 통신 모듈을 통해, 차량(V)은 차량(V)의 카메라 위치 정보 획득 장치(100)에 주변 영상 및 주행 정보를 제공할 수 있다.In addition, the vehicle V may further include a communication module capable of communicating with the
차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)으로부터 수신된 주변 영상 및 주행 정보를 기초로 차량(V)의 카메라 위치 정보를 획득하고, 이를 기초로 최종적으로 차량(V)의 위치를 추정할 수 있다. 이를 위해, 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 장치(100)는 서버 또는 복수의 서버 집합으로 구성될 수 있다.The
차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)으로부터 주변 영상 및 주행 정보를 수신할 수 있다. 이를 위해, 차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)의 카메라 위치 정보 획득 시스템(1)이 채택하는 통신 방식에 따라 통신 가능하도록 마련될 수 있다.The
차량(V)의 카메라 위치 정보 획득 장치(100)는 매칭부(110), 변위 정보 획득부(120), 및 융합부(130)를 포함할 수 있다.The
매칭부(110)는 차량(V)에 마련된 카메라에 의해 복수의 시점에 획득된 복수의 주변 영상의 특징점을 매칭할 수 있다. 구체적으로, 매칭부(110)는 복수의 주변 영상 각각으로부터 특징점을 추출할 수 있다. 그 다음, 매칭부(110)는 인접하는 주변 영상 내 특징점을 매칭하여, 매칭된 특징점의 광 흐름(Optical Flow)을 포함하는 매칭 정보를 획득할 수 있다. 마지막으로, 매칭부(110)는 에피폴라 라인(Epipolar Line)을 기초로 유효하지 않은 매칭에 대한 광 흐름을 제외할 수 있다.The
변위 정보 획득부(120)는 차량(V)에 마련된 센서에 의해 감지된 차량(V)의 주행 정보를 기초로 차량(V)의 변위 정보를 획득할 수 있다. 구체적으로, 변위 정보 획득부(120)는 휠 속도 센서에 의해 감지된 후륜의 속도 평균을 기초로 차량(V)의 병진 속도를 획득하고, 자세 센서에 의해 획득된 요레이트 값을 기초로 차량(V)의 회전 속도를 획득할 수 있다.The displacement
융합부(130)는 획득된 차량(V)의 변위 정보와 특징점에 대한 매칭 정보를 융합하여 카메라의 위치 정보를 획득할 수 있다. 구체적으로, 융합부(130)는 소정의 비용함수를 최소화하는 과정을 통해 카메라의 위치 정보를 획득할 수 있는데, 이러한 비용함수는 오도메트리 계산에 이용되며, 특징점에 대한 매칭 정보와 차량의 변위 정보를 고려하도록 설계된 것일 수 있다.The
도 1의 실시예에 따른 차량(V)의 카메라 위치 정보 획득 장치(100)의 적어도 하나의 구성은 마이크로프로세서(Microprocessor)를 포함하는 연산 장치로 구현될 수 있다. 예를 들어, 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 장치(100)의 각 구성 중 적어도 하나는 AP(Application Processor), CP(Communication Processor), GPU(Graphic Processing Unit), 및/또는 CPU(Central Processing Unit) 등의 다양한 프로세서(Processor) 중 적어도 하나에 의해 구현될 수 있다. 또한, 차량(V)의 카메라 위치 정보 획득 장치(100)의 각 구성 중 적어도 두 개가 SOC(System On Chip) 로 구현되는 것도 가능할 수 있다.At least one configuration of the
도 1에서는 차량(V)의 카메라 위치 정보 획득 장치(100)가 차량(V)과 별개의 장치로 구현되는 경우를 예시하였으나, 이와는 달리 차량(V)의 카메라 위치 정보 획득 장치(100)가 차량(V)과 일체로 마련될 수도 있다. 도 2를 참조하면, 차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)의 일 구성으로 마련되어, 차량(V)에 포함될 수 있다.1 illustrates a case in which the
지금까지는 차량(V)의 카메라 위치 정보 획득 시스템(1)의 각 구성에 대하여 설명하였다. 이하에서는 차량(V)의 카메라 위치 정보 획득 장치(100)에 의해 수행되는 차량(V)의 카메라 위치 정보 획득 방법에 대하여 설명한다.So far, each configuration of the
도 3은 본 발명의 일 실시예에 따른 차량의 카메라 위치 정보 획득 방법의 흐름도이다.3 is a flowchart of a method of obtaining camera location information of a vehicle according to an embodiment of the present invention.
먼저, 차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)의 카메라에 의해 획득된 복수의 주변 영상의 특징점을 매칭할 수 있다(S100). 구체적으로, 차량(V)의 카메라 위치 정보 획득 장치(100)의 매칭부(110)는 복수의 주변 영상 각각으로부터 특징점을 추출할 수 있다. 그 다음, 매칭부(110)는 인접하는 주변 영상 내 특징점을 매칭하여, 매칭된 특징점의 광 흐름(Optical Flow)을 포함하는 매칭 정보를 획득할 수 있다. 마지막으로, 매칭부(110)는 에피폴라 라인(Epipolar Line)을 기초로 유효하지 않은 매칭에 대한 광 흐름을 제외할 수 있다.First, the
도 4는 본 발명의 일 실시예에 따른 매칭부에 의해 획득된 광 흐름을 예시한 도면이다.4 is a diagram illustrating a light flow obtained by a matching unit according to an embodiment of the present invention.
매칭부(110)는 복수의 주변 영상 중 인접한 두 개 사이의 특징점을 추출하고, 동일한 특징점을 매칭할 수 있다. 예를 들어, 매칭부(110)는 어느 하나의 주변 영상에서 GFTT(Good-Feature-to-Track) 특징점을 추출하고, 다음 주변 영상으로의 Lukas-Kanade 광 흐름을 계산하여 연속된 두 쌍의 영상들 사이의 특징점을 매칭할 수 있다. The
또한, 매칭부(110)는 에피폴라 라인(Epiporal Line)에 따른 에피폴라 제약 조건(Epipolar Constraint)에 따라 매칭에 대한 광 흐름의 유효성을 판단하여, 유효하지 않은 광 흐름을 매칭 정보로부터 제외할 수 있다. 여기서, 에피폴라 제약 조건에 따라 광 흐름의 유효성을 판단하는 것은 공지된 기술이므로, 상세한 설명은 생략한다. 도 4에서는 GFTT와 Lukas-Kanade 광흐름에 의해 획득한 두 주변 영상 특징점의 매칭과, 에피폴라 구속조건(epipolar constraint)을 이용하여 유효하지 않은 매칭을 제거한 결과를 예시한다.In addition, the
다시 도 3을 참조하면, 차량(V)의 카메라 위치 정보 획득 장치(100)는 센서에 의해 감지된 차량(V)의 주행 정보를 기초로 차량(V)의 변위 정보를 획득할 수 있다(S110). 이 때, 변위 정보는 차량(V)의 병진 변위 및 회전 변위를 포함할 수 있다.Referring back to FIG. 3, the
구체적으로, 차량(V)의 카메라 위치 정보 획득 장치(100)의 변위 정보 획득부(120)는 휠 속도 센서에 의해 감지된 후륜의 속도 평균을 기초로 차량(V)의 병진 속도를 획득하고, 자세 센서에 의해 획득된 요레이트 값을 기초로 차량(V)의 회전 속도를 획득할 수 있다.Specifically, the displacement
변위 정보 획득부(120)는 차량(V)에 마련된 센서 중 휠 속도 감지 센서에 의해 감지된 두 후륜의 속도 VRL, VRR을 사용하여 차량(V)의 병진 속도 V를 구할 수 있다. 차량(V)의 병진속도 V는 후륜 축의 중심점을 기준으로 차륜 구동기(Differential Drive)의 기구학 모델(Kinematic Model)에 따라 두 후륜의 속도 평균 V=(VRL+VRR)/2으로 계산할 수 있다.The displacement
또한, 변위 정보 획득부(120)는 차량(V)에 마련된 센서 중 자세 센서에서 감지한 요레이트 값 ω를 사용하여 차량(V)의 회전 속도를 구할 수 있다. 이 때, 자세 센서에 의해 감지된 값은 자세 센서 자체의 바이어스 b를 포함하므로, 차량(V)의 회전 속도는 이를 제외한 ω-b로 계산할 수 있다.In addition, the displacement
아울러, 변위 정보 획득부(120)는
차량(V)이 정지 상태일 때의 자세 센서 값을 평균하여 자세 센서의 바이어스 초기 값을 추정할 수 있다. 다만, 차량(V)이 경사면에 놓여 있을 경우 잘못된 값이 추정될 수 있고, 차량(V)이 이동 중에도 바이어스가 변할 수 있으므로, 추후 이를 보정할 수 있다.In addition, the displacement
병진 속도 V와 병진 변위 ω를 획득한 후, 변위 정보 획득부(120)는 이를 이산 적분하여 차량(V)의 2차원 병진 정보를 획득할 수 있다. 구체적으로, 변위 정보 획득부(120)는 수학식 1에 따라 번째 주변 영상의 차량(V) 좌표계를 기준으로 이후 번째까지 얻은 개의 센서 값을 이용하여 2차원 변위 정보인 를 획득할 수 있다.After obtaining the translational speed V and the translational displacement ω, the displacement
여기서, 센서 바이어스는 번째 주변 영상에서의 값을 이용하고, 는 내부센서의 데이터가 들어오는 시간 간격을 의미할 수 있다.Here, the sensor bias is Using the value from the surrounding image, May mean the time interval in which the data of the internal sensor comes in.
또한, 변위 정보 획득부(120)는 추후 센서 바이어스 을 보정하기 위한 요레이트 적분값 을 수학식 2에 따라 구할 수 있다.In addition, the displacement
차량(V)의 변위 정보를 획득한 후, 차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)의 변위 정보와 특징점에 대한 매칭 정보를 융합하여 카메라의 위치 정보를 획득할 수 있다(S120). 구체적으로 차량(V)의 카메라 위치 정보 획득 장치(100)의 융합부(130)는 소정의 비용함수를 최소화하는 과정을 통해 카메라의 위치 정보를 획득할 수 있는데, 이러한 비용함수는 오도메트리 계산에 이용되며, 특징점에 대한 매칭 정보와 차량의 변위 정보를 고려하도록 설계된 것일 수 있다.After acquiring the displacement information of the vehicle V, the
여기서, 변위 정보 획득부(120)에 의해 획득된 변위 정보는 번째 주변 영상의 차량(V) 좌표계를 기준으로 한 정보이다. 따라서, 융합부(130)는 카메라의 위치 정보를 획득하는 과정에서, 이러한 변위 정보를 카메라 좌표계 기준의 3차원 변위 정보로 변환할 수 있다. Here, the displacement information obtained by the displacement
한편, 도 3에 도시된 S100과 S110의 경우, S100이 수행된 뒤에 S110이 수행되거나 또는 그 반대의 순서로 수행되는 것도 가능하며, 실시예에 따라 S100과 S110이 병렬적으로 수행될 수도 있다.Meanwhile, in the case of S100 and S110 shown in FIG. 3, S110 may be performed after S100 is performed, or may be performed in the reverse order, and S100 and S110 may be performed in parallel according to an embodiment.
도 5는 본 발명의 일 실시예에 따른 차량 중심과 카메라 사이의 오프셋을 설명하기 위한 도면이다.5 is a diagram for explaining an offset between a vehicle center and a camera according to an embodiment of the present invention.
카메라 C가 도 5와 같이 차량(V)의 앞 방향으로 정렬(Align)되어 있는 경우, 차량(V) 중심 Pv와 카메라 위치 Pc사이의 오프셋(Offset)을 라 할 수 있다. 오프셋 을 고려하여, 융합부(130)는 2차원 변위 정보로부터 주변 영상의 카메라 좌표계를 기준으로 하는 3차원 위치 와 자세각 을 제 2 위치 정보로서 구할 수 있으며, 수학식 3을 따른다. 이 때, 카메라가 전방으로 정렬되어 있고, 강체인 차량(V)에 고정되어 있기 때문에, 카메라와 차량(V)의 방향각이 동일함을 전제한다.When the camera C is aligned in the front direction of the vehicle V as shown in FIG. 5, the offset between the center P v of the vehicle V and the camera position P c is determined. Can be said. offset In consideration of, the
또한, 카메라의 위치 정보를 획득하기 위해, 융합부(130)는 매칭 결과를 기초로 획득된 특징점의 3차원 좌표를 복수의 주변 영상 각각에 대하여 변환한 2차원 좌표와 주변 영상 각각에서의 특징점 간 거리를 최소화하는 위치 정보를 획득할 수 있다. 예를 들어, 융합부(130)는 bundle adjustment를 기초로 위치 정보를 획득할 수 있다. 구체적으로, 융합부(130)는 Levenberg-Marquardt 혹은 Gauss-Newton과 같은 알고리즘을 이용하여 수학식 4의 비용함수를 최소화하는 주변 영상에 대한 카메라의 위치 및 자세각, 특징점의 3차원 위치에 대한 해를 구할 수 있다.In addition, in order to obtain the location information of the camera, the
여기서, 은 bundle adjustment 최적화를 수행하는 주변 영상의 개수를 의미하고, 은 최근 에서 획득된 특징점 중 카메라의 자세 정보 획득에 사용되는 3차원의 표식점의 개수를 의미하고. 는 전역 좌표계 상의 번째 3차원 표식점의 위치(단위: 미터)를 의미하고, 는 번째 3차원 표식점이 번째 주변 영상에서 관찰되었을 때의 주변 영상에서의 위치(단위: 픽셀)를 의미하고, 는 번째 3차원 표식점이 번째 주변 영상에서 관찰되었는지(Visibility) 여부를 나타내는 항이고, 함수 는 최적화 과정에서 이상치(Outlier)의 영향을 줄이기 위한 손실함수(Loss Function)로서 일반적으로 Huber 커널을 사용하며, 함수 는 동치 좌표계(Homogeneous Coordinate)으로 표현된 두 점 사이의 직선 거리를 계산하는 함수이고, 는 초점 거리와 같은 카메라의 내부 파라미터 정보를 담고 있는 카메라 행렬(Camera Matrix)를 의미할 수 있다. here, Is the number of surrounding images that perform bundle adjustment optimization, Is recently It means the number of three-dimensional marker points used to acquire camera attitude information among the feature points acquired in. Is in the global coordinate system Refers to the location of the third 3D marker point (unit: meter), Is 3D marker point Refers to the position (unit: pixel) in the surrounding image when observed in the 1st surrounding image, Is 3D marker point Is a term indicating whether or not it is observed in the surrounding image (Visibility), and a function Is a loss function to reduce the influence of outliers in the optimization process. Generally, Huber kernel is used. Is a function that calculates the linear distance between two points expressed in the homogeneous coordinate system, May mean a camera matrix containing information on internal parameters of a camera such as a focal length.
또한, 수학식 4에서 와 는 각각 전역 좌표계에서 번째 카메라에 의해 촬영된 주변 영상 좌표계로의 좌표 변환에 대한 회전과 변위를 의미할 수 있다. 두 값은 번째 주변 영상이 촬영된 카메라의 자세각 및 위치 와 수학식 5의 관계를 가질 수 있다.Also, in Equation 4 Wow Each in the global coordinate system It may mean rotation and displacement for the coordinate transformation into the surrounding image coordinate system photographed by the second camera. The two values are Angle of the camera where the first surrounding image was taken And location And Equation 5.
수학식 4의 비용함수에 따르면, 융합부(130)는 이전 과정에서 M-1번째 주변 영상까지 주어진 주변 영상이 촬영된 위치와 자세각, 그리고 3차원 표식점 위치를 이용하여, 이전 주변 영상과 표식점뿐만 아니라 새로 추가된 M번째 주변 영상의 위치와 자세각까지 상술한 비용함수를 통해 보정할 수 있다.According to the cost function of Equation 4, the
이 때, 상술한 수학식 4에는 카메라의 위치 정보 획득의 정확도를 낮추는 복수의 요인이 존재할 수 있다.In this case, in Equation 4 described above, there may be a plurality of factors that lower the accuracy of obtaining location information of the camera.
먼저, 수학식 4의 비용함수는 다수의 국부 최소값(Local Minimum)이 존재하는데, 구배법(Gradient Descent Method)으로 해를 구함에 따라 초기값이 전역 최소값(Global Minimum), 즉 Ground Truth에서 크게 벗어날 경우 최적화 수행 시 잘못된 값으로 수렴할 가능성이 있다.First, the cost function of Equation 4 has a number of local minimums, and the initial value deviates greatly from the global minimum, that is, the ground truth, as the solution is obtained by the gradient method. In this case, there is a possibility of convergence to an incorrect value when performing optimization.
또한, 수학식 4의 비용함수를 통해 획득된 카메라의 위치 정보는 축척 모호성(Scale ambiguity)을 가질 수 있다. 만약, 수학식 4의 비용함수를 최소화 하는 하나의 해가 있다고 가정하면, 3차원 표식점 및 주변 영상의 위치를 확대 시 수학식 4을 만족하는 또 다른 해가 존재할 수 있다.In addition, the location information of the camera obtained through the cost function of Equation 4 may have scale ambiguity. If it is assumed that there is one solution that minimizes the cost function of Equation 4, there may be another solution that satisfies Equation 4 when the locations of the 3D mark point and the surrounding image are enlarged.
아울러, 수학식 4의 비용함수는 차량(V)에 마련된 센서 데이터와 매칭 결과의 융합을 위한 센서 바이어스를 고려하지 않는다.In addition, the cost function of Equation 4 does not take into account a sensor bias for fusion of the sensor data provided in the vehicle V and the matching result.
이를 해결하기 위해, 융합부(130)는 상술한 수학식 4에 제약 조건이 부가된 수학식 6을 이용하여 카메라의 위치 정보를 획득할 수 있다.To solve this problem, the
수학식 6은 수학식 4의 비용함수에 λ1으로 시작하는 제 1 제약 조건, λ2로 시작하는 제 2 제약 조건, 및 λ3으로 시작하는 제 3 제약 조건이 부가된 형태일 수 있다.Equation 6 may be a form in which a first constraint starting with λ 1 , a second constraint starting with λ 2 , and a third constraint starting with λ 3 are added to the cost function of Equation 4.
카메라의 위치 정보를 획득하기에 앞서, 융합부(130)는 먼저 수학식 6의 비용함수에 적용할 초기값을 결정할 수 있다. 구체적으로, 융합부(130)는 복수의 주변 영상이 복수의 시점에 획득된 이후 새로운 주변 영상이 획득된 경우, 이렇게 새로운 주변 영상이 획득된 시점에서의 카메라 위치 정보 획득에 필요한 초기값을 다음과 같은 방식으로 결정할 수 있는데, 다만 본 발명의 사상이 이에 한정되는 것은 아니다.Prior to obtaining the location information of the camera, the
- 전술한 복수의 주변 영상 중 마지막으로 주변 영상이 획득된 시점과 그 이후에 추가적으로 새로운 주변 영상이 획득된 시점 사이에서, 센서에 의해 감지된 차량의 주행 정보를 획득- Acquisition of driving information of the vehicle detected by the sensor between the time when the last surrounding image is acquired among the plurality of surrounding images described above and the time when a new surrounding image is additionally acquired thereafter.
- 이러한 주행 정보를 기초로 차량의 변위 정보를 추가적으로 획득- Based on this driving information, additional vehicle displacement information is obtained.
- 마지막으로 획득된 주변 영상까지가 고려된 카메라의 위치 정보와 추가적으로 새로이 획득된 차량의 변위 정보를 융합해서 초기값을 결정(추정)- The initial value is determined (estimated) by fusing the position information of the camera, which takes into account the last acquired surrounding image, and the displacement information of the newly acquired vehicle.
한편, 라는 수식에서, 는 주변 영상 이후 m 번째까지 얻은 m개의 측정 값을 표기한 것이다. 아울러, 주변 영상과 다음 주변 영상 사이의 측정값들을 이용한 적분표기는 과 을 이용하여 과 같이, k번째 주변 영상부터 k+1번째 주변 영상으로 표기 가능하다.Meanwhile, In the formula, The surrounding footage After that, m measurements obtained up to the m th are displayed. In addition, the integral notation using the measured values between the surrounding image and the next surrounding image and It is possible to mark from the k-th surrounding image to the k+1-th surrounding image as shown by using.
아래의 수학식 7은 융합부(130)가 초기값을 결정하는 과정에서 이용하는 수식의 예시이다.Equation 7 below is an example of an equation used by the
여기서, 과 은 차량(V)의 센서를 이용해 획득한 변위 정보를 의미하고, 과 은 M번째 주변 영상의 위치 정보 획득을 위한 초기값을 의미할 수 있다.here, and Means displacement information acquired using the sensor of the vehicle (V), and May mean an initial value for obtaining location information of the M-th surrounding image.
수학식 7을 따를 때, 센서 값을 기초로 비용함수의 초기값을 결정하므로, 카메라의 위치 정보와 관련된 주변 영상의 좌표변환 행렬 ( 은 Ground Truth 근방에 위치할 수 있다.When following Equation 7, since the initial value of the cost function is determined based on the sensor value, the coordinate transformation matrix of the surrounding image related to the location information of the camera ( Can be located near Ground Truth.
초기값 설정 후, 융합부(130)는 차량(V)의 주행 정보를 기초로 획득된 복수의 주변 영상 각각의 획득 시점 간 변위 정보와 매칭 정보를 기초로 획득된 복수의 주변 영상 각각의 획득 시점 간 변위 정보의 차이에 대한 제 1 제약 조건을 설정할 수 있다. 이를 위해, 융합부(130)는 수학식 4에 따른 비용함수로부터 인접한 주변 영상 사이의 카메라의 상대적인 위치 를 수학식 8에 따라 구할 수 있다.After setting the initial value, the
만약, 카메라가 평면 상에서 움직이는 이상적인 상태를 전제로, 카메라로 구한 이동 거리와 차량(V)에 마련된 센서로 구한 이동 거리는 수학식 9와 같이 같아야 한다.If, on the assumption that the camera moves on a plane, the moving distance obtained by the camera and the moving distance obtained by the sensor provided in the vehicle V should be the same as in Equation (9).
여기서, 는 차량(V)에 마련된 센서로 구한 주변 영상 사이의 변위이고, 는 수학식 8을 통해 구한 주변 영상 획득 시점 사이의 카메라의 변위이다.here, Is the displacement between the surrounding images obtained by the sensor provided in the vehicle (V), Is the displacement of the camera between the acquisition time points of the surrounding image obtained through Equation 8.
이를 기초로, 융합부(130)는 제 1 제약 조건으로서 항을 설정할 수 있다. 제 1 제약 조건은 수학식 4의 비용함수로 구한 좌표변환 행렬로부터 추정한 주변 영상 사이 획득 시점 사이의 카메라 이동 거리가 차량(V)에 마련된 센서로 구한 주변 영상 획득 시점 사이의 카메라 이동 거리와 같아지도록 주변 영상의 위치를 조정하는 역할을 한다. 이 때, 수학식 4의 비용함수도 같이 사용하므로, 결과적으로 카메라 궤적의 형상은 그대로 유지하면서 축척만 조정하는 결과를 얻을 수 있다.Based on this, the
도 6은 본 발명의 일 실시예에 따른 비용함수를 만족하는 축척이 상이한 카메라 궤적을 예시한 도면이다.6 is a diagram illustrating camera trajectories having different scales satisfying a cost function according to an embodiment of the present invention.
상술한 바와 같이, 수학식 3의 비용함수에 따를 때, 융합부(130)는 카메라 C의 궤적의 형상은 같지만 축척이 상이한 무수히 많은 해를 가질 수 있다. 도 6에서는 축척이 상이한 동일한 형상의 카메라 궤적 P1, P2, P3, P4, 및 P5가 예시된다. 이 때, 수학식 3의 비용함수에 제 1 제약 조건을 부가함으로써, 융합부(130)는 무수히 많은 해 중에서 인접 주변 영상 사이의 축척이 차량(V)에 마련된 센서로 구한 축척과 동일한 해로 수렴하도록 할 수 있다. 그 결과, 융합부(130)는 축척이 복원된 카메라의 위치 정보를 획득할 수 있다.As described above, according to the cost function of Equation 3, the
또한, 융합부(130)는 차량(V)의 주행 정보 중 차량(V)의 자세각과 매칭 정보를 기초로 획득된 차량(V)의 자세각의 차이에 대한 제 2 제약 조건을 설정할 수 있다. 차량(V)의 주행 정보 중 자세 센서에 의해 감지된 요레이트 정보는 카메라의 자세각을 강인하게 추정할 수 있으므로, 영상 정보와 융합할 경우 카메라의 위치 정보에 대한 정확도와 안정성을 높일 수 있다. 그러나, 수학식 4의 비용함수는 요레이트를 활용하지 않는다. 또한, 수학식 4에서 요레이트 바이어스를 고려하지 않아, 융합부(130)는 별도의 과정을 통해 바이어스 를 추정할 필요가 있다. In addition, the
이를 위해, 융합부(130)는 수학식 4의 비용함수에 복수의 주변 영상에 대한 카메라의 위치와 자세각, 그리고 요레이트 바이어스를 함께 보정할 수 있는 제 2 제한조건을 설정할 수 있다. 차량(V)은 단시간(Shortly and Locally)에는 일반적으로 평면 운동을 하므로, 융합부(130)는 수학식 10에 따라 인접한 주변 영상의 획득 시점 간 카메라의 상대적인 자세각 변화를 요레이트를 통해 추정한 자세각으로 근사화 할 수 있다.To this end, the
여기서, 는 j-1번째 주변 영상과 j번째 주변 영상 사이에서 요레이트 센서 값을 적분한 횟수를 의미할 수 있다. here, May mean the number of times the yaw rate sensor value is integrated between the j-1 th surrounding image and the j th surrounding image.
그 다음, 융합부(130)는 인접한 주변 영상 획득 시점 사이에 카메라로 추정한 자세각과 요레이트를 통해 추정한 자세각의 차이에 대한 회전행렬 를 수학식 11에 따라 구할 수 있다.Then, the
만약, 와 이 동일하다면, 의 값은 단위 행렬(Identity matrix)이 된다.if, Wow If this is the same, The value of is an identity matrix.
따라서, 융합부(130)는 상술한 관계를 고려하여 수학식 4의 비용함수에 제 2 제약조건 을 설정할 수 있다. 여기서, 함수 는 3차원 회전 행렬의 회전축-각도 표현법(Rodrigues' Rotation Formula)에서 각도를 반환할 수 있다. 단위행렬에 대한 의 값은 0이 되므로, 융합부(130)는 수학식 4의 비용함수에서 의 값이 단위행렬에 가까워지도록 해를 구할 수 있다. Therefore, the
수학식 4에 상술한 제 1 제약조건 및 제 2 제약조건을 부가함으로써, 융합부(130)는 요레이트를 이용해 구한 자세각과 유사해지도록 카메라의 위치 정보 중 자세각 를 보정할 수 있다. 그 결과, 시차(Parallax)가 낮은 상황에서도 안정적인 각도 추정 값을 얻을 수 있다.By adding the above-described first and second constraints to Equation 4, the
또한, 융합부(130)는 요레이트을 이용해 구한 자세각이 카메라의 위치 정보 중 자세각과 유사하게 되도록 센서의 바이어스 를 보정함으로써, 요레이트를 기반으로 획득된 자세각의 정확도를 높일 수 있다.In addition, the
한편, 센서 바이어스는 시간에 따라 서서히 변하므로, 인접한 주변 영상 획득 시점 간 바이어스는 거의 유사한 값을 가질 수 있다. 그러나, 수학식 4의 비용함수에 제 1 제약조건과 제 2 제약조건만을 설정할 경우, 융합부(130)는 시간에 따라 상이한 센서 바이어스를 획득할 수 있다. 따라서, 융합부(130)는 인접한 주변 영상 획득 시점 간 센서 바이어스가 유사하도록 제 3 제약조건 을 설정할 수 있다.Meanwhile, since the sensor bias gradually changes with time, a bias between adjacent neighboring image acquisition times may have substantially similar values. However, when only the first constraint and the second constraint are set in the cost function of Equation 4, the
제 3 제약조건은 인접한 주변 영상 획득 시점 간 센서 바이어스의 차이가 0에 가깝도록 제한하여, 주변 영상과 자세 센서 융합의 신뢰도를 높일 수 있다.The third constraint restricts the difference in sensor bias between the acquisition time points of adjacent surrounding images to be close to zero, thereby increasing the reliability of fusion between the surrounding images and the attitude sensor.
상술한 바에 따라 초기값 및 제약조건이 설정되면, 융합부(130)는 수학식 6의 비용함수를 이용하여 카메라의 위치 정보를 획득할 수 있고, 이로부터 차량(V)의 위치를 추정할 수 있다. When the initial values and constraints are set as described above, the
상술한 차량의 카메라 위치 정보 획득 장치 및 방법은, 보다 정확하게 카메라의 위치 정보를 획득할 수 있고, 이를 기반으로 차량의 추정 위치 정확도를 높일 수 있다. 구체적으로, 복수의 주변 영상에 대한 매칭 정보와 차량의 센서에 의해 획득된 차량의 변위 정보를 융합함으로써, 주변 영상에 기초한 카메라의 위치 정보의 축척을 복원함과 동시에, 센서의 바이어스도 보정하여, 차량의 3차원 위치를 정확하게 추정할 수 있다. The above-described apparatus and method for obtaining camera location information of a vehicle can more accurately obtain location information of a camera and, based on this, can increase an estimated location accuracy of a vehicle. Specifically, by fusing matching information for a plurality of surrounding images and displacement information of the vehicle obtained by the vehicle sensor, the scale of the camera's location information based on the surrounding images is restored, and the bias of the sensor is also corrected, The three-dimensional position of the vehicle can be accurately estimated.
한편, 상술한 일 실시예에 따른 차량의 카메라 위치 정보 획득 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램 및 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.Meanwhile, each step included in the method for obtaining camera location information of a vehicle according to the above-described exemplary embodiment may be implemented in a computer program programmed to perform these steps and a computer-readable recording medium recording the computer program.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
일 실시예에 따르면, 상술한 차량의 카메라 위치 정보 획득 장치 및 방법은 댁내 또는 산업 현장 등 다양한 분야에서 이용될 수 있으므로 산업상 이용 가능성이 있다.According to an embodiment, the above-described apparatus and method for obtaining camera location information of a vehicle may be used in various fields such as indoors or industrial sites, and thus has industrial potential.
1: 차량의 카메라 위치 정보 획득 시스템
100: 차량의 카메라 위치 정보 획득 장치
110: 매칭부
120: 변위 정보 획득부
130: 융합부
V:차량 1: Vehicle camera location information acquisition system
100: device for obtaining location information of a vehicle camera
110: matching unit
120: displacement information acquisition unit
130: fusion unit
V: Vehicle
Claims (10)
상기 차량에 마련된 센서에 의해 감지된 상기 차량의 주행 정보를 기초로 상기 차량의 변위 정보를 획득하는 단계; 및
상기 획득된 차량의 변위 정보와 상기 특징점에 대한 매칭 정보를 융합하여 상기 카메라의 위치 정보를 획득하는 단계를 포함하는
차량의 카메라 위치 정보 획득 방법.Matching feature points of a plurality of surrounding images acquired at a plurality of viewpoints by a camera provided in the vehicle;
Obtaining displacement information of the vehicle based on driving information of the vehicle detected by a sensor provided in the vehicle; And
Comprising the step of fusing the obtained displacement information of the vehicle and matching information for the feature point to obtain the location information of the camera
How to obtain vehicle camera location information.
상기 카메라의 위치 정보를 획득하는 단계는,
오도메트리 계산에 이용되며, 상기 변위 정보 및 상기 매칭 정보를 고려하도록 설계된 소정의 비용함수를 최소화하는 과정을 통해 수행되는
차량의 카메라 위치 정보 획득 방법.The method of claim 1,
Acquiring the location information of the camera,
Used for odometry calculation, performed through a process of minimizing a predetermined cost function designed to consider the displacement information and the matching information
How to obtain vehicle camera location information.
상기 방법은,
상기 복수의 주변 영상 중 마지막으로 주변 영상이 획득된 시점 이후, 추가적으로 주변 영상을 획득하는 단계;
상기 마지막으로 주변 영상을 획득한 시점과 상기 추가적으로 주변 영상을 획득한 시점 사이에서 상기 센서에 의해 감지된 상기 차량의 주행 정보를 기초로, 상기 차량의 변위 정보를 추가적으로 획득하는 단계;
상기 카메라의 위치 정보를 획득하는 단계로부터 획득된 카메라의 위치 정보 및 상기 추가적으로 획득된 차량의 변위 정보를 융합하는 단계; 및
상기 융합하는 단계에 의해 추정된 소정의 초기값을 이용해서 상기 추가적으로 주변 영상이 획득된 시점에서 상기 카메라의 위치 정보를 획득하는 단계를 더 포함하는
차량의 카메라 위치 정보 획득 방법.The method of claim 1,
The above method,
Additionally acquiring a surrounding image after a time point at which the surrounding image is finally acquired among the plurality of surrounding images;
Additionally acquiring displacement information of the vehicle based on driving information of the vehicle detected by the sensor between the time when the last image is acquired and the time when the image is additionally acquired;
Fusing the position information of the camera obtained from the step of obtaining the position information of the camera and the additionally obtained displacement information of the vehicle; And
Further comprising the step of acquiring location information of the camera at a time point at which the additional surrounding image is acquired using a predetermined initial value estimated by the fusing step.
How to obtain vehicle camera location information.
상기 카메라의 위치 정보를 획득하는 단계는,
상기 차량의 주행 정보를 기초로 획득된 상기 복수의 주변 영상 각각의 획득 시점 간 변위 정보와 상기 매칭 정보를 기초로 획득된 상기 복수의 주변 영상 각각의 획득 시점 간 변위 정보의 차이에 기초하여서 수행되는
차량의 카메라 위치 정보 획득 방법.The method of claim 1,
Acquiring the location information of the camera,
Performed based on a difference in displacement information between acquisition points of each of the plurality of surrounding images acquired based on the driving information of the vehicle and displacement information between acquisition points of each of the plurality of surrounding images acquired based on the matching information
How to obtain vehicle camera location information.
상기 카메라의 위치 정보를 획득하는 단계는,
상기 차량의 주행 정보 중 상기 차량의 자세각과 상기 매칭 정보를 기초로 획득된 상기 차량의 자세각의 차이에 기초하여서 수행되는
차량의 카메라 위치 정보 획득 방법.The method of claim 1,
Acquiring the location information of the camera,
Performed based on the difference between the vehicle's attitude angle and the vehicle's attitude angle obtained based on the matching information among the driving information of the vehicle
How to obtain vehicle camera location information.
상기 차량의 주행 정보 중 상기 차량의 자세각과 상기 매칭 정보를 기초로 획득된 상기 차량의 자세각의 차이를 이용하여 상기 센서의 바이어스를 보정하는 단계를 더 포함하는
차량의 카메라 위치 정보 획득 방법.The method of claim 1,
Compensating the bias of the sensor using a difference between the vehicle attitude angle and the vehicle attitude angle obtained based on the matching information among the driving information of the vehicle
How to obtain vehicle camera location information.
상기 센서의 바이어스를 보정하는 단계는,
상기 복수의 주변 영상의 획득 시점 각각에서 획득된 상기 센서의 바이어스 간 차이에 기초하여서 수행되는
차량의 카메라 위치 정보 획득 방법.The method of claim 6,
Compensating the bias of the sensor,
Performed based on the difference between the biases of the sensor acquired at each of the acquisition time points of the plurality of surrounding images
How to obtain vehicle camera location information.
상기 차량에 마련된 센서에 의해 감지된 상기 차량의 주행 정보를 기초로 상기 차량의 변위 정보를 획득하는 변위 정보 획득부; 및
상기 획득된 차량의 변위 정보와 상기 특징점에 대한 매칭 정보를 융합하여 상기 카메라의 위치 정보를 획득하는 융합부를 포함하는
차량의 카메라 위치 정보 획득 장치.A matching unit for matching feature points of a plurality of surrounding images acquired at a plurality of viewpoints by a camera provided in the vehicle;
A displacement information acquisition unit for acquiring displacement information of the vehicle based on driving information of the vehicle detected by a sensor provided in the vehicle; And
Comprising a fusion unit for acquiring the location information of the camera by fusing the obtained displacement information of the vehicle and matching information on the feature point
A device for acquiring vehicle camera location information.
A computer-readable recording medium on which a program including instructions for performing each step according to the method according to any one of claims 1 to 7 is recorded.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020190074406A KR20200145410A (en) | 2019-06-21 | 2019-06-21 | Apparatus and method for obtaining location information for camera of vehicle |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020190074406A KR20200145410A (en) | 2019-06-21 | 2019-06-21 | Apparatus and method for obtaining location information for camera of vehicle |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20200145410A true KR20200145410A (en) | 2020-12-30 |
Family
ID=74088198
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020190074406A Pending KR20200145410A (en) | 2019-06-21 | 2019-06-21 | Apparatus and method for obtaining location information for camera of vehicle |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20200145410A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114500993A (en) * | 2022-02-21 | 2022-05-13 | 深圳市星卡软件技术开发有限公司 | ADAS-based camera remote calibration method and device and computer equipment |
| CN116222558A (en) * | 2023-04-04 | 2023-06-06 | 东风汽车集团股份有限公司 | Positioning method, device and system based on vehicle-mounted information |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101584693B1 (en) | 2014-05-23 | 2016-01-14 | 경북대학교 산학협력단 | Apparatus and method for generation of camera parameter |
-
2019
- 2019-06-21 KR KR1020190074406A patent/KR20200145410A/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101584693B1 (en) | 2014-05-23 | 2016-01-14 | 경북대학교 산학협력단 | Apparatus and method for generation of camera parameter |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114500993A (en) * | 2022-02-21 | 2022-05-13 | 深圳市星卡软件技术开发有限公司 | ADAS-based camera remote calibration method and device and computer equipment |
| CN116222558A (en) * | 2023-04-04 | 2023-06-06 | 东风汽车集团股份有限公司 | Positioning method, device and system based on vehicle-mounted information |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7398506B2 (en) | Methods and systems for generating and using localization reference data | |
| US11493635B2 (en) | Ground intensity LIDAR localizer | |
| JP7073315B2 (en) | Vehicles, vehicle positioning systems, and vehicle positioning methods | |
| CN108051002B (en) | Transport vehicle space positioning method and system based on inertial measurement auxiliary vision | |
| US10900793B2 (en) | Vehicle path guiding apparatus and method | |
| CN109791052B (en) | Method and system for classifying data points of a point cloud using a digital map | |
| US10863166B2 (en) | Method and apparatus for generating three-dimensional (3D) road model | |
| US11138465B2 (en) | Systems and methods for transforming coordinates between distorted and undistorted coordinate systems | |
| Schreiber et al. | Laneloc: Lane marking based localization using highly accurate maps | |
| CN106548486B (en) | Unmanned vehicle position tracking method based on sparse visual feature map | |
| KR20200001471A (en) | Apparatus and method for detecting lane information and computer recordable medium storing computer program thereof | |
| CN106569225A (en) | Range-finding sensor based real-time obstacle avoidance method of driveless car | |
| KR101700764B1 (en) | Method for Autonomous Movement and Apparatus Thereof | |
| JP7179687B2 (en) | Obstacle detector | |
| Sanyal et al. | Detection and location estimation of object in unmanned aerial vehicle using single camera and GPS | |
| KR20200145410A (en) | Apparatus and method for obtaining location information for camera of vehicle | |
| CN117664101A (en) | A lidar-based semantic slam mapping method for airport unmanned vehicles | |
| Hu et al. | Solution of camera registration problem via 3d-2d parameterized model matching for on-road navigation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20190621 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220330 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20190621 Comment text: Patent Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20250313 Patent event code: PE09021S01D |