[go: up one dir, main page]

KR20200145410A - Apparatus and method for obtaining location information for camera of vehicle - Google Patents

Apparatus and method for obtaining location information for camera of vehicle Download PDF

Info

Publication number
KR20200145410A
KR20200145410A KR1020190074406A KR20190074406A KR20200145410A KR 20200145410 A KR20200145410 A KR 20200145410A KR 1020190074406 A KR1020190074406 A KR 1020190074406A KR 20190074406 A KR20190074406 A KR 20190074406A KR 20200145410 A KR20200145410 A KR 20200145410A
Authority
KR
South Korea
Prior art keywords
vehicle
information
camera
location information
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020190074406A
Other languages
Korean (ko)
Inventor
이태경
이성수
김종환
이강희
이경민
Original Assignee
에스케이텔레콤 주식회사
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사, 한국과학기술원 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020190074406A priority Critical patent/KR20200145410A/en
Publication of KR20200145410A publication Critical patent/KR20200145410A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

According to one embodiment of the present invention, a method for obtaining camera location information of a vehicle may comprise the steps of: matching feature points of a plurality of surrounding images acquired at a plurality of viewpoints by a camera provided in the vehicle; acquiring displacement information of the vehicle based on driving information of the vehicle detected by a sensor provided in the vehicle; and acquiring location information of the camera by fusing the acquired displacement information of the vehicle and matching information for the feature point. Accordingly, a more accurate camera location information can be obtained, and based on this, the accuracy of the estimated location of the vehicle can be improved.

Description

차량의 카메라 위치 정보 획득 장치 및 방법{APPARATUS AND METHOD FOR OBTAINING LOCATION INFORMATION FOR CAMERA OF VEHICLE} Device and method for acquiring vehicle camera location information {APPARATUS AND METHOD FOR OBTAINING LOCATION INFORMATION FOR CAMERA OF VEHICLE}

본 발명은 차량의 카메라에 의해 획득된 영상으로부터 주행 차량에 탑재된 카메라의 위치 정보를 획득하는 차량의 카메라 위치 정보 획득 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for obtaining camera location information of a vehicle for obtaining location information of a camera mounted on a driving vehicle from an image obtained by a camera of the vehicle.

일반적으로 차량은 화석 연료, 전기 등을 동력원으로 하여 도로 또는 선로를 주행하는 운송 장치를 의미한다.In general, a vehicle refers to a transportation device that travels on a road or track using fossil fuel, electricity, or the like as a power source.

차량은 기술의 발달에 따라 운전자에게 다양한 기능을 제공할 수 있도록 발전해왔다. 특히, 차량의 전장화 추세에 따라, 사고 직전 또는 사고 순간에 사고를 방지하기 위해 동작하는 능동형 안전 시스템(ASS: Active Safety System)을 구비하는 차량이 등장하였다.Vehicles have been developed to provide various functions to drivers according to the development of technology. In particular, according to the trend of electrification of vehicles, vehicles having an active safety system (ASS) that operate to prevent accidents just before or at the moment of accidents have appeared.

나아가, 최근에는 운전자의 부담을 경감시켜주고 편의를 증진시켜주기 위하여 차량 상태, 운전자 상태, 및 주변 환경과 같은 주행 환경에 대한 정보를 능동적으로 제공하는 첨단 운전자 지원 시스템(ADAS: Advanced Driver Assist System)이 탑재된 차량에 대한 연구가 활발히 진행되고 있다. Furthermore, in recent years, an advanced driver assistance system (ADAS: Advanced Driver Assist System) that actively provides information on the driving environment such as vehicle status, driver status, and surrounding environment in order to reduce the burden on the driver and improve convenience. Research on this equipped vehicle is actively underway.

첨단 운전자 지원 시스템은 현재 위치로부터 결정되는 주행 환경에 따라 동작하므로, 자차의 위치 추정이 선행될 수 있다. 이 때, 차량에 탑재된 카메라에 의해 획득된 주변 영상이 이용될 수 있고, 주변 영상을 효과적으로 활용하기 위해서는 카메라의 정확한 위치 정보를 확보할 필요가 있다.Since the advanced driver assistance system operates according to the driving environment determined from the current position, the position of the own vehicle may be estimated in advance. At this time, the surrounding image acquired by the camera mounted on the vehicle may be used, and in order to effectively utilize the surrounding image, it is necessary to secure accurate location information of the camera.

한국등록특허공보, 제 10-1584693호 (2016.01.14. 공고)Korean Registered Patent Publication, No. 10-1584693 (announcement on January 14, 2016)

본 발명이 해결하고자 하는 과제는, 복수의 주변 영상에 대한 매칭 정보와 차량의 센서에 의해 획득된 차량의 변위 정보를 융합하여 카메라의 위치 정보를 획득하는 차량의 카메라 위치 정보 획득 장치 및 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide an apparatus and method for acquiring camera position information of a vehicle by fusing matching information for a plurality of surrounding images and displacement information of a vehicle acquired by a sensor of a vehicle to obtain camera position information. Is to do.

다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problem to be solved by the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

본 발명의 일 실시예에 따른 차량의 카메라 위치 정보 획득 방법은, 차량에 마련된 카메라에 의해 복수의 시점에 획득된 복수의 주변 영상의 특징점을 매칭하는 단계; 상기 차량에 마련된 센서에 의해 감지된 상기 차량의 주행 정보를 기초로 상기 차량의 변위 정보를 획득하는 단계; 및 상기 획득된 차량의 변위 정보와 상기 특징점에 대한 매칭 정보를 융합하여 상기 카메라의 위치 정보를 획득하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method of obtaining camera location information of a vehicle includes: matching feature points of a plurality of surrounding images acquired at a plurality of viewpoints by a camera provided in the vehicle; Obtaining displacement information of the vehicle based on driving information of the vehicle detected by a sensor provided in the vehicle; And acquiring location information of the camera by fusing the obtained displacement information of the vehicle and matching information for the feature point.

본 발명의 일 실시예에 따른 차량의 카메라 위치 정보 획득 장치는, 차량에 마련된 카메라에 의해 복수의 시점에 획득된 복수의 주변 영상의 특징점을 매칭하는 매칭부; 상기 차량에 마련된 센서에 의해 감지된 상기 차량의 주행 정보를 기초로 상기 차량의 변위 정보를 획득하는 변위 정보 획득부; 및 상기 획득된 차량의 변위 정보와 상기 특징점에 대한 매칭 정보를 융합하여 상기 카메라의 위치 정보를 획득하는 융합부를 포함한다.According to an embodiment of the present invention, an apparatus for obtaining camera location information of a vehicle includes: a matching unit for matching feature points of a plurality of surrounding images acquired at a plurality of viewpoints by a camera provided in the vehicle; A displacement information acquisition unit that acquires displacement information of the vehicle based on driving information of the vehicle detected by a sensor provided in the vehicle; And a fusion unit that acquires location information of the camera by fusing the obtained displacement information of the vehicle and matching information on the feature point.

본 발명의 일 실시예에 따른 차량의 카메라 위치 정보 획득 장치 및 방법은, 보다 정확하게 카메라의 위치 정보를 획득할 수 있고, 이를 기반으로 차량의 추정 위치 정확도를 높일 수 있다. 구체적으로, 복수의 주변 영상에 대한 매칭 정보와 차량의 센서에 의해 획득된 차량의 변위 정보를 융합함으로써, 주변 영상에 기초한 카메라의 위치 정보의 축척을 복원함과 동시에, 센서의 바이어스도 보정하여, 차량의 3차원 위치를 정확하게 추정할 수 있다. In the apparatus and method for obtaining camera location information of a vehicle according to an embodiment of the present invention, it is possible to more accurately obtain the location information of the camera, and based on this, it is possible to increase the accuracy of the estimated location of the vehicle. Specifically, by fusing matching information for a plurality of surrounding images and displacement information of the vehicle obtained by the sensor of the vehicle, the scale of the camera's position information based on the surrounding images is restored, and the bias of the sensor is also corrected, The three-dimensional position of the vehicle can be accurately estimated.

도 1 및 2는 본 발명의 여러 가지 실시예에 따른 차량의 카메라 위치 정보 획득 시스템의 기능 블록도이다.
도 3은 본 발명의 일 실시예에 따른 차량의 카메라 위치 정보 획득 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 매칭부에 의해 획득된 광 흐름을 예시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 차량 중심과 카메라 사이의 오프셋을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 비용함수를 만족하는 축척이 상이한 카메라 궤적을 예시한 도면이다.
1 and 2 are functional block diagrams of a system for obtaining camera location information of a vehicle according to various embodiments of the present invention.
3 is a flowchart of a method of obtaining camera location information of a vehicle according to an embodiment of the present invention.
4 is a diagram illustrating a light flow obtained by a matching unit according to an embodiment of the present invention.
5 is a diagram for explaining an offset between a vehicle center and a camera according to an embodiment of the present invention.
6 is a diagram illustrating camera trajectories having different scales satisfying a cost function according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and are common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout this specification.

도 1 및 2는 본 발명의 여러 가지 실시예에 따른 차량의 카메라 위치 정보 획득 시스템의 기능 블록도이다.1 and 2 are functional block diagrams of a system for obtaining camera location information of a vehicle according to various embodiments of the present invention.

본 발명의 차량의 카메라 위치 정보 획득 시스템은 차량의 카메라에 의해 획득된 주변 영상을 이용하여 카메라의 위치 정보를 획득할 수 있는 모든 시스템을 의미한다.The system for obtaining camera location information of a vehicle of the present invention refers to any system capable of obtaining location information of a camera using surrounding images obtained by the camera of the vehicle.

자율 주행 차량은 사전에 구축된 정밀 지도(HD map)를 이용하여 실시간 위치 인식을 하고 주변 환경 상황에 따라 경로 계획/변경 및 차량 제어를 할 필요가 있다. 정밀 지도 구축 방법 중 하나는 고성능 센서(RTK GPS, INS, LiDAR, 카메라)를 장착한 MMS(Mobile Mapping System) 차량을 이용하여 실제 도로 주행 환경을 주행하면서 3차원 포인트 클라우드 데이터(Point Cloud Data)를 획득하고, 획득된 포인트 클라우드 데이터 중 차선, 정지선, 표지판, 이정표 등과 같이 의미 있는 데이터가 벡터(vector) 형태로 표현함으로써 고정밀 지도를 구축할 수 있다. 이러한 방법은 고성능 센서를 장착한 MMS 차량을 이용하므로, 일부 구간이 변경된 경우, 변화 감지 구간을 인지하기 어려울 수 있다. 또한, 변경된 구간을 업데이트 하기 위해 MMS 차량으로 해당 구간을 주행하여 다시 3차원 포인트 클라우드 데이터를 획득하고, 다시 벡터 형태의 지도로 만드는 작업을 수행해야 하는데, 이를 위한 많은 비용과 시간이 요구될 수 있다.Autonomous vehicles need to recognize real-time location using a pre-built HD map, plan/change routes and control vehicles according to the surrounding environment. One of the ways to build a precision map is to use a MMS (Mobile Mapping System) vehicle equipped with a high-performance sensor (RTK GPS, INS, LiDAR, and camera) to drive the actual road driving environment while using 3D point cloud data. It is possible to construct a high-precision map by expressing meaningful data such as lanes, stop lines, signs, and milestones among the acquired and acquired point cloud data in a vector format. Since this method uses an MMS vehicle equipped with a high-performance sensor, when some sections are changed, it may be difficult to recognize the change detection section. In addition, in order to update the changed section, it is necessary to drive the section with an MMS vehicle to obtain 3D point cloud data again, and to perform the task of creating a vector map again, which can require a lot of cost and time. .

이를 해결하기 위해, 복수의 차량에서 생성된 부정확한 지도를 서버에서 취합 및 융합하여 정밀 지도와 유사한 정확도를 갖는 지도를 생성하는 방법들이 제안되고 있다. 이와 같은 방법을 구현하기 위해서는 정밀 지도의 도움 없이 차량이 스스로의 위치를 정확하게 추정할 필요가 있다. 하나의 방법으로는 차량의 휠 속도 정보 및 요레이트(Yaw Rate) 정보를 융합하여 차량의 상대적인 자세각 및 위치를 추정(이하, 오도메트리라 함)하는 방법이 있다. 하지만 이 방법은 평면상에서의 움직임을 가정하므로 3차원 지도 생성에 활용하기 어려우며, 휠 속도 센서의 환산 계수(Scaling Factor)를 추정하기 어려울 수 있다. 또한, 요레이트 센서의 경우 바이어스(Bias)를 포함하고 있어, 이를 고려하지 않을 경우 차량의 자세각 및 위치 정확도가 현저히 낮아질 수 있다.To solve this problem, methods of generating a map having an accuracy similar to that of a precision map by collecting and fusing inaccurate maps generated by a plurality of vehicles in a server have been proposed. In order to implement such a method, it is necessary for the vehicle to accurately estimate its own location without the aid of a precision map. As one method, there is a method of fusion of vehicle wheel speed information and yaw rate information to estimate the relative attitude angle and position of the vehicle (hereinafter referred to as odometry). However, since this method assumes motion on a plane, it is difficult to use for 3D map generation, and it may be difficult to estimate the scaling factor of the wheel speed sensor. In addition, since the yaw rate sensor includes a bias, if this is not considered, the attitude angle and position accuracy of the vehicle may be significantly lowered.

다른 방법으로서, 단안 카메라를 이용한 오도메트리(Monocular Visual Odometry) 기술은 고성능 센서를 이용하는 것에 비해 경제적이고, 3차원 자세각 및 위치를 추정할 수 있으며 어느 차량에나 쉽게 적용할 수 있다. 그러나, 이러한 방법은 영상 특징점의 추출 및 추적이 전제되어야 하고, 연산량이 많아 실시간 활용이 어려우며, 다수의 카메라나 라이다(LiDAR), GPS와 같은 별도의 센서를 이용하는 방식과 달리, 카메라의 이동과 공간의 크기에 대한 실제 축척을 정확히 알기 어려운데 따른 축척 모호성(Scale ambiguity)을 가질 수 있다.As another method, Monocular Visual Odometry technology using a monocular camera is economical compared to using a high-performance sensor, can estimate a three-dimensional attitude angle and position, and can be easily applied to any vehicle. However, this method requires extraction and tracking of image feature points, and it is difficult to use in real time due to a large amount of computation, and unlike a method using separate sensors such as multiple cameras, LiDAR, and GPS, It is difficult to know the actual scale for the size of the space, so it may have scale ambiguity.

따라서, 상술한 문제들을 개선하기 위해, 본 발명의 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 복수의 주변 영상에 대한 매칭 정보와 차량(V)의 센서에 의해 획득된 차량(V)의 변위 정보를 융합하여 카메라의 위치 정보를 획득할 수 있다. 이렇게 획득된 카메라 위치 정보는 자차의 위치 정보, 즉 차량(V)의 오도메트리 추정에 이용될 수 있다.Therefore, in order to improve the above-described problems, the system 1 for obtaining camera location information of the vehicle V according to an embodiment of the present invention is obtained by matching information for a plurality of surrounding images and a sensor of the vehicle V. The position information of the camera may be obtained by fusing the displacement information of the vehicle V. The camera location information obtained in this way may be used for location information of the own vehicle, that is, odometry estimation of the vehicle V.

본 발명의 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)의 구성을 설명하기에 앞서, 본 발명에서의 변수와 좌표계를 정의한다.Before describing the configuration of the system 1 for obtaining camera position information of the vehicle V according to an embodiment of the present invention, variables and coordinate systems in the present invention are defined.

본 발명은 카메라, 구체적으로 단안 카메라와 센서가 장착된 차량(V)(또는 로봇)을 강체로 가정하며, 카메라 오도메트리의 상태 변수(State Variable)는 카메라의 3차원 자세(6 자유도)와 자세 센서의 요레이트 바이어스(1 자유도)의 총 7 자유도로 구성되고, 카메라의 3차원 위치를

Figure pat00001
, 3차원 방향각(pitch, yaw, roll)를 각각
Figure pat00002
로 표시하고, 요레이트 바이어스 값을
Figure pat00003
로 표기한다. 키프레임은 연속되어 입력되는 복수의 주변 영상들 중 오도메트리 계산에 중요하다고 판단되는 영상으로
Figure pat00004
번째 키프레임에서의 변수
Figure pat00005
Figure pat00006
로 표시한다. 또
Figure pat00007
번째 키프레임과
Figure pat00008
번째 키프레임 사이의
Figure pat00009
번째 센서 데이터
Figure pat00010
Figure pat00011
로 표시한다. (
Figure pat00012
Figure pat00013
을 의미한다.)The present invention assumes a camera, specifically a vehicle (V) (or a robot) equipped with a monocular camera and a sensor as a rigid body, and the state variable of the camera odometry is a three-dimensional posture (6 degrees of freedom) of the camera. It consists of a total of 7 degrees of freedom of the yaw rate bias (1 degree of freedom) of the attitude sensor and the three-dimensional position of the camera.
Figure pat00001
, 3D direction angle (pitch, yaw, roll) respectively
Figure pat00002
And the yaw rate bias value
Figure pat00003
Marked as. A key frame is an image judged to be important for odometry calculation among a plurality of consecutively inputted surrounding images.
Figure pat00004
Variable at the first keyframe
Figure pat00005
Is
Figure pat00006
Denoted by In addition
Figure pat00007
First keyframe and
Figure pat00008
Between keyframes
Figure pat00009
Second sensor data
Figure pat00010
Is
Figure pat00011
Denoted by (
Figure pat00012
silver
Figure pat00013
Means.)

또한, 본 발명의 모든 좌표계는 기본적으로 카메라의 오른쪽 방향이 X축, 카메라의 아래 방향이 Y축, 그리고 카메라의 전방이 Z축인 영상 좌표계를 따른다.In addition, all coordinate systems of the present invention basically follow an image coordinate system in which the right direction of the camera is the X axis, the downward direction of the camera is the Y axis, and the front of the camera is the Z axis.

또한, 본 발명은 크게 (영상)오도메트리 좌표계와 키프레임 카메라 좌표계, 키프레임 차량(V) 좌표계를 정의하여 사용한다. 오도메트리 좌표계는 카메라의 시작 자세를 원점 및 좌표계로 하여 현재의 카메라의 위치와 자세를 표현한다. 키프레임 카메라 좌표계는 키프레임이 촬영된 카메라의 위치 및 자세를 원점 및 좌표계로 하여 현재 카메라의 위치와 자세를 표현한다. 유사하게 키프레임 차량(V) 좌표계는 카메라가 아닌 차량(V)의 위치와 자세를 원점 및 좌표계로 한다. 차량(V)의 중심은 후륜 차축의 중심점으로 한다. 별도의 표시가 없는 변수는 오도메트리 좌표계를 기준으로 하며, 키프레임 카메라 좌표계에서 표현된 변수

Figure pat00014
Figure pat00015
, 키프레임 차량(V) 좌표계에서 표현된 변수
Figure pat00016
Figure pat00017
와 같이 표현한다. 또한 k번째 카메라 좌표계 기준으로 표현된 k+1번째 카메라 좌표계의 변수
Figure pat00018
Figure pat00019
와 같이 표현한다. 전역 좌표계 기준으로 표현된 k번째 카메라 좌표계의
Figure pat00020
Figure pat00021
와 같이 표현한다.In addition, the present invention largely defines and uses a (video) odometry coordinate system, a key frame camera coordinate system, and a key frame vehicle (V) coordinate system. The odometry coordinate system expresses the current position and posture of the camera using the starting position of the camera as the origin and the coordinate system. The key frame camera coordinate system expresses the position and posture of the current camera by using the position and posture of the camera in which the key frame is captured as the origin and coordinate system. Similarly, the key frame vehicle (V) coordinate system uses the position and posture of the vehicle (V), not the camera, as the origin and coordinate system. The center of the vehicle V is the center point of the rear axle. Variables not indicated separately are based on the odometry coordinate system, and are expressed in the keyframe camera coordinate system.
Figure pat00014
Is
Figure pat00015
, Variable expressed in the key frame vehicle (V) coordinate system
Figure pat00016
Is
Figure pat00017
Expressed like this. Also, a variable of the k+1st camera coordinate system expressed as a reference to the kth camera coordinate system
Figure pat00018
Is
Figure pat00019
Expressed like this. Of the kth camera coordinate system expressed in terms of the global coordinate system
Figure pat00020
Is
Figure pat00021
Expressed like this.

상술한 전제를 기초로, 이하에서는 본 발명의 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)의 구성을 설명한다.Based on the above-described premise, the following describes the configuration of the system 1 for obtaining camera location information of the vehicle V according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 카메라 및 센서가 마련된 차량(V); 및 차량(V)의 카메라 위치 정보를 획득하는 차량(V)의 카메라 위치 정보 획득 장치(100)를 포함할 수 있다.Referring to FIG. 1, a system 1 for obtaining camera position information of a vehicle V according to an embodiment of the present invention includes a vehicle V equipped with a camera and a sensor; And an apparatus 100 for obtaining camera location information of the vehicle V that obtains camera location information of the vehicle V.

차량(V)의 카메라 위치 정보 획득 시스템(1)은 차량(V)의 카메라 위치 정보 획득 장치(100)와 차량(V) 간에 유선 또는 무선 통신이 가능하도록 마련될 수 있다. 구체적으로, 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 CAN통신 방법을 채택하여 차량(V)의 카메라 위치 정보 획득 장치(100)와 차량(V) 간 유선 통신 환경을 구현할 수 있다. 이와는 달리, 다른 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 공지된 여러 가지 통신 방법을 채택함으로써 정보 제공 차량(V)과 위치 추정 장치 간에 정보 교환이 가능한 환경을 제공할 수 있다. 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 CDMA, GSM, W-CDMA, TD-SCDMA, WiBro, LTE, EPC 등의 공지된 통신 방법을 채택하여 기지국을 경유하는 통신 환경을 제공할 수 있다. 이와는 달리, 다른 실시예에 따른 차량(V)의 카메라 위치 정보 획득 시스템(1)은 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), WFD(Wi-Fi Direct), UWB(Ultra wideband), 적외선 통신(IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication)와 같은 통신 방법에 따라 소정 거리 이내에서 정보 제공 차량(V)과 위치 추정 장치 간에 통신이 가능한 환경을 제공할 수도 있다. 다만, 차량(V)의 카메라 위치 정보 획득 시스템(1)이 채택하는 통신하는 방법은 상술한 실시예에 한정되지 않는다.The system 1 for obtaining camera location information of the vehicle V may be provided to enable wired or wireless communication between the apparatus 100 for obtaining camera location information of the vehicle V and the vehicle V. Specifically, the system 1 for obtaining camera location information of the vehicle V according to an embodiment adopts a CAN communication method to provide a wired communication environment between the apparatus 100 for obtaining camera location information of the vehicle V and the vehicle V. Can be implemented. In contrast, the system 1 for obtaining camera location information of the vehicle V according to another embodiment provides an environment in which information exchange between the information providing vehicle V and the location estimation device is possible by adopting various known communication methods. I can. The system 1 for obtaining camera location information of the vehicle V according to an embodiment uses a known communication method such as CDMA, GSM, W-CDMA, TD-SCDMA, WiBro, LTE, EPC, etc. to communicate via a base station. You can provide an environment. In contrast, the system 1 for obtaining camera location information of the vehicle V according to another embodiment includes a wireless LAN, Wi-Fi, Bluetooth, Zigbee, and WFD (Wi-Fi). Fi Direct), UWB (Ultra wideband), infrared communication (IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC (Near Field Communication). It is also possible to provide an environment in which communication between position estimation devices is possible. However, the communication method adopted by the system 1 for obtaining camera location information of the vehicle V is not limited to the above-described embodiment.

차량(V)은 주변 환경을 감지하기 위한 감지 수단을 구비할 수 있다. 일 실시예에 따른 감지 수단은 차량(V) 주변으로 펄스를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 에코 펄스를 수신하여 주행 환경을 감지하는 레이더(Radar), 차량(V) 주변으로 레이저를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 레이저를 수신하는 라이다(LiDAR), 및/또는 차량(V) 주변으로 초음파를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 에코 초음파를 수신하는 초음파 센서 등을 포함할 수 있다. The vehicle V may be provided with a sensing means for sensing the surrounding environment. The sensing means according to an embodiment is a radar that detects a driving environment by irradiating a pulse around the vehicle V and receiving an echo pulse reflected from an object located in a corresponding direction, and a laser around the vehicle V. And/or a LiDAR that receives a laser reflected from an object located in a corresponding direction, and/or an ultrasonic wave is irradiated around the vehicle (V), and an echo ultrasound reflected from an object located in the corresponding direction is received. It may include an ultrasonic sensor and the like.

또한, 차량(V)은 감지 수단으로서 카메라를 포함할 수 있다. 카메라는 차량(V)의 전방, 측방, 및/또는 후방을 향하도록 마련되어, 해당 방향으로의 주변 영상을 촬영할 수 있다. 촬영된 주변 영상은 영상처리 과정을 통해 카메라 위치 정보 획득에 이용될 수 있다.Further, the vehicle V may include a camera as a sensing means. The camera is provided to face the front, side, and/or rear of the vehicle V, and the surrounding images in the corresponding direction may be photographed. The captured surrounding image may be used to obtain camera location information through an image processing process.

또한, 차량(V)은 감지 수단으로서 GPS 모듈을 포함할 수 있다. GPS 모듈은 적어도 하나의 GPS(Global Position System) 위성으로부터 항법 데이터(Navigation Data)를 포함하는 위성 신호를 수신할 수 있다. 차량(V)은 위성 신호에 기초하여 GPS 기반 정보 제공 차량(V)의 현재 위치 좌표 등을 획득할 수 있다.In addition, the vehicle V may include a GPS module as a sensing means. The GPS module may receive a satellite signal including navigation data from at least one Global Position System (GPS) satellite. The vehicle V may obtain the coordinates of the current location of the vehicle V providing GPS-based information based on a satellite signal.

또한, 차량(V)은 주행 정보를 감지하는 센서를 포함할 수 있다. 일 실시예에 따른 센서는 차량(V)의 휠 속도를 감지하는 휠 속도 감지 센서, 및 차량(V)의 요레이트를 포함하는 자세 정보를 감지하는 자세 센서를 포함할 수 있다.In addition, the vehicle V may include a sensor that detects driving information. The sensor according to an embodiment may include a wheel speed detection sensor that senses a wheel speed of the vehicle V, and a pose sensor that senses attitude information including a yaw rate of the vehicle V.

또한, 차량(V)은 본 발명의 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 방법을 수행하는 명령어를 포함하는 프로그램을 저장하는 저장 수단을 더 포함할 수 있다. 일 실시예에 따른 저장 수단은 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 및/또는 광디스크 등을 포함할 수 있다.In addition, the vehicle V may further include a storage means for storing a program including a command for performing a method of obtaining camera location information of the vehicle V according to an embodiment of the present invention. The storage means according to an embodiment is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.). ), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), Magnetic Memory, magnetic disk, and/or optical disk.

또한, 차량(V)은 차량(V)의 카메라 위치 정보 획득 시스템(1)이 채택한 통신 방법에 따라 차량(V)의 카메라 위치 정보 획득 장치(100)와 통신 가능한 통신 모듈을 더 포함할 수 있다. 통신 모듈을 통해, 차량(V)은 차량(V)의 카메라 위치 정보 획득 장치(100)에 주변 영상 및 주행 정보를 제공할 수 있다.In addition, the vehicle V may further include a communication module capable of communicating with the apparatus 100 for obtaining camera location information of the vehicle V according to a communication method adopted by the system 1 for obtaining camera location information of the vehicle V. . Through the communication module, the vehicle V may provide the surrounding image and driving information to the apparatus 100 for obtaining camera location information of the vehicle V.

차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)으로부터 수신된 주변 영상 및 주행 정보를 기초로 차량(V)의 카메라 위치 정보를 획득하고, 이를 기초로 최종적으로 차량(V)의 위치를 추정할 수 있다. 이를 위해, 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 장치(100)는 서버 또는 복수의 서버 집합으로 구성될 수 있다.The apparatus 100 for obtaining camera location information of the vehicle V acquires camera location information of the vehicle V based on the surrounding images and driving information received from the vehicle V, and finally, the vehicle V You can estimate the location of To this end, the apparatus 100 for obtaining camera location information of the vehicle V according to an exemplary embodiment may be configured with a server or a set of a plurality of servers.

차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)으로부터 주변 영상 및 주행 정보를 수신할 수 있다. 이를 위해, 차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)의 카메라 위치 정보 획득 시스템(1)이 채택하는 통신 방식에 따라 통신 가능하도록 마련될 수 있다.The apparatus 100 for obtaining camera location information of the vehicle V may receive surrounding images and driving information from the vehicle V. To this end, the apparatus 100 for obtaining camera location information of the vehicle V may be provided to enable communication according to a communication method adopted by the system 1 for obtaining camera location information of the vehicle V.

차량(V)의 카메라 위치 정보 획득 장치(100)는 매칭부(110), 변위 정보 획득부(120), 및 융합부(130)를 포함할 수 있다.The apparatus 100 for obtaining camera location information of the vehicle V may include a matching unit 110, a displacement information obtaining unit 120, and a fusion unit 130.

매칭부(110)는 차량(V)에 마련된 카메라에 의해 복수의 시점에 획득된 복수의 주변 영상의 특징점을 매칭할 수 있다. 구체적으로, 매칭부(110)는 복수의 주변 영상 각각으로부터 특징점을 추출할 수 있다. 그 다음, 매칭부(110)는 인접하는 주변 영상 내 특징점을 매칭하여, 매칭된 특징점의 광 흐름(Optical Flow)을 포함하는 매칭 정보를 획득할 수 있다. 마지막으로, 매칭부(110)는 에피폴라 라인(Epipolar Line)을 기초로 유효하지 않은 매칭에 대한 광 흐름을 제외할 수 있다.The matching unit 110 may match feature points of a plurality of surrounding images acquired at a plurality of viewpoints by a camera provided in the vehicle V. Specifically, the matching unit 110 may extract a feature point from each of a plurality of surrounding images. Then, the matching unit 110 may obtain matching information including an optical flow of the matched feature points by matching feature points in adjacent surrounding images. Finally, the matching unit 110 may exclude a light flow for invalid matching based on an epipolar line.

변위 정보 획득부(120)는 차량(V)에 마련된 센서에 의해 감지된 차량(V)의 주행 정보를 기초로 차량(V)의 변위 정보를 획득할 수 있다. 구체적으로, 변위 정보 획득부(120)는 휠 속도 센서에 의해 감지된 후륜의 속도 평균을 기초로 차량(V)의 병진 속도를 획득하고, 자세 센서에 의해 획득된 요레이트 값을 기초로 차량(V)의 회전 속도를 획득할 수 있다.The displacement information acquisition unit 120 may obtain displacement information of the vehicle V based on driving information of the vehicle V detected by a sensor provided in the vehicle V. Specifically, the displacement information acquisition unit 120 acquires the translational speed of the vehicle V based on the average of the speeds of the rear wheels detected by the wheel speed sensor, and based on the yaw rate value obtained by the attitude sensor, the vehicle ( V) rotation speed can be obtained.

융합부(130)는 획득된 차량(V)의 변위 정보와 특징점에 대한 매칭 정보를 융합하여 카메라의 위치 정보를 획득할 수 있다. 구체적으로, 융합부(130)는 소정의 비용함수를 최소화하는 과정을 통해 카메라의 위치 정보를 획득할 수 있는데, 이러한 비용함수는 오도메트리 계산에 이용되며, 특징점에 대한 매칭 정보와 차량의 변위 정보를 고려하도록 설계된 것일 수 있다.The fusion unit 130 may acquire location information of the camera by fusing the obtained displacement information of the vehicle V and matching information on the feature points. Specifically, the fusion unit 130 may obtain the location information of the camera through a process of minimizing a predetermined cost function, and this cost function is used for odometry calculation, and matching information for feature points and vehicle displacement It may be designed to take information into account.

도 1의 실시예에 따른 차량(V)의 카메라 위치 정보 획득 장치(100)의 적어도 하나의 구성은 마이크로프로세서(Microprocessor)를 포함하는 연산 장치로 구현될 수 있다. 예를 들어, 일 실시예에 따른 차량(V)의 카메라 위치 정보 획득 장치(100)의 각 구성 중 적어도 하나는 AP(Application Processor), CP(Communication Processor), GPU(Graphic Processing Unit), 및/또는 CPU(Central Processing Unit) 등의 다양한 프로세서(Processor) 중 적어도 하나에 의해 구현될 수 있다. 또한, 차량(V)의 카메라 위치 정보 획득 장치(100)의 각 구성 중 적어도 두 개가 SOC(System On Chip) 로 구현되는 것도 가능할 수 있다.At least one configuration of the apparatus 100 for obtaining camera location information of the vehicle V according to the exemplary embodiment of FIG. 1 may be implemented as a computing device including a microprocessor. For example, at least one of each of the components of the apparatus 100 for obtaining camera location information of the vehicle V according to an embodiment is an application processor (AP), a communication processor (CP), a graphic processing unit (GPU), and/ Alternatively, it may be implemented by at least one of various processors such as a CPU (Central Processing Unit). In addition, it may be possible to implement at least two of each component of the apparatus 100 for obtaining camera location information of the vehicle V as a system on chip (SOC).

도 1에서는 차량(V)의 카메라 위치 정보 획득 장치(100)가 차량(V)과 별개의 장치로 구현되는 경우를 예시하였으나, 이와는 달리 차량(V)의 카메라 위치 정보 획득 장치(100)가 차량(V)과 일체로 마련될 수도 있다. 도 2를 참조하면, 차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)의 일 구성으로 마련되어, 차량(V)에 포함될 수 있다.1 illustrates a case in which the device 100 for obtaining camera location information of the vehicle V is implemented as a device separate from the vehicle V, but unlike this, the device 100 for obtaining camera location information of the vehicle V is a vehicle It may be provided integrally with (V). Referring to FIG. 2, the apparatus 100 for obtaining camera location information of the vehicle V may be provided as a component of the vehicle V and may be included in the vehicle V.

지금까지는 차량(V)의 카메라 위치 정보 획득 시스템(1)의 각 구성에 대하여 설명하였다. 이하에서는 차량(V)의 카메라 위치 정보 획득 장치(100)에 의해 수행되는 차량(V)의 카메라 위치 정보 획득 방법에 대하여 설명한다.So far, each configuration of the system 1 for obtaining camera position information of the vehicle V has been described. Hereinafter, a method of obtaining camera location information of the vehicle V performed by the apparatus 100 for obtaining camera location information of the vehicle V will be described.

도 3은 본 발명의 일 실시예에 따른 차량의 카메라 위치 정보 획득 방법의 흐름도이다.3 is a flowchart of a method of obtaining camera location information of a vehicle according to an embodiment of the present invention.

먼저, 차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)의 카메라에 의해 획득된 복수의 주변 영상의 특징점을 매칭할 수 있다(S100). 구체적으로, 차량(V)의 카메라 위치 정보 획득 장치(100)의 매칭부(110)는 복수의 주변 영상 각각으로부터 특징점을 추출할 수 있다. 그 다음, 매칭부(110)는 인접하는 주변 영상 내 특징점을 매칭하여, 매칭된 특징점의 광 흐름(Optical Flow)을 포함하는 매칭 정보를 획득할 수 있다. 마지막으로, 매칭부(110)는 에피폴라 라인(Epipolar Line)을 기초로 유효하지 않은 매칭에 대한 광 흐름을 제외할 수 있다.First, the apparatus 100 for obtaining camera location information of the vehicle V may match feature points of a plurality of surrounding images acquired by the camera of the vehicle V (S100). Specifically, the matching unit 110 of the apparatus 100 for obtaining camera location information of the vehicle V may extract a feature point from each of a plurality of surrounding images. Then, the matching unit 110 may obtain matching information including an optical flow of the matched feature points by matching feature points in adjacent surrounding images. Finally, the matching unit 110 may exclude a light flow for invalid matching based on an epipolar line.

도 4는 본 발명의 일 실시예에 따른 매칭부에 의해 획득된 광 흐름을 예시한 도면이다.4 is a diagram illustrating a light flow obtained by a matching unit according to an embodiment of the present invention.

매칭부(110)는 복수의 주변 영상 중 인접한 두 개 사이의 특징점을 추출하고, 동일한 특징점을 매칭할 수 있다. 예를 들어, 매칭부(110)는 어느 하나의 주변 영상에서 GFTT(Good-Feature-to-Track) 특징점을 추출하고, 다음 주변 영상으로의 Lukas-Kanade 광 흐름을 계산하여 연속된 두 쌍의 영상들 사이의 특징점을 매칭할 수 있다. The matching unit 110 may extract feature points between two adjacent images from among a plurality of surrounding images and match the same feature points. For example, the matching unit 110 extracts GFTT (Good-Feature-to-Track) feature points from any one surrounding image, calculates the Lukas-Kanade light flow to the next surrounding image, and calculates two consecutive pairs of images. The feature points between them can be matched.

또한, 매칭부(110)는 에피폴라 라인(Epiporal Line)에 따른 에피폴라 제약 조건(Epipolar Constraint)에 따라 매칭에 대한 광 흐름의 유효성을 판단하여, 유효하지 않은 광 흐름을 매칭 정보로부터 제외할 수 있다. 여기서, 에피폴라 제약 조건에 따라 광 흐름의 유효성을 판단하는 것은 공지된 기술이므로, 상세한 설명은 생략한다. 도 4에서는 GFTT와 Lukas-Kanade 광흐름에 의해 획득한 두 주변 영상 특징점의 매칭과, 에피폴라 구속조건(epipolar constraint)을 이용하여 유효하지 않은 매칭을 제거한 결과를 예시한다.In addition, the matching unit 110 may determine the validity of the light flow for matching according to the epipolar constraint according to the epipolar line, and exclude the invalid light flow from the matching information. have. Here, since it is a known technique to determine the effectiveness of the light flow according to the epipolar constraint condition, a detailed description will be omitted. FIG. 4 illustrates the matching of two peripheral image feature points acquired by GFTT and Lukas-Kanade light flow, and a result of removing invalid matching using an epipolar constraint.

다시 도 3을 참조하면, 차량(V)의 카메라 위치 정보 획득 장치(100)는 센서에 의해 감지된 차량(V)의 주행 정보를 기초로 차량(V)의 변위 정보를 획득할 수 있다(S110). 이 때, 변위 정보는 차량(V)의 병진 변위 및 회전 변위를 포함할 수 있다.Referring back to FIG. 3, the apparatus 100 for obtaining camera location information of the vehicle V may obtain displacement information of the vehicle V based on driving information of the vehicle V detected by a sensor (S110). ). In this case, the displacement information may include a translational displacement and a rotational displacement of the vehicle V.

구체적으로, 차량(V)의 카메라 위치 정보 획득 장치(100)의 변위 정보 획득부(120)는 휠 속도 센서에 의해 감지된 후륜의 속도 평균을 기초로 차량(V)의 병진 속도를 획득하고, 자세 센서에 의해 획득된 요레이트 값을 기초로 차량(V)의 회전 속도를 획득할 수 있다.Specifically, the displacement information acquisition unit 120 of the apparatus 100 for obtaining camera position information of the vehicle V acquires the translational speed of the vehicle V based on the average speed of the rear wheels detected by the wheel speed sensor, The rotational speed of the vehicle V may be obtained based on the yaw rate value obtained by the attitude sensor.

변위 정보 획득부(120)는 차량(V)에 마련된 센서 중 휠 속도 감지 센서에 의해 감지된 두 후륜의 속도 VRL, VRR을 사용하여 차량(V)의 병진 속도 V를 구할 수 있다. 차량(V)의 병진속도 V는 후륜 축의 중심점을 기준으로 차륜 구동기(Differential Drive)의 기구학 모델(Kinematic Model)에 따라 두 후륜의 속도 평균 V=(VRL+VRR)/2으로 계산할 수 있다.The displacement information acquisition unit 120 may obtain the translational speed V of the vehicle V using the speeds V RL and V RR of the two rear wheels detected by the wheel speed detection sensor among sensors provided in the vehicle V. The translational speed V of the vehicle V can be calculated as the average V=(V RL +V RR )/2 of the speeds of the two rear wheels according to the kinematic model of the differential drive based on the center point of the rear wheel axis. .

또한, 변위 정보 획득부(120)는 차량(V)에 마련된 센서 중 자세 센서에서 감지한 요레이트 값 ω를 사용하여 차량(V)의 회전 속도를 구할 수 있다. 이 때, 자세 센서에 의해 감지된 값은 자세 센서 자체의 바이어스 b를 포함하므로, 차량(V)의 회전 속도는 이를 제외한 ω-b로 계산할 수 있다.In addition, the displacement information acquisition unit 120 may obtain the rotational speed of the vehicle V by using the yaw rate value ω detected by the attitude sensor among sensors provided in the vehicle V. At this time, since the value sensed by the attitude sensor includes the bias b of the attitude sensor itself, the rotational speed of the vehicle V can be calculated as ω-b excluding this.

아울러, 변위 정보 획득부(120)는 차량(V)이 정지 상태일 때의 자세 센서 값을 평균하여 자세 센서의 바이어스 초기 값을 추정할 수 있다. 다만, 차량(V)이 경사면에 놓여 있을 경우 잘못된 값이 추정될 수 있고, 차량(V)이 이동 중에도 바이어스가 변할 수 있으므로, 추후 이를 보정할 수 있다.In addition, the displacement information acquisition unit 120 An initial bias value of the attitude sensor may be estimated by averaging the attitude sensor values when the vehicle V is in a stopped state. However, when the vehicle V is placed on an inclined surface, an incorrect value may be estimated, and the bias may change even while the vehicle V is moving, so this may be corrected later.

병진 속도 V와 병진 변위 ω를 획득한 후, 변위 정보 획득부(120)는 이를 이산 적분하여 차량(V)의 2차원 병진 정보를 획득할 수 있다. 구체적으로, 변위 정보 획득부(120)는 수학식 1에 따라

Figure pat00022
번째 주변 영상의 차량(V) 좌표계를 기준으로 이후
Figure pat00023
번째까지 얻은
Figure pat00024
개의 센서 값을 이용하여 2차원 변위 정보인
Figure pat00025
를 획득할 수 있다.After obtaining the translational speed V and the translational displacement ω, the displacement information acquisition unit 120 may discretely integrate them to obtain 2D translational information of the vehicle V. Specifically, the displacement information acquisition unit 120 according to Equation 1
Figure pat00022
From the vehicle (V) coordinate system of the surrounding image
Figure pat00023
Obtained until th
Figure pat00024
2D displacement information,
Figure pat00025
Can be obtained.

Figure pat00026
Figure pat00026

여기서, 센서 바이어스는

Figure pat00027
번째 주변 영상에서의 값을 이용하고,
Figure pat00028
는 내부센서의 데이터가 들어오는 시간 간격을 의미할 수 있다.Here, the sensor bias is
Figure pat00027
Using the value from the surrounding image,
Figure pat00028
May mean the time interval in which the data of the internal sensor comes in.

또한, 변위 정보 획득부(120)는 추후 센서 바이어스

Figure pat00029
을 보정하기 위한 요레이트 적분값
Figure pat00030
을 수학식 2에 따라 구할 수 있다.In addition, the displacement information acquisition unit 120 will
Figure pat00029
Yaw rate integral value for correcting
Figure pat00030
Can be obtained according to Equation 2.

Figure pat00031
Figure pat00031

차량(V)의 변위 정보를 획득한 후, 차량(V)의 카메라 위치 정보 획득 장치(100)는 차량(V)의 변위 정보와 특징점에 대한 매칭 정보를 융합하여 카메라의 위치 정보를 획득할 수 있다(S120). 구체적으로 차량(V)의 카메라 위치 정보 획득 장치(100)의 융합부(130)는 소정의 비용함수를 최소화하는 과정을 통해 카메라의 위치 정보를 획득할 수 있는데, 이러한 비용함수는 오도메트리 계산에 이용되며, 특징점에 대한 매칭 정보와 차량의 변위 정보를 고려하도록 설계된 것일 수 있다.After acquiring the displacement information of the vehicle V, the apparatus 100 for obtaining camera location information of the vehicle V may acquire the location information of the camera by fusing the displacement information of the vehicle V and matching information on the feature points. Yes (S120). Specifically, the fusion unit 130 of the apparatus 100 for obtaining camera location information of the vehicle V may obtain the location information of the camera through a process of minimizing a predetermined cost function, and this cost function is used to calculate odometry. It is used for, and may be designed to consider matching information for feature points and displacement information of a vehicle.

여기서, 변위 정보 획득부(120)에 의해 획득된 변위 정보는

Figure pat00032
번째 주변 영상의 차량(V) 좌표계를 기준으로 한 정보이다. 따라서, 융합부(130)는 카메라의 위치 정보를 획득하는 과정에서, 이러한 변위 정보를 카메라 좌표계 기준의 3차원 변위 정보로 변환할 수 있다. Here, the displacement information obtained by the displacement information acquisition unit 120 is
Figure pat00032
This is information based on the vehicle (V) coordinate system of the second surrounding image. Accordingly, the fusion unit 130 may convert the displacement information into 3D displacement information based on the camera coordinate system in the process of obtaining the location information of the camera.

한편, 도 3에 도시된 S100과 S110의 경우, S100이 수행된 뒤에 S110이 수행되거나 또는 그 반대의 순서로 수행되는 것도 가능하며, 실시예에 따라 S100과 S110이 병렬적으로 수행될 수도 있다.Meanwhile, in the case of S100 and S110 shown in FIG. 3, S110 may be performed after S100 is performed, or may be performed in the reverse order, and S100 and S110 may be performed in parallel according to an embodiment.

도 5는 본 발명의 일 실시예에 따른 차량 중심과 카메라 사이의 오프셋을 설명하기 위한 도면이다.5 is a diagram for explaining an offset between a vehicle center and a camera according to an embodiment of the present invention.

카메라 C가 도 5와 같이 차량(V)의 앞 방향으로 정렬(Align)되어 있는 경우, 차량(V) 중심 Pv와 카메라 위치 Pc사이의 오프셋(Offset)을

Figure pat00033
라 할 수 있다. 오프셋
Figure pat00034
을 고려하여, 융합부(130)는 2차원 변위 정보로부터 주변 영상의 카메라 좌표계를 기준으로 하는 3차원 위치
Figure pat00035
와 자세각
Figure pat00036
을 제 2 위치 정보로서 구할 수 있으며, 수학식 3을 따른다. 이 때, 카메라가 전방으로 정렬되어 있고, 강체인 차량(V)에 고정되어 있기 때문에, 카메라와 차량(V)의 방향각이 동일함을 전제한다.When the camera C is aligned in the front direction of the vehicle V as shown in FIG. 5, the offset between the center P v of the vehicle V and the camera position P c is determined.
Figure pat00033
Can be said. offset
Figure pat00034
In consideration of, the fusion unit 130 is a three-dimensional position based on the camera coordinate system of the surrounding image from the two-dimensional displacement information.
Figure pat00035
And posture angle
Figure pat00036
Can be obtained as the second location information, and Equation 3 is followed. At this time, it is assumed that the camera and the vehicle V have the same direction angle because the camera is aligned to the front and is fixed to the rigid vehicle V.

Figure pat00037
Figure pat00037

또한, 카메라의 위치 정보를 획득하기 위해, 융합부(130)는 매칭 결과를 기초로 획득된 특징점의 3차원 좌표를 복수의 주변 영상 각각에 대하여 변환한 2차원 좌표와 주변 영상 각각에서의 특징점 간 거리를 최소화하는 위치 정보를 획득할 수 있다. 예를 들어, 융합부(130)는 bundle adjustment를 기초로 위치 정보를 획득할 수 있다. 구체적으로, 융합부(130)는 Levenberg-Marquardt 혹은 Gauss-Newton과 같은 알고리즘을 이용하여 수학식 4의 비용함수를 최소화하는 주변 영상에 대한 카메라의 위치 및 자세각, 특징점의 3차원 위치에 대한 해를 구할 수 있다.In addition, in order to obtain the location information of the camera, the fusion unit 130 converts the 3D coordinates of the feature points acquired based on the matching result for each of the plurality of surrounding images, and between the 2D coordinates and the feature points in each of the surrounding images. It is possible to obtain location information that minimizes the distance. For example, the fusion unit 130 may acquire location information based on bundle adjustment. Specifically, the fusion unit 130 uses an algorithm such as Levenberg-Marquardt or Gauss-Newton to minimize the cost function of Equation 4, the camera position and attitude angle for the surrounding image, and the solution to the three-dimensional position of the feature point. Can be obtained.

Figure pat00038
Figure pat00038

여기서,

Figure pat00039
은 bundle adjustment 최적화를 수행하는 주변 영상의 개수를 의미하고,
Figure pat00040
은 최근
Figure pat00041
에서 획득된 특징점 중 카메라의 자세 정보 획득에 사용되는 3차원의 표식점의 개수를 의미하고.
Figure pat00042
는 전역 좌표계 상의
Figure pat00043
번째 3차원 표식점의 위치(단위: 미터)를 의미하고,
Figure pat00044
Figure pat00045
번째 3차원 표식점이
Figure pat00046
번째 주변 영상에서 관찰되었을 때의 주변 영상에서의 위치(단위: 픽셀)를 의미하고,
Figure pat00047
Figure pat00048
번째 3차원 표식점이
Figure pat00049
번째 주변 영상에서 관찰되었는지(Visibility) 여부를 나타내는 항이고, 함수
Figure pat00050
는 최적화 과정에서 이상치(Outlier)의 영향을 줄이기 위한 손실함수(Loss Function)로서 일반적으로 Huber 커널을 사용하며, 함수
Figure pat00051
는 동치 좌표계(Homogeneous Coordinate)으로 표현된 두 점 사이의 직선 거리를 계산하는 함수이고,
Figure pat00052
는 초점 거리와 같은 카메라의 내부 파라미터 정보를 담고 있는 카메라 행렬(Camera Matrix)를 의미할 수 있다. here,
Figure pat00039
Is the number of surrounding images that perform bundle adjustment optimization,
Figure pat00040
Is recently
Figure pat00041
It means the number of three-dimensional marker points used to acquire camera attitude information among the feature points acquired in.
Figure pat00042
Is in the global coordinate system
Figure pat00043
Refers to the location of the third 3D marker point (unit: meter),
Figure pat00044
Is
Figure pat00045
3D marker point
Figure pat00046
Refers to the position (unit: pixel) in the surrounding image when observed in the 1st surrounding image,
Figure pat00047
Is
Figure pat00048
3D marker point
Figure pat00049
Is a term indicating whether or not it is observed in the surrounding image (Visibility), and a function
Figure pat00050
Is a loss function to reduce the influence of outliers in the optimization process. Generally, Huber kernel is used.
Figure pat00051
Is a function that calculates the linear distance between two points expressed in the homogeneous coordinate system,
Figure pat00052
May mean a camera matrix containing information on internal parameters of a camera such as a focal length.

또한, 수학식 4에서

Figure pat00053
Figure pat00054
는 각각 전역 좌표계에서
Figure pat00055
번째 카메라에 의해 촬영된 주변 영상 좌표계로의 좌표 변환에 대한 회전과 변위를 의미할 수 있다. 두 값은
Figure pat00056
번째 주변 영상이 촬영된 카메라의 자세각
Figure pat00057
및 위치
Figure pat00058
와 수학식 5의 관계를 가질 수 있다.Also, in Equation 4
Figure pat00053
Wow
Figure pat00054
Each in the global coordinate system
Figure pat00055
It may mean rotation and displacement for the coordinate transformation into the surrounding image coordinate system photographed by the second camera. The two values are
Figure pat00056
Angle of the camera where the first surrounding image was taken
Figure pat00057
And location
Figure pat00058
And Equation 5.

Figure pat00059
Figure pat00059

수학식 4의 비용함수에 따르면, 융합부(130)는 이전 과정에서 M-1번째 주변 영상까지 주어진 주변 영상이 촬영된 위치와 자세각, 그리고 3차원 표식점 위치를 이용하여, 이전 주변 영상과 표식점뿐만 아니라 새로 추가된 M번째 주변 영상의 위치와 자세각까지 상술한 비용함수를 통해 보정할 수 있다.According to the cost function of Equation 4, the fusion unit 130 uses the location, the posture angle, and the position of the 3D mark point where the surrounding image given to the M-1th surrounding image in the previous process is captured, Not only the mark point, but also the position and attitude angle of the newly added M-th surrounding image can be corrected through the above-described cost function.

이 때, 상술한 수학식 4에는 카메라의 위치 정보 획득의 정확도를 낮추는 복수의 요인이 존재할 수 있다.In this case, in Equation 4 described above, there may be a plurality of factors that lower the accuracy of obtaining location information of the camera.

먼저, 수학식 4의 비용함수는 다수의 국부 최소값(Local Minimum)이 존재하는데, 구배법(Gradient Descent Method)으로 해를 구함에 따라 초기값이 전역 최소값(Global Minimum), 즉 Ground Truth에서 크게 벗어날 경우 최적화 수행 시 잘못된 값으로 수렴할 가능성이 있다.First, the cost function of Equation 4 has a number of local minimums, and the initial value deviates greatly from the global minimum, that is, the ground truth, as the solution is obtained by the gradient method. In this case, there is a possibility of convergence to an incorrect value when performing optimization.

또한, 수학식 4의 비용함수를 통해 획득된 카메라의 위치 정보는 축척 모호성(Scale ambiguity)을 가질 수 있다. 만약, 수학식 4의 비용함수를 최소화 하는 하나의 해가 있다고 가정하면, 3차원 표식점 및 주변 영상의 위치를 확대 시 수학식 4을 만족하는 또 다른 해가 존재할 수 있다.In addition, the location information of the camera obtained through the cost function of Equation 4 may have scale ambiguity. If it is assumed that there is one solution that minimizes the cost function of Equation 4, there may be another solution that satisfies Equation 4 when the locations of the 3D mark point and the surrounding image are enlarged.

아울러, 수학식 4의 비용함수는 차량(V)에 마련된 센서 데이터와 매칭 결과의 융합을 위한 센서 바이어스를 고려하지 않는다.In addition, the cost function of Equation 4 does not take into account a sensor bias for fusion of the sensor data provided in the vehicle V and the matching result.

이를 해결하기 위해, 융합부(130)는 상술한 수학식 4에 제약 조건이 부가된 수학식 6을 이용하여 카메라의 위치 정보를 획득할 수 있다.To solve this problem, the fusion unit 130 may obtain the location information of the camera using Equation 6 in which a constraint condition is added to Equation 4 described above.

Figure pat00060
Figure pat00060

수학식 6은 수학식 4의 비용함수에 λ1으로 시작하는 제 1 제약 조건, λ2로 시작하는 제 2 제약 조건, 및 λ3으로 시작하는 제 3 제약 조건이 부가된 형태일 수 있다.Equation 6 may be a form in which a first constraint starting with λ 1 , a second constraint starting with λ 2 , and a third constraint starting with λ 3 are added to the cost function of Equation 4.

카메라의 위치 정보를 획득하기에 앞서, 융합부(130)는 먼저 수학식 6의 비용함수에 적용할 초기값을 결정할 수 있다. 구체적으로, 융합부(130)는 복수의 주변 영상이 복수의 시점에 획득된 이후 새로운 주변 영상이 획득된 경우, 이렇게 새로운 주변 영상이 획득된 시점에서의 카메라 위치 정보 획득에 필요한 초기값을 다음과 같은 방식으로 결정할 수 있는데, 다만 본 발명의 사상이 이에 한정되는 것은 아니다.Prior to obtaining the location information of the camera, the fusion unit 130 may first determine an initial value to be applied to the cost function of Equation 6. Specifically, when a new surrounding image is acquired after a plurality of surrounding images are acquired at a plurality of viewpoints, the fusion unit 130 determines an initial value required for obtaining camera position information at the time when the new surrounding images are acquired as It can be determined in the same way, but the spirit of the present invention is not limited thereto.

- 전술한 복수의 주변 영상 중 마지막으로 주변 영상이 획득된 시점과 그 이후에 추가적으로 새로운 주변 영상이 획득된 시점 사이에서, 센서에 의해 감지된 차량의 주행 정보를 획득- Acquisition of driving information of the vehicle detected by the sensor between the time when the last surrounding image is acquired among the plurality of surrounding images described above and the time when a new surrounding image is additionally acquired thereafter.

- 이러한 주행 정보를 기초로 차량의 변위 정보를 추가적으로 획득- Based on this driving information, additional vehicle displacement information is obtained.

- 마지막으로 획득된 주변 영상까지가 고려된 카메라의 위치 정보와 추가적으로 새로이 획득된 차량의 변위 정보를 융합해서 초기값을 결정(추정)- The initial value is determined (estimated) by fusing the position information of the camera, which takes into account the last acquired surrounding image, and the displacement information of the newly acquired vehicle.

한편,

Figure pat00061
라는 수식에서,
Figure pat00062
는 주변 영상
Figure pat00063
이후 m 번째까지 얻은 m개의 측정 값을 표기한 것이다. 아울러, 주변 영상과 다음 주변 영상 사이의 측정값들을 이용한 적분표기는
Figure pat00064
Figure pat00065
을 이용하여 과 같이, k번째 주변 영상부터 k+1번째 주변 영상으로 표기 가능하다.Meanwhile,
Figure pat00061
In the formula,
Figure pat00062
The surrounding footage
Figure pat00063
After that, m measurements obtained up to the m th are displayed. In addition, the integral notation using the measured values between the surrounding image and the next surrounding image
Figure pat00064
and
Figure pat00065
It is possible to mark from the k-th surrounding image to the k+1-th surrounding image as shown by using.

아래의 수학식 7은 융합부(130)가 초기값을 결정하는 과정에서 이용하는 수식의 예시이다.Equation 7 below is an example of an equation used by the fusion unit 130 to determine an initial value.

Figure pat00066
Figure pat00066

여기서,

Figure pat00067
Figure pat00068
은 차량(V)의 센서를 이용해 획득한 변위 정보를 의미하고,
Figure pat00069
Figure pat00070
은 M번째 주변 영상의 위치 정보 획득을 위한 초기값을 의미할 수 있다.here,
Figure pat00067
and
Figure pat00068
Means displacement information acquired using the sensor of the vehicle (V),
Figure pat00069
and
Figure pat00070
May mean an initial value for obtaining location information of the M-th surrounding image.

수학식 7을 따를 때, 센서 값을 기초로 비용함수의 초기값을 결정하므로, 카메라의 위치 정보와 관련된 주변 영상의 좌표변환 행렬 (

Figure pat00071
은 Ground Truth 근방에 위치할 수 있다.When following Equation 7, since the initial value of the cost function is determined based on the sensor value, the coordinate transformation matrix of the surrounding image related to the location information of the camera (
Figure pat00071
Can be located near Ground Truth.

초기값 설정 후, 융합부(130)는 차량(V)의 주행 정보를 기초로 획득된 복수의 주변 영상 각각의 획득 시점 간 변위 정보와 매칭 정보를 기초로 획득된 복수의 주변 영상 각각의 획득 시점 간 변위 정보의 차이에 대한 제 1 제약 조건을 설정할 수 있다. 이를 위해, 융합부(130)는 수학식 4에 따른 비용함수로부터 인접한 주변 영상 사이의 카메라의 상대적인 위치

Figure pat00072
를 수학식 8에 따라 구할 수 있다.After setting the initial value, the fusion unit 130 obtains a time point of each of the plurality of surrounding images acquired based on displacement information and matching information between the acquisition time points of each of the plurality of surrounding images acquired based on the driving information of the vehicle V It is possible to set a first constraint on the difference between the displacement information. To this end, the fusion unit 130 is the relative position of the camera between adjacent images from the cost function according to Equation 4
Figure pat00072
Can be obtained according to Equation 8.

Figure pat00073
Figure pat00073

만약, 카메라가 평면 상에서 움직이는 이상적인 상태를 전제로, 카메라로 구한 이동 거리와 차량(V)에 마련된 센서로 구한 이동 거리는 수학식 9와 같이 같아야 한다.If, on the assumption that the camera moves on a plane, the moving distance obtained by the camera and the moving distance obtained by the sensor provided in the vehicle V should be the same as in Equation (9).

Figure pat00074
Figure pat00074

여기서,

Figure pat00075
는 차량(V)에 마련된 센서로 구한 주변 영상 사이의 변위이고,
Figure pat00076
는 수학식 8을 통해 구한 주변 영상 획득 시점 사이의 카메라의 변위이다.here,
Figure pat00075
Is the displacement between the surrounding images obtained by the sensor provided in the vehicle (V),
Figure pat00076
Is the displacement of the camera between the acquisition time points of the surrounding image obtained through Equation 8.

이를 기초로, 융합부(130)는 제 1 제약 조건으로서

Figure pat00077
항을 설정할 수 있다. 제 1 제약 조건은 수학식 4의 비용함수로 구한 좌표변환 행렬로부터 추정한 주변 영상 사이 획득 시점 사이의 카메라 이동 거리가 차량(V)에 마련된 센서로 구한 주변 영상 획득 시점 사이의 카메라 이동 거리와 같아지도록 주변 영상의 위치를 조정하는 역할을 한다. 이 때, 수학식 4의 비용함수도 같이 사용하므로, 결과적으로 카메라 궤적의 형상은 그대로 유지하면서 축척만 조정하는 결과를 얻을 수 있다.Based on this, the fusion unit 130 is
Figure pat00077
You can set the terms. The first constraint is that the camera movement distance between the acquisition points of the surrounding images estimated from the coordinate transformation matrix obtained by the cost function of Equation 4 is the same as the camera movement distance between the acquisition points of the surrounding images determined by the sensor provided in the vehicle (V). It plays a role of adjusting the position of the surrounding image so that it is clear. In this case, since the cost function of Equation 4 is also used, as a result, it is possible to obtain a result of adjusting only the scale while maintaining the shape of the camera trajectory.

도 6은 본 발명의 일 실시예에 따른 비용함수를 만족하는 축척이 상이한 카메라 궤적을 예시한 도면이다.6 is a diagram illustrating camera trajectories having different scales satisfying a cost function according to an embodiment of the present invention.

상술한 바와 같이, 수학식 3의 비용함수에 따를 때, 융합부(130)는 카메라 C의 궤적의 형상은 같지만 축척이 상이한 무수히 많은 해를 가질 수 있다. 도 6에서는 축척이 상이한 동일한 형상의 카메라 궤적 P1, P2, P3, P4, 및 P5가 예시된다. 이 때, 수학식 3의 비용함수에 제 1 제약 조건을 부가함으로써, 융합부(130)는 무수히 많은 해 중에서 인접 주변 영상 사이의 축척이 차량(V)에 마련된 센서로 구한 축척과 동일한 해로 수렴하도록 할 수 있다. 그 결과, 융합부(130)는 축척이 복원된 카메라의 위치 정보를 획득할 수 있다.As described above, according to the cost function of Equation 3, the fusion unit 130 may have a myriad of solutions having the same shape of the trajectory of the camera C but different scales. In FIG. 6, camera trajectories P1, P2, P3, P4, and P5 of the same shape with different scales are illustrated. At this time, by adding a first constraint to the cost function of Equation 3, the fusion unit 130 allows the scale between adjacent surrounding images to converge to the same scale as the scale obtained by the sensor provided in the vehicle V. can do. As a result, the fusion unit 130 may acquire location information of the camera whose scale has been restored.

또한, 융합부(130)는 차량(V)의 주행 정보 중 차량(V)의 자세각과 매칭 정보를 기초로 획득된 차량(V)의 자세각의 차이에 대한 제 2 제약 조건을 설정할 수 있다. 차량(V)의 주행 정보 중 자세 센서에 의해 감지된 요레이트 정보는 카메라의 자세각을 강인하게 추정할 수 있으므로, 영상 정보와 융합할 경우 카메라의 위치 정보에 대한 정확도와 안정성을 높일 수 있다. 그러나, 수학식 4의 비용함수는 요레이트를 활용하지 않는다. 또한, 수학식 4에서 요레이트 바이어스를 고려하지 않아, 융합부(130)는 별도의 과정을 통해 바이어스

Figure pat00078
를 추정할 필요가 있다. In addition, the fusion unit 130 may set a second constraint condition on a difference between the attitude angle of the vehicle V and the attitude angle of the vehicle V obtained based on matching information among driving information of the vehicle V. Among the driving information of the vehicle V, the yaw rate information detected by the attitude sensor can strongly estimate the attitude angle of the camera, and thus, when fused with image information, accuracy and stability of the camera's location information can be improved. However, the cost function of Equation 4 does not utilize the yaw rate. In addition, since the yaw rate bias is not considered in Equation 4, the fusion unit 130 is biased through a separate process.
Figure pat00078
Need to estimate.

이를 위해, 융합부(130)는 수학식 4의 비용함수에 복수의 주변 영상에 대한 카메라의 위치와 자세각, 그리고 요레이트 바이어스를 함께 보정할 수 있는 제 2 제한조건을 설정할 수 있다. 차량(V)은 단시간(Shortly and Locally)에는 일반적으로 평면 운동을 하므로, 융합부(130)는 수학식 10에 따라 인접한 주변 영상의 획득 시점 간 카메라의 상대적인 자세각 변화를 요레이트를 통해 추정한 자세각으로 근사화 할 수 있다.To this end, the fusion unit 130 may set a second limiting condition capable of correcting the camera positions and attitude angles and the yaw rate bias for a plurality of peripheral images in the cost function of Equation 4 together. Since the vehicle V generally performs a plane motion in a short time (Shortly and Locally), the fusion unit 130 estimates the relative posture angle change of the camera between the acquisition points of the adjacent surrounding images according to Equation 10 through the yaw rate It can be approximated by the attitude angle.

Figure pat00079
Figure pat00079

여기서,

Figure pat00080
는 j-1번째 주변 영상과 j번째 주변 영상 사이에서 요레이트 센서 값을 적분한 횟수를 의미할 수 있다. here,
Figure pat00080
May mean the number of times the yaw rate sensor value is integrated between the j-1 th surrounding image and the j th surrounding image.

그 다음, 융합부(130)는 인접한 주변 영상 획득 시점 사이에 카메라로 추정한 자세각과 요레이트를 통해 추정한 자세각의 차이에 대한 회전행렬

Figure pat00081
를 수학식 11에 따라 구할 수 있다.Then, the fusion unit 130 is a rotation matrix for the difference between the posture angle estimated by the camera and the posture angle estimated through the yaw rate between adjacent images acquisition time points.
Figure pat00081
Can be obtained according to Equation 11.

Figure pat00082
Figure pat00082

만약,

Figure pat00083
Figure pat00084
이 동일하다면,
Figure pat00085
의 값은 단위 행렬(Identity matrix)이 된다.if,
Figure pat00083
Wow
Figure pat00084
If this is the same,
Figure pat00085
The value of is an identity matrix.

따라서, 융합부(130)는 상술한 관계를 고려하여 수학식 4의 비용함수에 제 2 제약조건

Figure pat00086
을 설정할 수 있다. 여기서, 함수
Figure pat00087
는 3차원 회전 행렬의 회전축-각도 표현법(Rodrigues' Rotation Formula)에서 각도를 반환할 수 있다. 단위행렬에 대한
Figure pat00088
의 값은 0이 되므로, 융합부(130)는 수학식 4의 비용함수에서
Figure pat00089
의 값이 단위행렬에 가까워지도록 해를 구할 수 있다. Therefore, the fusion unit 130 considers the above-described relationship and applies the second constraint to the cost function of Equation 4
Figure pat00086
Can be set. Where, the function
Figure pat00087
Can return the angle from the Rodrigues' Rotation Formula of the 3D rotation matrix. For the unit matrix
Figure pat00088
Since the value of is 0, the fusion unit 130 is in the cost function of Equation 4
Figure pat00089
The solution can be solved so that the value of is close to the unit matrix.

수학식 4에 상술한 제 1 제약조건 및 제 2 제약조건을 부가함으로써, 융합부(130)는 요레이트를 이용해 구한 자세각과 유사해지도록 카메라의 위치 정보 중 자세각

Figure pat00090
를 보정할 수 있다. 그 결과, 시차(Parallax)가 낮은 상황에서도 안정적인 각도 추정 값을 얻을 수 있다.By adding the above-described first and second constraints to Equation 4, the fusion unit 130 performs a posture angle among the position information of the camera so that it becomes similar to the posture angle obtained using the yaw rate.
Figure pat00090
Can be corrected. As a result, a stable angle estimation value can be obtained even in a situation where the parallax is low.

또한, 융합부(130)는 요레이트을 이용해 구한 자세각이 카메라의 위치 정보 중 자세각과 유사하게 되도록 센서의 바이어스

Figure pat00091
를 보정함으로써, 요레이트를 기반으로 획득된 자세각의 정확도를 높일 수 있다.In addition, the fusion unit 130 biases the sensor so that the attitude angle obtained using the yaw rate becomes similar to the attitude angle among the position information of the camera.
Figure pat00091
By correcting for, it is possible to increase the accuracy of the attitude angle obtained based on the yaw rate.

한편, 센서 바이어스는 시간에 따라 서서히 변하므로, 인접한 주변 영상 획득 시점 간 바이어스는 거의 유사한 값을 가질 수 있다. 그러나, 수학식 4의 비용함수에 제 1 제약조건과 제 2 제약조건만을 설정할 경우, 융합부(130)는 시간에 따라 상이한 센서 바이어스를 획득할 수 있다. 따라서, 융합부(130)는 인접한 주변 영상 획득 시점 간 센서 바이어스가 유사하도록 제 3 제약조건

Figure pat00092
을 설정할 수 있다.Meanwhile, since the sensor bias gradually changes with time, a bias between adjacent neighboring image acquisition times may have substantially similar values. However, when only the first constraint and the second constraint are set in the cost function of Equation 4, the fusion unit 130 may acquire different sensor biases over time. Therefore, the fusion unit 130 uses the third constraint so that the sensor bias between the adjacent image acquisition time points is similar.
Figure pat00092
Can be set.

제 3 제약조건은 인접한 주변 영상 획득 시점 간 센서 바이어스의 차이가 0에 가깝도록 제한하여, 주변 영상과 자세 센서 융합의 신뢰도를 높일 수 있다.The third constraint restricts the difference in sensor bias between the acquisition time points of adjacent surrounding images to be close to zero, thereby increasing the reliability of fusion between the surrounding images and the attitude sensor.

상술한 바에 따라 초기값 및 제약조건이 설정되면, 융합부(130)는 수학식 6의 비용함수를 이용하여 카메라의 위치 정보를 획득할 수 있고, 이로부터 차량(V)의 위치를 추정할 수 있다. When the initial values and constraints are set as described above, the fusion unit 130 may obtain the location information of the camera using the cost function of Equation 6, and estimate the location of the vehicle V from this. have.

상술한 차량의 카메라 위치 정보 획득 장치 및 방법은, 보다 정확하게 카메라의 위치 정보를 획득할 수 있고, 이를 기반으로 차량의 추정 위치 정확도를 높일 수 있다. 구체적으로, 복수의 주변 영상에 대한 매칭 정보와 차량의 센서에 의해 획득된 차량의 변위 정보를 융합함으로써, 주변 영상에 기초한 카메라의 위치 정보의 축척을 복원함과 동시에, 센서의 바이어스도 보정하여, 차량의 3차원 위치를 정확하게 추정할 수 있다. The above-described apparatus and method for obtaining camera location information of a vehicle can more accurately obtain location information of a camera and, based on this, can increase an estimated location accuracy of a vehicle. Specifically, by fusing matching information for a plurality of surrounding images and displacement information of the vehicle obtained by the vehicle sensor, the scale of the camera's location information based on the surrounding images is restored, and the bias of the sensor is also corrected, The three-dimensional position of the vehicle can be accurately estimated.

한편, 상술한 일 실시예에 따른 차량의 카메라 위치 정보 획득 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램 및 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.Meanwhile, each step included in the method for obtaining camera location information of a vehicle according to the above-described exemplary embodiment may be implemented in a computer program programmed to perform these steps and a computer-readable recording medium recording the computer program.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

일 실시예에 따르면, 상술한 차량의 카메라 위치 정보 획득 장치 및 방법은 댁내 또는 산업 현장 등 다양한 분야에서 이용될 수 있으므로 산업상 이용 가능성이 있다.According to an embodiment, the above-described apparatus and method for obtaining camera location information of a vehicle may be used in various fields such as indoors or industrial sites, and thus has industrial potential.

1: 차량의 카메라 위치 정보 획득 시스템
100: 차량의 카메라 위치 정보 획득 장치
110: 매칭부
120: 변위 정보 획득부
130: 융합부
V:차량
1: Vehicle camera location information acquisition system
100: device for obtaining location information of a vehicle camera
110: matching unit
120: displacement information acquisition unit
130: fusion unit
V: Vehicle

Claims (10)

차량에 마련된 카메라에 의해 복수의 시점에 획득된 복수의 주변 영상의 특징점을 매칭하는 단계;
상기 차량에 마련된 센서에 의해 감지된 상기 차량의 주행 정보를 기초로 상기 차량의 변위 정보를 획득하는 단계; 및
상기 획득된 차량의 변위 정보와 상기 특징점에 대한 매칭 정보를 융합하여 상기 카메라의 위치 정보를 획득하는 단계를 포함하는
차량의 카메라 위치 정보 획득 방법.
Matching feature points of a plurality of surrounding images acquired at a plurality of viewpoints by a camera provided in the vehicle;
Obtaining displacement information of the vehicle based on driving information of the vehicle detected by a sensor provided in the vehicle; And
Comprising the step of fusing the obtained displacement information of the vehicle and matching information for the feature point to obtain the location information of the camera
How to obtain vehicle camera location information.
제 1 항에 있어서,
상기 카메라의 위치 정보를 획득하는 단계는,
오도메트리 계산에 이용되며, 상기 변위 정보 및 상기 매칭 정보를 고려하도록 설계된 소정의 비용함수를 최소화하는 과정을 통해 수행되는
차량의 카메라 위치 정보 획득 방법.
The method of claim 1,
Acquiring the location information of the camera,
Used for odometry calculation, performed through a process of minimizing a predetermined cost function designed to consider the displacement information and the matching information
How to obtain vehicle camera location information.
제 1 항에 있어서,
상기 방법은,
상기 복수의 주변 영상 중 마지막으로 주변 영상이 획득된 시점 이후, 추가적으로 주변 영상을 획득하는 단계;
상기 마지막으로 주변 영상을 획득한 시점과 상기 추가적으로 주변 영상을 획득한 시점 사이에서 상기 센서에 의해 감지된 상기 차량의 주행 정보를 기초로, 상기 차량의 변위 정보를 추가적으로 획득하는 단계;
상기 카메라의 위치 정보를 획득하는 단계로부터 획득된 카메라의 위치 정보 및 상기 추가적으로 획득된 차량의 변위 정보를 융합하는 단계; 및
상기 융합하는 단계에 의해 추정된 소정의 초기값을 이용해서 상기 추가적으로 주변 영상이 획득된 시점에서 상기 카메라의 위치 정보를 획득하는 단계를 더 포함하는
차량의 카메라 위치 정보 획득 방법.
The method of claim 1,
The above method,
Additionally acquiring a surrounding image after a time point at which the surrounding image is finally acquired among the plurality of surrounding images;
Additionally acquiring displacement information of the vehicle based on driving information of the vehicle detected by the sensor between the time when the last image is acquired and the time when the image is additionally acquired;
Fusing the position information of the camera obtained from the step of obtaining the position information of the camera and the additionally obtained displacement information of the vehicle; And
Further comprising the step of acquiring location information of the camera at a time point at which the additional surrounding image is acquired using a predetermined initial value estimated by the fusing step.
How to obtain vehicle camera location information.
제 1 항에 있어서,
상기 카메라의 위치 정보를 획득하는 단계는,
상기 차량의 주행 정보를 기초로 획득된 상기 복수의 주변 영상 각각의 획득 시점 간 변위 정보와 상기 매칭 정보를 기초로 획득된 상기 복수의 주변 영상 각각의 획득 시점 간 변위 정보의 차이에 기초하여서 수행되는
차량의 카메라 위치 정보 획득 방법.
The method of claim 1,
Acquiring the location information of the camera,
Performed based on a difference in displacement information between acquisition points of each of the plurality of surrounding images acquired based on the driving information of the vehicle and displacement information between acquisition points of each of the plurality of surrounding images acquired based on the matching information
How to obtain vehicle camera location information.
제 1 항에 있어서,
상기 카메라의 위치 정보를 획득하는 단계는,
상기 차량의 주행 정보 중 상기 차량의 자세각과 상기 매칭 정보를 기초로 획득된 상기 차량의 자세각의 차이에 기초하여서 수행되는
차량의 카메라 위치 정보 획득 방법.
The method of claim 1,
Acquiring the location information of the camera,
Performed based on the difference between the vehicle's attitude angle and the vehicle's attitude angle obtained based on the matching information among the driving information of the vehicle
How to obtain vehicle camera location information.
제 1 항에 있어서,
상기 차량의 주행 정보 중 상기 차량의 자세각과 상기 매칭 정보를 기초로 획득된 상기 차량의 자세각의 차이를 이용하여 상기 센서의 바이어스를 보정하는 단계를 더 포함하는
차량의 카메라 위치 정보 획득 방법.
The method of claim 1,
Compensating the bias of the sensor using a difference between the vehicle attitude angle and the vehicle attitude angle obtained based on the matching information among the driving information of the vehicle
How to obtain vehicle camera location information.
제 6 항에 있어서,
상기 센서의 바이어스를 보정하는 단계는,
상기 복수의 주변 영상의 획득 시점 각각에서 획득된 상기 센서의 바이어스 간 차이에 기초하여서 수행되는
차량의 카메라 위치 정보 획득 방법.
The method of claim 6,
Compensating the bias of the sensor,
Performed based on the difference between the biases of the sensor acquired at each of the acquisition time points of the plurality of surrounding images
How to obtain vehicle camera location information.
차량에 마련된 카메라에 의해 복수의 시점에 획득된 복수의 주변 영상의 특징점을 매칭하는 매칭부;
상기 차량에 마련된 센서에 의해 감지된 상기 차량의 주행 정보를 기초로 상기 차량의 변위 정보를 획득하는 변위 정보 획득부; 및
상기 획득된 차량의 변위 정보와 상기 특징점에 대한 매칭 정보를 융합하여 상기 카메라의 위치 정보를 획득하는 융합부를 포함하는
차량의 카메라 위치 정보 획득 장치.
A matching unit for matching feature points of a plurality of surrounding images acquired at a plurality of viewpoints by a camera provided in the vehicle;
A displacement information acquisition unit for acquiring displacement information of the vehicle based on driving information of the vehicle detected by a sensor provided in the vehicle; And
Comprising a fusion unit for acquiring the location information of the camera by fusing the obtained displacement information of the vehicle and matching information on the feature point
A device for acquiring vehicle camera location information.
제 1 항 내지 제 7 항 중 어느 한 항에 기재된 방법에 따른 각각의 단계를 수행하는, 컴퓨터 판독 가능 기록매체에 저장된 프로그램. A program stored in a computer-readable recording medium for performing each step according to the method according to any one of claims 1 to 7. 제 1 항 내지 제 7 항 중 어느 한 항에 기재된 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
A computer-readable recording medium on which a program including instructions for performing each step according to the method according to any one of claims 1 to 7 is recorded.
KR1020190074406A 2019-06-21 2019-06-21 Apparatus and method for obtaining location information for camera of vehicle Pending KR20200145410A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190074406A KR20200145410A (en) 2019-06-21 2019-06-21 Apparatus and method for obtaining location information for camera of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190074406A KR20200145410A (en) 2019-06-21 2019-06-21 Apparatus and method for obtaining location information for camera of vehicle

Publications (1)

Publication Number Publication Date
KR20200145410A true KR20200145410A (en) 2020-12-30

Family

ID=74088198

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190074406A Pending KR20200145410A (en) 2019-06-21 2019-06-21 Apparatus and method for obtaining location information for camera of vehicle

Country Status (1)

Country Link
KR (1) KR20200145410A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114500993A (en) * 2022-02-21 2022-05-13 深圳市星卡软件技术开发有限公司 ADAS-based camera remote calibration method and device and computer equipment
CN116222558A (en) * 2023-04-04 2023-06-06 东风汽车集团股份有限公司 Positioning method, device and system based on vehicle-mounted information

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101584693B1 (en) 2014-05-23 2016-01-14 경북대학교 산학협력단 Apparatus and method for generation of camera parameter

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101584693B1 (en) 2014-05-23 2016-01-14 경북대학교 산학협력단 Apparatus and method for generation of camera parameter

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114500993A (en) * 2022-02-21 2022-05-13 深圳市星卡软件技术开发有限公司 ADAS-based camera remote calibration method and device and computer equipment
CN116222558A (en) * 2023-04-04 2023-06-06 东风汽车集团股份有限公司 Positioning method, device and system based on vehicle-mounted information

Similar Documents

Publication Publication Date Title
JP7398506B2 (en) Methods and systems for generating and using localization reference data
US11493635B2 (en) Ground intensity LIDAR localizer
JP7073315B2 (en) Vehicles, vehicle positioning systems, and vehicle positioning methods
CN108051002B (en) Transport vehicle space positioning method and system based on inertial measurement auxiliary vision
US10900793B2 (en) Vehicle path guiding apparatus and method
CN109791052B (en) Method and system for classifying data points of a point cloud using a digital map
US10863166B2 (en) Method and apparatus for generating three-dimensional (3D) road model
US11138465B2 (en) Systems and methods for transforming coordinates between distorted and undistorted coordinate systems
Schreiber et al. Laneloc: Lane marking based localization using highly accurate maps
CN106548486B (en) Unmanned vehicle position tracking method based on sparse visual feature map
KR20200001471A (en) Apparatus and method for detecting lane information and computer recordable medium storing computer program thereof
CN106569225A (en) Range-finding sensor based real-time obstacle avoidance method of driveless car
KR101700764B1 (en) Method for Autonomous Movement and Apparatus Thereof
JP7179687B2 (en) Obstacle detector
Sanyal et al. Detection and location estimation of object in unmanned aerial vehicle using single camera and GPS
KR20200145410A (en) Apparatus and method for obtaining location information for camera of vehicle
CN117664101A (en) A lidar-based semantic slam mapping method for airport unmanned vehicles
Hu et al. Solution of camera registration problem via 3d-2d parameterized model matching for on-road navigation

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20190621

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20220330

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20190621

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20250313

Patent event code: PE09021S01D