KR101392850B1 - Method and system for lane departure warning based on image recognition - Google Patents
Method and system for lane departure warning based on image recognition Download PDFInfo
- Publication number
- KR101392850B1 KR101392850B1 KR1020120034996A KR20120034996A KR101392850B1 KR 101392850 B1 KR101392850 B1 KR 101392850B1 KR 1020120034996 A KR1020120034996 A KR 1020120034996A KR 20120034996 A KR20120034996 A KR 20120034996A KR 101392850 B1 KR101392850 B1 KR 101392850B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- unit
- straight line
- image
- roi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0057—Frequency analysis, spectral techniques or transforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/10—Path keeping
- B60Y2300/12—Lane keeping
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 차선 이탈 감지 방법 및 시스템에 관한 것으로서, 본 발명의 목적은 차선 소실, 각종 노이즈, 도로 형태와 같은 다양한 도로 조건에 강하여 차선 인식 정확도를 극대화할 수 있는 영상인식 기반의 차선 이탈 감지 방법 및 시스템을 제공하는 것이다.
본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법은 차량의 카메라를 통해 촬영된 영상에서 차선표식을 검출하기 위한 영상처리에 사용될 영역(이하, '전체 관심영역' 이라 함)을 설정하는 제1 단계와; 상기 전체 관심영역을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 제2 단계와; 에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별 에지를 추출하는 제3 단계와; 상기 제3 단계에서 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선을 추출하는 제4 단계와; 상기 제4 단계에서 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 제5 단계와; 상기 제5 단계에서 추출된 상기 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 제6 단계; 및 상기 제6 단계에서 규정된 차선 모델을 이용하여 차선 이탈 여부를 판단하는 제7 단계를 포함하는 것을 특징으로 한다.The present invention relates to a lane departure detection method and system, and an object of the present invention is to provide a lane departure detection method based on image recognition, capable of maximizing lane recognition accuracy by being robust to various road conditions such as a lane departure, various noises, System.
The lane departure detection method based on the image recognition according to the present invention includes a first step of setting a region to be used for image processing for detecting a lane marker in an image photographed through a camera of a vehicle Wow; A second step of dividing and setting the entire ROI into a plurality of ROIs (hereinafter referred to as a ROI); A third step of extracting an edge per unit ROI including a lane marker using an edge detection technique; A fourth step of extracting a straight line through a Hough Transform using the edge per unit ROI extracted in the third step; A fifth step of extracting a plurality of point components corresponding to the straight line and spaced apart from each other on the straight line extracted in the fourth step; A sixth step of defining the lane model by applying the plurality of point components extracted in the fifth step to the least squares method; And a seventh step of determining whether or not the lane departure is determined by using the lane model defined in the sixth step.
Description
본 발명은 차선 이탈 감지 방법 및 시스템에 관한 것으로서, 보다 상세하게는 차량에 장착된 카메라로부터 입력되는 영상을 단위 관심영역으로 분할하고, 점 성분을 추출하여 인식 처리함으로써 차량이 차선을 이탈하는지 여부를 정확히 판별할 수 있는 영상인식 기반의 차선 이탈 감지 방법 및 시스템에 관한 것이다.
The present invention relates to a lane departure detection method and system, and more particularly, to a lane departure detection method and system that divides an image input from a camera mounted on a vehicle into a unit area of interest, extracts a point component, And more particularly, to a method and system for detecting lane departure based on image recognition.
일반적으로 차선이탈 경보시스템은 카메라를 통해 촬영된 영상정보를 이용하여 해당 차량의 차선이탈 여부를 판단하고, 차선으로부터 이탈되었다고 판단되는 경우 소정의 경보처리를 수행하도록 구성된다.In general, the lane departure warning system is configured to determine whether or not the lane departure of the vehicle is caused by using the image information photographed by the camera, and to perform a predetermined alarm process when it is determined that the lane has been deviated from the lane.
종래 차선이탈 경보시스템은 기본적으로 선 형태로 된 차선을 인식하여 그 이탈여부를 판단하도록 구성되어 있고, 종래의 차선이탈 인식방법은 차선의 폭, 차선의 곡률 반경, 차선 횡단 시간, 차선 중심과 카메라 광학축 사이의 차이 등 다양한 많은 변수들이 고려되어야 하기 때문에 그만큼 많은 노이즈원을 포함하고 있어 정확히 차선 이탈을 인식하기가 어려웠다.The conventional lane departure warning system is configured to recognize a lane in a line form and judge whether or not the lane is departed. The conventional lane departure recognition method is a method of recognizing a lane departure warning system in which a lane width, a radius of curvature of a lane, It is difficult to recognize the lane departure exactly because it includes as many noise sources as many various variables such as the difference between the optical axes must be considered.
또한, 종래 차선이탈 경보시스템은 차선 표식이 중간에 끊긴 도로나 도로에 차선 표식이외의 표식이 형성되어 있을 경우에 대해서는 부정확하였고, 이에 따라 운전중인 차선의 중심으로부터 차량이 이탈하지 않은 경우에도 잘못된 경보음을 발생시킬 수 있는 요소가 있다는 문제점이 있다.In addition, the conventional lane departure warning system is inaccurate when a sign other than a lane marker is formed on a road or a road where the lane marker is cut off in the middle. Accordingly, even when the vehicle does not depart from the center of the lane in operation, There is a problem that there are elements that can generate sound.
한국특허공개 제2000-0037604호에 차선을 인식하는 방법이 개시되어 있다. 이 기술에 의하면 차선을 인식하기 위하여 두 개의 카메라를 사용하고 있고, 노면 부분에 비하여 고휘도를 가지는 부분을 차선으로 인식한다. 그러나 일반적으로 노면에는 차선 이외에도 차량 적재함에서 낙하한 낙하물 등의 기타 이물질 등이 있을 수 있으며, 이러한 이물질이 노면에 비해 고휘도를 가지는 경우 이를 차선으로 인식하는 오류가 발생할 수 있다. 또한, 두 개의 카메라를 사용함으로써 제작 단가도 증대되고 장착 공간도 크게 필요하는 등 컴팩트한 장치로서 구현하기가 매우 곤란한 문제점이 있었다.Korean Patent Laid-Open Publication No. 2000-0037604 discloses a method for recognizing a lane. According to this technique, two cameras are used to recognize a lane, and a portion having a higher luminance than a road surface portion is recognized as a lane. However, in general, in addition to lanes, there may be other foreign objects such as fallen objects falling on a vehicle loading floor, etc. In the case where such foreign objects have a higher brightness than the road surface, errors may be recognized as lanes. In addition, the use of two cameras increases the manufacturing cost and requires a large installation space, which is a very difficult problem to implement as a compact device.
또한, 종래 차선 인식 방법은 소벨 필터만을 사용하여 차선의 에지를 추출하여 이를 통해 차선 표식을 인식하였는데 이러한 방법으로는 노이즈에 매우 취약하여 실제 차선이 아닌 것까지 차선으로 인식하는 오류가 많았다.
Also, in the conventional lane recognition method, only the Sobel filter is used to extract the lane edge and the lane marker is recognized through this method. However, this method is very vulnerable to noises, so that there are many errors in recognizing the lane that is not an actual lane.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 차선 중간이 끊기거나 차선 이외의 표식이 있거나 노면에 비해 고휘도를 갖는 이물이 있을 때 야기되는 차선 오인식 오류를 최대한 방지하고, 한 대의 카메라만으로도 노이즈를 효과적으로 배제하며 곡선 도로와 같은 상황에서 차선을 정확하게 인식할 수 있는 영상인식 기반의 차선 이탈 감지 방법 및 시스템을 제공하는 것이다.
SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-mentioned problems, and it is an object of the present invention to provide an image processing apparatus and a method for preventing a lane-finding error caused when a lane is broken, a sign other than a lane is present, A lane departure detection method and system based on image recognition capable of accurately recognizing a lane in a situation such as a curved road while effectively eliminating noise with only one camera.
상기 목적을 달성하기 위한 본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법은 차량의 카메라를 통해 촬영된 영상에서 차선표식을 검출하기 위한 영상처리에 사용될 영역(이하, '전체 관심영역' 이라 함)을 설정하는 제1 단계와; 상기 전체 관심영역을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 제2 단계와; 에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별 에지를 추출하는 제3 단계와; 상기 제3 단계에서 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선을 추출하는 제4 단계와; 상기 제4 단계에서 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 제5 단계와; 상기 제5 단계에서 추출된 상기 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 제6 단계; 및 상기 제6 단계에서 규정된 차선 모델을 이용하여 차선 이탈 여부를 판단하는 제7 단계를 포함하는 것을 특징으로 한다.
According to another aspect of the present invention, there is provided a method of detecting a lane departure based on image recognition, the method including detecting a lane mark in an image captured through a camera of a vehicle, The method comprising: A second step of dividing and setting the entire ROI into a plurality of ROIs (hereinafter referred to as a ROI); A third step of extracting an edge per unit ROI including a lane marker using an edge detection technique; A fourth step of extracting a straight line through a Hough Transform using the edge per unit ROI extracted in the third step; A fifth step of extracting a plurality of point components corresponding to the straight line and spaced apart from each other on the straight line extracted in the fourth step; A sixth step of defining the lane model by applying the plurality of point components extracted in the fifth step to the least squares method; And a seventh step of determining whether or not the lane departure is determined by using the lane model defined in the sixth step.
본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법 및 시스템에 의하면, 카메라 입력 영상을 단위 관심영역으로 분할하여 처리함으로써 좌·우 차선표식 사이에 존재하는 도로 정보(이정표 등)나 차선표식으로 오인식 될 수 있는 각종 잡음 요소를 제거할 수 있고, 중간에 절단된 영역이 있는 차선의 경우라도 실제 차선에 최대한 합치하는 가상의 차선을 생성할 수 있어 차선 인식 정확도를 극대화할 수 있는 현저한 효과가 있다.According to the image recognition-based lane departure detection method and system according to the present invention, a camera input image is divided and processed into a unit area of interest, so that road information (milestones, etc.) existing between left and right lane markers, It is possible to generate a virtual lane that matches the actual lane as much as possible even in the case of a lane having an area cut in the middle, thereby remarkably improving the lane recognition accuracy.
또한, 전체 관심영역을 세로, 가로 방향으로 분할하여 일부 영역(즉, 단위 관심영역)만을 처리함으로써 실제 영상처리가 되는 영역을 최소화할 수 있어 영상처리의 연산 부하를 감소시킬 수 있는 장점이 있다.In addition, since the entire region of interest is divided into the vertical and horizontal directions to process only a part of the region (i.e., the ROI), it is possible to minimize an actual image processing region, thereby reducing the computational load of the image processing.
또한, 최소 자승법에 차선의 에지 점들을 적용하지 않고 그 대신 에지 정보를 이용한 허프 변환을 통해 추출된 직선으로부터 대표 점 성분들을 구성해서 적용함으로써 직선에 포함되지 않는 에지를 제외시켜 정확도를 높일 수 있고 최소 자승법에 이용할 점들의 수를 줄여 연산 부하를 줄일 수 있는 이점이 있다.
In addition, it is possible to increase the accuracy by excluding edges not included in a straight line by applying representative point components from the straight line extracted through Hough transformation using edge information instead of applying the edge points of the lane to the least squares method, There is an advantage of reducing the computation load by reducing the number of points to use in the square law.
도 1은 본 발명에 따른 영상인식 기반의 차선 이탈 감지 시스템의 전체 구성도.
도 2는 도 1에 도시된 영상인식 처리부의 세부 구성을 도시한 블록구성도.
도 3은 본 발명의 영상인식 기반의 차선 이탈 감지 방법 및 시스템의 좌표 개념도.
도 4는 본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법의 처리 흐름을 도시한 블록순서도.
도 5는 본 발명의 소실선과 후드의 위치를 통해 설정된 전체 관심영역의 일 예.
도 6(a)는 일반적인 흑백 영상의 일례.
도 6(b)는 본 발명의 영상변환부에 의해 변환된 황색 성분이 강조된 흑백 영상의 일례.
도 7(a)는 이전 프레임에서 차선표식이 인식되지 않은 경우 설정된 단위 관심영역의 일례.
도 7(b)는 이전 프레임에서 차선표식이 인식된 경우 설정된 단위 관심영역의 일례.
도 8은 본 발명의 에지추출부의 소벨 연산에 의해 구해진 가로 기울기 영상의 일례.
도 9는 본 발명의 에지추출부의 소벨 연산에 의해 구해진 기울기 크기 영상의 일례.
도 10은 본 발명의 에지추출부를 통해 구해진 에지 영상의 일례.
도 11은 본 발명의 직선정보 추출부를 통해 구해진 직선의 일례.
도 12는 본 발명의 도트 추출부가 직선 차선에 대해 추출한 점 성분의 일례.
도 13은 본 발명의 도트 추출부가 곡선 차선에 대해 추출한 점 성분의 일례.Brief Description of the Drawings Fig. 1 is an overall configuration diagram of a lane departure detection system based on image recognition according to the present invention; Fig.
FIG. 2 is a block diagram showing a detailed configuration of the image recognition processing unit shown in FIG. 1. FIG.
FIG. 3 is a coordinate conceptual diagram of a lane departure detection method and system based on image recognition of the present invention.
4 is a block flow diagram illustrating a process flow of a lane departure detection method based on image recognition according to the present invention.
5 is an example of a whole region of interest set through the location of the disappearance line and the hood of the present invention.
6 (a) is an example of a general black-and-white image.
6 (b) is an example of a monochrome image in which a yellow component is emphasized by the image conversion unit of the present invention.
7 (a) is an example of a unit interest area set when a lane marker is not recognized in a previous frame.
7 (b) is an example of a unit interest area set when a lane mark is recognized in a previous frame.
8 is an example of a horizontal slope image obtained by the Sobel operation of the edge extracting unit of the present invention.
9 is an example of a tilt magnitude image obtained by the Sobel operation of the edge extracting unit of the present invention.
10 is an example of an edge image obtained through the edge extracting unit of the present invention.
11 is an example of a straight line obtained through the linear-information extracting unit of the present invention.
12 is an example of dot components extracted by the dot extracting section of the present invention on a straight lane;
13 is an example of a dot component extracted from a curve lane of the dot extracting part of the present invention.
본 발명은 각종 노이즈원을 최대한 제거할 수 있으면서 더 나아가 직선 도로·곡선 도로와 같은 다양한 도로 조건 및 차선 표식의 훼손과 같은 다양한 환경 조건 하에서도 인식 오류 없이 차선 표식을 정확히 인식하여 차선 이탈을 성공적으로 경고할 수 있는 기술 특징을 개시한다.The present invention is capable of eliminating various noise sources as much as possible and further accurately recognizing the lane marker without recognizing errors even under various environmental conditions such as various road conditions such as a straight road and curved road, Disclose technical features that can alert.
이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예, 장점 및 특징에 대하여 상세히 설명하도록 한다.In the following, preferred embodiments, advantages and features of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 영상인식 기반의 차선 이탈 감지 시스템의 전체 구성도이고, 도 2는 도 1에 도시된 영상인식 처리부의 세부 구성을 도시한 블록구성도이다.FIG. 1 is an overall configuration diagram of a lane departure detection system based on image recognition according to the present invention, and FIG. 2 is a block diagram showing a detailed configuration of an image recognition processor shown in FIG.
도 1 및 도 2를 참조하면, 본 발명의 영상인식 기반의 차선 이탈 감지 시스템은 카메라(10), 영상인식 처리부(20) 및 경보 출력부(95)를 포함하도록 구성된다.1 and 2, the image recognition based lane departure detection system of the present invention is configured to include a
본 발명의 카메라(10)는 차량에 장착되어 차량 전방의 주행도로를 촬영하여 영상을 획득하는 구성부로서, 바람직하게는 CMOS 카메라 또는 CCD 카메라를 채용할 수 있다.The
본 발명의 영상인식 처리부(20)는 카메라(10)에 의해 획득된 영상에 표시된 차선을 인식하고 이를 기반으로 소정의 연산 처리를 수행함으로써, 해당 도로를 주행중인 차량의 차선 이탈 여부를 판단하여 졸음 운전이나 운전 부주의에 의해 발생할 수 있는 사고를 방지하는 기능을 실현한다.The image
영상인식 처리부(20)의 세부 구성을 기능적으로 분리하면 영상변환부(30), 영상분할부(40), 에지추출부(50), 직선정보 추출부(60), 도트 추출부(70), 차선모델 생성부(80), 및 차선이탈 판별부(90)로 나눌 수 있다.The
본 발명의 영상인식 기반의 차선 이탈 감지 시스템은 차량의 주행 과정에서 카메라를 통해 수득된 영상을 인식하고 처리하여 차선 이탈 감지 기능을 실현하기 위해 시스템 초기화를 먼저 실시한다.The lane departure detection system based on the image recognition of the present invention first initializes the system in order to realize the lane departure detection function by recognizing and processing the image obtained through the camera in the running process of the vehicle.
시스템 초기화란 차량의 카메라를 통해 촬영된 영상에서 차선표식을 검출하기 위한 영상처리에 사용될 영역(이하, '전체 관심영역' 이라 함)을 설정하고, 각종 영상의 처리를 위한 메모리를 할당하고, 차선표식과 도로폭에 대한 정보와, 차량 앞 바퀴 위치 정보와, 허프변환(Hough Transform) 수행시 필요한 정보를 룩업 (Lookup)테이블로 저장한다.In the system initialization, an area (hereinafter, referred to as an 'entire ROI') to be used for image processing for detecting a lane marker on an image photographed through a camera of a vehicle is set, a memory for processing various images is allocated, Information about the mark and road width, information on the position of the front wheel of the vehicle, and information necessary for performing the Hough Transform are stored in a lookup table.
상기의 시스템 초기화가 완료되면 영상인식 처리부(20)의 각 구성부의 다음과 같은 작용을 통해 입력영상의 인식 처리 및 이에 근거한 차선 이탈 감지가 이루어진다.Upon completion of the system initialization, recognition processing of the input image and lane departure detection based thereon are performed through the following operations of the respective components of the
본 발명의 영상변환부(30)는 기본적으로 차량 카메라로부터 입력된 영상을 흑백 영상으로 변환하는 기능을 하고, 바람직하게는 변환된 흑백 영상에서 황색 성분을 강조하는 처리를 더 수행한다.The
본 발명의 영상분할부(40)는 흑백 영상에 설정된 전체 관심영역을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 기능을 한다. 여기서 상기 단위 관심영역은 상기 전체 관심영역을 세로방향 및 가로방향으로 분할하여 형성된 직사각형의 영역으로 구성하고, 상기 직사각형의 단위 관심영역은 상기 전체 관심영역 중 좌측 차선표식과 우측 차선표식 별로 해당 차선표식을 따라 연속으로 이어지며 배열된 형태로 설정되게 구성하는 것이 바람직하다.The
본 발명의 에지추출부(50)는 에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별로 에지 정보를 추출하는 기능을 한다. 여기서, 상기 에지 검출 기법은 미분연산자에 의한 밝기 값의 변화를 이용하여 영상 내 물체들의 경계 (윤곽선)을 찾아내는 소벨 에지(Sobel Edge) 추출 방식을 채용할 수 있다.The
본 발명의 직선정보 추출부(60)는 에지추출부(50)에 의해 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선 정보를 추출하는 기능을 한다.The linear
참고로, 직선정보 추출부(60)의 연산에 이용되는 허프변환(Hough Transform)은 영상 처리에서 직선을 찾기 위해 가장 널리 사용되는 방법으로서, 2차원 영상 좌표에서의 직선의 방정식을 파라미터공간으로 변환하여 직선을 찾는 알고리즘이다. 허프변환은 공학에서 일반적으로 사용되는 알고리즘이므로 자세한 설명은 생략한다.For reference, the Hough Transform used in the operation of the linear-
또한, 직선정보 추출부(60)는 직선이 추출되지 못한 단위 관심영역(이하, '비추출 단위 관심영역' 이라 함)이 있을 경우, 해당 비추출 단위 관심영역을 기준으로 전·후에 배열된 단위 관심영역에 포함된 직선 정보를 이용한 유추를 통해 상기 비추출 단위 관심영역에 포함될 가상의 직선을 생성함으로써 연속되게 이어진 온전한 차선표식을 도출할 수 있도록 하는 기능을 한다.In addition, when there is a unit interest region (hereinafter, referred to as a 'non-extraction unit interest region') in which a straight line can not be extracted, the linear
본 발명의 도트 추출부(70)는 직선정보 추출부(60)에 의해 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배치된 복수의 점 성분을 추출하는 기능을 한다. 따라서, 도트 추출부(70)에 의해 추출된 다수의 점 성분 중 일 추출군은 좌측 차선표식에 합치되며 좌측 차선을 따라 상호 간격을 두며 배열된 형태를 구성하게 되고, 타 추출군은 우측 차선표식에 합치되며 우측 차선을 따라 상호 간격을 두며 배열된 형태를 구성하게 된다.The
본 발명의 차선모델 생성부(80)는 도트 추출부(70)에 의해 추출된 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 기능을 한다.The lane
보다 구체적으로 설명하면, 차선모델 생성부(80)는 단위 관심영역 별로 추출된 직선의 기울기를 이용하여 해당 영상에 표시된 차선표식이 직선인지 곡선인지를 판별하고, 상기 판별 결과가 직선이면 1차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하고, 상기 판별 결과 곡선이면 2차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정함으로써 차선 이탈 검출에 사용될 기준선(즉, 차선표식)을 확정하게 된다.More specifically, the lane
본 발명의 차선이탈 판단부는 차선모델 생성부(80)를 통해 확정된 차선모델(즉, 차선 이탈 검출에 사용될 기준선)을 이용하여 상기 차량의 차선 이탈 여부를 판단하는데, 구체적으로는 차량의 앞 바퀴와 차선표식 사이의 거리를 연산하고, 상기 연산에 의해 산출된 거리가 기준치를 벗어나면 차선 이탈로 판단하여 경보 출력부(95)에게 경보발생신호를 제공한다.The lane departure determination unit of the present invention determines whether or not the lane departure of the vehicle is caused by using the lane model determined by the lane model generation unit 80 (i.e., the reference line used for lane departure detection). Specifically, And if the distance calculated by the calculation exceeds the reference value, it is determined that the lane departure is not possible and the
한편, 차선이탈 판단부는 차량의 차선 이탈시뿐만 아니라 차량이 차선에 일정 거리 이하로 근접하였을 경우에도 이에 대응하는 또 다른 사전경보 발생신호를 경보 출력부(95)에게 제공하도록 구성할 수도 있음은 물론이다.On the other hand, the lane departure determination unit may be configured to provide the
본 발명의 경보 출력부(95)는 차선이탈 판단부가 보내온 경보발생신호 또는 사전경보 발생신호에 따라 시각적 또는 청각적 경보를 외부로 출력하여 운전자가 해당 사실을 인지할 수 있도록 하는 기능을 한다. The
한편, 경보발생신호에 따른 경보와 사전경보 발생신호에 따른 경보는 다른 형태로 출력하도록 구성하여, 운전자로 하여금 차량이 차선을 이탈하기 직전인지 또는 이미 이탈하였는지 구분할 수 있도록 안내하는 것이 바람직하다.It is preferable that the alarm according to the alarm generation signal and the alarm according to the advance alarm generation signal are configured to be outputted in different forms so as to guide the driver to distinguish whether the vehicle has just left the vehicle or has already departed.
이하에서는 전술한 영상인식 처리부(20)의 각 구성부가 영상 인식 및 처리를 위해 수행하는 기능 및 작용에 대하여 상세히 설명하도록 한다.Hereinafter, functions and actions performed by each component of the
도 3은 본 발명의 영상인식 기반의 차선 이탈 감지 방법 및 시스템의 좌표 개념도이다. 참고로, 도 3의 카메라(10)는 차량(미도시)에 장착되며 CMOS 또는 CCD 카메라를 사용할 수 있다.3 is a coordinate conceptual diagram of a lane departure detection method and system based on image recognition of the present invention. For reference, the
도 3에서 XW,YW,ZW 는 주행도로 공간 전체를 포괄하는 월드 좌표계를 의미하고, XC,YC,ZC 는 카메라 시점을 중심으로 하는 카메라 영상 프레임의 좌표계를 의미한다. 카메라는 차선표식이 형성되어 있는 도로표면에 대하여 각도θ만큼 경사지도록 설치되고, 상기 도로표면으로부터의 높이는 H로 표시된다.3, X W , Y W , Z W Means a world coordinate system which covers the whole running road space, X C , Y C , Z C Means a coordinate system of a camera image frame centered on the camera viewpoint. The camera is installed so as to be inclined at an angle? With respect to the road surface on which the lane marker is formed, and the height from the road surface is indicated by H.
본 발명의 차선 이탈 감지 방법 및 시스템은 월드 좌표계 상의 차선표식 두께와 차선폭과 같은 정보가 이미지 상의 값으로 변환되어 차선표식의 인식 처리와 차선이탈 판단에 사용되는 바, 먼저 월드 좌표계와, 카메라, 이미지 좌표계의 관계에 대하여 설명하도록 한다.The lane departure detection method and system according to the present invention is used in a lane departure detection method and a lane departure determination method, in which information such as a lane mark thickness and a lane width on a world coordinate system are converted into values on an image, The relationship of the image coordinate system will be described.
차선표식이 형성되어 있는 도로표면이 카메라의 촬영을 통해 평면 영상으로 변환되는데, 이때 월드 좌표계(XW,YW,ZW)와 카메라 좌표계 (XC,YC,ZC)는 다음과 같은 수학식1의 관계에 있다.The world coordinate system (X W , Y W , Z W ) and the camera coordinate system (X C , Y C , Z C ) are transformed into a plane image (1) < / RTI >
(수학식 1에서,(In the equation (1)
XC, YC, ZC : 카메라 좌표계의 X, Y, Z 축 좌표,X C , Y C , Z C : X, Y, Z coordinates of the camera coordinate system,
XW, YW, ZW : 월드 좌표계의 X, Y, Z 축 좌표,X W , Y W , Z W : X, Y, Z coordinates of the world coordinate system,
θ: 카메라 광축(ZC)이 지평선(YW)에 대해 기울어진 각도,[theta]: an angle at which the camera optical axis Z C is inclined with respect to the horizon line Y W ,
H : 도로면으로부터 카메라가 설치된 위치까지의 높이)
H: height from the road surface to the position where the camera is installed)
핀홀 카메라 모델과 상기 수학식 1을 이용하면 이미지 좌표계를 다음의 수학식2와 같이 표현할 수 있다.Using the pinhole camera model and Equation (1), the image coordinate system can be expressed by the following Equation (2).
(수학식 2에서,(In the equation (2)
u : 이미지 좌표계의 가로축 좌표,u: the horizontal axis coordinate of the image coordinate system,
v : 이미지 좌표계의 세로축 좌표,v: the vertical axis coordinates of the image coordinate system,
f : 카메라의 초점 거리)f: the focal length of the camera)
한편, 인식하고자 하는 차선표식은 도로면에 존재하므로 ZW의 값은 '0'이라 가정할 수 있으므로, 상기 수학식2 에 ZW=O 을 대입하면 이미지 좌표계 수식은 간소화된다.
On the other hand, since the lane marking to be recognized exists on the road surface, the value of Z W can be assumed to be '0'. Thus, if Z W = 0 is substituted into Equation 2, the image coordinate system is simplified.
이미지 센서의 가로, 세로 해상도와 픽셀의 가로, 세로 크기를 이용하면 픽셀 좌표계 상의 좌표를 다음의 수학식 3과 같이 표현할 수 있다.Using the horizontal and vertical resolutions of the image sensor and the horizontal and vertical sizes of the pixels, the coordinates on the pixel coordinate system can be expressed by the following Equation (3).
(수학식 3에서,(In Equation 3,
xP, yP : 가로, 세로축 픽셀 좌표,x P , y P : Horizontal, vertical axis pixel coordinates,
rw, rh : 이미지 센서의 가로, 세로 해상도,r w , r h : Horizontal and vertical resolution of the image sensor,
su, sv : 이미지 센서의 가로, 세로 픽셀 크기)
s u , s v : the horizontal and vertical pixel sizes of the image sensor)
이하에서는, 전술한 바와 같은 월드 좌표계, 카메라, 이미지 좌표계의 관계를 기반으로 입력 영상에서 차선표식을 인식 처리하여 차선이탈을 감지하는 방법에 대하여 상세히 설명하도록 한다.Hereinafter, a method for recognizing a lane departure by recognizing a lane marker on an input image based on the relationship between the world coordinate system, camera, and image coordinate system as described above will be described in detail.
도 4는 본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법의 흐름을 도시한 블록순서도이다.4 is a block flow diagram illustrating a flow of a lane departure detection method based on image recognition according to the present invention.
도 4를 참조하면, 본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법은 차량의 카메라를 통해 촬영된 영상에서 차선표식을 검출하기 위한 영상처리에 사용될 영역(이하, '전체 관심영역' 이라 함)을 설정하는 단계(단계 1)와; 상기 전체 관심영역을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 단계(단계 2)와; 에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별로 에지를 추출하는 단계(단계 3)와; 단계 3에서 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선을 추출하는 단계(단계 4)와; 단계 4에서 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 단계(단계 5)와; 단계 5에서 추출된 상기 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 단계(단계 6); 및 단계 6에서 규정된 차선 모델을 이용하여 차선 이탈 여부를 판단하는 단계(단계 7)를포함한다.Referring to FIG. 4, an image recognition based lane departure detection method according to the present invention is a method for detecting a lane mark in an image captured through a camera of a vehicle, (Step 1); Dividing the entire ROI into a plurality of regions (hereinafter, referred to as 'ROI') (Step 2); (Step 3) of extracting an edge for each ROI including a lane marker using an edge detection technique; Extracting a straight line through a Hough Transform using the edge per unit RO extracted in Step 3 (Step 4); Extracting a plurality of point components corresponding to the straight line and spaced apart from each other on the straight line extracted in step 4; Applying the plurality of point components extracted in step 5 to the least squares method to define a lane model (step 6); And determining whether the lane departure is determined using the lane model defined in step 6 (step 7).
바람직하게는, 단계 1은 차량 카메라로부터 입력된 영상을 흑백 영상으로 변환하는 단계와, 변환된 상기 흑백 영상에서 황색 성분을 강조 처리하는 단계(단계 1-1)를 더 포함할 수 있다.Preferably, step 1 may further comprise the step of converting the image input from the vehicle camera into a monochrome image, and a step of enhancing the yellow color component in the monochrome image (step 1-1).
단계 2의 단위 관심영역은, 상기 전체 관심영역을 세로방향 및 가로방향으로 분할하여 형성된 직사각형의 영역으로 이루어지고, 상기 직사각형의 단위 관심영역은 상기 전체 관심영역 중 좌측 차선표식과 우측 차선표식 별로 해당 차선표식을 따라 연속으로 이어지며 배열되게 설정되는 것을 특징으로 한다.The unit interest area in step 2 is formed of a rectangular area formed by dividing the entire ROI into a longitudinal direction and a lateral direction, and the rectangular ROI is divided into a left lane marker and a right lane marker And is arranged so as to be continuous and continuous along the lane marker.
단계 3의 에지(edge) 검출 기법은 바람직하게는 소벨 에지(Sobel Edge) 추출 방식을 사용할 수 있다.The edge detection technique of step 3 may preferably use a Sobel Edge extraction scheme.
단계 4는 단위 관심영역 별로 추출된 직선의 기울기 평균값을 구하는 단계와, 추출된 단위 관심영역 별 직선 중 상기 기울기 평균값보다 일정 각도 이상 차이가 나는 직선을 제거하는 단계를 더 포함할 수 있다.Step 4 may further include a step of obtaining a slope average value of a straight line extracted for each unit ROI and a step of removing a straight line having a difference of more than a predetermined angle from the slope average value of the extracted ROIs.
본 발명의 차선 이탈 감지 방법은 단계 4에서 직선이 추출되지 못한 단위 관심영역(이하, '비추출 단위 관심영역' 이라 함)이 있을 경우, 해당 비추출 단위 관심영역을 기준으로 전·후에 배열된 단위 관심영역에 포함된 직선 정보를 이용한 유추를 통해 상기 비추출 단위 관심영역에 포함될 가상의 직선을 생성하는 단계를 더 포함할 수 있다.In the lane departure detection method of the present invention, when there is a unit interest area (hereinafter, referred to as 'non-extraction unit interest area') in which a straight line is not extracted in step 4, And generating an imaginary straight line to be included in the non-extracted unit ROI through analogy using linear information included in the ROI.
여기서, 전·후에 배열된 단위 관심영역에 포함된 직선 정보를 이용한 유추란, 전·후에 배열된 단위 관심영역에 포함된 직선의 하단과 상단을 잇는 직선을 생성하거나, 이들의 기울기 평균값을 이용하여 이에 합치하는 직선을 생성하는 방법이 사용될 수 있다.Here, the inference using the linear information included in the unit interest area arranged before and after means that a straight line connecting the lower end and the upper end of the straight line included in the unit interest area arranged before and after is generated, A method of generating a straight line corresponding to this can be used.
또한, 본 발명의 차선 이탈 감지 방법은 단계 4를 통해 단위 관심영역 별로 추출된 직선의 기울기를 이용하여 상기 카메라를 통해 촬영된 영상의 차선표식이 직선인지 곡선인지를 판별하는 단계를 더 포함할 수 있고, 상기 경우 단계 6은 상기 판별 결과가 직선이면 1차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하고, 상기 판별 결과 곡선이면 2차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하도록 구성된다.The method may further include determining whether a lane marker of the image photographed through the camera is a straight line or a curve using the slope of the straight line extracted for each interest area through step 4 In this case, step 6 defines a lane model by applying a least squares method approximating a linear equation if the determination result is a straight line, and defines a lane model by applying a least squares method approximating a quadratic equation if the determined result curve is a curve do.
이하에서는 각 단계에 따른 예시를 들어 보다 구체적으로 설명하도록 한다.Hereinafter, an example according to each step will be described in more detail.
<단계 1(S10)>≪ Step 1 (S10)
본 발명의 단계 1은 차량의 주행 과정에서 카메라를 통해 수득된 영상을 인식하고 처리하여 차선 이탈 감지 기능을 실현하기 위해 초기화를 수행하는 단계(S10)로서, 앞서 설명한 수학식 1 내지 3을 이용하여 이미지 상의 소실선의 세로 좌표를 구한다. 소실선은 전체 관심영역의 세로축을 따라 가로 방향으로 분할하는 다수의 라인 중 지평선과 만나는 지점(소실점)에 대응되는 라인을 의미한다.Step 1 of the present invention is a step (S10) of performing initialization in order to realize a lane departure detection function by recognizing and processing an image obtained through a camera in a running process of a vehicle, using Equations 1 to 3 Find the ordinate of the missing line on the image. The disappearance line means a line corresponding to a point (vanishing point) at which it meets with the horizon among a plurality of lines dividing in the horizontal direction along the vertical axis of the entire area of interest.
소실선의 세로 좌표는 월드 좌표계의 YW 가 무한대(∞) 값으로 수렴할 때의 yP값이므로 아래의 같은 수학식 4에 의해 산출될 수 있다.The ordinate of the disappearance line can be calculated by Equation (4) as Y W = Y P when the Y W of the world coordinate system converges to infinity (∞).
이미지 상에서, 소실선의 세로 좌표값을 상단으로 하고 차량 후드가 위치하는 지점의 세로 좌표값을 하단으로 하여 전체 관심영역(Region Of Interest)을 설정한다. 도 5의 'vanish'와 'hood'의 두 라인 사이가 영상처리에 사용될 전체 관심영역에 해당한다.In the image, an entire region of interest is set by setting the ordinate value of the disappearance line to the upper end and the ordinate value of the position where the vehicle hood is located to the lower end. The line between 'vanish' and 'hood' in FIG. 5 corresponds to the entire region of interest to be used for image processing.
본 발명의 단계 1은 전체 관심영역 설정 외에 다음과 같은 초기화를 더 수행한다. 먼저, 흑백 영상, 가로 기울기 영상, 허프 변환(Hough Transform) 등의 영상처리를 위한 메모리를 할당한다.Step 1 of the present invention performs the following initialization in addition to setting the entire ROI. First, a memory for image processing such as a monochrome image, a horizontal gradient image, and a Hough Transform is allocated.
그리고, 허프 변환 수행시 필요한 sin , cos 값을 계산하여 룩업(Lookup) 테이블로 저장한다.Then, sin and cos values necessary for Huff transform are calculated and stored in a lookup table.
그리고, 앞서 설명한 좌표계 수식들을 이용하여 월드 좌표계 상의 차선표식의 최소, 최대 두께와 도로의 최소, 최대폭을 이미지 상의 전체 관심영역의 상단과 하단에 해당하는 모든 세로 좌표에 대응되는 값으로 변환하여 룩업(Lookup) 테이블로 저장한다.The minimum and maximum thicknesses of the lane marker on the world coordinate system and the minimum and maximum widths of the road on the world coordinate system are converted into values corresponding to all the ordinates corresponding to the upper and lower ends of the entire ROI on the image using the above- Lookup table.
그리고, 좌표계 수식들을 이용하여 차선이탈 여부를 판단하기 위해 이미지 상의 차량 앞 바퀴 위치에 해당하는 세로 좌표 값을 계산하여 저장한다.Then, in order to determine whether or not the vehicle departs from the lane using the coordinate system formulas, an ordinate corresponding to the front wheel position on the image is calculated and stored.
< 단계 1-1(S15) >≪ Step 1-1 (S15)
본 발명의 단계 1-1은 영상변환부(30)에 의해 수행되는데, 구체적으로 차량 카메라로부터 입력된 영상을 흑백 영상으로 변환한 후, 입력 영상에서 황색 차선의 인식률을 높이기 위해 YCbCr 색공간의 Cb 색성분을 이용하여 아래와 같은 방법으로 흑백 영상에서 황색 성분을 강조한다.Step 1-1 of the present invention is performed by the
{IF Cb -128 < 0 THEN{IF Cb -128 < 0 THEN
Gray Pixel = Y + ( 128 - Cb ) * 2 Gray Pixel = Y + (128 - Cb) * 2
ELSEELSE
Gray Pixel = Y} Gray Pixel = Y}
도 6(a)는 일반적인 흑백 영상을 보여주고, 도 6(b)는 단계 1-1에 의해 황색 성분이 강조된 흑백 영상을 보여준다. 도 6에서 알 수 있듯이 Cb 색성분을 이용하여 황색 성분을 강조함으로써 흑백 영상에서 차선표식이 더욱 선명하게 대비되고 있음을 알 수 있다.FIG. 6 (a) shows a general black-and-white image, and FIG. 6 (b) shows a black-and-white image in which the yellow component is emphasized in step 1-1. As can be seen from FIG. 6, it can be seen that the lane marker is more clearly contrasted in the monochrome image by emphasizing the yellow component using the Cb color component.
< 단계 2(S20) >≪ Step 2 (S20)
본 발명의 단계 2는 영상의 전체 관심영역 중에서 좌측 및 우측 차선표식 별로 대응되는 단위 관심영역을 설정하는 단계로서 영상분할부(40)에 의해 수행된다.Step 2 of the present invention is performed by the
차선표식은 차량에 가까울수록 선명하고 직선 성분이 강하며, 차량과 멀어질수록 흐려지고 곡선 도로와 같은 경우에는 직선 성분이 약해지는 특성이 있다. 따라서 도 5와 같이 세로축을 따라 이격 배열된 다수의 가로 방향 라인(41)이 전체 관심영역을 적절한 개수로 분할하여 각각의 분할된 영역 별로 차선표식 인식을 처리할 수 있도록 한다.The lane marking is characterized by a sharp, linear component stronger near the vehicle, blurred away from the vehicle, and a straight line component weaker in the case of a curved road. Accordingly, as shown in FIG. 5, a plurality of
이렇게 전체 관심영역을 세로축을 따라 분할하여 처리하게 되면 곡선 도로와 같은 상황에서 차선표식 인식 및 직선 추출에 더 강인한 특성을 가진다. 또한 점선 형태의 차선표식이나 차선표식이 훼손된 경우와 같이 특정 지점(단위 관심영역)에서 차선표식 인식이 어려워도 전후 단계의 단위 관심영역에서 인식된 직선 정보를 이용하여 상기 특정 지점의 차선표식 정보를 유추할 수 있는 이점이 있다.Thus, if the whole area of interest is divided and processed along the vertical axis, it is more robust in lane marker recognition and straight line extraction in a situation like a curved road. Also, even if the lane marker recognition is difficult at a specific point (unit interest area) as in the case of the dotted line lane marker or the lane marker being damaged, the lane marker information of the specific point can be inferred There is an advantage to be able to do.
위와 같이 세로축을 따라 다수 개로 분할된 관심영역은 다시 좌측 및 우측 차선별로 가로축을 따라 다수의 세로 방향 라인(42)으로 분할하여 종국에는 도 7과 같이, 직사각형의 영역으로 이루어진 단위 관심영역을 설정한다.As described above, the ROI divided into a plurality of lines along the vertical axis is divided into a plurality of
여기서 상기 직사각형의 단위 관심영역은 상기 전체 관심영역 중 좌측 차선표식과 우측 차선표식 별로 해당 차선표식을 따라 연속으로 이어지며 배열된 형태로 설정되게 구성하는 것이 바람직하다.Here, it is preferable that the rectangle unit ROI is configured to be continuously arranged and arranged along the left lane markers and the right lane markers along the corresponding lane markers.
한편, 각각의 단위 관심영역의 가로폭은 이전 프레임에서 차선 표식이 인식된 경우와 그렇지 않은 경우에 따라 다르게 설정된다.On the other hand, the width of each unit area of interest is set differently depending on whether the lane marker is recognized in the previous frame or not.
도 7(a)는 이전 프레임에서 차선표식이 인식되지 않은 경우 설정된 단위 관심영역을 보여주고, 도 7(b)는 이전 프레임에서 차선표식이 인식된 경우 설정된 단위 관심영역을 보여준다.FIG. 7 (a) shows a set unit interest area when the lane marker is not recognized in the previous frame, and FIG. 7 (b) shows the set unit interest area when the lane marker is recognized in the previous frame.
먼저, 이전 프레임에서 차선표식이 인식되지 않은 경우, 해당 단위 관심영역의 수평선 상의 이미지의 중심을 기준으로 도로의 최소폭과 최대폭 사이를 해당 단위 관심영역의 가로폭으로 설정한다.(도 7 (a) 참조)First, when the lane marker is not recognized in the previous frame, the width between the minimum width and the maximum width of the road is set as the width of the unit interest area on the basis of the center of the image on the horizontal line of the unit interest area. ) Reference)
다음으로, 이전 프레임에서 차선 표식이 인식된 경우, 이전 프레임에서 인식한 차선 표식의 위치를 중심으로 일정한 값만큼 좌우로 확장하여 해당 단위 관심영역의 가로폭으로 설정한다.(도 7 (b) 참조)Next, when the lane marker is recognized in the previous frame, the lane marker is recognized as a center of the lane marker recognized in the previous frame, and is expanded to the left and right by a predetermined value to set the horizontal width of the unit interest area (refer to FIG. 7B) )
상기와 같이 단위 관심영역의 가로폭을 제한하게 되면 좌·우 차선표식 사이에 존재하는 도로 정보(이정표 등)나 차선표식으로 오인식 될 수 있는 각종 잡음 요소를 제거할 수 있는 이점이 있다.By limiting the width of the unit area of interest as described above, there is an advantage that various noise elements that can be mistaken for lane markings or road information (milestones etc.) existing between the left and right lane markers can be removed.
또한, 전체 관심영역을 세로, 가로 방향으로 분할하여 일부 영역(즉, 단위 관심영역)만을 처리함으로써 실제 영상처리가 되는 영역을 최소화할 수 있어 영상처리의 연산 부하를 감소시킬 수 있는 장점이 있다.In addition, since the entire region of interest is divided into the vertical and horizontal directions to process only a part of the region (i.e., the ROI), it is possible to minimize an actual image processing region, thereby reducing the computational load of the image processing.
< 단계 3(S30) >≪ Step 3 (S30) >
본 발명의 단계 3은 에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별 에지를 추출하는 단계로서 에지추출부(50)에 의해 수행된다.Step 3 of the present invention is performed by the
이를 보다 구체적으로 설명하면, 차선표식 인식을 위해 소벨(Sobel) 연산을 수행하여 가로 기울기 영상과 기울기 크기 영상을 구한다.To be more specific, Sobel operation is performed for lane marker recognition to obtain a horizontal slope image and a slope image.
소벨(Sobel) 연산을 위한 마스크는 다음과 같다. Gx는 수평성분, Gy는 수직성분을 의미한다.The mask for the Sobel operation is as follows. Gx denotes a horizontal component, and Gy denotes a vertical component.
가로 기울기 영상은 소벨 연산을 위한 마스크의 수평성분이며, 도 8은 이러한 가로 기울기 영상의 일례를 보여준다.The horizontal slope image is a horizontal component of the mask for the Sobel operation, and FIG. 8 shows an example of such a horizontal slope image.
기울기 크기 영상은 수평성분과 수직성분을 이용하며 다음의 수학식 5를 통해 구한다.The tilt magnitude image is obtained by using the following equation (5) using the horizontal component and the vertical component.
도 9는 상기 방법을 통해 산출된 기울기 크기 영상의 일례를 보여준다.FIG. 9 shows an example of a tilt magnitude image calculated through the above method.
단계 1-1과 단계 3에서 구한 흑백 영상과 가로 기울기 영상, 기울기 크기 영상을 이용하여 차선표식을 인식하기 위해 다음과 같은 차선표식의 특성을 이용하게 된다.In order to recognize the lane marker using the black and white image, the horizontal gradient image, and the tilt magnitude image obtained in steps 1-1 and 3, the following lane marker characteristics are used.
-차선표식의 좌우 경계를 기준으로 중심 영역의 밝기가 좌우 바깥쪽 영역의 밝기보다 밝다.- The brightness of the center area is brighter than the brightness of the left and right area based on the left and right boundaries of the lane marker.
-차선표식의 밝기 변화는 좌측에서 우측으로 밝아졌다 어두워지는 특성이 있다. 도 8의 흰색 픽셀이 밝아지는 지점(51a)이며 검은색 픽셀이 어두워지는 지점(51b)으로 각 점(51a,51b)으로 표시된 부분과 같다.- The brightness change of the lane marker is brightened from left to right and has a characteristic of darkening. Is the same as the portion indicated by each
-차선표식의 좌우 경계 부분은 기울기 크기 영상에서 국소 최대값을 가지는 지점이다. 도 9의 점(붉은 점; 52)으로 표시된 부분이 국소 최대값을 갖는 차선 표식의 좌우 경계 부분이다.- The left and right boundaries of the lane marker are the points having the local maximum value in the tilt magnitude image. The portion indicated by the dot (red dot) 52 in FIG. 9 is the left and right boundary portion of the lane marker having the local maximum value.
-수평 기울기 영상에서 좌측 차선표식의 안쪽 경계는 음의 값을 가지는 지점이며, 우측 차선표식의 안쪽 경계는 양의 값을 가지는 지점이다.In the horizontal slope image, the inner boundary of the left lane marker is a point having a negative value, and the inner boundary of the right lane marker is a point having a positive value.
상기의 4가지 차선 표식 특성을 이용하여 다음과 같은 방법으로 차선 에지 영상을 구한다.Using the above four lane marking characteristics, the lane edge image is obtained as follows.
a) 각각의 관심영역에서 상단의 세로 좌표를 y, 하단의 세로 좌표를 ymax로 설정한다.a) Set the ordinate of the top at y and the ordinate at the bottom at y max in each region of interest.
b) 관심영역의 y좌표에 해당하는 영상의 좌측에서 시작하여 우측으로 이동하며 기울기 크기 영상의 국소 최대값을 가지면서 가로 기울기 영상에서 양의 값을 갖는 픽셀 x1을 찾는다.b) A pixel x 1 having the local maximum value of the gradient magnitude image and moving in the right direction starting from the left side of the image corresponding to the y coordinate of the ROI and having a positive value in the horizontal gradient image is searched.
c) 다시, x1을 기준으로 우측으로 이동하며 기울기 크기 영상의 국소 최대값을 가지면서 가로 기울기 영상이 음의 값을 갖는 픽셀 x2를 찾는다.c) Again, move to the right with respect to x 1 and find the pixel x 2 with the local maximum of the tilt magnitude image and the negative of the horizontal gradient image.
d) x1과 x2 사이의 간격이 초기화 단계에서 구한 이미지 상의 차선표식 두께 룩업(Lookup) 테이블의 y 좌표에 해당하는 최소, 최대값 사이에 존재하면서 흑백 영상의 x1과 x2 지점 사이의 밝기 값의 평균이 x1과 x2에 인접한 픽셀(x1-1, x2+1) 각각의 밝기 값보다 모두 클 경우 차선표식으로 판단하여 차 표식의 에지로 저장한다. 이때 좌측 차선에 대응하는 단위 관심영역일 경우 x2를 에지 픽셀로 저장하며, 우측 차선에 대응하는 단위 관심영역일 경우 x1을 에지 픽셀로 저장한다.d) the interval between x 1 and x 2 is between the minimum and maximum values corresponding to the y coordinate of the lane mark thickness lookup table on the image obtained in the initialization step, and the distance between the x 1 and x 2 points of the monochrome image If the average of the brightness values is greater than the brightness values of the pixels (x 1 -1, x 2 +1) adjacent to x 1 and x 2 , it is determined as a lane marker and stored as an edge of the difference marker. At this time, x 2 is stored as an edge pixel in case of a unit interest area corresponding to the left lane, and x 1 is stored as an edge pixel in case of a unit interest area corresponding to the right lane.
e) y좌표에 해당하는 단위 관심영역의 모든 픽셀에 대해 c ~ d 과정을 반복 수행하고, 모든 처리가 끝나면 y를 1 증가시켜 b ~ d 단계를 다시 반복한다. 이 과정은 y가 ymax에 도달할 때까지 반복하게 된다.e) Repeat steps c to d for all pixels in the ROI corresponding to the y coordinate, and repeat steps b to d again by increasing y by 1 when all processing is completed. This process repeats until y reaches y max .
도 10은 상기의 방식으로 구해진 차선표식의 에지 영상의 일례이다. 도 10의 점(붉은 점)은 도 8 및 도 9 각각에 표시된 두 개의 점 중에서 우측 점에 대응된다.10 is an example of an edge image of a lane marker obtained by the above method. The point (red dot) in Fig. 10 corresponds to the right point among the two points shown in Figs. 8 and 9, respectively.
< 단계 4(S40) >≪ Step 4 (S40)
본 발명의 단계 4는 단계 3에서 추출된 단위 관심영역 별 에지 정보를 이용하여, 허프 변환(Hough Transform)을 수행하여 직선을 위한 파라미터(ρ,θ)를 구하는 단계로서 직선정보 추출부(60)를 통해 수행되며, 이 때 직선은 다음의 수학식 6과 같이 표현된다.Step 4 of the present invention is a step of obtaining a parameter (?,?) For a straight line by performing a Hough Transform using edge information for each ROI extracted in Step 3, , Where the straight line is expressed by the following Equation (6).
한편, 허프 변환에 의해 추출된 직선 중 잡음 성분에 의해 생성되어 차선표식과 일치하지 않는 직선을 제거하는 작업이 필요한데, 상기 잡음 성분에 의한 직선은 다음과 같은 방법을 통해 제거 가능하다.On the other hand, it is necessary to work to remove a straight line generated by a noise component in a straight line extracted by the Hough transform and not coinciding with a lane marking. The straight line by the noise component can be removed by the following method.
즉, 현재 단계의 단위 관심영역의 직선은 전·후 단계의 단위 관심영역의 직선과 서로 연결되는 특성을 이용하여 상호 연속되게 이어지지 않고 단절된 직선을 제거한다. 또한 단위 관심영역 별로 추출된 직선의 기울기 평균값을 구하고, 상기 단계 4의 허프 변환을 통해 추출된 단위 관심영역 별 직선 중 상기 기울기 평균값보다 일정 각도 이상 차이가 나는 직선을 제거한다.That is, the straight line of the unit interest area at the current stage removes the disconnected straight line without continuing to each other by using the characteristic of connecting the straight line of the unit interest area in the pre and post stages. Also, a straight line having a slope difference of more than a certain angle from the slope mean value among straight lines of the unit area of interest extracted through the Hough transform in step 4 is removed.
한편, 점선 형태의 차선 표식이나 차선 표식이 훼손된 경우 또는 잡음 성분에 의해 직선이 추출되지 못한 단위 관심영역(비추출 단위 관심영역)이 있을 경우, 해당 비추출 단위 관심영역을 기준으로 전·후에 배열된 단위 관심영역에 포함된 직선 정보를 이용한 유추를 통해 상기 비추출 단위 관심영역에 포함될 가상의 직선을 생성한다.On the other hand, when there is a unit interest area (non-extraction unit interest area) in which a dotted line lane marker or lane marker is damaged or a straight line can not be extracted due to a noise component, Extracted unit interest region through the analogy using the straight line information included in the unit interest region.
도 11은 에지 정보를 이용하여, 허프 변환(Hough Transform)을 수행하여 구해진 직선을 보여준다. 한편 도 11에서 우측 차선의 3번째 순서에 설정된 단위 관심영역이 상기 비추출 단위 관심영역에 해당하며, 이러한 비추출 단위 관심영역은 전술한 전·후 단위 관심영역에 포함된 직선 정보를 이용한 유추를 통해 가상의 직선을 생성할 수 있다.11 shows a straight line obtained by performing Hough Transform using edge information. Meanwhile, in FIG. 11, the unit interest region set in the third order of the right lane corresponds to the non-extraction unit interest region, and the non-extraction unit interest region is an inference using the linear information included in the pre- A virtual straight line can be generated.
< 단계 5(S50) >≪ Step 5 (S50)
본 발명의 단계 5는 단계 4에서 구해진 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 단계로서 도트 추출부(70)에 의해 수행된다. Step 5 of the present invention is performed by the
도트 추출부(70)에 의해 추출된 다수의 점 성분 중 일 추출군은 좌측 차선표식에 합치되며 좌측 차선을 따라 상호 간격을 두며 배열된 형태를 구성하게 되고, 타 추출군은 우측 차선표식에 합치되며 우측 차선을 따라 상호 간격을 두며 배열된 형태를 구성하게 된다.One of the plurality of dot components extracted by the
도 12는 직선 차선에 대해 단계 5에 의해 추출된 점 성분(71)을 보여주고, 도 13은 곡선 차선에 대해 단계 5에 의해 추출된 점 성분(72)을 보여준다.Fig. 12 shows the
이렇게 추출된 복수의 점 성분은 단계 6의 최소 자승법에 사용되어 차선 모델 규정을 규정할 수 있게 된다.The plurality of point components thus extracted can be used in the least squares method of step 6 to define the lane model specification.
< 단계 6(S60) >≪ Step 6 (S60)
본 발명의 단계 6은 단계 5에서 추출된 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 단계로서, 차선모델 생성부(80)를 통해 수행된다.Step 6 of the present invention is a step of defining the lane model by applying the plurality of point components extracted in step 5 to the least squares method, and is performed through the lane
차선모델 생성부(80)는 해당 점 성분이 직선 차선표식에 대한 점 성분이라면 1차식(x = a + by)으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하고, 해당 점 성분이 곡선 차선표식에 대한 점 성분이라면 2차식(x = a + by + cy2)으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하여 차선 이탈 검출에 사용될 기준선(즉, 차선표식)을 확정하게 된다.The lane
따라서, 차선 모델을 규정하기 위해서는 점 성분을 최소 자승법에 적용하기 전에 해당 점 성분이 직선 차선표식에 대한 점 성분인지 곡선 차선표식에 대한 점 성분이지에 대한 판별이 먼저 수행되어야 한다.Therefore, in order to define the lane model, before the point component is applied to the least squares method, the determination of whether the point component is a point component for a straight lane marking or a point component for a curved lane marking should be performed first.
해당 차선표식이 직선에 가까운지 또는 곡선에 가까운지를 판별하는 방법은 다음과 같다. 먼저, 단위 관심영역 별 직선의 기울기 평균과 평균분산을 산출한다. 그리고, 산출된 평균분산이 특정 값이 이상이면서, 좌측(또는 우측) 차선표식의 하단에 설정된 단위 관심영역에서 좌측(또는 우측) 차선표식의 상단에 설정된 단위 관심영역으로 기울기 평균값이 연속적으로 감소하거나 또는 증가할 경우 곡선으로 판별하고, 그렇지 않은 경우 직선으로 판별한다.A method of determining whether the lane marker is close to a straight line or near a curve is as follows. First, we calculate the slope average and average variance of the straight line per unit area of interest. If the calculated mean variance is smaller than the specific value and the slope mean value continuously decreases to the unit interest area set at the upper end of the left (or right) lane marker in the unit interest area set at the lower end of the left (or right) Or if it increases, it is judged as a curve, otherwise it is judged as a straight line.
이처럼 최소 자승법에 차선의 에지 점들을 적용하지 않고 그 대신 에지 정보를 이용한 허프 변환을 통해 추출된 직선으로부터 대표 점 성분들을 구성해서 적용하게 되면 직선에 포함되지 않는 에지를 제외시킬 수 있고 최소 자승법에 이용할 점들의 수를 줄여 연산 부하를 줄일 수 있는 이점이 있다.In this case, if the lane edge points are not applied to the least squares method and instead, the representative point components extracted from the straight line extracted through the Hough transform using the edge information are applied, the edges not included in the straight line can be excluded and used for the least squares method There is an advantage of reducing the computation load by reducing the number of points.
< 단계 7(S70) >≪ Step 7 (S70)
단계 7은 단계 6에서 규정된 차선 모델을 이용하여 차선 이탈 여부를 판단하는 단계로서 차선이탈 판별부(90)에 의해 수행되며, 차량 앞 바퀴와 차선표식까지의 거리를 계산하여 차선 이탈 여부를 판단한다.Step 7 is a step of judging whether or not the lane departure is determined by using the lane model defined in step 6 and is performed by the lane
보다 구체적으로 설명하면, 단계 1의 초기화 과정에서 미리 계산한 이미지 상의 차량 앞 바퀴가 위치하는 세로 좌표를 차선 모델 방정식에 대입하여 가로 좌표를 계산한다.More specifically, in the initialization process of step 1, the ordinate in which the front wheel of the vehicle on the previously calculated image is located is substituted into the lane model equation to calculate the abscissa.
그리고, 상기 연산에 의해 구해진 가로 및 세로 좌표와 해당 차량의 폭을 이용하여 차량 앞 바퀴와 차선 표식까지의 거리를 계산한다. 도 12와 도 13의 하단에 녹색으로 표시된 숫자가 차량 앞 바퀴와 차선 표식까지의 거리이다.Then, the distance to the front wheel of the vehicle and the lane marker is calculated using the horizontal and vertical coordinates obtained by the calculation and the width of the vehicle. The numbers in green at the bottom of Figs. 12 and 13 are the distances to the front wheels of the vehicle and the lane marks.
즉, 차량의 좌측(또는 우측) 앞 바퀴와 좌측(또는 우측) 차선표식 사이의 거리를 연산하고, 상기 연산에 의해 산출된 거리 중 어느 하나가 차량폭을 근거로 산정된 기준치를 벗어나면 차선 이탈로 판단하여 경보 출력부(95)에게 경보발생신호를 제공하고, 이에 경보 출력부(95)는 경보음 등을 외부로 출력함으로써 운전자에게 위험을 경고할 수 있게 된다.That is, the distance between the left (or right) front wheel of the vehicle and the left (or right) lane marker is calculated, and if any of the distances calculated by the calculation is outside the reference value calculated based on the vehicle width, And provides an alarm generation signal to the
상기에서 본 발명의 바람직한 실시예가 특정 용어들을 사용하여 설명 및 도시되었지만 그러한 용어는 오로지 본 발명을 명확히 설명하기 위한 것일 뿐이며, 본 발명의 실시예 및 기술된 용어는 다음의 청구범위의 기술적 사상 및 범위로부터 이탈되지 않고서 여러가지 변경 및 변화가 가해질 수 있는 것은 자명한 일이다. 이와 같이 변형된 실시예들은 본 발명의 사상 및 범위로부터 개별적으로 이해되어져서는 안되며, 본 발명의 청구범위 안에 속한다고 해야 할 것이다.
While the preferred embodiments of the present invention have been described and illustrated above using specific terms, such terms are used only for the purpose of clarifying the invention, and it is to be understood that the embodiment It will be obvious that various changes and modifications can be made without departing from the spirit and scope of the invention. Such modified embodiments should not be understood individually from the spirit and scope of the present invention, but should be regarded as being within the scope of the claims of the present invention.
10: 카메라 20: 영상인식 처리부
30: 영상변환부 40: 영상분할부
41: 단위관심영역의 가로방향라인 42: 단위관심영역의 세로방향라인
50: 에지추출부 60: 직선정보 추출부
70: 도트추출부 71,72: 점 성분
80: 차선모델 생성부 90: 차선이탈 판별부
95: 경보출력부10: camera 20: image recognition processor
30: image converting unit 40: image dividing unit
41: horizontal direction line of unit interest area 42: vertical direction line of unit interest area
50: edge extracting unit 60: straight line information extracting unit
70: dot extracting
80: lane model generation unit 90: lane departure determination unit
95: Alarm output section
Claims (9)
상기 전체 관심영역을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 제2 단계;
에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별 에지를 추출하는 제3 단계;
상기 제3 단계에서 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선을 추출하는 제4 단계;
상기 제4 단계에서 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 제5 단계;
상기 제5 단계에서 추출된 상기 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 제6 단계; 및
상기 제6 단계에서 규정된 차선 모델을 이용하여 차선 이탈 여부를 판단하는 제7 단계;를 포함하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
A first step of setting an area to be used for image processing for detecting a lane marker in an image photographed through a camera of a vehicle (hereinafter, referred to as an 'entire ROI');
A second step of dividing and setting the entire ROI into a plurality of ROIs (hereinafter referred to as a ROI);
A third step of extracting an edge per unit ROI including a lane marker using an edge detection technique;
A fourth step of extracting a straight line through a Hough Transform using the edge per unit area of interest extracted in the third step;
A fifth step of extracting a plurality of point components corresponding to the straight line and spaced apart from each other on the straight line extracted in the fourth step;
A sixth step of defining the lane model by applying the plurality of point components extracted in the fifth step to the least squares method; And
And a seventh step of determining whether or not the lane departure has been made using the lane model defined in the sixth step.
상기 제1 단계는,
상기 차량 카메라로부터 입력된 영상을 흑백 영상으로 변환한 후, 상기 변환된 흑백 영상에서 황색 성분을 강조 처리하는 제1-1 단계;를 더 포함하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method according to claim 1,
In the first step,
And a 1-1 step of converting the image input from the vehicle camera into a monochrome image and then highlighting the yellow component in the converted monochrome image.
상기 제2 단계의 상기 단위 관심영역은, 상기 전체 관심영역을 세로방향 및 가로방향으로 분할하여 형성된 직사각형의 영역으로 이루어지고, 상기 직사각형의 단위 관심영역은 상기 전체 관심영역 중 좌측 차선표식과 우측 차선표식 별로 해당 차선표식을 따라 연속으로 이어지며 배열되게 설정되는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method according to claim 1,
Wherein the unit interest area of the second step comprises a rectangular area formed by dividing the entire area of interest into a longitudinal direction and a lateral direction and the rectangular unit area of interest includes a left lane marker and a right lane marker, Wherein the lane departure detection method is configured to be continuously arranged and arranged along the lane marker for each landmark.
상기 제3 단계의 에지(edge) 검출 기법은 소벨 에지(Sobel Edge) 추출 방식인 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
3. The method of claim 2,
Wherein the edge detection method of the third step is a Sobel edge extraction method.
상기 제4 단계에서 단위 관심영역 별로 추출된 직선의 기울기 평균값을 구하는 제4-1 단계;
상기 제4 단계에서 추출된 단위 관심영역 별 직선 중 상기 제4-1 단계의 기울기 평균값보다 일정 각도 이상 차이가 나는 직선을 제거하는 제4-2 단계; 및
상기 제4 단계에서 직선이 추출되지 못한 단위 관심영역(이하, '비추출 단위 관심영역' 이라 함)이 있을 경우, 해당 비추출 단위 관심영역을 기준으로 전·후에 배열된 단위 관심영역에 포함된 직선 정보를 이용한 유추를 통해 상기 비추출 단위 관심영역에 포함될 가상의 직선을 생성하는 제4-3 단계;를 더 포함하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method of claim 3,
A fourth step of obtaining a slope average value of a straight line extracted for each unit ROI in the fourth step;
A fourth step of removing a straight line having a difference of more than a predetermined angle from the slope average value of the 4-1 step among straight lines of the unit ROI extracted in the fourth step; And
If there is a unit interest region (hereinafter, referred to as a 'non-extraction unit interest region') in which a straight line can not be extracted in the fourth step, the unit interest region included in the unit interest region arranged before and after the non- And generating a virtual straight line to be included in the non-extracted unit ROI through analogy using the straight line information.
상기 제4 단계를 통해 단위 관심영역 별로 추출된 직선의 기울기를 이용하여 상기 카메라를 통해 촬영된 영상의 차선표식이 직선인지 곡선인지를 판별하는 단계를 더 포함하고,
상기 제6 단계는, 상기 판별 결과가 직선이면 1차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하고, 상기 판별 결과 곡선이면 2차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method of claim 3,
Further comprising the step of determining whether a lane marker of the image photographed by the camera is a straight line or a curve using the slope of the straight line extracted for each unit ROI through the fourth step,
The sixth step includes defining a lane model by applying a least squares method approximating a linear equation if the determination result is a straight line, and defining a lane model by applying a least squares method approximating a quadratic equation if the determination result curve is a curve Wherein the lane departure detection method is based on image recognition.
상기 직선 또는 곡선 여부를 판별하는 단계는,
상기 단위 관심영역 별 직선의 기울기 평균과 평균분산을 산출하는 단계; 및
산출된 평균분산이 특정 값 이상이면서, 좌측 차선표식의 하단에 설정된 단위 관심영역에서 좌측 차선표식의 상단에 설정된 단위 관심영역으로 기울기 평균값이 연속적으로 감소하거나 또는 증가할 경우 곡선으로 판별하고, 그렇지 않은 경우 직선으로 판별하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method according to claim 6,
Wherein the step of determining whether the straight line or the curve is a curve,
Calculating a slope average and an average variance of a straight line for each unit ROI; And
If the calculated mean variance is greater than or equal to a specific value and the slope mean value continuously decreases or increases to a unit interest area set at the upper end of the left lane marker in the unit interest area set at the lower end of the left lane marking, The method comprising the steps of: (a)
상기 제7 단계는,
상기 차량의 좌측 앞 바퀴와 좌측 차선표식 사이의 거리를 연산하고, 상기 연산에 의해 산출된 거리가 차량폭을 근거로 산정된 기준치를 벗어나면 차선 이탈로 판단하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method according to claim 1,
In the seventh step,
Wherein the lane departure determination means calculates a distance between a left front wheel and a left lane marking of the vehicle and determines that the lane departure occurs when the distance calculated by the calculation exceeds a reference value calculated based on the vehicle width, Detection method of deviation.
상기 차량 카메라로부터 입력된 영상을 흑백 영상으로 변환하는 영상변환부;
상기 변환된 흑백 영상을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 영상분할부;
에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별로 에지를 추출하는 에지추출부;
상기 에지추출부에 의해 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선을 추출하는 직선정보 추출부;
상기 직선정보 추출부에 의해 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 도트 추출부;
상기 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 차선모델 생성부;
상기 차선 모델을 이용하여 상기 차량의 차선 이탈 여부를 판단하는 차선이탈 판단부; 및
상기 차선이탈 판단부에 의한 판단 결과 차선 이탈 발생시 경보를 외부로 출력하는 경보 출력부;를 포함하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 시스템.A camera for photographing the front of the vehicle to acquire an image;
An image converter for converting the image input from the vehicle camera into a monochrome image;
Dividing the converted monochrome image into a plurality of regions (hereinafter, referred to as 'unit region of interest') and setting the divided regions;
An edge extracting unit for extracting an edge for each ROI including a lane marker using an edge detection technique;
A straight line information extracting unit for extracting a straight line through a Hough Transform using an edge for each unit area of interest extracted by the edge extracting unit;
A dot extracting unit for extracting a plurality of point components corresponding to the straight line and arranged at a distance from each other on a straight line extracted by the straight line information extracting unit;
A lane model generating unit for applying the plurality of point components to a least square method to define a lane model;
A lane departure determination unit for determining whether the vehicle is departing from the lane using the lane model; And
And an alarm output unit for outputting an alarm when the lane departure occurs as a result of the lane departure determination unit.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020120034996A KR101392850B1 (en) | 2012-04-04 | 2012-04-04 | Method and system for lane departure warning based on image recognition |
| PCT/KR2013/002519 WO2013151266A1 (en) | 2012-04-04 | 2013-03-27 | Method and system for lane departure warning based on image recognition |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020120034996A KR101392850B1 (en) | 2012-04-04 | 2012-04-04 | Method and system for lane departure warning based on image recognition |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20130112536A KR20130112536A (en) | 2013-10-14 |
| KR101392850B1 true KR101392850B1 (en) | 2014-05-09 |
Family
ID=49300713
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020120034996A Active KR101392850B1 (en) | 2012-04-04 | 2012-04-04 | Method and system for lane departure warning based on image recognition |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR101392850B1 (en) |
| WO (1) | WO2013151266A1 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10650529B2 (en) | 2017-08-09 | 2020-05-12 | Samsung Electronics Co., Ltd. | Lane detection method and apparatus |
| KR20210004302A (en) | 2019-07-04 | 2021-01-13 | (주)에이아이매틱스 | Lane departure warning determination method using driver state monitoring |
| US11260864B2 (en) | 2018-10-08 | 2022-03-01 | Mando Mobility Solutions Corporation | Path generation apparatus at intersection, and method and apparatus for controlling vehicle at intersection |
Families Citing this family (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101962700B1 (en) * | 2013-12-24 | 2019-03-28 | 주식회사 만도 | System and method for lane recognition using defog sensor |
| KR101508357B1 (en) * | 2013-12-26 | 2015-04-14 | 주식회사 유라코퍼레이션 | Lane departure warning system and method for warning thereof |
| CN104112118B (en) * | 2014-06-26 | 2017-09-05 | 大连民族学院 | Method for detecting lane lines for Lane Departure Warning System |
| DE102014109063A1 (en) * | 2014-06-27 | 2015-12-31 | Connaught Electronics Ltd. | Method for detecting an object having a predetermined geometric shape in a surrounding area of a motor vehicle, camera system and motor vehicle |
| KR101584907B1 (en) * | 2014-07-29 | 2016-01-22 | 울산대학교 산학협력단 | Method and Apparatus for recognizing lane using region of interest |
| CN105620477B (en) * | 2014-10-28 | 2018-06-29 | 奇瑞汽车股份有限公司 | A kind of lane departure warning control method of vehicle |
| KR101689805B1 (en) * | 2015-03-20 | 2016-12-27 | 동아대학교 산학협력단 | Apparatus and method for reconstructing scene of traffic accident using OBD, GPS and image information of vehicle blackbox |
| KR101700813B1 (en) * | 2016-02-02 | 2017-01-31 | 도로교통공단 | Monitoring and analyzing system whether the bus mounted the kerb stone for first class heavy vehicle driving license test |
| CN106184232B (en) * | 2016-07-27 | 2018-11-16 | 北京航空航天大学 | A kind of lane departure warning control method based on driver visual angle |
| CN106950950A (en) * | 2017-03-02 | 2017-07-14 | 广东工业大学 | A kind of automobile doubling accessory system and control method based on camera |
| CN107284455B (en) * | 2017-05-16 | 2019-06-21 | 浙江理工大学 | An ADAS system based on image processing |
| CN109271844B (en) * | 2018-07-29 | 2023-03-28 | 国网上海市电力公司 | Electrical cabinet electrical symbol recognition method based on OpenCV |
| CN109741314A (en) * | 2018-12-29 | 2019-05-10 | 广州博通信息技术有限公司 | A kind of visible detection method and system of part |
| CN110136222B (en) * | 2019-04-17 | 2023-05-26 | 阿波罗智能技术(北京)有限公司 | Virtual lane line generation method, device and system |
| CN111833291B (en) * | 2019-04-22 | 2023-11-03 | 上海汽车集团股份有限公司 | A method and device for manual annotation evaluation of semantic segmentation training set |
| CN110400348B (en) * | 2019-06-25 | 2022-12-06 | 天津大学 | Method for detecting and calibrating steering of vibrating wheel of double-cylinder unmanned equipment based on vision |
| CN110789534A (en) * | 2019-11-07 | 2020-02-14 | 淮阴工学院 | Lane departure early warning method and system based on road condition detection |
| CN110962847B (en) * | 2019-11-26 | 2021-10-08 | 清华大学苏州汽车研究院(吴江) | Lane centering auxiliary self-adaptive cruise trajectory planning method and system |
| KR102527522B1 (en) * | 2020-11-13 | 2023-05-04 | (주)에이트원 | System for supporting work of aircraft mechanic, and method therefor |
| KR102844329B1 (en) * | 2021-11-25 | 2025-08-11 | 주식회사 에프에스솔루션 | Method for calculating distance to target object, and device and program using the same |
| CN114801991B (en) * | 2022-04-28 | 2024-10-29 | 东风汽车集团股份有限公司 | Roadside vehicle drop prevention method and system |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6925194B2 (en) | 2000-12-27 | 2005-08-02 | Hyundai Motor Company | Curved lane recognizing method in road modeling system |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3864945B2 (en) * | 2003-09-24 | 2007-01-10 | アイシン精機株式会社 | Road lane detection device |
| JP4162618B2 (en) * | 2004-03-12 | 2008-10-08 | 株式会社豊田中央研究所 | Lane boundary judgment device |
| KR101094752B1 (en) * | 2009-06-30 | 2011-12-16 | 호서대학교 산학협력단 | Lane Classification Method Using Statistical Model of HSI Color Information |
| KR101067437B1 (en) * | 2009-10-29 | 2011-09-27 | 한국기술교육대학교 산학협력단 | Lane detection method and lane departure detection system using the same |
-
2012
- 2012-04-04 KR KR1020120034996A patent/KR101392850B1/en active Active
-
2013
- 2013-03-27 WO PCT/KR2013/002519 patent/WO2013151266A1/en active Application Filing
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6925194B2 (en) | 2000-12-27 | 2005-08-02 | Hyundai Motor Company | Curved lane recognizing method in road modeling system |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10650529B2 (en) | 2017-08-09 | 2020-05-12 | Samsung Electronics Co., Ltd. | Lane detection method and apparatus |
| US11260864B2 (en) | 2018-10-08 | 2022-03-01 | Mando Mobility Solutions Corporation | Path generation apparatus at intersection, and method and apparatus for controlling vehicle at intersection |
| KR20210004302A (en) | 2019-07-04 | 2021-01-13 | (주)에이아이매틱스 | Lane departure warning determination method using driver state monitoring |
| US11014579B2 (en) | 2019-07-04 | 2021-05-25 | A. I. Matics Inc. | Lane departure warning determination method using driver state monitoring |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2013151266A1 (en) | 2013-10-10 |
| KR20130112536A (en) | 2013-10-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101392850B1 (en) | Method and system for lane departure warning based on image recognition | |
| US8391555B2 (en) | Lane recognition apparatus for vehicle, vehicle thereof, and lane recognition program for vehicle | |
| TWI638343B (en) | Lane detection system and method | |
| JP4930046B2 (en) | Road surface discrimination method and road surface discrimination device | |
| KR101517181B1 (en) | System and method for warning lane departure | |
| EP2477139A2 (en) | Lane departure warning system and method | |
| KR101464489B1 (en) | Method and system for detecting an approaching obstacle based on image recognition | |
| KR101719549B1 (en) | Image preprocessing method for license plate recognition and license plate recognition device using thereof | |
| US8867788B2 (en) | Vehicle periphery monitoring device | |
| JP5401257B2 (en) | Far-infrared pedestrian detection device | |
| KR102010823B1 (en) | Method and apparatus for measuring speed of vehicle by using fixed single camera | |
| US9508000B2 (en) | Object recognition apparatus | |
| KR101584907B1 (en) | Method and Apparatus for recognizing lane using region of interest | |
| KR20130028610A (en) | Apparatus and method for providing real-time lane detection, recording medium thereof | |
| KR101583797B1 (en) | Apparatus and method for detecting lane based on top view image transform | |
| JP3328711B2 (en) | Vehicle height measuring device and vehicle monitoring system using the same | |
| KR20180082089A (en) | Method for Detecting Border of Grassland Using Image-Based Color Information | |
| JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
| EP2256691B1 (en) | Image processing device for vehicle and image processing program | |
| KR20140022197A (en) | Lane detection method and lane departure warning system using same | |
| KR101902291B1 (en) | Traffic lane correction system and method thereof | |
| KR101371875B1 (en) | A vehicle detection and distance measurement system and method between the vehicles using stereo vision | |
| KR20140087622A (en) | Method of extracting traffic lanes from captured image using brightness | |
| KR101396924B1 (en) | lane wideh measuring system by using cammera | |
| CN113096145B (en) | Target boundary detection method and device based on Hough transformation and linear regression |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20120404 |
|
| PA0201 | Request for examination | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20130702 Patent event code: PE09021S01D |
|
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20131226 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20140328 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20140430 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20140502 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration | ||
| FPAY | Annual fee payment |
Payment date: 20170405 Year of fee payment: 4 |
|
| PR1001 | Payment of annual fee |
Payment date: 20170405 Start annual number: 4 End annual number: 4 |
|
| FPAY | Annual fee payment |
Payment date: 20190401 Year of fee payment: 6 |
|
| PR1001 | Payment of annual fee |
Payment date: 20190401 Start annual number: 6 End annual number: 6 |
|
| PR1001 | Payment of annual fee |
Payment date: 20200414 Start annual number: 7 End annual number: 7 |
|
| PR1001 | Payment of annual fee |
Payment date: 20220503 Start annual number: 9 End annual number: 9 |
|
| PR1001 | Payment of annual fee |
Payment date: 20240418 Start annual number: 11 End annual number: 11 |