[go: up one dir, main page]

KR101392850B1 - Method and system for lane departure warning based on image recognition - Google Patents

Method and system for lane departure warning based on image recognition Download PDF

Info

Publication number
KR101392850B1
KR101392850B1 KR1020120034996A KR20120034996A KR101392850B1 KR 101392850 B1 KR101392850 B1 KR 101392850B1 KR 1020120034996 A KR1020120034996 A KR 1020120034996A KR 20120034996 A KR20120034996 A KR 20120034996A KR 101392850 B1 KR101392850 B1 KR 101392850B1
Authority
KR
South Korea
Prior art keywords
lane
unit
straight line
image
roi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020120034996A
Other languages
Korean (ko)
Other versions
KR20130112536A (en
Inventor
박용정
Original Assignee
모본주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모본주식회사 filed Critical 모본주식회사
Priority to KR1020120034996A priority Critical patent/KR101392850B1/en
Priority to PCT/KR2013/002519 priority patent/WO2013151266A1/en
Publication of KR20130112536A publication Critical patent/KR20130112536A/en
Application granted granted Critical
Publication of KR101392850B1 publication Critical patent/KR101392850B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차선 이탈 감지 방법 및 시스템에 관한 것으로서, 본 발명의 목적은 차선 소실, 각종 노이즈, 도로 형태와 같은 다양한 도로 조건에 강하여 차선 인식 정확도를 극대화할 수 있는 영상인식 기반의 차선 이탈 감지 방법 및 시스템을 제공하는 것이다.
본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법은 차량의 카메라를 통해 촬영된 영상에서 차선표식을 검출하기 위한 영상처리에 사용될 영역(이하, '전체 관심영역' 이라 함)을 설정하는 제1 단계와; 상기 전체 관심영역을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 제2 단계와; 에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별 에지를 추출하는 제3 단계와; 상기 제3 단계에서 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선을 추출하는 제4 단계와; 상기 제4 단계에서 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 제5 단계와; 상기 제5 단계에서 추출된 상기 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 제6 단계; 및 상기 제6 단계에서 규정된 차선 모델을 이용하여 차선 이탈 여부를 판단하는 제7 단계를 포함하는 것을 특징으로 한다.
The present invention relates to a lane departure detection method and system, and an object of the present invention is to provide a lane departure detection method based on image recognition, capable of maximizing lane recognition accuracy by being robust to various road conditions such as a lane departure, various noises, System.
The lane departure detection method based on the image recognition according to the present invention includes a first step of setting a region to be used for image processing for detecting a lane marker in an image photographed through a camera of a vehicle Wow; A second step of dividing and setting the entire ROI into a plurality of ROIs (hereinafter referred to as a ROI); A third step of extracting an edge per unit ROI including a lane marker using an edge detection technique; A fourth step of extracting a straight line through a Hough Transform using the edge per unit ROI extracted in the third step; A fifth step of extracting a plurality of point components corresponding to the straight line and spaced apart from each other on the straight line extracted in the fourth step; A sixth step of defining the lane model by applying the plurality of point components extracted in the fifth step to the least squares method; And a seventh step of determining whether or not the lane departure is determined by using the lane model defined in the sixth step.

Description

영상인식 기반의 차선 이탈 감지 방법 및 시스템{METHOD AND SYSTEM FOR LANE DEPARTURE WARNING BASED ON IMAGE RECOGNITION}TECHNICAL FIELD [0001] The present invention relates to a lane departure detection method and system based on image recognition,

본 발명은 차선 이탈 감지 방법 및 시스템에 관한 것으로서, 보다 상세하게는 차량에 장착된 카메라로부터 입력되는 영상을 단위 관심영역으로 분할하고, 점 성분을 추출하여 인식 처리함으로써 차량이 차선을 이탈하는지 여부를 정확히 판별할 수 있는 영상인식 기반의 차선 이탈 감지 방법 및 시스템에 관한 것이다.
The present invention relates to a lane departure detection method and system, and more particularly, to a lane departure detection method and system that divides an image input from a camera mounted on a vehicle into a unit area of interest, extracts a point component, And more particularly, to a method and system for detecting lane departure based on image recognition.

일반적으로 차선이탈 경보시스템은 카메라를 통해 촬영된 영상정보를 이용하여 해당 차량의 차선이탈 여부를 판단하고, 차선으로부터 이탈되었다고 판단되는 경우 소정의 경보처리를 수행하도록 구성된다.In general, the lane departure warning system is configured to determine whether or not the lane departure of the vehicle is caused by using the image information photographed by the camera, and to perform a predetermined alarm process when it is determined that the lane has been deviated from the lane.

종래 차선이탈 경보시스템은 기본적으로 선 형태로 된 차선을 인식하여 그 이탈여부를 판단하도록 구성되어 있고, 종래의 차선이탈 인식방법은 차선의 폭, 차선의 곡률 반경, 차선 횡단 시간, 차선 중심과 카메라 광학축 사이의 차이 등 다양한 많은 변수들이 고려되어야 하기 때문에 그만큼 많은 노이즈원을 포함하고 있어 정확히 차선 이탈을 인식하기가 어려웠다.The conventional lane departure warning system is configured to recognize a lane in a line form and judge whether or not the lane is departed. The conventional lane departure recognition method is a method of recognizing a lane departure warning system in which a lane width, a radius of curvature of a lane, It is difficult to recognize the lane departure exactly because it includes as many noise sources as many various variables such as the difference between the optical axes must be considered.

또한, 종래 차선이탈 경보시스템은 차선 표식이 중간에 끊긴 도로나 도로에 차선 표식이외의 표식이 형성되어 있을 경우에 대해서는 부정확하였고, 이에 따라 운전중인 차선의 중심으로부터 차량이 이탈하지 않은 경우에도 잘못된 경보음을 발생시킬 수 있는 요소가 있다는 문제점이 있다.In addition, the conventional lane departure warning system is inaccurate when a sign other than a lane marker is formed on a road or a road where the lane marker is cut off in the middle. Accordingly, even when the vehicle does not depart from the center of the lane in operation, There is a problem that there are elements that can generate sound.

한국특허공개 제2000-0037604호에 차선을 인식하는 방법이 개시되어 있다. 이 기술에 의하면 차선을 인식하기 위하여 두 개의 카메라를 사용하고 있고, 노면 부분에 비하여 고휘도를 가지는 부분을 차선으로 인식한다. 그러나 일반적으로 노면에는 차선 이외에도 차량 적재함에서 낙하한 낙하물 등의 기타 이물질 등이 있을 수 있으며, 이러한 이물질이 노면에 비해 고휘도를 가지는 경우 이를 차선으로 인식하는 오류가 발생할 수 있다. 또한, 두 개의 카메라를 사용함으로써 제작 단가도 증대되고 장착 공간도 크게 필요하는 등 컴팩트한 장치로서 구현하기가 매우 곤란한 문제점이 있었다.Korean Patent Laid-Open Publication No. 2000-0037604 discloses a method for recognizing a lane. According to this technique, two cameras are used to recognize a lane, and a portion having a higher luminance than a road surface portion is recognized as a lane. However, in general, in addition to lanes, there may be other foreign objects such as fallen objects falling on a vehicle loading floor, etc. In the case where such foreign objects have a higher brightness than the road surface, errors may be recognized as lanes. In addition, the use of two cameras increases the manufacturing cost and requires a large installation space, which is a very difficult problem to implement as a compact device.

또한, 종래 차선 인식 방법은 소벨 필터만을 사용하여 차선의 에지를 추출하여 이를 통해 차선 표식을 인식하였는데 이러한 방법으로는 노이즈에 매우 취약하여 실제 차선이 아닌 것까지 차선으로 인식하는 오류가 많았다.
Also, in the conventional lane recognition method, only the Sobel filter is used to extract the lane edge and the lane marker is recognized through this method. However, this method is very vulnerable to noises, so that there are many errors in recognizing the lane that is not an actual lane.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 차선 중간이 끊기거나 차선 이외의 표식이 있거나 노면에 비해 고휘도를 갖는 이물이 있을 때 야기되는 차선 오인식 오류를 최대한 방지하고, 한 대의 카메라만으로도 노이즈를 효과적으로 배제하며 곡선 도로와 같은 상황에서 차선을 정확하게 인식할 수 있는 영상인식 기반의 차선 이탈 감지 방법 및 시스템을 제공하는 것이다.
SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-mentioned problems, and it is an object of the present invention to provide an image processing apparatus and a method for preventing a lane-finding error caused when a lane is broken, a sign other than a lane is present, A lane departure detection method and system based on image recognition capable of accurately recognizing a lane in a situation such as a curved road while effectively eliminating noise with only one camera.

상기 목적을 달성하기 위한 본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법은 차량의 카메라를 통해 촬영된 영상에서 차선표식을 검출하기 위한 영상처리에 사용될 영역(이하, '전체 관심영역' 이라 함)을 설정하는 제1 단계와; 상기 전체 관심영역을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 제2 단계와; 에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별 에지를 추출하는 제3 단계와; 상기 제3 단계에서 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선을 추출하는 제4 단계와; 상기 제4 단계에서 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 제5 단계와; 상기 제5 단계에서 추출된 상기 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 제6 단계; 및 상기 제6 단계에서 규정된 차선 모델을 이용하여 차선 이탈 여부를 판단하는 제7 단계를 포함하는 것을 특징으로 한다.
According to another aspect of the present invention, there is provided a method of detecting a lane departure based on image recognition, the method including detecting a lane mark in an image captured through a camera of a vehicle, The method comprising: A second step of dividing and setting the entire ROI into a plurality of ROIs (hereinafter referred to as a ROI); A third step of extracting an edge per unit ROI including a lane marker using an edge detection technique; A fourth step of extracting a straight line through a Hough Transform using the edge per unit ROI extracted in the third step; A fifth step of extracting a plurality of point components corresponding to the straight line and spaced apart from each other on the straight line extracted in the fourth step; A sixth step of defining the lane model by applying the plurality of point components extracted in the fifth step to the least squares method; And a seventh step of determining whether or not the lane departure is determined by using the lane model defined in the sixth step.

본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법 및 시스템에 의하면, 카메라 입력 영상을 단위 관심영역으로 분할하여 처리함으로써 좌·우 차선표식 사이에 존재하는 도로 정보(이정표 등)나 차선표식으로 오인식 될 수 있는 각종 잡음 요소를 제거할 수 있고, 중간에 절단된 영역이 있는 차선의 경우라도 실제 차선에 최대한 합치하는 가상의 차선을 생성할 수 있어 차선 인식 정확도를 극대화할 수 있는 현저한 효과가 있다.According to the image recognition-based lane departure detection method and system according to the present invention, a camera input image is divided and processed into a unit area of interest, so that road information (milestones, etc.) existing between left and right lane markers, It is possible to generate a virtual lane that matches the actual lane as much as possible even in the case of a lane having an area cut in the middle, thereby remarkably improving the lane recognition accuracy.

또한, 전체 관심영역을 세로, 가로 방향으로 분할하여 일부 영역(즉, 단위 관심영역)만을 처리함으로써 실제 영상처리가 되는 영역을 최소화할 수 있어 영상처리의 연산 부하를 감소시킬 수 있는 장점이 있다.In addition, since the entire region of interest is divided into the vertical and horizontal directions to process only a part of the region (i.e., the ROI), it is possible to minimize an actual image processing region, thereby reducing the computational load of the image processing.

또한, 최소 자승법에 차선의 에지 점들을 적용하지 않고 그 대신 에지 정보를 이용한 허프 변환을 통해 추출된 직선으로부터 대표 점 성분들을 구성해서 적용함으로써 직선에 포함되지 않는 에지를 제외시켜 정확도를 높일 수 있고 최소 자승법에 이용할 점들의 수를 줄여 연산 부하를 줄일 수 있는 이점이 있다.
In addition, it is possible to increase the accuracy by excluding edges not included in a straight line by applying representative point components from the straight line extracted through Hough transformation using edge information instead of applying the edge points of the lane to the least squares method, There is an advantage of reducing the computation load by reducing the number of points to use in the square law.

도 1은 본 발명에 따른 영상인식 기반의 차선 이탈 감지 시스템의 전체 구성도.
도 2는 도 1에 도시된 영상인식 처리부의 세부 구성을 도시한 블록구성도.
도 3은 본 발명의 영상인식 기반의 차선 이탈 감지 방법 및 시스템의 좌표 개념도.
도 4는 본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법의 처리 흐름을 도시한 블록순서도.
도 5는 본 발명의 소실선과 후드의 위치를 통해 설정된 전체 관심영역의 일 예.
도 6(a)는 일반적인 흑백 영상의 일례.
도 6(b)는 본 발명의 영상변환부에 의해 변환된 황색 성분이 강조된 흑백 영상의 일례.
도 7(a)는 이전 프레임에서 차선표식이 인식되지 않은 경우 설정된 단위 관심영역의 일례.
도 7(b)는 이전 프레임에서 차선표식이 인식된 경우 설정된 단위 관심영역의 일례.
도 8은 본 발명의 에지추출부의 소벨 연산에 의해 구해진 가로 기울기 영상의 일례.
도 9는 본 발명의 에지추출부의 소벨 연산에 의해 구해진 기울기 크기 영상의 일례.
도 10은 본 발명의 에지추출부를 통해 구해진 에지 영상의 일례.
도 11은 본 발명의 직선정보 추출부를 통해 구해진 직선의 일례.
도 12는 본 발명의 도트 추출부가 직선 차선에 대해 추출한 점 성분의 일례.
도 13은 본 발명의 도트 추출부가 곡선 차선에 대해 추출한 점 성분의 일례.
Brief Description of the Drawings Fig. 1 is an overall configuration diagram of a lane departure detection system based on image recognition according to the present invention; Fig.
FIG. 2 is a block diagram showing a detailed configuration of the image recognition processing unit shown in FIG. 1. FIG.
FIG. 3 is a coordinate conceptual diagram of a lane departure detection method and system based on image recognition of the present invention.
4 is a block flow diagram illustrating a process flow of a lane departure detection method based on image recognition according to the present invention.
5 is an example of a whole region of interest set through the location of the disappearance line and the hood of the present invention.
6 (a) is an example of a general black-and-white image.
6 (b) is an example of a monochrome image in which a yellow component is emphasized by the image conversion unit of the present invention.
7 (a) is an example of a unit interest area set when a lane marker is not recognized in a previous frame.
7 (b) is an example of a unit interest area set when a lane mark is recognized in a previous frame.
8 is an example of a horizontal slope image obtained by the Sobel operation of the edge extracting unit of the present invention.
9 is an example of a tilt magnitude image obtained by the Sobel operation of the edge extracting unit of the present invention.
10 is an example of an edge image obtained through the edge extracting unit of the present invention.
11 is an example of a straight line obtained through the linear-information extracting unit of the present invention.
12 is an example of dot components extracted by the dot extracting section of the present invention on a straight lane;
13 is an example of a dot component extracted from a curve lane of the dot extracting part of the present invention.

본 발명은 각종 노이즈원을 최대한 제거할 수 있으면서 더 나아가 직선 도로·곡선 도로와 같은 다양한 도로 조건 및 차선 표식의 훼손과 같은 다양한 환경 조건 하에서도 인식 오류 없이 차선 표식을 정확히 인식하여 차선 이탈을 성공적으로 경고할 수 있는 기술 특징을 개시한다.The present invention is capable of eliminating various noise sources as much as possible and further accurately recognizing the lane marker without recognizing errors even under various environmental conditions such as various road conditions such as a straight road and curved road, Disclose technical features that can alert.

이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예, 장점 및 특징에 대하여 상세히 설명하도록 한다.In the following, preferred embodiments, advantages and features of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 영상인식 기반의 차선 이탈 감지 시스템의 전체 구성도이고, 도 2는 도 1에 도시된 영상인식 처리부의 세부 구성을 도시한 블록구성도이다.FIG. 1 is an overall configuration diagram of a lane departure detection system based on image recognition according to the present invention, and FIG. 2 is a block diagram showing a detailed configuration of an image recognition processor shown in FIG.

도 1 및 도 2를 참조하면, 본 발명의 영상인식 기반의 차선 이탈 감지 시스템은 카메라(10), 영상인식 처리부(20) 및 경보 출력부(95)를 포함하도록 구성된다.1 and 2, the image recognition based lane departure detection system of the present invention is configured to include a camera 10, an image recognition processing unit 20, and an alarm output unit 95.

본 발명의 카메라(10)는 차량에 장착되어 차량 전방의 주행도로를 촬영하여 영상을 획득하는 구성부로서, 바람직하게는 CMOS 카메라 또는 CCD 카메라를 채용할 수 있다.The camera 10 of the present invention is a component mounted on a vehicle and capturing an image by photographing a running road ahead of the vehicle, preferably a CMOS camera or a CCD camera.

본 발명의 영상인식 처리부(20)는 카메라(10)에 의해 획득된 영상에 표시된 차선을 인식하고 이를 기반으로 소정의 연산 처리를 수행함으로써, 해당 도로를 주행중인 차량의 차선 이탈 여부를 판단하여 졸음 운전이나 운전 부주의에 의해 발생할 수 있는 사고를 방지하는 기능을 실현한다.The image recognition processing unit 20 recognizes a lane indicated on the image acquired by the camera 10 and performs a predetermined calculation process based on the lane indicated on the image, A function to prevent accidents caused by driving or carelessness is realized.

영상인식 처리부(20)의 세부 구성을 기능적으로 분리하면 영상변환부(30), 영상분할부(40), 에지추출부(50), 직선정보 추출부(60), 도트 추출부(70), 차선모델 생성부(80), 및 차선이탈 판별부(90)로 나눌 수 있다.The image dividing unit 40, the edge extracting unit 50, the linear information extracting unit 60, the dot extracting unit 70, A lane model generation unit 80, and a lane departure determination unit 90. [

본 발명의 영상인식 기반의 차선 이탈 감지 시스템은 차량의 주행 과정에서 카메라를 통해 수득된 영상을 인식하고 처리하여 차선 이탈 감지 기능을 실현하기 위해 시스템 초기화를 먼저 실시한다.The lane departure detection system based on the image recognition of the present invention first initializes the system in order to realize the lane departure detection function by recognizing and processing the image obtained through the camera in the running process of the vehicle.

시스템 초기화란 차량의 카메라를 통해 촬영된 영상에서 차선표식을 검출하기 위한 영상처리에 사용될 영역(이하, '전체 관심영역' 이라 함)을 설정하고, 각종 영상의 처리를 위한 메모리를 할당하고, 차선표식과 도로폭에 대한 정보와, 차량 앞 바퀴 위치 정보와, 허프변환(Hough Transform) 수행시 필요한 정보를 룩업 (Lookup)테이블로 저장한다.In the system initialization, an area (hereinafter, referred to as an 'entire ROI') to be used for image processing for detecting a lane marker on an image photographed through a camera of a vehicle is set, a memory for processing various images is allocated, Information about the mark and road width, information on the position of the front wheel of the vehicle, and information necessary for performing the Hough Transform are stored in a lookup table.

상기의 시스템 초기화가 완료되면 영상인식 처리부(20)의 각 구성부의 다음과 같은 작용을 통해 입력영상의 인식 처리 및 이에 근거한 차선 이탈 감지가 이루어진다.Upon completion of the system initialization, recognition processing of the input image and lane departure detection based thereon are performed through the following operations of the respective components of the image recognition processor 20.

본 발명의 영상변환부(30)는 기본적으로 차량 카메라로부터 입력된 영상을 흑백 영상으로 변환하는 기능을 하고, 바람직하게는 변환된 흑백 영상에서 황색 성분을 강조하는 처리를 더 수행한다.The image converting unit 30 of the present invention basically converts the image input from the vehicle camera into a monochrome image, and preferably performs a process of emphasizing the yellow color component in the converted monochrome image.

본 발명의 영상분할부(40)는 흑백 영상에 설정된 전체 관심영역을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 기능을 한다. 여기서 상기 단위 관심영역은 상기 전체 관심영역을 세로방향 및 가로방향으로 분할하여 형성된 직사각형의 영역으로 구성하고, 상기 직사각형의 단위 관심영역은 상기 전체 관심영역 중 좌측 차선표식과 우측 차선표식 별로 해당 차선표식을 따라 연속으로 이어지며 배열된 형태로 설정되게 구성하는 것이 바람직하다.The image segmentation unit 40 of the present invention divides the entire ROI set in the monochrome image into a plurality of regions (hereinafter, referred to as unit ROIs). Wherein the unit interest area is a rectangular area formed by dividing the entire ROI into a longitudinal direction and a lateral direction, and the rectangular ROI includes a left lane marker and a right lane marker, It is preferable to configure them so as to be continuously arranged and arranged in a row.

본 발명의 에지추출부(50)는 에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별로 에지 정보를 추출하는 기능을 한다. 여기서, 상기 에지 검출 기법은 미분연산자에 의한 밝기 값의 변화를 이용하여 영상 내 물체들의 경계 (윤곽선)을 찾아내는 소벨 에지(Sobel Edge) 추출 방식을 채용할 수 있다.The edge extracting unit 50 of the present invention extracts edge information for each ROI including a lane mark using an edge detection technique. Here, the edge detection technique may employ a Sobel edge extraction method for detecting a boundary (contour) of objects in an image using a change in brightness value by a differential operator.

본 발명의 직선정보 추출부(60)는 에지추출부(50)에 의해 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선 정보를 추출하는 기능을 한다.The linear information extracting unit 60 of the present invention extracts straight line information through a Hough Transform using the edge per unit area of interest extracted by the edge extracting unit 50. [

참고로, 직선정보 추출부(60)의 연산에 이용되는 허프변환(Hough Transform)은 영상 처리에서 직선을 찾기 위해 가장 널리 사용되는 방법으로서, 2차원 영상 좌표에서의 직선의 방정식을 파라미터공간으로 변환하여 직선을 찾는 알고리즘이다. 허프변환은 공학에서 일반적으로 사용되는 알고리즘이므로 자세한 설명은 생략한다.For reference, the Hough Transform used in the operation of the linear-information extracting unit 60 is the most widely used method for finding a straight line in the image processing. It converts a linear equation in a two-dimensional image coordinate system into a parameter space To find a straight line. Since Hough transform is a commonly used algorithm in engineering, a detailed description is omitted.

또한, 직선정보 추출부(60)는 직선이 추출되지 못한 단위 관심영역(이하, '비추출 단위 관심영역' 이라 함)이 있을 경우, 해당 비추출 단위 관심영역을 기준으로 전·후에 배열된 단위 관심영역에 포함된 직선 정보를 이용한 유추를 통해 상기 비추출 단위 관심영역에 포함될 가상의 직선을 생성함으로써 연속되게 이어진 온전한 차선표식을 도출할 수 있도록 하는 기능을 한다.In addition, when there is a unit interest region (hereinafter, referred to as a 'non-extraction unit interest region') in which a straight line can not be extracted, the linear information extraction unit 60 extracts a unit Extracts a straight line to be included in the non-extraction unit ROI through analogy using the linear information included in the ROI, and thereby makes it possible to derive the complete lane marking successively.

본 발명의 도트 추출부(70)는 직선정보 추출부(60)에 의해 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배치된 복수의 점 성분을 추출하는 기능을 한다. 따라서, 도트 추출부(70)에 의해 추출된 다수의 점 성분 중 일 추출군은 좌측 차선표식에 합치되며 좌측 차선을 따라 상호 간격을 두며 배열된 형태를 구성하게 되고, 타 추출군은 우측 차선표식에 합치되며 우측 차선을 따라 상호 간격을 두며 배열된 형태를 구성하게 된다.The dot extracting unit 70 of the present invention extracts a plurality of point components corresponding to the straight line and spaced apart from each other on a straight line extracted by the straight line information extracting unit 60. [ Accordingly, one of the plurality of dot components extracted by the dot extracting unit 70 is aligned with the left lane marking and arranged at an interval with the left lane, and the other extraction group includes the right lane marker And they are arranged in the right lane with an interval between them.

본 발명의 차선모델 생성부(80)는 도트 추출부(70)에 의해 추출된 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 기능을 한다.The lane model generating unit 80 of the present invention functions to define a lane model by applying a plurality of point components extracted by the dot extracting unit 70 to the least squares method.

보다 구체적으로 설명하면, 차선모델 생성부(80)는 단위 관심영역 별로 추출된 직선의 기울기를 이용하여 해당 영상에 표시된 차선표식이 직선인지 곡선인지를 판별하고, 상기 판별 결과가 직선이면 1차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하고, 상기 판별 결과 곡선이면 2차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정함으로써 차선 이탈 검출에 사용될 기준선(즉, 차선표식)을 확정하게 된다.More specifically, the lane model generating unit 80 determines whether the lane markers displayed on the corresponding image are straight lines or curves using the slopes of the straight lines extracted for each unit area of interest, and if the determination result is a straight line, The lane marking model is defined by applying an approximate least squares method and the lane marking model is defined by applying a least squares method approximating a quadratic expression to the determination result curve to determine a reference line (i.e., lane marking) to be used for lane departure detection.

본 발명의 차선이탈 판단부는 차선모델 생성부(80)를 통해 확정된 차선모델(즉, 차선 이탈 검출에 사용될 기준선)을 이용하여 상기 차량의 차선 이탈 여부를 판단하는데, 구체적으로는 차량의 앞 바퀴와 차선표식 사이의 거리를 연산하고, 상기 연산에 의해 산출된 거리가 기준치를 벗어나면 차선 이탈로 판단하여 경보 출력부(95)에게 경보발생신호를 제공한다.The lane departure determination unit of the present invention determines whether or not the lane departure of the vehicle is caused by using the lane model determined by the lane model generation unit 80 (i.e., the reference line used for lane departure detection). Specifically, And if the distance calculated by the calculation exceeds the reference value, it is determined that the lane departure is not possible and the alarm output unit 95 is provided with an alarm generation signal.

한편, 차선이탈 판단부는 차량의 차선 이탈시뿐만 아니라 차량이 차선에 일정 거리 이하로 근접하였을 경우에도 이에 대응하는 또 다른 사전경보 발생신호를 경보 출력부(95)에게 제공하도록 구성할 수도 있음은 물론이다.On the other hand, the lane departure determination unit may be configured to provide the alarm output unit 95 with another advance alarm generation signal corresponding to not only when the vehicle departs from the lane of the vehicle, but also when the vehicle approaches the lane of a certain distance or less to be.

본 발명의 경보 출력부(95)는 차선이탈 판단부가 보내온 경보발생신호 또는 사전경보 발생신호에 따라 시각적 또는 청각적 경보를 외부로 출력하여 운전자가 해당 사실을 인지할 수 있도록 하는 기능을 한다. The alarm output unit 95 of the present invention outputs a visual or audible alarm to the outside according to an alarm generation signal or a pre-alarm generation signal sent from the lane departure determination unit so that the driver can recognize the fact.

한편, 경보발생신호에 따른 경보와 사전경보 발생신호에 따른 경보는 다른 형태로 출력하도록 구성하여, 운전자로 하여금 차량이 차선을 이탈하기 직전인지 또는 이미 이탈하였는지 구분할 수 있도록 안내하는 것이 바람직하다.It is preferable that the alarm according to the alarm generation signal and the alarm according to the advance alarm generation signal are configured to be outputted in different forms so as to guide the driver to distinguish whether the vehicle has just left the vehicle or has already departed.

이하에서는 전술한 영상인식 처리부(20)의 각 구성부가 영상 인식 및 처리를 위해 수행하는 기능 및 작용에 대하여 상세히 설명하도록 한다.Hereinafter, functions and actions performed by each component of the image recognition processor 20 for image recognition and processing will be described in detail.

도 3은 본 발명의 영상인식 기반의 차선 이탈 감지 방법 및 시스템의 좌표 개념도이다. 참고로, 도 3의 카메라(10)는 차량(미도시)에 장착되며 CMOS 또는 CCD 카메라를 사용할 수 있다.3 is a coordinate conceptual diagram of a lane departure detection method and system based on image recognition of the present invention. For reference, the camera 10 of FIG. 3 is mounted on a vehicle (not shown) and can use a CMOS or CCD camera.

도 3에서 XW,YW,ZW 는 주행도로 공간 전체를 포괄하는 월드 좌표계를 의미하고, XC,YC,ZC 는 카메라 시점을 중심으로 하는 카메라 영상 프레임의 좌표계를 의미한다. 카메라는 차선표식이 형성되어 있는 도로표면에 대하여 각도θ만큼 경사지도록 설치되고, 상기 도로표면으로부터의 높이는 H로 표시된다.3, X W , Y W , Z W Means a world coordinate system which covers the whole running road space, X C , Y C , Z C Means a coordinate system of a camera image frame centered on the camera viewpoint. The camera is installed so as to be inclined at an angle? With respect to the road surface on which the lane marker is formed, and the height from the road surface is indicated by H.

본 발명의 차선 이탈 감지 방법 및 시스템은 월드 좌표계 상의 차선표식 두께와 차선폭과 같은 정보가 이미지 상의 값으로 변환되어 차선표식의 인식 처리와 차선이탈 판단에 사용되는 바, 먼저 월드 좌표계와, 카메라, 이미지 좌표계의 관계에 대하여 설명하도록 한다.The lane departure detection method and system according to the present invention is used in a lane departure detection method and a lane departure determination method, in which information such as a lane mark thickness and a lane width on a world coordinate system are converted into values on an image, The relationship of the image coordinate system will be described.

차선표식이 형성되어 있는 도로표면이 카메라의 촬영을 통해 평면 영상으로 변환되는데, 이때 월드 좌표계(XW,YW,ZW)와 카메라 좌표계 (XC,YC,ZC)는 다음과 같은 수학식1의 관계에 있다.The world coordinate system (X W , Y W , Z W ) and the camera coordinate system (X C , Y C , Z C ) are transformed into a plane image (1) < / RTI >

Figure 112012027052193-pat00001
Figure 112012027052193-pat00001

Figure 112012027052193-pat00002
Figure 112012027052193-pat00002

(수학식 1에서,(In the equation (1)

XC, YC, ZC : 카메라 좌표계의 X, Y, Z 축 좌표,X C , Y C , Z C : X, Y, Z coordinates of the camera coordinate system,

XW, YW, ZW : 월드 좌표계의 X, Y, Z 축 좌표,X W , Y W , Z W : X, Y, Z coordinates of the world coordinate system,

θ: 카메라 광축(ZC)이 지평선(YW)에 대해 기울어진 각도,[theta]: an angle at which the camera optical axis Z C is inclined with respect to the horizon line Y W ,

H : 도로면으로부터 카메라가 설치된 위치까지의 높이)
H: height from the road surface to the position where the camera is installed)

핀홀 카메라 모델과 상기 수학식 1을 이용하면 이미지 좌표계를 다음의 수학식2와 같이 표현할 수 있다.Using the pinhole camera model and Equation (1), the image coordinate system can be expressed by the following Equation (2).

Figure 112012027052193-pat00003
Figure 112012027052193-pat00003

Figure 112012027052193-pat00004
Figure 112012027052193-pat00004

(수학식 2에서,(In the equation (2)

u : 이미지 좌표계의 가로축 좌표,u: the horizontal axis coordinate of the image coordinate system,

v : 이미지 좌표계의 세로축 좌표,v: the vertical axis coordinates of the image coordinate system,

f : 카메라의 초점 거리)f: the focal length of the camera)

한편, 인식하고자 하는 차선표식은 도로면에 존재하므로 ZW의 값은 '0'이라 가정할 수 있으므로, 상기 수학식2 에 ZW=O 을 대입하면 이미지 좌표계 수식은 간소화된다.
On the other hand, since the lane marking to be recognized exists on the road surface, the value of Z W can be assumed to be '0'. Thus, if Z W = 0 is substituted into Equation 2, the image coordinate system is simplified.

이미지 센서의 가로, 세로 해상도와 픽셀의 가로, 세로 크기를 이용하면 픽셀 좌표계 상의 좌표를 다음의 수학식 3과 같이 표현할 수 있다.Using the horizontal and vertical resolutions of the image sensor and the horizontal and vertical sizes of the pixels, the coordinates on the pixel coordinate system can be expressed by the following Equation (3).

Figure 112012027052193-pat00005
Figure 112012027052193-pat00005

Figure 112012027052193-pat00006
Figure 112012027052193-pat00006

(수학식 3에서,(In Equation 3,

xP, yP : 가로, 세로축 픽셀 좌표,x P , y P : Horizontal, vertical axis pixel coordinates,

rw, rh : 이미지 센서의 가로, 세로 해상도,r w , r h : Horizontal and vertical resolution of the image sensor,

su, sv : 이미지 센서의 가로, 세로 픽셀 크기)
s u , s v : the horizontal and vertical pixel sizes of the image sensor)

이하에서는, 전술한 바와 같은 월드 좌표계, 카메라, 이미지 좌표계의 관계를 기반으로 입력 영상에서 차선표식을 인식 처리하여 차선이탈을 감지하는 방법에 대하여 상세히 설명하도록 한다.Hereinafter, a method for recognizing a lane departure by recognizing a lane marker on an input image based on the relationship between the world coordinate system, camera, and image coordinate system as described above will be described in detail.

도 4는 본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법의 흐름을 도시한 블록순서도이다.4 is a block flow diagram illustrating a flow of a lane departure detection method based on image recognition according to the present invention.

도 4를 참조하면, 본 발명에 따른 영상인식 기반의 차선 이탈 감지 방법은 차량의 카메라를 통해 촬영된 영상에서 차선표식을 검출하기 위한 영상처리에 사용될 영역(이하, '전체 관심영역' 이라 함)을 설정하는 단계(단계 1)와; 상기 전체 관심영역을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 단계(단계 2)와; 에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별로 에지를 추출하는 단계(단계 3)와; 단계 3에서 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선을 추출하는 단계(단계 4)와; 단계 4에서 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 단계(단계 5)와; 단계 5에서 추출된 상기 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 단계(단계 6); 및 단계 6에서 규정된 차선 모델을 이용하여 차선 이탈 여부를 판단하는 단계(단계 7)를포함한다.Referring to FIG. 4, an image recognition based lane departure detection method according to the present invention is a method for detecting a lane mark in an image captured through a camera of a vehicle, (Step 1); Dividing the entire ROI into a plurality of regions (hereinafter, referred to as 'ROI') (Step 2); (Step 3) of extracting an edge for each ROI including a lane marker using an edge detection technique; Extracting a straight line through a Hough Transform using the edge per unit RO extracted in Step 3 (Step 4); Extracting a plurality of point components corresponding to the straight line and spaced apart from each other on the straight line extracted in step 4; Applying the plurality of point components extracted in step 5 to the least squares method to define a lane model (step 6); And determining whether the lane departure is determined using the lane model defined in step 6 (step 7).

바람직하게는, 단계 1은 차량 카메라로부터 입력된 영상을 흑백 영상으로 변환하는 단계와, 변환된 상기 흑백 영상에서 황색 성분을 강조 처리하는 단계(단계 1-1)를 더 포함할 수 있다.Preferably, step 1 may further comprise the step of converting the image input from the vehicle camera into a monochrome image, and a step of enhancing the yellow color component in the monochrome image (step 1-1).

단계 2의 단위 관심영역은, 상기 전체 관심영역을 세로방향 및 가로방향으로 분할하여 형성된 직사각형의 영역으로 이루어지고, 상기 직사각형의 단위 관심영역은 상기 전체 관심영역 중 좌측 차선표식과 우측 차선표식 별로 해당 차선표식을 따라 연속으로 이어지며 배열되게 설정되는 것을 특징으로 한다.The unit interest area in step 2 is formed of a rectangular area formed by dividing the entire ROI into a longitudinal direction and a lateral direction, and the rectangular ROI is divided into a left lane marker and a right lane marker And is arranged so as to be continuous and continuous along the lane marker.

단계 3의 에지(edge) 검출 기법은 바람직하게는 소벨 에지(Sobel Edge) 추출 방식을 사용할 수 있다.The edge detection technique of step 3 may preferably use a Sobel Edge extraction scheme.

단계 4는 단위 관심영역 별로 추출된 직선의 기울기 평균값을 구하는 단계와, 추출된 단위 관심영역 별 직선 중 상기 기울기 평균값보다 일정 각도 이상 차이가 나는 직선을 제거하는 단계를 더 포함할 수 있다.Step 4 may further include a step of obtaining a slope average value of a straight line extracted for each unit ROI and a step of removing a straight line having a difference of more than a predetermined angle from the slope average value of the extracted ROIs.

본 발명의 차선 이탈 감지 방법은 단계 4에서 직선이 추출되지 못한 단위 관심영역(이하, '비추출 단위 관심영역' 이라 함)이 있을 경우, 해당 비추출 단위 관심영역을 기준으로 전·후에 배열된 단위 관심영역에 포함된 직선 정보를 이용한 유추를 통해 상기 비추출 단위 관심영역에 포함될 가상의 직선을 생성하는 단계를 더 포함할 수 있다.In the lane departure detection method of the present invention, when there is a unit interest area (hereinafter, referred to as 'non-extraction unit interest area') in which a straight line is not extracted in step 4, And generating an imaginary straight line to be included in the non-extracted unit ROI through analogy using linear information included in the ROI.

여기서, 전·후에 배열된 단위 관심영역에 포함된 직선 정보를 이용한 유추란, 전·후에 배열된 단위 관심영역에 포함된 직선의 하단과 상단을 잇는 직선을 생성하거나, 이들의 기울기 평균값을 이용하여 이에 합치하는 직선을 생성하는 방법이 사용될 수 있다.Here, the inference using the linear information included in the unit interest area arranged before and after means that a straight line connecting the lower end and the upper end of the straight line included in the unit interest area arranged before and after is generated, A method of generating a straight line corresponding to this can be used.

또한, 본 발명의 차선 이탈 감지 방법은 단계 4를 통해 단위 관심영역 별로 추출된 직선의 기울기를 이용하여 상기 카메라를 통해 촬영된 영상의 차선표식이 직선인지 곡선인지를 판별하는 단계를 더 포함할 수 있고, 상기 경우 단계 6은 상기 판별 결과가 직선이면 1차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하고, 상기 판별 결과 곡선이면 2차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하도록 구성된다.The method may further include determining whether a lane marker of the image photographed through the camera is a straight line or a curve using the slope of the straight line extracted for each interest area through step 4 In this case, step 6 defines a lane model by applying a least squares method approximating a linear equation if the determination result is a straight line, and defines a lane model by applying a least squares method approximating a quadratic equation if the determined result curve is a curve do.

이하에서는 각 단계에 따른 예시를 들어 보다 구체적으로 설명하도록 한다.Hereinafter, an example according to each step will be described in more detail.

<단계 1(S10)>&Lt; Step 1 (S10)

본 발명의 단계 1은 차량의 주행 과정에서 카메라를 통해 수득된 영상을 인식하고 처리하여 차선 이탈 감지 기능을 실현하기 위해 초기화를 수행하는 단계(S10)로서, 앞서 설명한 수학식 1 내지 3을 이용하여 이미지 상의 소실선의 세로 좌표를 구한다. 소실선은 전체 관심영역의 세로축을 따라 가로 방향으로 분할하는 다수의 라인 중 지평선과 만나는 지점(소실점)에 대응되는 라인을 의미한다.Step 1 of the present invention is a step (S10) of performing initialization in order to realize a lane departure detection function by recognizing and processing an image obtained through a camera in a running process of a vehicle, using Equations 1 to 3 Find the ordinate of the missing line on the image. The disappearance line means a line corresponding to a point (vanishing point) at which it meets with the horizon among a plurality of lines dividing in the horizontal direction along the vertical axis of the entire area of interest.

소실선의 세로 좌표는 월드 좌표계의 YW 가 무한대(∞) 값으로 수렴할 때의 yP값이므로 아래의 같은 수학식 4에 의해 산출될 수 있다.The ordinate of the disappearance line can be calculated by Equation (4) as Y W = Y P when the Y W of the world coordinate system converges to infinity (∞).

Figure 112012027052193-pat00007
Figure 112012027052193-pat00007

Figure 112012027052193-pat00008
Figure 112012027052193-pat00008

이미지 상에서, 소실선의 세로 좌표값을 상단으로 하고 차량 후드가 위치하는 지점의 세로 좌표값을 하단으로 하여 전체 관심영역(Region Of Interest)을 설정한다. 도 5의 'vanish'와 'hood'의 두 라인 사이가 영상처리에 사용될 전체 관심영역에 해당한다.In the image, an entire region of interest is set by setting the ordinate value of the disappearance line to the upper end and the ordinate value of the position where the vehicle hood is located to the lower end. The line between 'vanish' and 'hood' in FIG. 5 corresponds to the entire region of interest to be used for image processing.

본 발명의 단계 1은 전체 관심영역 설정 외에 다음과 같은 초기화를 더 수행한다. 먼저, 흑백 영상, 가로 기울기 영상, 허프 변환(Hough Transform) 등의 영상처리를 위한 메모리를 할당한다.Step 1 of the present invention performs the following initialization in addition to setting the entire ROI. First, a memory for image processing such as a monochrome image, a horizontal gradient image, and a Hough Transform is allocated.

그리고, 허프 변환 수행시 필요한 sin , cos 값을 계산하여 룩업(Lookup) 테이블로 저장한다.Then, sin and cos values necessary for Huff transform are calculated and stored in a lookup table.

그리고, 앞서 설명한 좌표계 수식들을 이용하여 월드 좌표계 상의 차선표식의 최소, 최대 두께와 도로의 최소, 최대폭을 이미지 상의 전체 관심영역의 상단과 하단에 해당하는 모든 세로 좌표에 대응되는 값으로 변환하여 룩업(Lookup) 테이블로 저장한다.The minimum and maximum thicknesses of the lane marker on the world coordinate system and the minimum and maximum widths of the road on the world coordinate system are converted into values corresponding to all the ordinates corresponding to the upper and lower ends of the entire ROI on the image using the above- Lookup table.

그리고, 좌표계 수식들을 이용하여 차선이탈 여부를 판단하기 위해 이미지 상의 차량 앞 바퀴 위치에 해당하는 세로 좌표 값을 계산하여 저장한다.Then, in order to determine whether or not the vehicle departs from the lane using the coordinate system formulas, an ordinate corresponding to the front wheel position on the image is calculated and stored.

< 단계 1-1(S15) >&Lt; Step 1-1 (S15)

본 발명의 단계 1-1은 영상변환부(30)에 의해 수행되는데, 구체적으로 차량 카메라로부터 입력된 영상을 흑백 영상으로 변환한 후, 입력 영상에서 황색 차선의 인식률을 높이기 위해 YCbCr 색공간의 Cb 색성분을 이용하여 아래와 같은 방법으로 흑백 영상에서 황색 성분을 강조한다.Step 1-1 of the present invention is performed by the image converting unit 30. Specifically, after the image input from the vehicle camera is converted into a monochrome image, the Cb of the YCbCr color space Emphasize the yellow component in the monochrome image by using the color component as follows.

{IF Cb -128 < 0 THEN{IF Cb -128 < 0 THEN

Gray Pixel = Y + ( 128 - Cb ) * 2    Gray Pixel = Y + (128 - Cb) * 2

ELSEELSE

Gray Pixel = Y}    Gray Pixel = Y}

도 6(a)는 일반적인 흑백 영상을 보여주고, 도 6(b)는 단계 1-1에 의해 황색 성분이 강조된 흑백 영상을 보여준다. 도 6에서 알 수 있듯이 Cb 색성분을 이용하여 황색 성분을 강조함으로써 흑백 영상에서 차선표식이 더욱 선명하게 대비되고 있음을 알 수 있다.FIG. 6 (a) shows a general black-and-white image, and FIG. 6 (b) shows a black-and-white image in which the yellow component is emphasized in step 1-1. As can be seen from FIG. 6, it can be seen that the lane marker is more clearly contrasted in the monochrome image by emphasizing the yellow component using the Cb color component.

< 단계 2(S20) >&Lt; Step 2 (S20)

본 발명의 단계 2는 영상의 전체 관심영역 중에서 좌측 및 우측 차선표식 별로 대응되는 단위 관심영역을 설정하는 단계로서 영상분할부(40)에 의해 수행된다.Step 2 of the present invention is performed by the image segmenting unit 40 as a step of setting a unit ROI corresponding to the left and right lane markers among the ROIs of the image.

차선표식은 차량에 가까울수록 선명하고 직선 성분이 강하며, 차량과 멀어질수록 흐려지고 곡선 도로와 같은 경우에는 직선 성분이 약해지는 특성이 있다. 따라서 도 5와 같이 세로축을 따라 이격 배열된 다수의 가로 방향 라인(41)이 전체 관심영역을 적절한 개수로 분할하여 각각의 분할된 영역 별로 차선표식 인식을 처리할 수 있도록 한다.The lane marking is characterized by a sharp, linear component stronger near the vehicle, blurred away from the vehicle, and a straight line component weaker in the case of a curved road. Accordingly, as shown in FIG. 5, a plurality of horizontal lines 41 spaced apart along the vertical axis divide the entire area of interest into an appropriate number so that the lane marker recognition can be processed for each divided area.

이렇게 전체 관심영역을 세로축을 따라 분할하여 처리하게 되면 곡선 도로와 같은 상황에서 차선표식 인식 및 직선 추출에 더 강인한 특성을 가진다. 또한 점선 형태의 차선표식이나 차선표식이 훼손된 경우와 같이 특정 지점(단위 관심영역)에서 차선표식 인식이 어려워도 전후 단계의 단위 관심영역에서 인식된 직선 정보를 이용하여 상기 특정 지점의 차선표식 정보를 유추할 수 있는 이점이 있다.Thus, if the whole area of interest is divided and processed along the vertical axis, it is more robust in lane marker recognition and straight line extraction in a situation like a curved road. Also, even if the lane marker recognition is difficult at a specific point (unit interest area) as in the case of the dotted line lane marker or the lane marker being damaged, the lane marker information of the specific point can be inferred There is an advantage to be able to do.

위와 같이 세로축을 따라 다수 개로 분할된 관심영역은 다시 좌측 및 우측 차선별로 가로축을 따라 다수의 세로 방향 라인(42)으로 분할하여 종국에는 도 7과 같이, 직사각형의 영역으로 이루어진 단위 관심영역을 설정한다.As described above, the ROI divided into a plurality of lines along the vertical axis is divided into a plurality of vertical lines 42 along the horizontal axis by the left and right lanes, and finally, a unit ROI including a rectangular area is set as shown in FIG. 7 .

여기서 상기 직사각형의 단위 관심영역은 상기 전체 관심영역 중 좌측 차선표식과 우측 차선표식 별로 해당 차선표식을 따라 연속으로 이어지며 배열된 형태로 설정되게 구성하는 것이 바람직하다.Here, it is preferable that the rectangle unit ROI is configured to be continuously arranged and arranged along the left lane markers and the right lane markers along the corresponding lane markers.

한편, 각각의 단위 관심영역의 가로폭은 이전 프레임에서 차선 표식이 인식된 경우와 그렇지 않은 경우에 따라 다르게 설정된다.On the other hand, the width of each unit area of interest is set differently depending on whether the lane marker is recognized in the previous frame or not.

도 7(a)는 이전 프레임에서 차선표식이 인식되지 않은 경우 설정된 단위 관심영역을 보여주고, 도 7(b)는 이전 프레임에서 차선표식이 인식된 경우 설정된 단위 관심영역을 보여준다.FIG. 7 (a) shows a set unit interest area when the lane marker is not recognized in the previous frame, and FIG. 7 (b) shows the set unit interest area when the lane marker is recognized in the previous frame.

먼저, 이전 프레임에서 차선표식이 인식되지 않은 경우, 해당 단위 관심영역의 수평선 상의 이미지의 중심을 기준으로 도로의 최소폭과 최대폭 사이를 해당 단위 관심영역의 가로폭으로 설정한다.(도 7 (a) 참조)First, when the lane marker is not recognized in the previous frame, the width between the minimum width and the maximum width of the road is set as the width of the unit interest area on the basis of the center of the image on the horizontal line of the unit interest area. ) Reference)

다음으로, 이전 프레임에서 차선 표식이 인식된 경우, 이전 프레임에서 인식한 차선 표식의 위치를 중심으로 일정한 값만큼 좌우로 확장하여 해당 단위 관심영역의 가로폭으로 설정한다.(도 7 (b) 참조)Next, when the lane marker is recognized in the previous frame, the lane marker is recognized as a center of the lane marker recognized in the previous frame, and is expanded to the left and right by a predetermined value to set the horizontal width of the unit interest area (refer to FIG. 7B) )

상기와 같이 단위 관심영역의 가로폭을 제한하게 되면 좌·우 차선표식 사이에 존재하는 도로 정보(이정표 등)나 차선표식으로 오인식 될 수 있는 각종 잡음 요소를 제거할 수 있는 이점이 있다.By limiting the width of the unit area of interest as described above, there is an advantage that various noise elements that can be mistaken for lane markings or road information (milestones etc.) existing between the left and right lane markers can be removed.

또한, 전체 관심영역을 세로, 가로 방향으로 분할하여 일부 영역(즉, 단위 관심영역)만을 처리함으로써 실제 영상처리가 되는 영역을 최소화할 수 있어 영상처리의 연산 부하를 감소시킬 수 있는 장점이 있다.In addition, since the entire region of interest is divided into the vertical and horizontal directions to process only a part of the region (i.e., the ROI), it is possible to minimize an actual image processing region, thereby reducing the computational load of the image processing.

< 단계 3(S30) >&Lt; Step 3 (S30) >

본 발명의 단계 3은 에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별 에지를 추출하는 단계로서 에지추출부(50)에 의해 수행된다.Step 3 of the present invention is performed by the edge extracting unit 50 as a step of extracting an edge per unit ROI including a lane mark using an edge detection technique.

이를 보다 구체적으로 설명하면, 차선표식 인식을 위해 소벨(Sobel) 연산을 수행하여 가로 기울기 영상과 기울기 크기 영상을 구한다.To be more specific, Sobel operation is performed for lane marker recognition to obtain a horizontal slope image and a slope image.

소벨(Sobel) 연산을 위한 마스크는 다음과 같다. Gx는 수평성분, Gy는 수직성분을 의미한다.The mask for the Sobel operation is as follows. Gx denotes a horizontal component, and Gy denotes a vertical component.

Figure 112012027052193-pat00009
Figure 112012027052193-pat00010
Figure 112012027052193-pat00009
Figure 112012027052193-pat00010

가로 기울기 영상은 소벨 연산을 위한 마스크의 수평성분이며, 도 8은 이러한 가로 기울기 영상의 일례를 보여준다.The horizontal slope image is a horizontal component of the mask for the Sobel operation, and FIG. 8 shows an example of such a horizontal slope image.

기울기 크기 영상은 수평성분과 수직성분을 이용하며 다음의 수학식 5를 통해 구한다.The tilt magnitude image is obtained by using the following equation (5) using the horizontal component and the vertical component.

Figure 112012027052193-pat00011
Figure 112012027052193-pat00011

도 9는 상기 방법을 통해 산출된 기울기 크기 영상의 일례를 보여준다.FIG. 9 shows an example of a tilt magnitude image calculated through the above method.

단계 1-1과 단계 3에서 구한 흑백 영상과 가로 기울기 영상, 기울기 크기 영상을 이용하여 차선표식을 인식하기 위해 다음과 같은 차선표식의 특성을 이용하게 된다.In order to recognize the lane marker using the black and white image, the horizontal gradient image, and the tilt magnitude image obtained in steps 1-1 and 3, the following lane marker characteristics are used.

-차선표식의 좌우 경계를 기준으로 중심 영역의 밝기가 좌우 바깥쪽 영역의 밝기보다 밝다.- The brightness of the center area is brighter than the brightness of the left and right area based on the left and right boundaries of the lane marker.

-차선표식의 밝기 변화는 좌측에서 우측으로 밝아졌다 어두워지는 특성이 있다. 도 8의 흰색 픽셀이 밝아지는 지점(51a)이며 검은색 픽셀이 어두워지는 지점(51b)으로 각 점(51a,51b)으로 표시된 부분과 같다.- The brightness change of the lane marker is brightened from left to right and has a characteristic of darkening. Is the same as the portion indicated by each point 51a and 51b at the point 51a where the white pixel of FIG. 8 becomes bright and the point 51b where the black pixel becomes dark.

-차선표식의 좌우 경계 부분은 기울기 크기 영상에서 국소 최대값을 가지는 지점이다. 도 9의 점(붉은 점; 52)으로 표시된 부분이 국소 최대값을 갖는 차선 표식의 좌우 경계 부분이다.- The left and right boundaries of the lane marker are the points having the local maximum value in the tilt magnitude image. The portion indicated by the dot (red dot) 52 in FIG. 9 is the left and right boundary portion of the lane marker having the local maximum value.

-수평 기울기 영상에서 좌측 차선표식의 안쪽 경계는 음의 값을 가지는 지점이며, 우측 차선표식의 안쪽 경계는 양의 값을 가지는 지점이다.In the horizontal slope image, the inner boundary of the left lane marker is a point having a negative value, and the inner boundary of the right lane marker is a point having a positive value.

상기의 4가지 차선 표식 특성을 이용하여 다음과 같은 방법으로 차선 에지 영상을 구한다.Using the above four lane marking characteristics, the lane edge image is obtained as follows.

a) 각각의 관심영역에서 상단의 세로 좌표를 y, 하단의 세로 좌표를 ymax로 설정한다.a) Set the ordinate of the top at y and the ordinate at the bottom at y max in each region of interest.

b) 관심영역의 y좌표에 해당하는 영상의 좌측에서 시작하여 우측으로 이동하며 기울기 크기 영상의 국소 최대값을 가지면서 가로 기울기 영상에서 양의 값을 갖는 픽셀 x1을 찾는다.b) A pixel x 1 having the local maximum value of the gradient magnitude image and moving in the right direction starting from the left side of the image corresponding to the y coordinate of the ROI and having a positive value in the horizontal gradient image is searched.

c) 다시, x1을 기준으로 우측으로 이동하며 기울기 크기 영상의 국소 최대값을 가지면서 가로 기울기 영상이 음의 값을 갖는 픽셀 x2를 찾는다.c) Again, move to the right with respect to x 1 and find the pixel x 2 with the local maximum of the tilt magnitude image and the negative of the horizontal gradient image.

d) x1과 x2 사이의 간격이 초기화 단계에서 구한 이미지 상의 차선표식 두께 룩업(Lookup) 테이블의 y 좌표에 해당하는 최소, 최대값 사이에 존재하면서 흑백 영상의 x1과 x2 지점 사이의 밝기 값의 평균이 x1과 x2에 인접한 픽셀(x1-1, x2+1) 각각의 밝기 값보다 모두 클 경우 차선표식으로 판단하여 차 표식의 에지로 저장한다. 이때 좌측 차선에 대응하는 단위 관심영역일 경우 x2를 에지 픽셀로 저장하며, 우측 차선에 대응하는 단위 관심영역일 경우 x1을 에지 픽셀로 저장한다.d) the interval between x 1 and x 2 is between the minimum and maximum values corresponding to the y coordinate of the lane mark thickness lookup table on the image obtained in the initialization step, and the distance between the x 1 and x 2 points of the monochrome image If the average of the brightness values is greater than the brightness values of the pixels (x 1 -1, x 2 +1) adjacent to x 1 and x 2 , it is determined as a lane marker and stored as an edge of the difference marker. At this time, x 2 is stored as an edge pixel in case of a unit interest area corresponding to the left lane, and x 1 is stored as an edge pixel in case of a unit interest area corresponding to the right lane.

e) y좌표에 해당하는 단위 관심영역의 모든 픽셀에 대해 c ~ d 과정을 반복 수행하고, 모든 처리가 끝나면 y를 1 증가시켜 b ~ d 단계를 다시 반복한다. 이 과정은 y가 ymax에 도달할 때까지 반복하게 된다.e) Repeat steps c to d for all pixels in the ROI corresponding to the y coordinate, and repeat steps b to d again by increasing y by 1 when all processing is completed. This process repeats until y reaches y max .

도 10은 상기의 방식으로 구해진 차선표식의 에지 영상의 일례이다. 도 10의 점(붉은 점)은 도 8 및 도 9 각각에 표시된 두 개의 점 중에서 우측 점에 대응된다.10 is an example of an edge image of a lane marker obtained by the above method. The point (red dot) in Fig. 10 corresponds to the right point among the two points shown in Figs. 8 and 9, respectively.

< 단계 4(S40) >&Lt; Step 4 (S40)

본 발명의 단계 4는 단계 3에서 추출된 단위 관심영역 별 에지 정보를 이용하여, 허프 변환(Hough Transform)을 수행하여 직선을 위한 파라미터(ρ,θ)를 구하는 단계로서 직선정보 추출부(60)를 통해 수행되며, 이 때 직선은 다음의 수학식 6과 같이 표현된다.Step 4 of the present invention is a step of obtaining a parameter (?,?) For a straight line by performing a Hough Transform using edge information for each ROI extracted in Step 3, , Where the straight line is expressed by the following Equation (6).

Figure 112012027052193-pat00012
Figure 112012027052193-pat00012

한편, 허프 변환에 의해 추출된 직선 중 잡음 성분에 의해 생성되어 차선표식과 일치하지 않는 직선을 제거하는 작업이 필요한데, 상기 잡음 성분에 의한 직선은 다음과 같은 방법을 통해 제거 가능하다.On the other hand, it is necessary to work to remove a straight line generated by a noise component in a straight line extracted by the Hough transform and not coinciding with a lane marking. The straight line by the noise component can be removed by the following method.

즉, 현재 단계의 단위 관심영역의 직선은 전·후 단계의 단위 관심영역의 직선과 서로 연결되는 특성을 이용하여 상호 연속되게 이어지지 않고 단절된 직선을 제거한다. 또한 단위 관심영역 별로 추출된 직선의 기울기 평균값을 구하고, 상기 단계 4의 허프 변환을 통해 추출된 단위 관심영역 별 직선 중 상기 기울기 평균값보다 일정 각도 이상 차이가 나는 직선을 제거한다.That is, the straight line of the unit interest area at the current stage removes the disconnected straight line without continuing to each other by using the characteristic of connecting the straight line of the unit interest area in the pre and post stages. Also, a straight line having a slope difference of more than a certain angle from the slope mean value among straight lines of the unit area of interest extracted through the Hough transform in step 4 is removed.

한편, 점선 형태의 차선 표식이나 차선 표식이 훼손된 경우 또는 잡음 성분에 의해 직선이 추출되지 못한 단위 관심영역(비추출 단위 관심영역)이 있을 경우, 해당 비추출 단위 관심영역을 기준으로 전·후에 배열된 단위 관심영역에 포함된 직선 정보를 이용한 유추를 통해 상기 비추출 단위 관심영역에 포함될 가상의 직선을 생성한다.On the other hand, when there is a unit interest area (non-extraction unit interest area) in which a dotted line lane marker or lane marker is damaged or a straight line can not be extracted due to a noise component, Extracted unit interest region through the analogy using the straight line information included in the unit interest region.

도 11은 에지 정보를 이용하여, 허프 변환(Hough Transform)을 수행하여 구해진 직선을 보여준다. 한편 도 11에서 우측 차선의 3번째 순서에 설정된 단위 관심영역이 상기 비추출 단위 관심영역에 해당하며, 이러한 비추출 단위 관심영역은 전술한 전·후 단위 관심영역에 포함된 직선 정보를 이용한 유추를 통해 가상의 직선을 생성할 수 있다.11 shows a straight line obtained by performing Hough Transform using edge information. Meanwhile, in FIG. 11, the unit interest region set in the third order of the right lane corresponds to the non-extraction unit interest region, and the non-extraction unit interest region is an inference using the linear information included in the pre- A virtual straight line can be generated.

< 단계 5(S50) >&Lt; Step 5 (S50)

본 발명의 단계 5는 단계 4에서 구해진 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 단계로서 도트 추출부(70)에 의해 수행된다. Step 5 of the present invention is performed by the dot extracting unit 70 as a step of extracting a plurality of dot components corresponding to the straight line and arranged mutually spaced from each other on the straight line obtained in step 4. [

도트 추출부(70)에 의해 추출된 다수의 점 성분 중 일 추출군은 좌측 차선표식에 합치되며 좌측 차선을 따라 상호 간격을 두며 배열된 형태를 구성하게 되고, 타 추출군은 우측 차선표식에 합치되며 우측 차선을 따라 상호 간격을 두며 배열된 형태를 구성하게 된다.One of the plurality of dot components extracted by the dot extracting unit 70 is aligned with the left lane marker and arranged at a distance from each other along the left lane, and the other extract group is aligned with the right lane marker And they are arranged in the right lane with an interval between them.

도 12는 직선 차선에 대해 단계 5에 의해 추출된 점 성분(71)을 보여주고, 도 13은 곡선 차선에 대해 단계 5에 의해 추출된 점 성분(72)을 보여준다.Fig. 12 shows the point component 71 extracted by step 5 for the straight lane, and Fig. 13 shows the point component 72 extracted by step 5 for the curve lane.

이렇게 추출된 복수의 점 성분은 단계 6의 최소 자승법에 사용되어 차선 모델 규정을 규정할 수 있게 된다.The plurality of point components thus extracted can be used in the least squares method of step 6 to define the lane model specification.

< 단계 6(S60) >&Lt; Step 6 (S60)

본 발명의 단계 6은 단계 5에서 추출된 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 단계로서, 차선모델 생성부(80)를 통해 수행된다.Step 6 of the present invention is a step of defining the lane model by applying the plurality of point components extracted in step 5 to the least squares method, and is performed through the lane model generation unit 80. [

차선모델 생성부(80)는 해당 점 성분이 직선 차선표식에 대한 점 성분이라면 1차식(x = a + by)으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하고, 해당 점 성분이 곡선 차선표식에 대한 점 성분이라면 2차식(x = a + by + cy2)으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하여 차선 이탈 검출에 사용될 기준선(즉, 차선표식)을 확정하게 된다.The lane model generating unit 80 defines a lane model by applying a least squares method approximating a linear equation (x = a + by) if the corresponding point component is a point component for a linear lane marking, (X = a + by + cy 2 ), the lane model is defined by applying the least square method approximating the quadratic expression (x = a + by + cy 2 ) to determine a reference line (i.e., lane marker) to be used for lane departure detection.

따라서, 차선 모델을 규정하기 위해서는 점 성분을 최소 자승법에 적용하기 전에 해당 점 성분이 직선 차선표식에 대한 점 성분인지 곡선 차선표식에 대한 점 성분이지에 대한 판별이 먼저 수행되어야 한다.Therefore, in order to define the lane model, before the point component is applied to the least squares method, the determination of whether the point component is a point component for a straight lane marking or a point component for a curved lane marking should be performed first.

해당 차선표식이 직선에 가까운지 또는 곡선에 가까운지를 판별하는 방법은 다음과 같다. 먼저, 단위 관심영역 별 직선의 기울기 평균과 평균분산을 산출한다. 그리고, 산출된 평균분산이 특정 값이 이상이면서, 좌측(또는 우측) 차선표식의 하단에 설정된 단위 관심영역에서 좌측(또는 우측) 차선표식의 상단에 설정된 단위 관심영역으로 기울기 평균값이 연속적으로 감소하거나 또는 증가할 경우 곡선으로 판별하고, 그렇지 않은 경우 직선으로 판별한다.A method of determining whether the lane marker is close to a straight line or near a curve is as follows. First, we calculate the slope average and average variance of the straight line per unit area of interest. If the calculated mean variance is smaller than the specific value and the slope mean value continuously decreases to the unit interest area set at the upper end of the left (or right) lane marker in the unit interest area set at the lower end of the left (or right) Or if it increases, it is judged as a curve, otherwise it is judged as a straight line.

이처럼 최소 자승법에 차선의 에지 점들을 적용하지 않고 그 대신 에지 정보를 이용한 허프 변환을 통해 추출된 직선으로부터 대표 점 성분들을 구성해서 적용하게 되면 직선에 포함되지 않는 에지를 제외시킬 수 있고 최소 자승법에 이용할 점들의 수를 줄여 연산 부하를 줄일 수 있는 이점이 있다.In this case, if the lane edge points are not applied to the least squares method and instead, the representative point components extracted from the straight line extracted through the Hough transform using the edge information are applied, the edges not included in the straight line can be excluded and used for the least squares method There is an advantage of reducing the computation load by reducing the number of points.

< 단계 7(S70) >&Lt; Step 7 (S70)

단계 7은 단계 6에서 규정된 차선 모델을 이용하여 차선 이탈 여부를 판단하는 단계로서 차선이탈 판별부(90)에 의해 수행되며, 차량 앞 바퀴와 차선표식까지의 거리를 계산하여 차선 이탈 여부를 판단한다.Step 7 is a step of judging whether or not the lane departure is determined by using the lane model defined in step 6 and is performed by the lane departure judging section 90. The distance to the front wheel of the vehicle and the lane marker is calculated to determine whether or not the lane departure do.

보다 구체적으로 설명하면, 단계 1의 초기화 과정에서 미리 계산한 이미지 상의 차량 앞 바퀴가 위치하는 세로 좌표를 차선 모델 방정식에 대입하여 가로 좌표를 계산한다.More specifically, in the initialization process of step 1, the ordinate in which the front wheel of the vehicle on the previously calculated image is located is substituted into the lane model equation to calculate the abscissa.

그리고, 상기 연산에 의해 구해진 가로 및 세로 좌표와 해당 차량의 폭을 이용하여 차량 앞 바퀴와 차선 표식까지의 거리를 계산한다. 도 12와 도 13의 하단에 녹색으로 표시된 숫자가 차량 앞 바퀴와 차선 표식까지의 거리이다.Then, the distance to the front wheel of the vehicle and the lane marker is calculated using the horizontal and vertical coordinates obtained by the calculation and the width of the vehicle. The numbers in green at the bottom of Figs. 12 and 13 are the distances to the front wheels of the vehicle and the lane marks.

즉, 차량의 좌측(또는 우측) 앞 바퀴와 좌측(또는 우측) 차선표식 사이의 거리를 연산하고, 상기 연산에 의해 산출된 거리 중 어느 하나가 차량폭을 근거로 산정된 기준치를 벗어나면 차선 이탈로 판단하여 경보 출력부(95)에게 경보발생신호를 제공하고, 이에 경보 출력부(95)는 경보음 등을 외부로 출력함으로써 운전자에게 위험을 경고할 수 있게 된다.That is, the distance between the left (or right) front wheel of the vehicle and the left (or right) lane marker is calculated, and if any of the distances calculated by the calculation is outside the reference value calculated based on the vehicle width, And provides an alarm generation signal to the alarm output unit 95. The alarm output unit 95 outputs an alarm sound or the like to the outside to warn the driver of the danger.

상기에서 본 발명의 바람직한 실시예가 특정 용어들을 사용하여 설명 및 도시되었지만 그러한 용어는 오로지 본 발명을 명확히 설명하기 위한 것일 뿐이며, 본 발명의 실시예 및 기술된 용어는 다음의 청구범위의 기술적 사상 및 범위로부터 이탈되지 않고서 여러가지 변경 및 변화가 가해질 수 있는 것은 자명한 일이다. 이와 같이 변형된 실시예들은 본 발명의 사상 및 범위로부터 개별적으로 이해되어져서는 안되며, 본 발명의 청구범위 안에 속한다고 해야 할 것이다.
While the preferred embodiments of the present invention have been described and illustrated above using specific terms, such terms are used only for the purpose of clarifying the invention, and it is to be understood that the embodiment It will be obvious that various changes and modifications can be made without departing from the spirit and scope of the invention. Such modified embodiments should not be understood individually from the spirit and scope of the present invention, but should be regarded as being within the scope of the claims of the present invention.

10: 카메라 20: 영상인식 처리부
30: 영상변환부 40: 영상분할부
41: 단위관심영역의 가로방향라인 42: 단위관심영역의 세로방향라인
50: 에지추출부 60: 직선정보 추출부
70: 도트추출부 71,72: 점 성분
80: 차선모델 생성부 90: 차선이탈 판별부
95: 경보출력부
10: camera 20: image recognition processor
30: image converting unit 40: image dividing unit
41: horizontal direction line of unit interest area 42: vertical direction line of unit interest area
50: edge extracting unit 60: straight line information extracting unit
70: dot extracting unit 71, 72: dot component
80: lane model generation unit 90: lane departure determination unit
95: Alarm output section

Claims (9)

차량의 카메라를 통해 촬영된 영상에서 차선표식을 검출하기 위한 영상처리에 사용될 영역(이하, '전체 관심영역' 이라 함)을 설정하는 제1 단계;
상기 전체 관심영역을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 제2 단계;
에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별 에지를 추출하는 제3 단계;
상기 제3 단계에서 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선을 추출하는 제4 단계;
상기 제4 단계에서 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 제5 단계;
상기 제5 단계에서 추출된 상기 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 제6 단계; 및
상기 제6 단계에서 규정된 차선 모델을 이용하여 차선 이탈 여부를 판단하는 제7 단계;를 포함하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
A first step of setting an area to be used for image processing for detecting a lane marker in an image photographed through a camera of a vehicle (hereinafter, referred to as an 'entire ROI');
A second step of dividing and setting the entire ROI into a plurality of ROIs (hereinafter referred to as a ROI);
A third step of extracting an edge per unit ROI including a lane marker using an edge detection technique;
A fourth step of extracting a straight line through a Hough Transform using the edge per unit area of interest extracted in the third step;
A fifth step of extracting a plurality of point components corresponding to the straight line and spaced apart from each other on the straight line extracted in the fourth step;
A sixth step of defining the lane model by applying the plurality of point components extracted in the fifth step to the least squares method; And
And a seventh step of determining whether or not the lane departure has been made using the lane model defined in the sixth step.
제1 항에 있어서,
상기 제1 단계는,
상기 차량 카메라로부터 입력된 영상을 흑백 영상으로 변환한 후, 상기 변환된 흑백 영상에서 황색 성분을 강조 처리하는 제1-1 단계;를 더 포함하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method according to claim 1,
In the first step,
And a 1-1 step of converting the image input from the vehicle camera into a monochrome image and then highlighting the yellow component in the converted monochrome image.
제1 항에 있어서,
상기 제2 단계의 상기 단위 관심영역은, 상기 전체 관심영역을 세로방향 및 가로방향으로 분할하여 형성된 직사각형의 영역으로 이루어지고, 상기 직사각형의 단위 관심영역은 상기 전체 관심영역 중 좌측 차선표식과 우측 차선표식 별로 해당 차선표식을 따라 연속으로 이어지며 배열되게 설정되는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method according to claim 1,
Wherein the unit interest area of the second step comprises a rectangular area formed by dividing the entire area of interest into a longitudinal direction and a lateral direction and the rectangular unit area of interest includes a left lane marker and a right lane marker, Wherein the lane departure detection method is configured to be continuously arranged and arranged along the lane marker for each landmark.
제2 항에 있어서,
상기 제3 단계의 에지(edge) 검출 기법은 소벨 에지(Sobel Edge) 추출 방식인 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
3. The method of claim 2,
Wherein the edge detection method of the third step is a Sobel edge extraction method.
제3 항에 있어서,
상기 제4 단계에서 단위 관심영역 별로 추출된 직선의 기울기 평균값을 구하는 제4-1 단계;
상기 제4 단계에서 추출된 단위 관심영역 별 직선 중 상기 제4-1 단계의 기울기 평균값보다 일정 각도 이상 차이가 나는 직선을 제거하는 제4-2 단계; 및
상기 제4 단계에서 직선이 추출되지 못한 단위 관심영역(이하, '비추출 단위 관심영역' 이라 함)이 있을 경우, 해당 비추출 단위 관심영역을 기준으로 전·후에 배열된 단위 관심영역에 포함된 직선 정보를 이용한 유추를 통해 상기 비추출 단위 관심영역에 포함될 가상의 직선을 생성하는 제4-3 단계;를 더 포함하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method of claim 3,
A fourth step of obtaining a slope average value of a straight line extracted for each unit ROI in the fourth step;
A fourth step of removing a straight line having a difference of more than a predetermined angle from the slope average value of the 4-1 step among straight lines of the unit ROI extracted in the fourth step; And
If there is a unit interest region (hereinafter, referred to as a 'non-extraction unit interest region') in which a straight line can not be extracted in the fourth step, the unit interest region included in the unit interest region arranged before and after the non- And generating a virtual straight line to be included in the non-extracted unit ROI through analogy using the straight line information.
제3 항에 있어서,
상기 제4 단계를 통해 단위 관심영역 별로 추출된 직선의 기울기를 이용하여 상기 카메라를 통해 촬영된 영상의 차선표식이 직선인지 곡선인지를 판별하는 단계를 더 포함하고,
상기 제6 단계는, 상기 판별 결과가 직선이면 1차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하고, 상기 판별 결과 곡선이면 2차식으로 근사하는 최소 자승법을 적용하여 차선 모델을 규정하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method of claim 3,
Further comprising the step of determining whether a lane marker of the image photographed by the camera is a straight line or a curve using the slope of the straight line extracted for each unit ROI through the fourth step,
The sixth step includes defining a lane model by applying a least squares method approximating a linear equation if the determination result is a straight line, and defining a lane model by applying a least squares method approximating a quadratic equation if the determination result curve is a curve Wherein the lane departure detection method is based on image recognition.
제6 항에 있어서,
상기 직선 또는 곡선 여부를 판별하는 단계는,
상기 단위 관심영역 별 직선의 기울기 평균과 평균분산을 산출하는 단계; 및
산출된 평균분산이 특정 값 이상이면서, 좌측 차선표식의 하단에 설정된 단위 관심영역에서 좌측 차선표식의 상단에 설정된 단위 관심영역으로 기울기 평균값이 연속적으로 감소하거나 또는 증가할 경우 곡선으로 판별하고, 그렇지 않은 경우 직선으로 판별하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method according to claim 6,
Wherein the step of determining whether the straight line or the curve is a curve,
Calculating a slope average and an average variance of a straight line for each unit ROI; And
If the calculated mean variance is greater than or equal to a specific value and the slope mean value continuously decreases or increases to a unit interest area set at the upper end of the left lane marker in the unit interest area set at the lower end of the left lane marking, The method comprising the steps of: (a)
제1 항에 있어서,
상기 제7 단계는,
상기 차량의 좌측 앞 바퀴와 좌측 차선표식 사이의 거리를 연산하고, 상기 연산에 의해 산출된 거리가 차량폭을 근거로 산정된 기준치를 벗어나면 차선 이탈로 판단하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 방법.
The method according to claim 1,
In the seventh step,
Wherein the lane departure determination means calculates a distance between a left front wheel and a left lane marking of the vehicle and determines that the lane departure occurs when the distance calculated by the calculation exceeds a reference value calculated based on the vehicle width, Detection method of deviation.
차량 전방을 촬영하여 영상을 획득하는 카메라;
상기 차량 카메라로부터 입력된 영상을 흑백 영상으로 변환하는 영상변환부;
상기 변환된 흑백 영상을 다수 개의 영역(이하, '단위 관심영역' 이라 함)으로 분할하여 설정하는 영상분할부;
에지(edge) 검출 기법을 이용하여, 차선표식을 포함하고 있는 단위 관심영역 별로 에지를 추출하는 에지추출부;
상기 에지추출부에 의해 추출된 단위 관심영역 별 에지를 이용하여, 허프 변환(Hough Transform)을 통해 직선을 추출하는 직선정보 추출부;
상기 직선정보 추출부에 의해 추출된 직선에서, 상기 직선에 대응되며 상호 이격 배열된 복수의 점 성분을 추출하는 도트 추출부;
상기 복수의 점 성분을 최소 자승법에 적용하여 차선 모델을 규정하는 차선모델 생성부;
상기 차선 모델을 이용하여 상기 차량의 차선 이탈 여부를 판단하는 차선이탈 판단부; 및
상기 차선이탈 판단부에 의한 판단 결과 차선 이탈 발생시 경보를 외부로 출력하는 경보 출력부;를 포함하는 것을 특징으로 하는 영상인식 기반의 차선 이탈 감지 시스템.
A camera for photographing the front of the vehicle to acquire an image;
An image converter for converting the image input from the vehicle camera into a monochrome image;
Dividing the converted monochrome image into a plurality of regions (hereinafter, referred to as 'unit region of interest') and setting the divided regions;
An edge extracting unit for extracting an edge for each ROI including a lane marker using an edge detection technique;
A straight line information extracting unit for extracting a straight line through a Hough Transform using an edge for each unit area of interest extracted by the edge extracting unit;
A dot extracting unit for extracting a plurality of point components corresponding to the straight line and arranged at a distance from each other on a straight line extracted by the straight line information extracting unit;
A lane model generating unit for applying the plurality of point components to a least square method to define a lane model;
A lane departure determination unit for determining whether the vehicle is departing from the lane using the lane model; And
And an alarm output unit for outputting an alarm when the lane departure occurs as a result of the lane departure determination unit.
KR1020120034996A 2012-04-04 2012-04-04 Method and system for lane departure warning based on image recognition Active KR101392850B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120034996A KR101392850B1 (en) 2012-04-04 2012-04-04 Method and system for lane departure warning based on image recognition
PCT/KR2013/002519 WO2013151266A1 (en) 2012-04-04 2013-03-27 Method and system for lane departure warning based on image recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120034996A KR101392850B1 (en) 2012-04-04 2012-04-04 Method and system for lane departure warning based on image recognition

Publications (2)

Publication Number Publication Date
KR20130112536A KR20130112536A (en) 2013-10-14
KR101392850B1 true KR101392850B1 (en) 2014-05-09

Family

ID=49300713

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120034996A Active KR101392850B1 (en) 2012-04-04 2012-04-04 Method and system for lane departure warning based on image recognition

Country Status (2)

Country Link
KR (1) KR101392850B1 (en)
WO (1) WO2013151266A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650529B2 (en) 2017-08-09 2020-05-12 Samsung Electronics Co., Ltd. Lane detection method and apparatus
KR20210004302A (en) 2019-07-04 2021-01-13 (주)에이아이매틱스 Lane departure warning determination method using driver state monitoring
US11260864B2 (en) 2018-10-08 2022-03-01 Mando Mobility Solutions Corporation Path generation apparatus at intersection, and method and apparatus for controlling vehicle at intersection

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101962700B1 (en) * 2013-12-24 2019-03-28 주식회사 만도 System and method for lane recognition using defog sensor
KR101508357B1 (en) * 2013-12-26 2015-04-14 주식회사 유라코퍼레이션 Lane departure warning system and method for warning thereof
CN104112118B (en) * 2014-06-26 2017-09-05 大连民族学院 Method for detecting lane lines for Lane Departure Warning System
DE102014109063A1 (en) * 2014-06-27 2015-12-31 Connaught Electronics Ltd. Method for detecting an object having a predetermined geometric shape in a surrounding area of a motor vehicle, camera system and motor vehicle
KR101584907B1 (en) * 2014-07-29 2016-01-22 울산대학교 산학협력단 Method and Apparatus for recognizing lane using region of interest
CN105620477B (en) * 2014-10-28 2018-06-29 奇瑞汽车股份有限公司 A kind of lane departure warning control method of vehicle
KR101689805B1 (en) * 2015-03-20 2016-12-27 동아대학교 산학협력단 Apparatus and method for reconstructing scene of traffic accident using OBD, GPS and image information of vehicle blackbox
KR101700813B1 (en) * 2016-02-02 2017-01-31 도로교통공단 Monitoring and analyzing system whether the bus mounted the kerb stone for first class heavy vehicle driving license test
CN106184232B (en) * 2016-07-27 2018-11-16 北京航空航天大学 A kind of lane departure warning control method based on driver visual angle
CN106950950A (en) * 2017-03-02 2017-07-14 广东工业大学 A kind of automobile doubling accessory system and control method based on camera
CN107284455B (en) * 2017-05-16 2019-06-21 浙江理工大学 An ADAS system based on image processing
CN109271844B (en) * 2018-07-29 2023-03-28 国网上海市电力公司 Electrical cabinet electrical symbol recognition method based on OpenCV
CN109741314A (en) * 2018-12-29 2019-05-10 广州博通信息技术有限公司 A kind of visible detection method and system of part
CN110136222B (en) * 2019-04-17 2023-05-26 阿波罗智能技术(北京)有限公司 Virtual lane line generation method, device and system
CN111833291B (en) * 2019-04-22 2023-11-03 上海汽车集团股份有限公司 A method and device for manual annotation evaluation of semantic segmentation training set
CN110400348B (en) * 2019-06-25 2022-12-06 天津大学 Method for detecting and calibrating steering of vibrating wheel of double-cylinder unmanned equipment based on vision
CN110789534A (en) * 2019-11-07 2020-02-14 淮阴工学院 Lane departure early warning method and system based on road condition detection
CN110962847B (en) * 2019-11-26 2021-10-08 清华大学苏州汽车研究院(吴江) Lane centering auxiliary self-adaptive cruise trajectory planning method and system
KR102527522B1 (en) * 2020-11-13 2023-05-04 (주)에이트원 System for supporting work of aircraft mechanic, and method therefor
KR102844329B1 (en) * 2021-11-25 2025-08-11 주식회사 에프에스솔루션 Method for calculating distance to target object, and device and program using the same
CN114801991B (en) * 2022-04-28 2024-10-29 东风汽车集团股份有限公司 Roadside vehicle drop prevention method and system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925194B2 (en) 2000-12-27 2005-08-02 Hyundai Motor Company Curved lane recognizing method in road modeling system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3864945B2 (en) * 2003-09-24 2007-01-10 アイシン精機株式会社 Road lane detection device
JP4162618B2 (en) * 2004-03-12 2008-10-08 株式会社豊田中央研究所 Lane boundary judgment device
KR101094752B1 (en) * 2009-06-30 2011-12-16 호서대학교 산학협력단 Lane Classification Method Using Statistical Model of HSI Color Information
KR101067437B1 (en) * 2009-10-29 2011-09-27 한국기술교육대학교 산학협력단 Lane detection method and lane departure detection system using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925194B2 (en) 2000-12-27 2005-08-02 Hyundai Motor Company Curved lane recognizing method in road modeling system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650529B2 (en) 2017-08-09 2020-05-12 Samsung Electronics Co., Ltd. Lane detection method and apparatus
US11260864B2 (en) 2018-10-08 2022-03-01 Mando Mobility Solutions Corporation Path generation apparatus at intersection, and method and apparatus for controlling vehicle at intersection
KR20210004302A (en) 2019-07-04 2021-01-13 (주)에이아이매틱스 Lane departure warning determination method using driver state monitoring
US11014579B2 (en) 2019-07-04 2021-05-25 A. I. Matics Inc. Lane departure warning determination method using driver state monitoring

Also Published As

Publication number Publication date
WO2013151266A1 (en) 2013-10-10
KR20130112536A (en) 2013-10-14

Similar Documents

Publication Publication Date Title
KR101392850B1 (en) Method and system for lane departure warning based on image recognition
US8391555B2 (en) Lane recognition apparatus for vehicle, vehicle thereof, and lane recognition program for vehicle
TWI638343B (en) Lane detection system and method
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
KR101517181B1 (en) System and method for warning lane departure
EP2477139A2 (en) Lane departure warning system and method
KR101464489B1 (en) Method and system for detecting an approaching obstacle based on image recognition
KR101719549B1 (en) Image preprocessing method for license plate recognition and license plate recognition device using thereof
US8867788B2 (en) Vehicle periphery monitoring device
JP5401257B2 (en) Far-infrared pedestrian detection device
KR102010823B1 (en) Method and apparatus for measuring speed of vehicle by using fixed single camera
US9508000B2 (en) Object recognition apparatus
KR101584907B1 (en) Method and Apparatus for recognizing lane using region of interest
KR20130028610A (en) Apparatus and method for providing real-time lane detection, recording medium thereof
KR101583797B1 (en) Apparatus and method for detecting lane based on top view image transform
JP3328711B2 (en) Vehicle height measuring device and vehicle monitoring system using the same
KR20180082089A (en) Method for Detecting Border of Grassland Using Image-Based Color Information
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
EP2256691B1 (en) Image processing device for vehicle and image processing program
KR20140022197A (en) Lane detection method and lane departure warning system using same
KR101902291B1 (en) Traffic lane correction system and method thereof
KR101371875B1 (en) A vehicle detection and distance measurement system and method between the vehicles using stereo vision
KR20140087622A (en) Method of extracting traffic lanes from captured image using brightness
KR101396924B1 (en) lane wideh measuring system by using cammera
CN113096145B (en) Target boundary detection method and device based on Hough transformation and linear regression

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20120404

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20130702

Patent event code: PE09021S01D

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20131226

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20140328

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20140430

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20140502

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20170405

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20170405

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20190401

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20200414

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20220503

Start annual number: 9

End annual number: 9

PR1001 Payment of annual fee

Payment date: 20240418

Start annual number: 11

End annual number: 11