[go: up one dir, main page]

KR20110010300A - How to get 3D shape information of panel - Google Patents

How to get 3D shape information of panel Download PDF

Info

Publication number
KR20110010300A
KR20110010300A KR1020090067786A KR20090067786A KR20110010300A KR 20110010300 A KR20110010300 A KR 20110010300A KR 1020090067786 A KR1020090067786 A KR 1020090067786A KR 20090067786 A KR20090067786 A KR 20090067786A KR 20110010300 A KR20110010300 A KR 20110010300A
Authority
KR
South Korea
Prior art keywords
panel
dimensional
coordinates
laser
shape information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020090067786A
Other languages
Korean (ko)
Other versions
KR101099610B1 (en
Inventor
강희신
서정
이주장
김창현
Original Assignee
한국기계연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기계연구원 filed Critical 한국기계연구원
Priority to KR1020090067786A priority Critical patent/KR101099610B1/en
Publication of KR20110010300A publication Critical patent/KR20110010300A/en
Application granted granted Critical
Publication of KR101099610B1 publication Critical patent/KR101099610B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/60Systems using moiré fringes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • G01N2021/8893Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques providing a video image and a processed signal for helping visual decision

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 패널의 3차원 형상 정보를 얻는 방법에 관한 것이다. 본 발명은 패널에 선(line) 형태의 레이저를 조사하는 조사단계; 조사된 레이저를 시각센서를 통해 감지하는 감지단계; 시각센서에 의해서 감지된 왜곡된 좌표를 이용해서 2차원 좌표를 산출하는 보정단계; 및 상기 2차원 좌표를 실제 패널의 표면 형상을 표현하는 3차원 좌표로 변환하는 변환단계;를 포함하는 패널의 3차원 형상 정보를 얻는 방법을 제공한다.The present invention relates to a method of obtaining three-dimensional shape information of a panel. The present invention comprises a step of irradiating a laser of the line (line) form on the panel; Detecting the irradiated laser beam through a visual sensor; A correction step of calculating two-dimensional coordinates by using the distorted coordinates sensed by the visual sensor; And converting the two-dimensional coordinates into three-dimensional coordinates representing a surface shape of the actual panel.

따라서, 본 발명에 의하면 방사왜곡을 보정할 수 있고, 2차원 영상 정보를 3차원 영상정보로 변환해서 패널의 3차원 형상 정보를 얻을 수 있다.Therefore, according to the present invention, radiation distortion can be corrected, and two-dimensional image information can be converted into three-dimensional image information to obtain three-dimensional shape information of the panel.

레이저, 시각센서, 보정, 형상, 감지, 왜곡, 편광, 카메라 Laser, Vision Sensor, Calibration, Geometry, Detection, Distortion, Polarization, Camera

Description

패널의 3차원 형상 정보를 얻는 방법{Method for getting 3-dimensional shape information of a panel}Method for getting 3-dimensional shape information of a panel}

본 발명은 패널의 3차원 형상 정보를 얻는 방법에 관한 것으로서, 보다 상세하게는 레이저를 이용해서 얻어진 영상정보를 이용해서 패널의 표면에 대한 3차원 형상 정보를 얻는 방법에 관한 것이다.The present invention relates to a method of obtaining three-dimensional shape information of a panel, and more particularly, to a method of obtaining three-dimensional shape information of a surface of a panel using image information obtained by using a laser.

제조산업이 급속히 발달하면서 많은 생산현장에 자동화가 적용되었다. 그 중에서도 용접가공은 자동차, 조선, 산업기계 등 과거의 주요 수출업종에서 생산성과 정밀도를 향상시키기 위한 중추적인 역할을 해왔다. 용접가공에서는 오래전부터 로봇이 많이 사용되고 있다. 용접 작업에서 용접로봇을 작동시키기 위한 필수적인 작업이 용접 모재의 위치와 형상의 파악과 용접 로봇을 모재에 어떻게 접근시킬 것인지를 정하는 것이다. 이를 위해 과거 CAD 정보를 이용하거나 여러 가지 접촉식, 비접촉식 센서 등을 이용하여 용접선 추적이나 로봇제어를 할 수 있었다.With the rapid development of the manufacturing industry, automation has been applied to many production sites. Among them, welding has played a pivotal role in improving productivity and precision in major export industries such as automobiles, shipbuilding, and industrial machinery. In welding, robots have been used for a long time. The essential task of operating the welding robot in the welding operation is to identify the position and shape of the welding base material and to determine how to approach the welding robot to the base material. For this purpose, welding line tracking or robot control could be performed by using CAD information or by using various contact and non-contact sensors.

최근에는 이러한 센서들 중 시각센서를 이용하는 방식이 많이 사용되고 있다. 시각센선는 비접촉식이고 경량이므로 마모나 충격을 염려하지 않아도 되고 로봇에 쉽게 부착시킬 수가 있는 이점이 있다. 그러나 시각 센서는 조명이나 환경에 민감한 특성상 열이나 불꽃이 많이 일어나는 열악한 용접현장에 적용하기 위해서는 주의가 요구된다. 나아가 시각센서는 정밀도와 계산상의 오차가 크다는 문제가 있다.   Recently, many of these sensors use a visual sensor. Since the sight line is non-contact and lightweight, it does not have to worry about abrasion or impact and can be easily attached to the robot. However, visual sensors need attention to be applied to poor welding sites where heat or sparks are high due to the sensitive nature of lighting and environment. Furthermore, the visual sensor has a problem in that precision and calculation errors are large.

특히 시각센서에 의해서 발생되는 방사왜곡(Radial Distortion)현상은 시각센서의 중심으로부터 거리에 따른 비선형적인 함수에 의해서 왜곡되는 것으로, 이러한 왜곡을 보정하지 않고 3차원 형상에 대한 정보를 얻으면 상당한 오차가 발생된다는 문제가 있다.In particular, the radial distortion caused by the visual sensor is distorted by a nonlinear function according to the distance from the center of the visual sensor. If the information on the three-dimensional shape is obtained without correcting the distortion, a significant error occurs. There is a problem.

한편 두 대의 카메라를 이용하는 방법도 있으나 패널의 특성상 두 영상에서의 대응점을 찾기 힘들어 사용되기 힘들다는 문제가 있다.On the other hand, there is a method using two cameras, but due to the characteristics of the panel, it is difficult to find a corresponding point in the two images.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명은 시각센서를 이용해서 패널의 표면의 프로파일을 정확하게 측정할 수 있는 패널의 3차원 형상 정보를 얻는 방법을 제공하는 것이다.The present invention has been made to solve the above problems, the present invention is to provide a method for obtaining three-dimensional shape information of the panel that can accurately measure the profile of the surface of the panel using a visual sensor.

또한 본 발명은 시각센서에 의해서 얻어진 왜곡된 2차원 좌표를 이상적인 2차원 좌표로 보정하고, 패널의 형상을 표현하는 3차원 좌표로 변환할 수 있는 패널의 3차원 형상 정보를 얻는 방법을 제공하는 것이다.In addition, the present invention provides a method for obtaining three-dimensional shape information of a panel capable of correcting the distorted two-dimensional coordinates obtained by the visual sensor to an ideal two-dimensional coordinates and converting them into three-dimensional coordinates representing the shape of the panel. .

상기 목적을 달성하기 위하여, 본 발명은 패널에 선(line) 형태의 레이저를 조사하는 조사단계; 조사된 레이저를 시각센서를 통해 감지하는 감지단계; 시각센서에 의해서 감지된 왜곡된 좌표인

Figure 112009045365118-PAT00001
를 이용해서 2차원 좌표인
Figure 112009045365118-PAT00002
를 산출하는 보정단계; 및 상기 2차원 좌표를 실제 패널의 표면 형상을 표현하는 3차원 좌표인
Figure 112009045365118-PAT00003
로 변환하는 변환단계;를 포함하는 패널의 3차원 형상 정보를 얻는 방법을 제공한다.In order to achieve the above object, the present invention comprises a irradiation step of irradiating a line (line) laser to the panel; Detecting the irradiated laser beam through a visual sensor; Distorted coordinates detected by the visual sensor
Figure 112009045365118-PAT00001
Using two-dimensional coordinates
Figure 112009045365118-PAT00002
A correction step of calculating; And the two-dimensional coordinates are three-dimensional coordinates representing the surface shape of the actual panel.
Figure 112009045365118-PAT00003
It provides a method for obtaining the three-dimensional shape information of the panel comprising a conversion step of converting.

특히 레이저는 상기 패널의 법선방향으로 조사되는 것이 바람직하다.In particular, the laser is preferably irradiated in the normal direction of the panel.

한편 상기 보정단계에서 상기 왜곡된 좌표와 상기 2차원 좌표는 수학식 1의 관계를 가지는 것이 가능하다.In the correcting step, the distorted coordinates and the two-dimensional coordinates may have a relationship of Equation 1.

[수학식 1][Equation 1]

Figure 112009045365118-PAT00004
, 여기서,
Figure 112009045365118-PAT00005
은 카메라 중심
Figure 112009045365118-PAT00006
로부터의 거리로
Figure 112009045365118-PAT00007
의 관계가 있고,
Figure 112009045365118-PAT00004
, here,
Figure 112009045365118-PAT00005
Silver camera center
Figure 112009045365118-PAT00006
From distance
Figure 112009045365118-PAT00007
Has a relationship with

왜곡함수는

Figure 112009045365118-PAT00008
이다.Distortion function
Figure 112009045365118-PAT00008
to be.

나아가 상기 보정단계에서 변수인 카메라 중심

Figure 112009045365118-PAT00009
Figure 112009045365118-PAT00010
는 차이(Tsai) 격자를 이용해서 테스트 점을 찾고, 비선형 최소 자승 최적화방법을 이용해서 반복적으로 계산해서 산출되는 것이 가능하다.Furthermore, the camera center which is a variable in the correction step
Figure 112009045365118-PAT00009
and
Figure 112009045365118-PAT00010
Can be calculated by finding the test point using the Tsai grid and iteratively calculating it using the nonlinear least-squares optimization method.

한편 상기 변환단계에서 상기 2차원 좌표인

Figure 112009045365118-PAT00011
와 상기 3차원 좌표인
Figure 112009045365118-PAT00012
는 수학식 2의 관계로 이루어질 수 있다.Meanwhile, the two-dimensional coordinates in the conversion step
Figure 112009045365118-PAT00011
And the 3D coordinates
Figure 112009045365118-PAT00012
May be made in relation to Equation 2.

[수학식 2][Equation 2]

Figure 112009045365118-PAT00013
Figure 112009045365118-PAT00013

나아가 수학식 2의 변수(a 내지 l)는 좌우단차가 형성된 교정블록에 레이저를 조사해서 얻어진 꼭지점 정보를 이용해서 산출되는 것이 가능하다.Further, the variables a to l in Equation 2 can be calculated using vertex information obtained by irradiating a laser to a calibration block in which left and right steps are formed.

시각센서로 저가의 렌즈와 카메라를 이용하면 짧은 초점거리인 경우 방사왜곡 현상이 커질 수 있는데, 본 발명에 따르면 방사 왜곡(Radial Distortion)현상을 방지하여, 패널의 잘못된 프로파일 정보를 얻는 것을 방지할 수 있다.When using a low-cost lens and a camera as a visual sensor, the radiation distortion may be increased at a short focal length. According to the present invention, the radial distortion may be prevented, thereby obtaining an incorrect profile information of the panel. have.

또한 본 발명은 방사 왜곡현상을 없애는 보정단계 및 시각센서에 의해서 얻어진 2차원 좌표를 실제 3차원 좌표로 변환하는 변환단계에 대한 알고리즘을 도출해서, 프로그램을 통해서 구현할 수 있다. In addition, the present invention can be implemented by deriving an algorithm for the correction step of eliminating the radiation distortion phenomenon and the conversion step for converting the two-dimensional coordinates obtained by the visual sensor to the actual three-dimensional coordinates.

방사 왜곡 현상을 제거하기 위해 계수를 도출하는 방식으로 비선형 최소 자승 최적화방법을 사용하여 반복적으로(iterative) 계산함으로써 대략적인 범위를 아는 경우 초기치를 정해 줄 수 있고, 보다 빨리 수렴된 결과를 얻을 수 있다. Tsai 격자를 이용할 때 직선 상에 있어야 할 점들을 이용하기 때문에 Tsai 격자의 정확한 치수 정보를 몰라도 방사왜곡을 보정할 수 있다.By iterative calculation using nonlinear least-squares optimization method to derive coefficients to remove the radiation distortion, the initial value can be determined when the approximate range is known, and the converged results can be obtained faster. . Since the Tsai grid uses points that must be on a straight line, the radiation distortion can be corrected without knowing the exact dimensional information of the Tsai grid.

패널의 3차원 형상 정보를 얻기 위해 사용한 선형행렬인 동차변환(Homogeneous Transformation)은 이미지 변환에 많이 사용되며, 하나의 수식으로 이미지의 투영(projection), 이동(translation), 회전(rotation), 축소(dilation) 등을 모두 표현가능하다.Homogeneous Transformation, which is a linear matrix used to obtain three-dimensional shape information of a panel, is widely used for image transformation. One equation can be used for projection, translation, rotation, and reduction of images. dilation) and the like.

이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention that can specifically realize the above object will be described.

본 발명에서는 구조화된 레이저 광을 이용하여 3차원 정보를 얻도록 하였으 며 선형태의 레이저를 이용한다. 선형태의 레이저광을 이용하는 경우 한 시점 평면에 존재하는 형상을 획득하여 일정 방향으로 움직이는 용접로봇의 경우 그 데이터를 이용하기가 쉽다. In the present invention, structured laser light is used to obtain three-dimensional information, and a linear laser is used. In the case of using a linear laser beam, it is easy to use the data in the case of a welding robot moving in a predetermined direction by acquiring a shape existing in one plane of view.

도 1은 본 발명을 구현하기 위한 장치의 개략적인 구성도이다. 이하 도 1을 참조해서 설명한다.1 is a schematic structural diagram of an apparatus for implementing the present invention. A description with reference to FIG. 1 is as follows.

선(line) 형태의 레이저는 660nm의 단색 레이저광을 이용하고 이 파장대만을 통과시켜 외부 노이즈의 간섭을 최소화 하도록 한다. 레이저에 의해 조사된 빛이 형성하는 부채꼴 모양의 광평면이 패널의 표면과 교차하는 레이저띠는 패널의 단면 형상을 나타내고 이것을 카메라 즉 시각센서를 통해 영상으로 획득하게 된다. 이렇게 얻어진 영상 정보를 선형변환시켜 패널의 표면에 대한 3차원 정보를 얻을 수가 있다. Line-type laser uses 660nm monochromatic laser light and passes only this wavelength band to minimize interference of external noise. The laser band in which the fan-shaped optical plane formed by the light irradiated by the laser intersects the surface of the panel represents the cross-sectional shape of the panel and is obtained as an image through a camera, that is, a visual sensor. By linearly transforming the image information thus obtained, three-dimensional information on the surface of the panel can be obtained.

한편 패널에 조사되는 레이저는 상기 패널의 법선 방향으로 조사되는 것이 바람직하다.On the other hand, the laser irradiated to the panel is preferably irradiated in the normal direction of the panel.

도 2는 본 발명의 개략 흐름도이다. 이하 도 2를 참조해서 좌표값의 보정 및 변환 과정에 대해서 간략히 설명한다.2 is a schematic flowchart of the present invention. Hereinafter, a process of correcting and converting a coordinate value will be briefly described with reference to FIG. 2.

우선 패널에 선(line) 형태의 레이저가 조사된다(S10). 도 1에서 패널의 상면에 도시된 레이저가 선의 형태를 이루는 것을 알 수 있다.First, a line laser is irradiated to the panel (S10). In Figure 1 it can be seen that the laser shown on the upper surface of the panel forms a line.

카메라에 감지된 영상 처리 오차를 줄이기 위해 조사된 레이저만을 통과시키는 대역필터, 난반사 제거용 편광필터 등의 각종 필터를 적용한다. 필터는 도 1에 명확히 도시되어 있지는 않지만 카메라의 수광부에 설치되는 것이 바람직하다. 도 8 내지 도 10에서 필터의 원리와 효과를 알 수 있다. 영상 처리시 노이즈를 줄이기 위해 카메라 렌즈 앞부분에 조사된 레이저 광(파장 635nm)만을 통과시키는 밴드패스 필터 또는 편광필터 등을 적용한다. 편광필터는 도 9와 같이 유리와 같은 반사면에 빛이 반사될 때 편광이 되는 것을 착안하여, 이 성분을 줄이기 위해 종종 사용된다. 여기서는 금속성 소재에 레이저 빛이 난반사가 일어날 때 이를 효과적으로 제거하기 위해 사용된다. 도 10에서 보는 바와 같이 편광 필터 적용 후에 레이저 영상이 보다 잘 추출될 수 있음을 알 수 있다.In order to reduce the image processing error sensed by the camera, various filters such as a bandpass filter that passes only the irradiated laser and a polarization filter for removing diffuse reflection are applied. Although not clearly shown in FIG. 1, the filter is preferably installed in the light receiving portion of the camera. 8 to 10 show the principle and effect of the filter. In order to reduce noise during image processing, a bandpass filter or a polarization filter that passes only the laser light (wavelength 635 nm) irradiated to the front of the camera lens is applied. The polarizing filter is often used to reduce this component, paying attention to polarization when light is reflected on a reflective surface such as glass as shown in FIG. 9. It is used here to effectively remove laser light when a diffused reflection occurs in a metallic material. As shown in FIG. 10, it can be seen that the laser image can be better extracted after the polarization filter is applied.

그리고 조사된 레이저를 시각센서인 카메라를 통해서 감지한다(S20).Then, the irradiated laser is detected through the camera which is a visual sensor (S20).

이어서 시각센서를 통해서 감지된 왜곡된 좌표

Figure 112009045365118-PAT00014
를 이상적인 2차원 좌표
Figure 112009045365118-PAT00015
로 보정해서 산출한다(S30). 이때 보정시에 필요한 데이터는 차이(Tsai) 격자를 이용해서 얻는 것이 가능하다.Then, the distorted coordinates detected by the visual sensor
Figure 112009045365118-PAT00014
Ideal two-dimensional coordinates
Figure 112009045365118-PAT00015
It calculates by adjusting to (S30). At this time, data necessary for correction can be obtained by using a Tsai grid.

본 발명을 통해서 최종적으로 얻고자 하는 정보는 패널의 3차원 프로파일이므로, 상기 2차원 좌표를 3차원 좌표

Figure 112009045365118-PAT00016
로 변환한다(S40). 이때 변환시에 필요한 데이터는 단차가 형성된 교정블록을 이용한다.Finally, since the information to be obtained through the present invention is a three-dimensional profile of the panel, the two-dimensional coordinates are converted into three-dimensional coordinates.
Figure 112009045365118-PAT00016
Convert to (S40). At this time, the data required for the conversion uses a calibration block having a step.

도 3 내지 도 5는 차이(Tsai) 격자를 도시한 것이다. 특히 3은 시각센서에 의해서 측정된 왜곡된 영상이다. 시각센서로부터 패널까지의 초점거리가 가까울 수록 방사왜곡 현상이 심해진다.3 to 5 show Tsai gratings. In particular, 3 is a distorted image measured by the visual sensor. The closer the focal length from the visual sensor to the panel, the more severe the radiation distortion.

도 4는 헤리스 코너 추출기를 이용해서 격자의 꼭지점을 찾는 방식을 나타낸 도면이다. 이하 도 4를 참조해서 왜곡된 좌표를 이상적인 2차원 좌표로 보정하는 방법에 대해서 설명한다.4 is a diagram illustrating a method of finding vertices of a grid using a Harris corner extractor. Hereinafter, a method of correcting distorted coordinates to ideal two-dimensional coordinates will be described with reference to FIG. 4.

차이(R.Y. Tsai)가 제안한 보정방법은 R.Y. Tsai, "A versatile camera calibration technique for high accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses", IEEE J. Robotics Automat, Vol. 3, P323 -P344, August 1987 등에 자세히 기술되어 있다.The correction method proposed by R.Y.Tsai is R.Y. Tsai, "A versatile camera calibration technique for high accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses", IEEE J. Robotics Automat, Vol. 3, P323-P344, August 1987 and others.

차이(Tsai) 격자를 이용하는 경우에는 찾아야 하는 계수, 즉 변수의 개수 보다 많은 테스트 점을 찾는다. 모든 테스트 점들에 대해 구해진 계수를 이용해 변형을 했을 때 옮겨지는 좌표와 원래 차이 격자의 좌표간의 거리의 합이 최소가 되도록 계수를 정한다. 이러한 방법을 비선형 최소 자승 최적화방법이라고 하고, Levenberg-Marquardt 방법이라고도 한다. 다시 말해서 상술한 방법에 의해서 카메라 중심

Figure 112009045365118-PAT00017
과 왜곡 함수의 계수를
Figure 112009045365118-PAT00018
반복적으로 구할 수 있다.If you use the Tsai grid, you will find more test points than the number of variables you need to find. Using the coefficients obtained for all the test points, the coefficients are determined so that the sum of the distances between the shifted coordinates and the coordinates of the original difference grid is the minimum when transformed. This method is called nonlinear least-squares optimization and is also called Levenberg-Marquardt method. In other words, the camera center by the method described above
Figure 112009045365118-PAT00017
And the coefficients of the distortion function
Figure 112009045365118-PAT00018
Can be obtained repeatedly.

이때

Figure 112009045365118-PAT00019
, 여기서,
Figure 112009045365118-PAT00020
은 카메라 중심
Figure 112009045365118-PAT00021
로부터의 거리로
Figure 112009045365118-PAT00022
이고, 왜곡함수는
Figure 112009045365118-PAT00023
이다.At this time
Figure 112009045365118-PAT00019
, here,
Figure 112009045365118-PAT00020
Silver camera center
Figure 112009045365118-PAT00021
From distance
Figure 112009045365118-PAT00022
And the distortion function
Figure 112009045365118-PAT00023
to be.

한편 헤리스(Harris) 코너 추출기를 이용하여 격자의 꼭지점을 자동으로 찾 고, 그 꼭지점들 중 일직선 상에 있어야 하는 점들을 변환시켰을 때 그 직선으로부터 떨어진 거리의 합들을 최적화 함수로 이용하여 카메라 중심과 왜곡 함수의 계수를 구할 수 있다. 이렇게 얻어진 계수와 카메라 중심값에 의해서, 도 5와 같이 보정된 영상을 도출할 수 있다.On the other hand, when using Harris's corner extractor to automatically find the vertices of the grid and transform the points that should be on a straight line, the sum of the distances away from the straight line is used as an optimization function to distort the camera center and distortion. The coefficient of the function can be found. The corrected image can be derived as shown in FIG. 5 based on the coefficient and the camera center value thus obtained.

한편 도 4에 도시된 바와 같이 화면의 가장자리에 위치하는 상하좌우의 4개 그룹의 꼭지점들을 마우스를 이용해서 지정하고, 이러한 과정을 자동으로 수행하여 왜곡계수를 찾을 수 있다. 이에 의해서 아래와 같은 결과를 얻을 수 있다.Meanwhile, as shown in FIG. 4, four groups of up, down, left, and right corners positioned at the edge of the screen may be designated using a mouse, and the distortion may be found by automatically performing this process. As a result, the following results can be obtained.

Figure 112009045365118-PAT00024
Figure 112009045365118-PAT00024

Figure 112009045365118-PAT00025
Figure 112009045365118-PAT00025

도 6은 교정블록을 도시한 도면이고, 도 7은 본 발명에 따른 변환방법을 알고리즘으로 구동되는 프로그램의 화면을 도시한 도면이다. 이하 도 6 및 도 7을 참조해서 설명한다.FIG. 6 is a diagram illustrating a calibration block, and FIG. 7 is a diagram illustrating a screen of a program driven by an algorithm of a conversion method according to the present invention. A description with reference to FIGS. 6 and 7 is as follows.

방사왜곡을 보정한 후에 3차원 형상으로 변환하기 위해서는 카메라 교정(Camera Calibration) 단계, 즉 변환단계를 거쳐야 한다. 이에 의해서 이상적인 좌표인 2차원 좌표가 3차원 좌표계로 변환되어 패널에 대한 3차원 형상 정보를 얻을 수 있다.After the correction of the radiation distortion, the conversion to the three-dimensional shape requires a camera calibration step, that is, a conversion step. As a result, two-dimensional coordinates, which are ideal coordinates, are converted into a three-dimensional coordinate system to obtain three-dimensional shape information of the panel.

카메라 영상은 3차원상의 물체를 2차원 평면으로 투사하여 나타내므로 투사중심으로 향하는 광선상의 어떤 점에 있는 영상이 실제로 맺힌 것인지 모호하게 된다. 그러나 본 발명에서는 구조화된 레이저광이 이루는 평면 위에 점이라는 것을 알기 때문에 그 점을 유일하게 결정할 수 있다.Since the camera image is a projection of a three-dimensional object onto a two-dimensional plane, it becomes ambiguous at what point on the ray toward the projection center is actually formed. However, since the present invention knows that the point is on the plane of the structured laser light, the point can be uniquely determined.

본 발명의 변환단계에서는 실제 차원에 한 차원씩을 더한 동차좌표계(Homogeneous Coordinate)를 사용하는 방식을 사용한다. 이때 실공간(Object Space)상의 점 O(u,v,w)과 이에 해당하는 상평면(Image Plane)위의 점I(x,y)와는 선형변환 T를 이용해서 다음과 같은 관계가 있다.In the transformation step of the present invention, a method using a homogeneous coordinate is added by adding one dimension to the actual dimension. At this time, the point O (u, v, w) in the object space and the point I (x, y) on the image plane corresponding thereto have a linear relationship T as follows.

Figure 112009045365118-PAT00026
Figure 112009045365118-PAT00026

패널의 3차원 형상 정보를 얻기 위해 사용한 선형 행렬인 동차변환(Homogeneous Transformation)은 이미지 변환에 많이 사용되며, 하나의수식으로 이미지의 투영(projection), 이동(translation), 회전(rotation), 축소(dilation) 등을 모두 표현가능하다.Homogeneous Transformation, a linear matrix used to obtain three-dimensional shape information of a panel, is widely used for image transformation, and the projection, translation, rotation, and reduction ( dilation) and the like.

선형변환 T에서는 a 부터 l까지 모두 12개의 미지수가 있는데, 하나를 고정시키면 미지수가 11개가 되고, 하나의 대응점을 알 때 식이 3개가 나오게 되어 적어도 4점 이상의 대응점을 알면 모든 미지수를 구할 수 있다. 대응점들이 주어졌을 때 얻어지는 식들을 정리해서 미지수에 대해 정리를 하고, Pseudo Inverse를 이용해서 최소 자승근을 구한다 이때 에러의 영향을 줄이기 위해 충분한 수의 대응점을 줄 수 있다. 이러한 방법을 DLT(Direct Linear Transformation)이라 한다.In the linear transformation T, there are 12 unknowns from a to l. If one is fixed, there are 11 unknowns. When one corresponding point is known, three equations appear. If the corresponding point of at least 4 points is known, all unknowns can be obtained. When the corresponding points are given, the equations obtained are summarized for the unknown, and the least square root is obtained using the pseudo inverse. In this case, a sufficient number of matching points can be given to reduce the effect of the error. This method is called DLT (Direct Linear Transformation).

한편 대응점을 찾기 위해 도 6에 도시된 교정블록을 이용하는 것이 바람직하다. 이 블록은 좌우 3mm, 상하 2mm의 단차를 가지도록 제작하는 것이 가능하다. 상 기 교정블록에 레이저를 조사한 영상을 획득한 뒤 꼭지점을 추출하고, 각 꼭지점에 실제 좌표를 주고 영상을 통해 획득되는 점을 이용해서 변환 행렬(T)을 구한다. 이 행렬이 구해지면 측정된 2차원 좌표를 3차원 좌표로 변환할 수 있고, 최종적으로 패널의 실제 형상에 대한 정보를 얻을 수 있다.On the other hand, it is preferable to use the calibration block shown in Figure 6 to find the corresponding point. This block can be manufactured to have a step of 3mm left and right and 2mm above and below. After acquiring the laser irradiation image of the calibration block, the vertices are extracted, the actual coordinates are given to each vertex, and the transformation matrix T is obtained by using the points acquired through the image. Once this matrix is obtained, the measured two-dimensional coordinates can be converted into three-dimensional coordinates, and finally, information on the actual shape of the panel can be obtained.

도 7에 도시된 바와 같이 상술한 변환방법을 알고리즘으로 하는 프로그램을 통해서 꼭지점 중 13개(필요수 4개 이상)의 대응점을 이용하여 카메라 교정 작업을 수행할 수 있다. 구해진 변수값을 이용해서 교정블록에 대해 계산된 좌표와 실제 좌표들의 오차를 구해보니 RMSE(Root Mean Squared Error)가 0.302mm가 나왔다. 이는 10번 실행한 결과를 평균을 취한 것이다.As illustrated in FIG. 7, a camera calibration operation may be performed using 13 corresponding points (four or more required points) among vertices through a program using the above-described conversion method as an algorithm. The root mean squared error (RSME) was found to be 0.302mm when the error between the coordinates calculated for the calibration block and the actual coordinates was calculated using the obtained variable values. This is an average of the results of 10 runs.

이러한 방식에 따라 시각센서가 부착된 로봇을 이동시키면서 패널의 구해진 단면 정보들을 종합하여, 전체 표면 형상 프로파일(profile)을 구할 수 있다. 특히 구해진 형상 프로파일로부터 로봇 제어에 필요한 법선 정보라든지 갭(gap) 정보를 계산에 의해서 구해낼 수 있다.In this way, the overall surface profile can be obtained by integrating the obtained cross-sectional information of the panel while moving the robot to which the visual sensor is attached. In particular, normal information and gap information necessary for robot control can be obtained by calculation from the obtained shape profile.

본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다.The present invention is not limited to the above-described embodiments, and as can be seen in the appended claims, modifications can be made by those skilled in the art to which the invention pertains, and such modifications are within the scope of the present invention.

도 1은 본 발명을 구현하기 위한 장치의 개략적인 구성도.1 is a schematic structural diagram of an apparatus for implementing the present invention.

도 2는 본 발명의 개략 흐름도.2 is a schematic flowchart of the invention.

도 3 내지 도 5는 차이(Tsai) 격자를 도시한 것으로, 도 3은 시각센서에 의해서 측정된 왜곡된 영상이고, 도 4는 헤리스 코너 추출기를 이용해서 격자의 꼭지점을 찾는 방식을 나타낸 도면, 도 5는 왜곡된 영상이 보정된 결과를 도시한 도면.3 to 5 show a Tsai grating, FIG. 3 is a distorted image measured by a visual sensor, and FIG. 4 is a view showing a vertex of a grating using a Harris corner extractor. 5 shows the result of correcting a distorted image.

도 6은 교정블록을 도시한 도면.6 shows a calibration block;

도 7은 본 발명에 따른 변환방법을 알고리즘으로 하는 프로그램의 화면 중 일부를 도시한 도면.7 is a diagram showing a part of a screen of a program using an algorithm as a conversion method according to the present invention;

도 8a 내지 도 8c는 대역 필터의 효과를 도시한 도면.8A-8C show the effect of a band pass filter;

도 9는 편광 필터의 원리와 편광 필터를 도시한 도면.9 shows the principle of a polarizing filter and a polarizing filter.

도 10은 편광 필터의 적용 전,후의 결과를 도시한 도면.10 is a diagram showing the results before and after applying a polarizing filter.

Claims (6)

패널에 선(line) 형태의 레이저를 조사하는 조사단계;An irradiation step of irradiating a line-shaped laser to the panel; 조사된 레이저를 시각센서를 통해 감지하는 감지단계;Detecting the irradiated laser beam through a visual sensor; 시각센서에 의해서 감지된 왜곡된 좌표인
Figure 112009045365118-PAT00027
를 이용해서 2차원 좌표인
Figure 112009045365118-PAT00028
를 산출하는 보정단계; 및
Distorted coordinates detected by the visual sensor
Figure 112009045365118-PAT00027
Using two-dimensional coordinates
Figure 112009045365118-PAT00028
A correction step of calculating; And
상기 2차원 좌표를 실제 패널의 표면 형상을 표현하는 3차원 좌표인
Figure 112009045365118-PAT00029
로 변환하는 변환단계;를 포함하는 패널의 3차원 형상 정보를 얻는 방법.
The two-dimensional coordinates are three-dimensional coordinates representing the surface shape of the actual panel
Figure 112009045365118-PAT00029
A conversion step of converting the information to a panel;
제1항에 있어서,The method of claim 1, 레이저는 상기 패널의 법선방향으로 조사되고, The laser is irradiated in the normal direction of the panel, 대역 필터 또는 난반사 제거용 편광필터 중 어느 하나를 적용해서, 조사된 레이저만을 감지하는 것을 특징으로 하는 패널의 3차원 형상 정보를 얻는 방법.A method for obtaining three-dimensional shape information of a panel, characterized in that it detects only the irradiated laser by applying one of a band pass filter or a polarization filter for removing diffuse reflection. 제2항에 있어서,The method of claim 2, 상기 보정단계에서 상기 왜곡된 좌표와 상기 2차원 좌표는 수학식 1의 관계를 가지는 것을 특징으로 하는 패널의 3차원 형상 정보를 얻는 방법.And in the correcting step, the distorted coordinates and the two-dimensional coordinates have a relationship of Equation 1.
Figure 112009045365118-PAT00030
Figure 112009045365118-PAT00031
Figure 112009045365118-PAT00032
Figure 112009045365118-PAT00033
, 여기서, 은 카메라 중심로부터의 거리로 의 관계가 있고,
Figure 112009045365118-PAT00030
Figure 112009045365118-PAT00031
Figure 112009045365118-PAT00032
Figure 112009045365118-PAT00033
, Where is relative to the distance from the camera center,
왜곡함수는
Figure 112009045365118-PAT00034
이다.
Distortion function
Figure 112009045365118-PAT00034
to be.
제3항에 있어서,The method of claim 3, 상기 보정단계에서 변수인 카메라 중심
Figure 112009045365118-PAT00035
Figure 112009045365118-PAT00036
는 차이(Tsai) 격자를 이용해서 테스트 점을 찾고, 비선형 최소 자승 최적화방법을 이용해서 반복적으로 계산해서 산출되는 것을 특징으로 하는 패널의 3차원 형상 정보를 얻는 방법.
Camera center which is a variable in the correction step
Figure 112009045365118-PAT00035
and
Figure 112009045365118-PAT00036
The method for obtaining three-dimensional shape information of a panel, characterized in that it is calculated by finding a test point using a Tsai grid and iteratively calculated using a nonlinear least-squares optimization method.
제2항에 있어서,The method of claim 2, 상기 변환단계에서 상기 2차원 좌표인
Figure 112009045365118-PAT00037
와 상기 3차원 좌표인
Figure 112009045365118-PAT00038
는 수학식 2의 관계로 이루어지며 선형행렬 동차변환을 이용한 것을 특징으로 하는 패널의 3차원 형상 정보를 얻는 방법.
The two-dimensional coordinates in the conversion step
Figure 112009045365118-PAT00037
And the 3D coordinates
Figure 112009045365118-PAT00038
Is a relationship of Equation 2, and the method of obtaining three-dimensional shape information of the panel, characterized in that using a linear matrix homogeneous transformation.
Figure 112009045365118-PAT00039
Figure 112009045365118-PAT00039
제5항에 있어서,The method of claim 5, 수학식 2의 변수(a 내지 l)는 좌우단차가 형성된 교정블록에 레이저를 조사해서 얻어진 꼭지점 정보를 이용해서 산출되는 것을 특징으로 하는 패널의 3차원 형상 정보를 얻는 방법.The variables (a to l) of Equation (2) are calculated using vertex information obtained by irradiating a laser to a calibration block in which left and right steps are formed, wherein the three-dimensional shape information of the panel is obtained.
KR1020090067786A 2009-07-24 2009-07-24 How to get 3D shape information of panel Active KR101099610B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090067786A KR101099610B1 (en) 2009-07-24 2009-07-24 How to get 3D shape information of panel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090067786A KR101099610B1 (en) 2009-07-24 2009-07-24 How to get 3D shape information of panel

Publications (2)

Publication Number Publication Date
KR20110010300A true KR20110010300A (en) 2011-02-01
KR101099610B1 KR101099610B1 (en) 2011-12-29

Family

ID=43770861

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090067786A Active KR101099610B1 (en) 2009-07-24 2009-07-24 How to get 3D shape information of panel

Country Status (1)

Country Link
KR (1) KR101099610B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9986170B2 (en) 2013-04-30 2018-05-29 Samsung Electronics Co., Ltd. Method and apparatus for sensing spatial information based on vision sensor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH102722A (en) * 1996-06-18 1998-01-06 Nippon Telegr & Teleph Corp <Ntt> 3D position measuring device
JPH1198531A (en) 1997-09-24 1999-04-09 Sanyo Electric Co Ltd Device for converting two-dimensional image into three-dimensional image and its method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9986170B2 (en) 2013-04-30 2018-05-29 Samsung Electronics Co., Ltd. Method and apparatus for sensing spatial information based on vision sensor

Also Published As

Publication number Publication date
KR101099610B1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
Usamentiaga et al. Multi-camera calibration for accurate geometric measurements in industrial environments
CN110296667B (en) High-reflection surface three-dimensional measurement method based on line structured light multi-angle projection
Kanade Three-dimensional machine vision
US10157458B2 (en) Laser projection system and method
Isa et al. Design and analysis of a 3D laser scanner
Nguyen et al. Laser-vision-based quality inspection system for small-bead laser welding
JP4221768B2 (en) Method and apparatus for positioning an object in space
Santolaria et al. A one-step intrinsic and extrinsic calibration method for laser line scanner operation in coordinate measuring machines
CN102435138B (en) Determine the gap of the body part of motor vehicles and/or the method for flushing property and measurement mechanism
CA2685598A1 (en) Non contact wheel alignment sensor and method
Amir et al. High precision laser scanning of metallic surfaces
Jia et al. A 3D reconstruction method based on grid laser and gray scale photo for visual inspection of welds
US10197390B2 (en) Pre-alignment measurement device and method
CN111256587A (en) A three-dimensional measurement method of high reflectivity surface based on two-line structured light scanning
WO2022068818A1 (en) Apparatus and method for calibrating three-dimensional scanner and refining point cloud data
CN107063130A (en) A kind of workpiece automatic soldering method based on optical grating projection three-dimensionalreconstruction
Emam et al. Dimensional deviation measurement of ceramic tiles according to ISO 10545-2 using the machine vision
KR101099610B1 (en) How to get 3D shape information of panel
JP6908206B1 (en) Shape measuring device, shape measuring system, shape measuring method and shape measuring program
TWI480508B (en) Method and device of measuring position information of spatial image
Molleda et al. A profile measurement system for rail manufacturing using multiple laser range finders
US20240157568A1 (en) System for welding at least a portion of a piece and related methods
Usamentiaga et al. Rail flatness measurement based on dual laser triangulation
KR101008328B1 (en) Grid moving method and grid moving device of 3D measuring device using moire
KR101549310B1 (en) Apparatus and method phase shifting stripe patterns projection for detecting defect of transparent object

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20090724

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20110419

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20111123

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20111221

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20111221

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20140917

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20140917

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20150909

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20150909

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20160922

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20160922

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20170907

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20170907

Start annual number: 7

End annual number: 7

FPAY Annual fee payment

Payment date: 20190909

Year of fee payment: 9

PR1001 Payment of annual fee

Payment date: 20190909

Start annual number: 9

End annual number: 9

PR1001 Payment of annual fee

Payment date: 20200911

Start annual number: 10

End annual number: 10

PR1001 Payment of annual fee

Payment date: 20210908

Start annual number: 11

End annual number: 11

PR1001 Payment of annual fee

Payment date: 20220906

Start annual number: 12

End annual number: 12

PR1001 Payment of annual fee

Payment date: 20230908

Start annual number: 13

End annual number: 13

PR1001 Payment of annual fee

Payment date: 20240911

Start annual number: 14

End annual number: 14