[go: up one dir, main page]

KR102789530B1 - Methods of part recognition and parts-feeder using thereof - Google Patents

Methods of part recognition and parts-feeder using thereof Download PDF

Info

Publication number
KR102789530B1
KR102789530B1 KR1020230191525A KR20230191525A KR102789530B1 KR 102789530 B1 KR102789530 B1 KR 102789530B1 KR 1020230191525 A KR1020230191525 A KR 1020230191525A KR 20230191525 A KR20230191525 A KR 20230191525A KR 102789530 B1 KR102789530 B1 KR 102789530B1
Authority
KR
South Korea
Prior art keywords
parts
alignment
algorithm
component
alignment device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020230191525A
Other languages
Korean (ko)
Inventor
김웅섭
한요한
Original Assignee
주식회사 디밀리언
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디밀리언 filed Critical 주식회사 디밀리언
Priority to KR1020230191525A priority Critical patent/KR102789530B1/en
Application granted granted Critical
Publication of KR102789530B1 publication Critical patent/KR102789530B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • B65G43/08Control devices operated by article or material being fed, conveyed or discharged
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/02Devices for feeding articles or materials to conveyors
    • B65G47/04Devices for feeding articles or materials to conveyors for feeding articles
    • B65G47/12Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles
    • B65G47/14Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles arranging or orientating the articles by mechanical or pneumatic means during feeding
    • B65G47/1407Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles arranging or orientating the articles by mechanical or pneumatic means during feeding the articles being fed from a container, e.g. a bowl
    • B65G47/1442Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles arranging or orientating the articles by mechanical or pneumatic means during feeding the articles being fed from a container, e.g. a bowl by means of movement of the bottom or a part of the wall of the container
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/04Detection means
    • B65G2203/041Camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

본 발명의 일 실시예에서 제안하는 부품 정렬 장치의 부품 인식 방법은 복수 개의 부품을 판 구조체를 포함하는 부품 정렬부에 올려 두고 진동을 가하여 분산시킨 후 로봇 팔을 통해 외부로 공급하는 부품 정렬 장치에 있어서, 상기 부품 정렬부에 분산된 부품을 촬영하는 단계; 상기 촬영된 영상으로부터 객체 도출 알고리즘을 이용하여 위치, 종류 및 정렬 상태에 대한 대상 부품의 정보를 도출하는 단계; 및 상기 도출된 정보를 각각 라벨링하는 단계를 포함한다.In one embodiment of the present invention, a method for recognizing a part of a part alignment device is proposed. The method comprises the steps of: photographing parts distributed on the part alignment device; deriving information on a target part regarding its location, type, and alignment status from the photographed image using an object derivation algorithm; and labeling each of the derived pieces of information.

Description

딥러닝 모델을 활용한 다품종 부품 인식 방법{METHODS OF PART RECOGNITION AND PARTS-FEEDER USING THEREOF}{METHODS OF PART RECOGNITION AND PARTS-FEEDER USING THEREOF}

본 발명은 부품들을 인식하는 부품 인식 방법과 이를 이용한 부품 정렬 장치치에 관한 것이다.The present invention relates to a component recognition method for recognizing components and a component alignment device using the method.

벌크 상태인 부품들을 자동화된 제품 조립 공정에 투입하기 전에 부품들을 일방향으로 정렬하는 기술이 필요하다. A technology is needed to align parts in one direction before they are fed into an automated product assembly process in bulk form.

종래의 부품 정렬기는 가이드라인을 따라 부품이 이동하면 무게중심에 의해 분류되는 형태를 가지고 있다. 다만, 부품이 이동하면서 가이드라인 혹은 다른 장치의 구성요소에 끼어서 장치의 가동이 정지되는 문제가 있었다. 이를 해결하기 위하여 작업자가 상시 배치되어야 한다는 한계가 있었다.Conventional parts sorters are classified by their center of gravity as parts move along the guideline. However, there was a problem in which parts would get caught in the guideline or other device components as they moved, causing the device to stop operating. To solve this problem, there was a limitation that a worker had to be stationed at all times.

도 7은 종래의 부품 정렬기를 나타내는 이미지이며, 어떠한 원리로 부품이 정렬되고 끼어 가동이 정지되는 경우가 발생할 수 있는지를 한눈에 알 수 있다.Figure 7 is an image showing a conventional parts aligner, and it is possible to see at a glance the principle by which parts are aligned and how they can become stuck and stop operation.

이와 함께, 한 번 설계된 종래의 부품 정렬기는 정해진 형태의 부품만 정렬할 수 있으므로 새로운 부품을 정렬하기 위해서는 해당 부품에 맞춰 설계가 들어가야 한다는 한계가 있었다. 이로 인하여 기존의 부품 정렬기는 재활용이 불가능하여 제품 조립 공정에 들어가는 비용이 증가한다는 한계가 있었다.In addition, since conventional parts sorters, once designed, can only sort parts of a fixed shape, there was a limitation that in order to sort new parts, the design had to be tailored to the part. As a result, existing parts sorters could not be reused, which increased the cost of the product assembly process.

따라서 부품 끼임 문제를 해결하여 공정 지연 시간을 줄이고, 다양한 형태의 부품에 적용가능한 부품 정렬 기술이 필요한 실정이다.Therefore, there is a need for a component alignment technology that can solve the component jamming problem, reduce process delay time, and be applied to various types of components.

본 발명의 목적은 상술한 문제를 해결하기 위한 것으로서, 비전 알고리즘을 이용하여 부품을 인식하는 방법과 이를 이용한 부품 정렬 장치를 제안하기 위한 것이다.The purpose of the present invention is to solve the above-described problem, and to propose a method for recognizing a part using a vision algorithm and a part alignment device using the same.

그러나, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 해당 분야 통상의 기술자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved by the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위하여 본 발명의 일 실시예에서 제안하는 부품 정렬 장치의 부품 인식 방법은 복수 개의 부품을 판 구조체를 포함하는 부품 정렬부에 올려 두고 진동을 가하여 분산시킨 후 로봇 팔을 통해 외부로 공급하는 부품 정렬 장치에 있어서, 상기 부품 정렬부에 분산된 부품을 촬영하는 단계; 상기 촬영된 영상으로부터 객체 도출 알고리즘을 이용하여 위치, 종류 및 정렬 상태에 대한 대상 부품의 정보를 도출하는 단계; 및 상기 도출된 정보를 각각 라벨링하는 단계; 를 포함한다.In order to solve the above-described problem, a method for recognizing a part of a part alignment device proposed in one embodiment of the present invention comprises the steps of: a part alignment device that places a plurality of parts on a part alignment unit including a plate structure, applies vibration to disperse them, and then supplies them to the outside through a robot arm; a step of photographing the parts dispersed on the part alignment unit; a step of deriving information on a target part regarding its location, type, and alignment state from the photographed image using an object derivation algorithm; and a step of labeling each of the derived information.

일 실시예에 따르면, 상기 객체 도출 알고리즘은 부품의 종류 및 형태에 따라 다르게 적용 가능하며, YOLO(You Only Look Once) 알고리즘, 색상 도출 알고리즘 및 템플릿 매칭 알고리즘 중 하나 이상을 이용하는 것일 수 있다.According to one embodiment, the object derivation algorithm can be applied differently depending on the type and shape of the part, and may utilize one or more of the YOLO (You Only Look Once) algorithm, the color derivation algorithm, and the template matching algorithm.

일 실시예에 따르면, 상기 대상 부품의 정보를 도출하는 단계는, 상기 부품의 종류 및 형태에 따른 상기 객체 도출 알고리즘의 추천 순서를 사용자에게 제안하고, 상기 객체 도출 알고리즘의 우선 적용 순위를 사용자가 결정하는 과정을 포함할 수 있다.According to one embodiment, the step of deriving information of the target component may include a process of suggesting to the user a recommended order of the object derivation algorithm according to the type and shape of the component, and allowing the user to determine a priority order of application of the object derivation algorithm.

일 실시예에 따르면, 상기 도출하는 단계는 복수의 객체 도출 알고리즘을 이용하고, 상기 복수의 객체 도출 알고리즘 간의 결과값 차이가 기 설정된 임계 값 이상일 경우, 상기 부품 정렬부에 진동을 가하여 상기 부품을 재 분산시킨 후 상기 부품을 촬영하는 단계로 돌아가는 것일 수 있다.According to one embodiment, the deriving step may use a plurality of object deriving algorithms, and when a difference in result values between the plurality of object deriving algorithms is greater than a preset threshold value, the step may return to the step of applying vibration to the part alignment unit to redistribute the part, and then photographing the part.

일 실시예에 따르면, 상기 촬영된 영상은 복수 시점에서 촬영한 영상들을 포함하고, 상기 객체 감지 알고리즘은 상기 복수 시점에서 촬영한 영상들에 각각 스코어 벡터 기반의 가중치를 부과하고 가중치를 총합하여 객체를 감지하는 것일 수 있다.According to one embodiment, the captured image may include images captured at multiple points in time, and the object detection algorithm may detect an object by applying a score vector-based weight to each of the images captured at multiple points in time and adding up the weights.

일 실시예에 따르면, 상기 객체 도출 알고리즘은 상기 판 구조체 배면에서 조영되는 빛의 세기를 조절하며 촬영된 영상에서 상기 정렬 상태에 대한 정보를 도출하는 것일 수 있다.In one embodiment, the object extraction algorithm may adjust the intensity of light projected onto the back surface of the plate structure and derive information about the alignment state from the captured image.

일 실시예에 따르면, 상기 템플릿 매칭 알고리즘은 미리 등록한 대상 부품의 템플릿을 이용하는 것이고, 상기 미리 등록한 대상 부품의 템플릿은 상기 대상 부품이 진동에 의해 분산된 후 상기 부품 정렬부 상에 정지한 상태에서 다양한 각도의 복수의 이미지를 촬영하고 상기 이미지를 상기 부품 정렬부의 베이스 좌표계를 기준으로 변환하여 학습한 것일 수 있다.According to one embodiment, the template matching algorithm uses a template of a pre-registered target part, and the template of the pre-registered target part may be learned by taking a plurality of images at various angles while the target part is stationary on the part alignment unit after being dispersed by vibration, and converting the images based on the base coordinate system of the part alignment unit.

본 발명의 다른 일 실시예에서 제안하는 부품 정렬 장치는 부품 정렬부 상의 대상 부품을 촬영하는 센서부; 상기 센서부로부터 획득된 영상에서 도출 대상 부품을 도출하고 라벨링하는 프로세서부; 상기 라벨링 데이터를 출력하는 송출부; 상기 센서부의 위치 및 각도를 조절하는 카메라 가이드라인; 및 상기 객체 도출 알고리즘 종류를 선택하는 사용자 명령을 입력하는 입력 인터페이스부; 를 포함할 수 있다. 또한, 상기 센서부는 이미지 센서를 탑재한 카메라를 포함하는 것일 수 있다.In another embodiment of the present invention, a parts alignment device may include a sensor unit that photographs a target part on a parts alignment unit; a processor unit that derives and labels a target part from an image acquired from the sensor unit; a transmission unit that outputs the labeling data; a camera guideline that adjusts the position and angle of the sensor unit; and an input interface unit that inputs a user command for selecting the type of object derivation algorithm. In addition, the sensor unit may include a camera equipped with an image sensor.

일 실시예에 따르면, 상기 센서부는 상기 부품 공급기 상의 동일 영역을 촬영하도록 위치와 각도를 설정한 상기 카메라 가이드라인을 따라 이동하는 것일 수 있다.In one embodiment, the sensor unit may move along the camera guideline, the position and angle of which are set to photograph the same area on the parts feeder.

일 실시예에 따르면, 상기 센서부는 복수 개이고, 복수 시점 영상을 프로세서부로 송신하는 것이고, 상기 프로세서부는 상기 부품 인식 방법을 사용하는 것일 수 있다.According to one embodiment, the sensor unit may be a plurality of sensors and transmit multiple viewpoint images to the processor unit, and the processor unit may use the component recognition method.

본 발명의 일 실시예에 따르면 가이드라인을 따라 부품을 밀어내어 정렬시키던 종래의 부품 정렬기와는 달리, 부품을 하나씩 정렬시킬 수 있으므로 부품의 끼임 현상에 의해 공정이 지연되는 시간을 줄일 수 있다. 이에 따라, 부품 끼임 문제에 대응하는 인력의 낭비를 줄여 제품의 생산성을 높이는 데 기여할 수 있다.According to one embodiment of the present invention, unlike conventional parts aligners that align parts by pushing them along guidelines, parts can be aligned one by one, thereby reducing the time that the process is delayed due to the jamming phenomenon of parts. Accordingly, it can contribute to increasing the productivity of products by reducing the waste of manpower in responding to the problem of parts jamming.

또한, 부품의 종류와 형태가 달라지더라도 소프트웨어의 변경만으로 해당 부품을 정렬할 수 있으므로, 장비 변경에 따른 비용 소모와 생산 지연 시간을 줄일 수 있는 효과가 있다.In addition, since the parts can be aligned simply by changing the software even if the type and shape of the parts change, it has the effect of reducing the cost consumption and production delay time due to equipment changes.

다만, 본 발명의 효과는 위에서 설명한 효과에 한정하는 것은 아니며 본 발명에서 제안하는 다양한 구성들로 인하여 자연히 구현되는 모든 효과를 포함하는 것이다.However, the effects of the present invention are not limited to the effects described above, and include all effects naturally implemented due to the various configurations proposed in the present invention.

도 1 은 본 발명의 일 실시예에 따르는 부품 정렬 장치의 부품인식 방법의 각 단계를 순차적으로 나타내는 순서도이다.
도 2는 본 발명의 일 실시예에 따르는 부품 정렬 장치의 일 형태를 예시적으로 나타내는 구조도이다.
도 3은 본 발명의 일 실시예에 따르는 부품 정렬 장치의 부품 정렬기의 일 형태를 예시적으로 나타내는 구조도이다.
도 4는 본 발명의 일 실시예에 따르는 부품 정렬부에 분할 가이드부를 설치한 일 형태를 예시적으로 나타내는 구조도이다.
도 5는 본 발명의 일 실시예에 따르는 복수의 카메라와 카메라 가이드 라인의 일 형태를 예시적으로 나타내는 구조도이다.
도 6은, 본 발명의 일 실시예에 따르는 부품 정렬 장치의 일 형태를 예시적으로 나타내는 도면이다.
도 7은, 종래의 부품 정렬기를 나타내는 이미지이다.
FIG. 1 is a flowchart sequentially showing each step of a component recognition method of a component alignment device according to one embodiment of the present invention.
FIG. 2 is a structural diagram exemplarily showing one form of a parts alignment device according to one embodiment of the present invention.
FIG. 3 is a structural diagram exemplarily showing one form of a parts aligner of a parts aligning device according to one embodiment of the present invention.
FIG. 4 is a structural diagram exemplarily showing one form in which a split guide part is installed in a component alignment part according to one embodiment of the present invention.
FIG. 5 is a structural diagram exemplarily showing one form of a plurality of cameras and camera guide lines according to one embodiment of the present invention.
FIG. 6 is a drawing exemplarily showing one form of a parts alignment device according to one embodiment of the present invention.
Figure 7 is an image showing a conventional parts aligner.

본 발명의 실시예들은 본 발명의 기술적 사상을 설명하기 위한 목적으로 예시된 것이다. 본 발명에 따른 권리범위가 이하에 제시되는 실시예들이나 이들 실시예들에 대한 구체적 설명으로 한정되는 것은 아니다.The embodiments of the present invention are exemplified for the purpose of explaining the technical idea of the present invention. The scope of rights according to the present invention is not limited to the embodiments presented below or the specific description of these embodiments.

본 발명에 사용되는 모든 기술적 용어들 및 과학적 용어들은, 달리 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 갖는다. 본 발명에 사용되는 모든 용어들은 본 발명을 더욱 명확히 설명하기 위한 목적으로 선택된 것이며 본 발명에 따른 권리범위를 제한하기 위해 선택된 것이 아니다.All technical and scientific terms used in this invention, unless otherwise defined, have the meaning commonly understood by a person of ordinary skill in the art to which this invention belongs. All terms used in this invention have been selected for the purpose of more clearly explaining this invention and have not been selected to limit the scope of rights according to this invention.

본 발명에서 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은, 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한, 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.Expressions such as “including,” “comprising,” “having,” etc., used in the present invention should be understood as open-ended terms that imply the possibility of including other embodiments, unless otherwise stated in the phrase or sentence in which the expression is included.

본 발명에서 기술된 단수형의 표현은 달리 언급하지 않는 한 복수형의 의미를 포함할 수 있으며, 이는 청구범위에 기재된 단수형의 표현에도 마찬가지로 적용된다.The singular expressions described in the present invention may include plural meanings unless otherwise stated, and the same applies to the singular expressions described in the claims.

이하, 첨부한 도면들을 참조하여, 본 발명의 실시예들을 설명한다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.Hereinafter, embodiments of the present invention will be described with reference to the attached drawings. In addition, in the description of the embodiments below, duplicate descriptions of identical or corresponding components may be omitted. However, even if the description of a component is omitted, it is not intended that such a component is not included in any embodiment.

본 발명은 제품 조립 공정에 있어서 부품을 정렬할 때, 끼임 문제를 해결하고 다양한 부품에 적용할 수 있는 부품 정렬기를 제안하여 제품 생산성을 높이는 기술을 제공하고자 하는 것이다.The present invention aims to provide a technology for improving product productivity by proposing a parts aligner that can solve the problem of jamming when aligning parts in a product assembly process and can be applied to various parts.

본 발명의 실시예에 따르면 비전 알고리즘을 이용하여 보다 정확한 형태의 부품의 종류 및 배치 상태를 인식할 수 있다. 일 예로서 인식된 정보를 바탕으로 로봇 팔이 올바른 방향으로 잘 배치된 부품을 선택하고, 잡아서 원하는 지점으로 이동시켜 내려놓아(Pick and Place) 정렬시키거나 특정 포인트에 끼워서 조립하는 등의 작업이 가능해진다.According to an embodiment of the present invention, a vision algorithm can be used to recognize the type and arrangement of parts in a more accurate form. For example, based on the recognized information, a robot arm can select a part that is properly arranged in the correct direction, grab it, move it to a desired point, put it down (pick and place), align it, or assemble it by inserting it into a specific point.

이하, 본 발명의 부품 정렬 장치의 부품 인식 방법, 상기 부품 인식 방법을 사용하는 부품 정렬 장치 및 이의 활용에 대하여 실시예 및 도면을 참조하여 구체적으로 설명하도록 한다. 그러나, 본 발명이 이러한 실시예 및 도면에 제한되는 것은 아니다.Hereinafter, the component recognition method of the component alignment device of the present invention, the component alignment device using the component recognition method, and the utilization thereof will be specifically described with reference to examples and drawings. However, the present invention is not limited to these examples and drawings.

일 실시예에 따르면, 상기 부품 정렬 장치는 복수 개의 부품을 부품 정렬기(100)에 올려 두고 진동을 가하여 분산 및 정렬시킨 후 로봇 팔(300)을 통해 외부로 공급하는 장치일 수 있다. 이 때 상기 부품 정렬기는 판 구조체를 포함하는 부품 정렬부를 포함할 수 있다.According to one embodiment, the component alignment device may be a device that places a plurality of components on a component alignment device (100), applies vibrations to disperse and align them, and then supplies them to the outside through a robot arm (300). At this time, the component alignment device may include a component alignment unit including a plate structure.

일 실시예에 따르면, 상기 부품 정렬 장치의 부품 인식 방법은 상기 부품정렬부에 분산된 부품(400)을 촬영하는 단계(S110); 상기 촬영된 영상으로부터 객체 도출 알고리즘을 이용하여 위치, 종류 및 정렬 상태에 대한 대상 부품의 정보를 도출하는 단계(S120); 및 상기 도출된 정보를 각각 라벨링하는 단계(S130);를 포함할 수 있다. 상기 부품 인식 방법에는 라벨링한 후 추가적으로 상기 라벨링된 정보를 외부로 송출하는 단계(S140);가 더 추가될 수 있다. 상기 송출은 부품 정렬기 인근의 로봇 팔로 라벨링된 정보를 송출하는 것일 수 있다.According to one embodiment, the component recognition method of the component alignment device may include a step (S110) of photographing components (400) distributed in the component alignment unit; a step (S120) of deriving information of the target components regarding the location, type, and alignment state from the photographed image using an object derivation algorithm; and a step (S130) of labeling each of the derived information. The component recognition method may further include a step (S140) of additionally transmitting the labeled information to the outside after labeling. The transmitting may be transmitting the labeled information to a robot arm near the component alignment device.

상기 판 구조체는 탄성 면체(150)를 포함할 수 있으며, 상기 진동은 판 구조체에 진동부가 직접 물리적인 진동을 가하는 것일 수 있다. 또한, 상기 진동은 에어블로우를 이용하여 상기 탄성 면체에 공기를 분사하여 발생한 공기의 압력에 의한 것일 수 있으나 이에 제한되는 것은 아니다.The above plate structure may include an elastic cylindrical body (150), and the vibration may be a vibration in which a vibration unit directly applies physical vibration to the plate structure. In addition, the vibration may be due to air pressure generated by blowing air to the elastic cylindrical body using an air blower, but is not limited thereto.

상기 부품 정렬부는 분할 가이드부(110)를 포함할 수 있다. 상기 분할 가이드부는 부품 정렬부의 탄성 면체 상부의 공간을 구획하기 위한 수단일 수 있다. The above-mentioned component alignment part may include a split guide part (110). The split guide part may be a means for dividing a space on the upper part of the elastic surface of the component alignment part.

상기 대상 부품의 정보에는 부품 자체의 외형이나 배치에 대한 정보 뿐 아니라, 상기 분할 가이드부와 부품의 접촉 여부에 대한 정보를 포함할 수 있다. 또한, 상기 부품 정렬부의 가장자리와 부품의 접촉 여부에 대한 정보를 포함할 수 있다. 이와 같이 부품이 분할 가이드부나 부품 정렬부에 접촉하여 있을 경우 상술한 로봇 팔의 집어올리는 작업이 어려울 수 있다. 따라서, 상기 접촉 여부에 대한 정보를 고려하여, 상기 로봇 팔이 옮기는 작업을 수행할 부품을 선택할 수 있다. 이를 통하여 로봇 팔의 부품 파지 실패 확률을 줄일 수 있다. The information of the above target component may include not only information about the appearance or arrangement of the component itself, but also information about whether the split guide part and the component are in contact. In addition, information about whether the edge of the component alignment part and the component are in contact may be included. In this way, if the component is in contact with the split guide part or the component alignment part, the picking operation of the robot arm described above may be difficult. Therefore, the component on which the robot arm performs the moving operation may be selected by considering the information about whether or not there is contact. Through this, the probability of the robot arm's failure to grasp the component can be reduced.

일 실시예에 따르면, 상기 부품 정렬 장치의 부품 인식 방법은 부품의 종류 및 형태에 따라 상기 객체 도출 알고리즘이 다르게 적용 가능하며, YOLO(You Only Look Once) 알고리즘, 색상 도출 알고리즘 및 템플릿 매칭 알고리즘 중 하나 이상을 이용하는 것일 수 있다.According to one embodiment, the component recognition method of the component alignment device may apply the object derivation algorithm differently depending on the type and shape of the component, and may utilize one or more of the YOLO (You Only Look Once) algorithm, the color derivation algorithm, and the template matching algorithm.

상기 YOLO 알고리즘은 단일 단계 방식의 객체 도출 알고리즘일 수 있으며, 이는 이중 단계 방식의 객체 도출 알고리즘에 비해 빠르게 객체를 도출하는 특징을 가질 수 있다. 이와 함께, 상기 색상 도출 알고리즘은 HSV 색공간을 이용하여 색을 정의하는 알고리즘일 수 있다. 또한, 상기 템플릿 매칭 알고리즘은 미리 등록한 대상 부품의 템플릿과 상기 입력 영상에 포함된 상기 대상 부품의 일치 여부를 판별하는 알고리즘일 수 있다. 이외에도 열거되지 않은 다양한 비전 알고리즘이 부품 자체와 배열 상태를 인식하고 이동시킬 부품을 선택하기 위하여 추가적으로 이용될 수 있다.The above YOLO algorithm may be a single-step object derivation algorithm, which may have the characteristic of deriving objects quickly compared to a dual-step object derivation algorithm. In addition, the color derivation algorithm may be an algorithm that defines colors using an HSV color space. In addition, the template matching algorithm may be an algorithm that determines whether a template of a pre-registered target part matches the target part included in the input image. In addition, various vision algorithms that are not listed may be additionally used to recognize the part itself and the arrangement state and to select the part to be moved.

일 실시예에서, 상기 YOLO 알고리즘과 템플릿 매칭 알고리즘은 사전에 상기 영상을 흑백 영상으로 변환하는 과정을 포함할 수 있다. 이는 데이터 처리량을 줄이고 작업 속도를 높이기 위한 목적으로 시행될 수 있다. 상기 공정은 많은 데이터를 동시에 처리하여야 하는, 대량의 부품을 부품 정렬부에 올려 두고 작업하는 공정에서 특히 유용하게 이용될 수 있다. 또한, 상기 흑백 영상으로 변환하는 과정은 부품의 종류와 형태에 따라 적용 여부를 결정할 수 있다.In one embodiment, the YOLO algorithm and the template matching algorithm may include a process of converting the image into a black and white image in advance. This may be implemented for the purpose of reducing the amount of data processing and increasing the work speed. The process may be particularly useful in a process of placing a large number of parts on a parts alignment unit and working on a large amount of data that must be processed simultaneously. In addition, the process of converting to a black and white image may be determined to be applicable depending on the type and shape of the part.

일 실시예에 따르면, 부품 정렬 장치의 부품 인식 방법에 있어서 상기 대상 부품의 정보를 도출하는 단계는, 상기 부품의 종류 및 형태에 따른 상기 객체 도출 알고리즘의 추천 순서를 사용자에게 제안하고, 상기 객체 도출 알고리즘의 우선 적용 순위를 사용자가 결정하는 과정을 포함할 수 있다.According to one embodiment, in a method for recognizing a part of a part sorting device, the step of deriving information of the target part may include a process of suggesting to the user a recommended order of the object derivation algorithm according to the type and shape of the part, and allowing the user to determine the priority order of application of the object derivation algorithm.

상기 추천 순위는 부품의 종류 및 형태에 따라 달라질 수 있다. 예를 들면, 제품의 모양이 복잡하고 부품 부위 간 색상 차이가 뚜렷하지 않을 때는 YOLO 알고리즘을 우선으로 추천할 수 있다. 또한, 부품의 형상이 단순할 때는 템플릿 매칭 알고리즘을 우선으로 추천할 수 있다. 그리고, 부품의 부위 간 색상이 확연한 차이가 날 때는 색상 도출 알고리즘을 우선으로 추천할 수 있다.The above recommendation order may vary depending on the type and shape of the part. For example, when the shape of the product is complex and the color difference between parts is not distinct, the YOLO algorithm may be recommended first. Also, when the shape of the part is simple, the template matching algorithm may be recommended first. And when the color difference between parts is distinct, the color derivation algorithm may be recommended first.

상기 알고리즘은 단지 최적의 제1 알고리즘을 추천하는 것에서 그치지 않고, 제2 및 제3 알고리즘을 추가적으로 추천할 수 있다. 이 때 사용자는 하나 이상의 알고리즘을 선택할 수 있다. 사용자가 다양한 추천 알고리즘 중 복수의 알고리즘을 선택할 경우에는 데이터의 처리는 조금 늦더라도 보다 정확한 부품 및 그 정렬 상태에 대한 정보를 취득할 수 있다. 이와 같이 동시에 복수의 알고리즘을 선택하는 과정은 후공정이 더 복잡하여 부품 공급의 전공정 속도가 비교적 늦어도 되는 공정에서 이용될 수 있다.The above algorithm does not stop at recommending only the optimal first algorithm, but can additionally recommend the second and third algorithms. At this time, the user can select one or more algorithms. If the user selects multiple algorithms among various recommended algorithms, the data processing may be slightly delayed, but more accurate information on the parts and their alignment status can be obtained. In this way, the process of selecting multiple algorithms at the same time can be used in a process where the post-process is more complex and the pre-process speed of the parts supply can be relatively slow.

부품 정렬 장치는 입력 인터페이스를 포함할 수 있다. 상기 입력 인터페이스는 디스플레이 화면을 포함할 수 있다. 상기 추천 알고리즘은 상기 입력 인터페이스의 화면에 표시될 수 있으며, 사용자는 추천 순위를 참고하여 객체 도출 알고리즘의 우선 적용 순위를 결정할 수 있다. 다만, 추천 순위에 제한되지는 않으며 사용자의 판단에 따라 우선 적용 순위를 결정할 수 있다. The component sorting device may include an input interface. The input interface may include a display screen. The recommendation algorithm may be displayed on the screen of the input interface, and the user may determine the priority application order of the object derivation algorithm by referring to the recommendation order. However, it is not limited to the recommendation order, and the priority application order may be determined according to the user's judgment.

일 실시예에 따르면, 상기 부품 정렬 장치의 부품 인식 방법의 상기 도출하는 단계는 복수의 객체 도출 알고리즘을 이용하고, 상기 복수의 객체 도출 알고리즘 간의 결과값 차이가 기 설정된 임계 값 이상일 경우, 상기 판 구조체에 진동을 가하여 상기 부품을 재 분산시킨 후 상기 부품을 촬영하는 단계로 돌아가는 것일 수 있다. According to one embodiment, the deriving step of the component recognition method of the component alignment device may use a plurality of object deriving algorithms, and if a difference in result values between the plurality of object deriving algorithms is greater than a preset threshold value, the step of applying vibration to the plate structure to redistribute the component, and then returning to the step of photographing the component.

상기 결과값은 좌표값을 포함하는 위치 정보일 수 있으나 이에 제한되는 것은 아니다. 상기 좌표값은 부품 정렬부의 판 구조체의 중앙을 중심으로하여 수직 좌표와 수평 좌표의 값이 각각 부여된 것일 수 있다. The above result value may be position information including coordinate values, but is not limited thereto. The above coordinate values may be values of vertical coordinates and horizontal coordinates respectively given with the center of the plate structure of the component alignment section as the center.

이때, 상기 좌표값은 단일 위치의 카메라에서 얻어낸 단일 이미지를 가지고 도출할 경우 카메라의 왜곡 현상으로 인하여 부품의 위치에 오차 값이 포함될 수 있다. 이 경우, 통상적으로 소프트웨어적 처리를 이용하여 캘리브레이션(Callibration) 작업을 주기적으로 수행하여 이러한 오차를 보정할 수 있다. At this time, if the above coordinate values are derived using a single image obtained from a camera at a single location, an error value may be included in the location of the part due to the distortion of the camera. In this case, the error can be corrected by periodically performing a calibration task using software processing.

다만 본 발명의 일 예에 따르면, 상기 오차의 보정을 카메라가 서로 다른 위치에서 촬영한 복수의 이미지를 이용하여 수행할 수 있다. A 위치에서 촬영한 이미지와 B 위치에서 촬영한 이미지를 종합하여 왜곡되는 오차값을 확인하고 이를 보정하는 방식을 취할 수 있다. 이 경우 상기 카메라는 사전에 설정된 위치의 카메라 가이드라인을 따라서 위치를 이동하는 것일 수 있다.However, according to one example of the present invention, the correction of the error can be performed using multiple images taken by the camera at different locations. A method can be taken to check the distorted error value and correct it by synthesizing the image taken at location A and the image taken at location B. In this case, the camera can move along the camera guideline of a pre-set location.

또한, 상기 기 설정된 임계 값의 경우 사용자에 의해 미리 입력되는 것일 수 있다. 상기 임계 값은 부품의 종류와 형태에 따라 달라질 수 있으며, 상기 부품 정렬 장치를 양산 공정에 투입하기 전에 여러 차례의 실험을 통해 정해질 수 있다. In addition, the above preset threshold value may be input in advance by the user. The above threshold value may vary depending on the type and shape of the part, and may be determined through several experiments before the part alignment device is put into mass production.

상기 결과값 차이가 기 설정된 임계 값 이상일 경우, 상기 촬영된 영상을 입력영상으로 사용한 객체 도출 알고리즘의 신뢰도가 높지 않다고 판단할 수 있다. 신뢰도가 높은 영상을 이용하기 위하여 상기 판 구조체에 진동을 가하여 부품을 재 분산시킬 수 있다. 재 분산하는 단계가 기 설정된 횟수만큼 반복될 경우 사용자에게 알람을 보낼 수 있다. 상기 횟수는 사용자가 설정할 수 있다.If the difference in the above result values is greater than the preset threshold value, it can be determined that the reliability of the object extraction algorithm that uses the above-described captured image as an input image is not high. In order to use an image with high reliability, the plate structure can be vibrated to redistribute the components. An alarm can be sent to the user when the redistribution step is repeated a preset number of times. The user can set the number of times.

또한, 상기 결과값 차이가 기 설정된 임계 값 이상일 경우 신뢰도가 높은 객체 도출을 위하여 다시 객체 도출 알고리즘을 실행시킬 수 있다. 같은 영상이라도 다른 확률로 객체를 도출할 수 있으며, 결과값에 차이가 있을 수 있으므로 재 분산하는 과정 없이 객체 도출 알고리즘만을 다시 실행시킬 수 있다.In addition, if the difference in the above result values is greater than a preset threshold value, the object extraction algorithm can be executed again to extract a highly reliable object. Even in the same image, objects can be extracted with different probabilities, and since there may be differences in the result values, only the object extraction algorithm can be executed again without a redistribution process.

일 실시예에 따르면, 상기 부품 정렬기의 부품 인식 방법에 있어서 상기 객체 도출 알고리즘은 상기 판 구조체 배면에서 조영되는 빛의 세기를 조절하며 촬영된 영상에서 상기 정렬 상태에 대한 정보를 도출하는 것일 수 있다.According to one embodiment, in the component recognition method of the component aligner, the object derivation algorithm may be to adjust the intensity of light projected on the back surface of the plate structure and derive information about the alignment state from the captured image.

상기 부품 정렬 장치는 부품 정렬부 하부에 조명부(미도시)를 포함할 수 있다. 상기 조명부의 빛은 아래에서 위로 향할 수 있으며, 판 구조체의 탄성 면체를 통과하여 부품을 비출 수 있다. 빛의 밝기에 따라 객체 도출 알고리즘의 오차가 증가할 수 있다. 상기 오차를 줄이기 위하여 상기 부품 정렬 장치는 빛을 감지하는 센서를 포함할 수 있다. 상기 센서를 통해 주변 환경의 빛의 세기, 색감을 인식할 수 있으며, 인식된 정보를 기반으로 상기 조명부를 조절할 수 있다. The above-described component alignment device may include a lighting unit (not shown) at the bottom of the component alignment unit. The light of the lighting unit may be directed from the bottom to the top, and may pass through the elastic surface of the plate structure to illuminate the component. The error of the object extraction algorithm may increase depending on the brightness of the light. In order to reduce the above-described error, the above-described component alignment device may include a sensor that detects light. The intensity and color of the light of the surrounding environment may be recognized through the sensor, and the lighting unit may be controlled based on the recognized information.

상기 조명부는 부품 정렬부 전체를 비출 수 있다. 또한, 영상이 촬영되는 영역만을 비출 수도 있다. 그리고 상기 분할 가이드부에 의해 나눠진 영역 중 일 영역에만 비출 수 있다. 일 예로, 상기 분할 가이드부에 조명을 비췄을 때, 조명에 의해 그림자가 생길 수 있으며 이는 객체 도출 알고리즘의 오차를 증가시킬 수 있다. 따라서 그림자가 최소화되는 일부 영역에만 조명을 비출 수 있다. The above lighting unit can illuminate the entire component alignment unit. Also, it can illuminate only the area where the image is captured. Also, it can illuminate only one area among the areas divided by the above division guide unit. For example, when the above division guide unit is illuminated, a shadow may be created by the lighting, which may increase the error of the object extraction algorithm. Therefore, it is possible to illuminate only some areas where the shadow is minimized.

일 실시예에 따르면, 상기 부품 정렬 장치의 부품 인식 방법에 있어서 상기 템플릿 매칭 알고리즘은 미리 등록한 대상 부품의 템플릿을 이용하는 것이고, 상기 미리 등록한 대상 부품의 템플릿은 상기 대상 부품이 진동에 의해 분산된 후 상기 부품 정렬부 상에 정지한 상태에서 다양한 각도의 복수의 이미지를 촬영하고 상기 이미지를 상기 부품 정렬부의 베이스 좌표계를 기준으로 변환하여 학습한 것일 수 있다.According to one embodiment, in the component recognition method of the component alignment device, the template matching algorithm uses a template of a pre-registered target component, and the pre-registered template of the target component may be learned by taking a plurality of images at various angles while the target component is stationary on the component alignment unit after being dispersed by vibration, and converting the images based on the base coordinate system of the component alignment unit.

대상 부품의 종류와 형태에 따라 부품 정렬부 상에 정지하는 위치 및 정렬 상태가 다를 수 있다. 또한, 대상 부품의 형태에 따라 상기 부품 정렬부 상에는 홈 혹은 돌기를 형성할 수 있으며, 이는 대상 부품이 굴러가거나 부품 정렬부로부터 튕겨져 나가는 일을 방지할 수 있다. 대상 부품의 정지 형태가 부품 정렬부 상에서 다른 특성을 반영하기 위하여, 상기 템플릿은 상기 부품 정렬부에 분산된 후 정지한 상태의 대상 부품을 촬영하여 학습된 것일 수 있다.Depending on the type and shape of the target part, the position and alignment state at which it stops on the part alignment unit may be different. In addition, depending on the shape of the target part, a groove or a protrusion may be formed on the part alignment unit, which may prevent the target part from rolling or being bounced off the part alignment unit. In order to reflect different characteristics of the stop shape of the target part on the part alignment unit, the template may be learned by photographing the target part in a stop state after being distributed on the part alignment unit.

또한, 상기 미리 등록한 대상 부품의 템플릿은 상기 대상 부품이 부품 정렬부에 공급되기 전에 촬영된 상기 대상 부품의 다양한 각도의 복수의 이미지를 학습하여 수득한 것일 수 있다.Additionally, the template of the pre-registered target part may be obtained by learning multiple images of the target part at various angles taken before the target part is supplied to the part alignment unit.

상기 이미지는 센서부의 좌표계를 기준으로 촬영된 이미지일 수 있으며, 상기 템플릿으로 변환하기 위하여 상기 부품 정렬부의 베이스 좌표계를 기준으로 삼을 수 있다.The above image may be an image captured based on the coordinate system of the sensor unit, and the base coordinate system of the component alignment unit may be used as a reference for conversion into the template.

일 실시예에 따르면, 상기 부품 정렬 장치는 부품 공급기 상의 대상 부품을 촬영하는 센서부; 상기 센서부로부터 획득된 영상에서 도출 대상 부품을 도출하고 라벨링하는 프로세서부; 상기 라벨링 데이터를 출력하는 송출부; 상기 센서부의 위치 및 각도를 조절하는 카메라 가이드라인(210); 및 상기 객체 도출 알고리즘 종류를 선택하는 사용자 명령을 입력하는 입력 인터페이스부; 를 포함하고, 상기 센서부는 이미지 센서를 탑재한 카메라(200)를 포함하는 것일 수 있다.According to one embodiment, the component alignment device includes a sensor unit that photographs a target component on a component feeder; a processor unit that extracts and labels a target component from an image acquired from the sensor unit; a transmission unit that outputs the labeling data; a camera guideline (210) that adjusts the position and angle of the sensor unit; and an input interface unit that inputs a user command for selecting the type of object extraction algorithm; and the sensor unit may include a camera (200) equipped with an image sensor.

상기 센서부는 상기 부품 공급기 상의 동일 영역을 촬영하도록 위치와 각도를 설정한 상기 카메라 가이드라인을 따라 이동하는 것일 수 있다. 상기 카메라 가이드라인은 로봇 팔의 이동 범위에 따라 형태가 달라질 수 있다. 일 예로, 로봇 팔의 운동을 방해하지 않도록 반구의 형태로 형성될 수 있으나 이에 제한되지는 않는다. The above sensor unit may move along the camera guideline whose position and angle are set to capture the same area on the parts feeder. The camera guideline may have a different shape depending on the range of movement of the robot arm. For example, it may be formed in the shape of a hemisphere so as not to interfere with the movement of the robot arm, but is not limited thereto.

상기 센서부의 위치는 상기 라벨링된 데이터가 로봇 팔에 전송된 후, 로봇 팔의 운동에 따라 재조정될 수 있다. 이를 통하여 대상 부품을 촬영 시, 로봇 팔에 의한 간섭을 줄일 수 있으며 다음으로 파지할 부품을 도출하는 시간을 단축시킬 수 있다.The position of the above sensor part can be readjusted according to the movement of the robot arm after the labeled data is transmitted to the robot arm. This reduces interference by the robot arm when photographing the target part, and shortens the time for extracting the next part to be gripped.

일 실시예에 따르면, 상기 부품 정렬 장치는 상기 센서부는 복수 개이고, 복수 시점 영상을 프로세서부로 송신하는 것이고 상기 프로세서부는 상기 부품 인식 방법을 사용하는 것일 수 있다.According to one embodiment, the component alignment device may have a plurality of sensor units that transmit multiple viewpoint images to a processor unit, and the processor unit may use the component recognition method.

상기 복수 개의 센서부를 통해 복수 시점 영상을 촬영할 수 있다. 상기 복수 시점 영상을 각각 객체 도출 알고리즘을 통해 분석할 수 있으며, 스코어 벡터 기반의 가중치를 각각 부여할 수 있다. 부여된 가중치를 총합하여 객체를 도출할 수 있다.Multiple viewpoint images can be captured through the above multiple sensor units. Each of the multiple viewpoint images can be analyzed through an object extraction algorithm, and each can be given a weight based on a score vector. An object can be derived by adding up the given weights.

상기 복수 개의 센서부는 일부는 객체 도출 알고리즘에 투입할 영상을 촬영하는 것일 수 있고, 다른 일부는 대상 부품의 품질을 검사하는 것일 수 있다. 상기 품질은 하이브리드 비전 기술과 포토메트릭 스테레오(photometric stereo) 기술을 사용하여 검사하는 것일 수 있다. 상기 하이브리드 비전 기술은 정형 불량에는 룰 베이스(rule base) 기술을 적용하는 것일 수 있으며, 비정형 불량에는 딥러닝 기술을 적용하는 것일 수 있다. 그리고 포토메트릭 스테레오 기술은 난반사 및 굴곡이 심한 제품의 품질 검사 시 적용되는 것일 수 있다.Some of the above-described multiple sensor units may be configured to capture images to be input into an object extraction algorithm, and others may be configured to inspect the quality of a target component. The quality may be inspected using hybrid vision technology and photometric stereo technology. The hybrid vision technology may apply rule-based technology to regular defects, and deep learning technology to irregular defects. In addition, the photometric stereo technology may be applied when inspecting the quality of a product with severe reflection and curvature.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양하게 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative description of the technical idea of the present invention, and those skilled in the art will appreciate that various modifications and variations may be made without departing from the essential characteristics of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to explain it, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within a scope equivalent thereto should be interpreted as being included in the scope of the rights of the present invention.

100: 부품 정렬기
110: 분할 가이드부
120: 커버
130: 하우징
150: 탄성 면체
200: 카메라
210: 카메라 가이드라인
300: 로봇 팔
310: 그리퍼
400: 부품
100: Parts Aligner
110: Split guide section
120: Cover
130: Housing
150: Elastic cuboid
200: Camera
210: Camera Guidelines
300: Robot Arm
310: Gripper
400: Parts

Claims (8)

복수 개의 부품을 판 구조체를 포함하는 부품 정렬부에 올려 두고 진동을 가하여 분산시킨 후 외부로 공급하는 부품 정렬 장치에 있어서,
상기 부품 정렬부에 분산된 부품을 촬영하는 단계;
상기 촬영된 영상으로부터 객체 도출 알고리즘을 이용하여 위치, 종류 및 정렬 상태에 대한 대상 부품의 정보를 도출하는 단계;
상기 도출된 정보를 각각 라벨링하는 단계;
를 포함하고,
상기 객체 도출 알고리즘은 부품의 형상 복잡도와 색상 차이에 따라 다르게 적용 가능하며,
YOLO(You Only Once) 알고리즘, 색상 도출 알고리즘 및 템플릿 매칭 알고리즘 중 하나 이상을 이용하는 것이고,
상기 복수의 객체 도출 알고리즘 간의 결과값 차이가 기 설정된 임계 값 이상일 경우,
상기 부품 정렬부에 진동을 가하여 상기 부품을 재 분산시킨 후 상기 부품을 촬영하는 단계로 돌아가는 것인,
부품 정렬 장치의 부품 인식 방법.
In a component alignment device that places a plurality of components on a component alignment section including a plate structure, applies vibration to disperse them, and then supplies them to the outside,
A step of photographing parts distributed in the above parts alignment section;
A step of deriving information on the target part regarding its location, type, and alignment status using an object derivation algorithm from the above-described captured image;
A step of labeling each of the above derived information;
Including,
The above object derivation algorithm can be applied differently depending on the shape complexity and color difference of the part.
It uses one or more of the YOLO (You Only Once) algorithm, color derivation algorithm, and template matching algorithm.
If the difference in the results between the above multiple object derivation algorithms is greater than a preset threshold value,
The step of applying vibration to the above-mentioned component alignment section to redistribute the components and then returning to the step of photographing the components.
A method for recognizing parts in a parts alignment device.
삭제delete 제1항에 있어서,
상기 대상 부품의 정보를 도출하는 단계는, 상기 부품의 종류 및 형태에 따른 상기 객체 도출 알고리즘의 추천 순서를 사용자에게 제안하고,
상기 객체 도출 알고리즘의 우선 적용 순위를 사용자가 결정하는 과정을 포함하는,
부품 정렬 장치의 부품 인식 방법.
In the first paragraph,
The step of deriving information on the above target part proposes to the user a recommended order of the object derivation algorithm according to the type and shape of the above part,
Including a process in which the user determines the priority of application of the above object derivation algorithm.
A method for recognizing parts in a parts alignment device.
삭제delete 제1항에 있어서,
상기 객체 도출 알고리즘은 상기 판 구조체 배면에서 조영되는 빛의 세기를 조절하며 촬영된 영상에서 상기 정렬 상태에 대한 정보를 도출하는 것인,
부품 정렬 장치의 부품 인식 방법.
In the first paragraph,
The above object extraction algorithm controls the intensity of light projected on the back surface of the plate structure and derives information about the alignment state from the captured image.
A method for recognizing parts in a parts alignment device.
제1항에 있어서,
상기 템플릿 매칭 알고리즘은 미리 등록한 대상 부품의 템플릿을 이용하는 것이고,
상기 미리 등록한 대상 부품의 템플릿은 상기 대상 부품이 진동에 의해 분산된 후 상기 부품 정렬부 상에 정지한 상태에서 다양한 각도의 복수의 이미지를 촬영하고 상기 이미지를 상기 부품 정렬부의 베이스 좌표계를 기준으로 변환하여 학습한 것인,
부품 정렬 장치의 부품 인식 방법.
In the first paragraph,
The above template matching algorithm uses a template of a pre-registered target part.
The template of the above pre-registered target part is learned by taking multiple images at various angles while the target part is stationary on the part alignment unit after being dispersed by vibration and converting the images based on the base coordinate system of the part alignment unit.
A method for recognizing parts in a parts alignment device.
부품 정렬부 상의 대상 부품을 촬영하는 센서부;
상기 센서부로부터 획득된 영상에서 도출 대상 부품을 도출하고 라벨링하는 프로세서부;
상기 라벨링 데이터를 출력하는 송출부;
상기 센서부의 위치 및 각도를 조절하는 카메라 가이드라인; 및
객체 도출 알고리즘 종류를 선택하는 사용자 명령을 입력하는 입력 인터페이스부; 를 포함하고,
상기 센서부는 이미지 센서를 탑재한 카메라를 포함하는 것이고,
상기 프로세서부는 제1항의 부품 인식 방법을 사용하는 것인,
부품 정렬 장치.
A sensor section that photographs a target part on a parts alignment section;
A processor unit that extracts and labels a target part from an image acquired from the sensor unit;
A transmission unit for outputting the above labeling data;
Camera guidelines for adjusting the position and angle of the above sensor portion; and
An input interface section for entering a user command for selecting a type of object derivation algorithm;
The above sensor part includes a camera equipped with an image sensor,
The above processor unit uses the component recognition method of claim 1.
Parts alignment device.
제7항에 있어서,
상기 센서부는 복수 개이고, 복수 시점 영상을 프로세서부로 송신하는 것인,
부품 정렬 장치.
In Article 7,
The above sensor section is a plurality of units and transmits multiple time point images to the processor section.
Parts alignment device.
KR1020230191525A 2023-12-26 2023-12-26 Methods of part recognition and parts-feeder using thereof Active KR102789530B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230191525A KR102789530B1 (en) 2023-12-26 2023-12-26 Methods of part recognition and parts-feeder using thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230191525A KR102789530B1 (en) 2023-12-26 2023-12-26 Methods of part recognition and parts-feeder using thereof

Publications (1)

Publication Number Publication Date
KR102789530B1 true KR102789530B1 (en) 2025-04-04

Family

ID=95481985

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230191525A Active KR102789530B1 (en) 2023-12-26 2023-12-26 Methods of part recognition and parts-feeder using thereof

Country Status (1)

Country Link
KR (1) KR102789530B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030165264A1 (en) * 2000-07-07 2003-09-04 Atsushi Tanabe Part recognition data creation method and apparatus, electronic part mounting apparatus, and recorded medium
US20210319545A1 (en) * 2020-04-07 2021-10-14 TE Connectivity Services Gmbh Vision inspection system and method of inspecting parts

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030165264A1 (en) * 2000-07-07 2003-09-04 Atsushi Tanabe Part recognition data creation method and apparatus, electronic part mounting apparatus, and recorded medium
US20210319545A1 (en) * 2020-04-07 2021-10-14 TE Connectivity Services Gmbh Vision inspection system and method of inspecting parts

Similar Documents

Publication Publication Date Title
JP6630545B2 (en) Positioning method, positioning device, program, and computer-readable recording medium
US11260534B2 (en) Information processing apparatus and information processing method
CA2151344C (en) Lens inspection system and method
US11972589B2 (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
US8098928B2 (en) Apparatus for picking up objects
US11875528B2 (en) Object bin picking with rotation compensation
US12036678B2 (en) Transparent object bin picking
CN108290286A (en) Method for teaching industrial robots to pick up parts
CN106000904A (en) Automatic sorting system for household refuse
KR20210130409A (en) Classification System and method for atypical recycled goods using Deep learning
US20210047132A1 (en) Systems, methods, and apparatuses, for singulating items in a material handling environment
CN117274209B (en) Bottle body defect detection method, system, medium and electronic equipment
CN113012228A (en) Station positioning system and workpiece positioning method based on deep learning
KR20230061612A (en) Object picking automation system using machine learning and method for controlling the same
CN118823018A (en) A method and system for automatic detection of wine box anomalies based on deep learning
KR102789530B1 (en) Methods of part recognition and parts-feeder using thereof
CN118527372A (en) Material sorting system
CN114192447A (en) Image Recognition-Based Garbage Sorting Method
CN107671002A (en) The clothes method for sorting and its device of view-based access control model detection
CN117853793A (en) Automatic bottle sorting system and method for assembly line
CN118411586A (en) Method for neural network adaptation
KR100357764B1 (en) Apparatus for Leather Quality Inspection using Artificial Intelligence
CN116476059A (en) A Grasping Perception Method for Spatial Manipulator Oriented to Complex Scene Tasks
CN114035578B (en) Warehouse transfer robot transfer method based on path calculation
CN111862198A (en) Image processing apparatus, image processing method, and robot system

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20231226

PA0201 Request for examination

Patent event code: PA02011R01I

Patent event date: 20231226

Comment text: Patent Application

PA0302 Request for accelerated examination

Patent event date: 20231226

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20231226

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240319

Patent event code: PE09021S01D

PN2301 Change of applicant

Patent event date: 20240621

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20240920

Patent event code: PE09021S02D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20250305

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20250327

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20250327

End annual number: 3

Start annual number: 1

PG1601 Publication of registration