[go: up one dir, main page]

JPWO2006135040A1 - Image processing apparatus and image processing method for performing three-dimensional measurement - Google Patents

Image processing apparatus and image processing method for performing three-dimensional measurement Download PDF

Info

Publication number
JPWO2006135040A1
JPWO2006135040A1 JP2006541746A JP2006541746A JPWO2006135040A1 JP WO2006135040 A1 JPWO2006135040 A1 JP WO2006135040A1 JP 2006541746 A JP2006541746 A JP 2006541746A JP 2006541746 A JP2006541746 A JP 2006541746A JP WO2006135040 A1 JPWO2006135040 A1 JP WO2006135040A1
Authority
JP
Japan
Prior art keywords
image
view
camera
setting
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006541746A
Other languages
Japanese (ja)
Other versions
JP4811272B2 (en
Inventor
池田 泰之
泰之 池田
藤枝 紫朗
紫朗 藤枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2006541746A priority Critical patent/JP4811272B2/en
Publication of JPWO2006135040A1 publication Critical patent/JPWO2006135040A1/en
Application granted granted Critical
Publication of JP4811272B2 publication Critical patent/JP4811272B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

撮影された対象物が現れた画像上で3次元計測の対象箇所の特定をするための設定を、ユーザが容易に実行できるようにした画像処理装置であって、光軸を鉛直方向に向けて設置され、ワークWの正面視画像を生成する第1のカメラ(C0)と、光軸を斜め方向に向けて設置され、ワークWの斜視画像を生成する第2のカメラ(C1)とを含む撮像部(1)を有する。計測に先立つ設定時には、設定用の対象物を各カメラ(C0,C1)により撮影し、第1のカメラC0からの正面視画像を用いて、ユーザに計測対象位置を特定するための指定領域についての設定を行わせる。計測時には、設定に基づいて第1のカメラ(C0)からの正面視画像に指定領域を定め、この領域内において計測対象位置を特定する処理が行われる。さらに、第2のカメラ(C1)からの斜め画像について、正面視画像で特定された位置に対応する位置が特定され、3次元座標を算出する処理が行われる。  An image processing apparatus that allows a user to easily execute a setting for specifying a target portion of a three-dimensional measurement on an image of a photographed target object, with an optical axis directed in a vertical direction A first camera (C0) that is installed and generates a front-view image of the workpiece W; and a second camera (C1) that is installed with the optical axis directed obliquely and generates a perspective image of the workpiece W. It has an imaging part (1). At the time of setting prior to measurement, an object to be set is photographed by each camera (C0, C1), and a designated area for specifying a measurement target position to the user using a front view image from the first camera C0. Make settings for. At the time of measurement, a specified area is defined in the front view image from the first camera (C0) based on the setting, and processing for specifying the measurement target position in this area is performed. Furthermore, for the oblique image from the second camera (C1), a position corresponding to the position specified in the front view image is specified, and processing for calculating three-dimensional coordinates is performed.

Description

この発明は、対象物を互いに異なる方向から撮影するように配置された複数のカメラによってそれぞれ撮影された画像に基づいて3次元計測を行う装置に関する。
この明細書でいう「計測」には、検査を目的とする計測を含む。すなわち、一般に、検査の過程で何らかの計測が行われることを踏まえ、単に「計測」という場合には、最終的な出力がたとえば検査の合否だけであって計測値が出力されない場合を含むものとする。
The present invention relates to an apparatus that performs three-dimensional measurement based on images photographed by a plurality of cameras arranged to photograph an object from different directions.
“Measurement” in this specification includes measurement for the purpose of inspection. That is, in general, based on the fact that some measurement is performed in the course of an inspection, the term “measurement” includes a case where the final output is, for example, only a pass / fail of the inspection and no measurement value is output.

従来より、対象物の形状や表面パターンについて、2次元画像処理による計測を行う装置が、種々の製品の製造現場において広く用いられている。これら2次元の画像処理装置では、対象物を代表する面(たとえば対象物の底面)または対象物の計測対象面を対象に、その面に垂直な方向、すなわちその面を正面視する方向から撮影した画像に基づき、計測を行うようにしている。   2. Description of the Related Art Conventionally, an apparatus for measuring the shape and surface pattern of an object by two-dimensional image processing has been widely used at various product manufacturing sites. In these two-dimensional image processing apparatuses, a surface representing the object (for example, the bottom surface of the object) or a measurement target surface of the object is photographed from a direction perpendicular to the surface, that is, a direction in which the surface is viewed from the front. Measurement is performed based on the obtained image.

一方、複数のカメラを用いた立体視の原理に基づく三次元計測の手法が知られており、たとえば特許文献1には、そのような手法を用いたプリント回路基板の検査装置が記載されている。しかし、従来の3次元計測を行う装置は、対象物の種類や性質を限定し、たとえばプリント回路基板検査が目的であればそれに専用化された装置として構成されており、種々の製品の製造現場に適用することができる汎用性と、3次元計測の専門知識がなくても使いこなせる操作性とを備えた装置としては実現されていなかった。   On the other hand, a three-dimensional measurement technique based on the principle of stereoscopic vision using a plurality of cameras is known. For example, Patent Document 1 describes a printed circuit board inspection apparatus using such a technique. . However, conventional three-dimensional measurement devices limit the types and properties of objects, and are configured as specialized devices for the purpose of printed circuit board inspection, for example. However, it has not been realized as a device having versatility that can be applied to the system and operability that can be used without special knowledge of three-dimensional measurement.

日本国公表特許公報 2003−522347号Japanese Published Patent Publication No. 2003-522347

このような状況において、発明者らは、従来の2次元画像処理装置と同様に汎用性に富み、ユーザによる使いこなしが容易であるような、3次元計測機能を備えた画像処理装置を開発することにした。このような方針のもと、発明者らは、種々の形状の対象物を計測対象として、撮影された対象物が表れた画像上で3次元計測の対象箇所の特定をするための設定をユーザが容易にできるようにすることを、課題として設定した。   In such a situation, the inventors develop an image processing apparatus having a three-dimensional measurement function that is as versatile as a conventional two-dimensional image processing apparatus and is easy to use by a user. I made it. Under such a policy, the inventors set the object for specifying the target part of the three-dimensional measurement on the image on which the photographed object appears, with the object of various shapes as the measurement object. It was set as an issue to make it easy to do.

(1)上記の課題を解決するために、この明細書で提案する第1の画像処理装置は、第1のカメラが対象物を撮影した画像に基づいて得られる正面視画像である第1の画像と、第1のカメラが撮影する方向とは異なる方向から対象物を撮影するように配置された第2のカメラが撮影した画像に基づく第2の画像とを用いた処理を行うもので、第1のカメラが設定用の対象物を撮影した画像に基づいて得られた正面視画像であるところの設定用画像を用いて、ユーザに指定領域についての設定をさせる設定手段と、第1のカメラが計測対象の対象物を撮影した画像に基づいて得られた正面視画像であるところの第1の画像に対し、前記設定に基づいて指定領域を定め、当該指定領域内において対象物上の位置を特定する位置特定手段と、第1の画像において特定された前記位置に対応する、第2の画像における位置を特定し、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出する3次元計測手段とを、備えている。 (1) In order to solve the above-described problem, a first image processing apparatus proposed in this specification is a first front-view image obtained based on an image obtained by capturing an object with a first camera. A process using an image and a second image based on an image taken by a second camera arranged to photograph an object from a direction different from the direction taken by the first camera, Setting means for allowing a user to set a designated area using a setting image that is a front view image obtained based on an image obtained by photographing a setting object by a first camera; For the first image, which is a front view image obtained based on an image obtained by photographing the object to be measured by the camera, a designated area is determined based on the setting, and the designated area is defined on the object within the designated area. A position specifying means for specifying a position; and a first A position in the second image corresponding to the position specified in the image is specified, and a three-dimensional coordinate is calculated using the specified position on the first image and the position on the second image 3 A dimension measuring means.

ここで、第1のカメラが対象物を正面視する方向から撮影するように配置されていて、第1のカメラが撮影した画像自体が正面視画像である場合には、第1のカメラが計測対象の対象物を撮影した画像をそのまま第1の画像として用いてもよいし、さらに、第1のカメラが撮影した画像に対して、たとえば位置ずれ修正のための画像の移動のような処理を施した画像を第1の画像として用いてもよい。第1のカメラが対象物を撮影した画像が斜視画像である場合には、少なくともその斜視画像を正面視画像に変換する処理を施した画像が第1の画像として用いられる。   Here, when the first camera is arranged so as to shoot the object from the direction in which the object is viewed in front, and the image itself captured by the first camera is a front-view image, the first camera performs measurement. An image obtained by photographing the target object may be used as it is as the first image, and further, for example, a process such as moving an image for correcting misalignment is performed on the image taken by the first camera. The applied image may be used as the first image. When the image obtained by photographing the object with the first camera is a perspective image, an image subjected to at least processing for converting the perspective image into a front view image is used as the first image.

このような画像処理装置によれば、ユーザは、対象物上の位置を特定するための指定領域の設定を正面視画像に対して行えばよいので、3次元計測の対象箇所を特定するための設定を容易に行うことができる。   According to such an image processing apparatus, the user only needs to set the designated region for specifying the position on the target object for the front view image. Setting can be performed easily.

(2)上記の画像処理装置には、さらに、対象物を斜視する方向から撮影するように配置されている第1のカメラが撮影した斜視画像を正面視画像に変換する変換演算を行う変換手段を備けてもよい。この場合の設定用画像は、第1のカメラが設定用の対象物を斜視する方向から撮影した画像を変換手段が変換することにより得られたものであり、第1の画像は、第1のカメラが計測対象の対象物を斜視する方向から撮影した画像を変換手段が変換することにより得られたものである。 (2) The above image processing apparatus further includes conversion means for performing a conversion operation for converting a perspective image captured by a first camera arranged to capture an object from a perspective direction into a front view image. May be provided. The setting image in this case is obtained by the conversion means converting the image captured from the direction in which the first camera squints the setting object, and the first image is the first image. This is obtained by the conversion means converting the image taken from the direction in which the camera squints the object to be measured.

上記の構成によれば、対象物に対して正面視の方向(たとえば対象物の鉛直上方)にカメラを設置しない場合や設置することができない場合でも、正面視画像に対する領域設定を行うことができる。   According to the above configuration, even when the camera is not installed or cannot be installed in the direction of front view (for example, vertically above the object) with respect to the object, the region setting for the front view image can be performed. .

(3)さらに、上記の変換手段が設けられた画像処理装置の一実施態様では、変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報と、スケール情報と整合する正面視高さであるスケール基準高さの値と、スケール基準高さを含むように定められた正面視高さの許容範囲の値とが利用可能とされる。さらに、第1の画像を対象に、スケール情報を用いて2次元画像処理を行う2次元画像処理手段と、3次元計測手段により算出された前記3次元座標が示す正面視高さが前記許容範囲に含まれているかどうかを判定する判定手段とが、設けられる。 (3) Further, in an embodiment of the image processing apparatus provided with the conversion means, the scale information relating the dimension in the converted front view image and the actual dimension of the measurement target portion is matched with the scale information. The value of the scale reference height that is the height of the front view and the value of the allowable range of the front view height that is determined so as to include the scale reference height can be used. Furthermore, the two-dimensional image processing means for performing the two-dimensional image processing using the scale information for the first image, and the front view height indicated by the three-dimensional coordinates calculated by the three-dimensional measurement means is within the allowable range. Determining means for determining whether or not it is included.

上記の態様によれば、算出された3次元座標が正面視高さの許容範囲になければ、2次元画像処理手段が利用するスケール情報が示すスケールと、第1の画像の実際のスケールとの間に、想定される程度よりも大きな差異があることがわかる。   According to the above aspect, if the calculated three-dimensional coordinates are not within the allowable range of the front view height, the scale indicated by the scale information used by the two-dimensional image processing means and the actual scale of the first image It can be seen that there is a greater difference between them than expected.

(4)変換手段が設けられた画像処理装置の他の態様では、3次元計測手段により算出された前記3次元座標が示す正面視高さを用いて、変換手段により変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報を算出するスケール情報算出手段と、第1の画像を対象に、スケール情報を用いて2次元画像処理を行う2次元画像処理手段とが、さらに設けられる。 (4) In another aspect of the image processing apparatus provided with the conversion unit, in the front view image converted by the conversion unit using the front view height indicated by the three-dimensional coordinates calculated by the three-dimensional measurement unit. Scale information calculating means for calculating scale information relating the dimensions and actual dimensions of the measurement target portion, and two-dimensional image processing means for performing two-dimensional image processing using the scale information for the first image. Further provided.

上記の態様によれば、正面視高さの実測値により算出されたスケール情報を用いて2次元画像処理を行うので、対象物についてのより正確な計測を行うことができる。   According to the above aspect, since the two-dimensional image processing is performed using the scale information calculated from the actual measurement value of the front view height, it is possible to perform more accurate measurement on the target object.

(5)変換手段が設けられた画像処理装置の他の態様では、変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報と、スケール情報と整合する正面視高さであるスケール基準高さの値とが利用可能とされており、ユーザによる操作に基づきスケール基準高さおよびスケール情報を整合的に変更する調整手段とが、さらに設けられる。 (5) In another aspect of the image processing apparatus provided with the conversion means, the scale information relating the dimensions in the converted front view image and the actual dimensions of the measurement target portion, and the front view height matching the scale information A scale reference height value is available, and adjustment means for changing the scale reference height and the scale information consistently based on an operation by the user is further provided.

上記の態様によれば、ユーザによる操作に基づき、スケール基準高さが3次元計測の対象箇所の実際の正面視高さにほぼ一致するように調整されると、第2の画像上において計測対象箇所が現れる可能性のある範囲が小さくなる。したがって、そのような小さい範囲を対象として、第1の画像上で特定された位置に対応する位置を特定するようにすれば、第1の画像、第2の画像間での計測対象位置の対応付けを誤る可能性が低くなり、対応位置を特定する演算に要する時間も短くなる。
また、ユーザによる操作に基づきスケール情報が正しく調整されると、第1の画像に対して寸法や面積の計測を伴う種々の2次元画像処理を適用したときに、その結果に含まれる誤差が少なくなる。
According to the above aspect, when the scale reference height is adjusted based on the operation by the user so as to substantially match the actual front view height of the target portion of the three-dimensional measurement, the measurement target is displayed on the second image. The range in which the location may appear is reduced. Therefore, if the position corresponding to the position specified on the first image is specified for such a small range, the correspondence of the measurement target position between the first image and the second image is determined. The possibility of erroneous attachment is reduced, and the time required for the calculation for specifying the corresponding position is also reduced.
In addition, when the scale information is correctly adjusted based on the operation by the user, when various two-dimensional image processes involving measurement of dimensions and areas are applied to the first image, the error included in the result is small. Become.

(6)上記(5)の態様の画像処理装置には、第1の画像に対してスケール基準高さにある平面上における実際の寸法を示すスケール図形を加えた表示用の画像を編集する画像編集手段を設けてもよい。この場合、編集された画像が表示されると、ユーザは表示されたスケール図形と計測対象箇所の像との大きさの関係が正しくなるように調整操作を行うことができる。 (6) In the image processing apparatus according to the above aspect (5), an image for editing a display image in which a scale figure indicating an actual dimension on a plane at a scale reference height is added to the first image. Editing means may be provided. In this case, when the edited image is displayed, the user can perform an adjustment operation so that the size relationship between the displayed scale graphic and the image of the measurement target portion is correct.

(7)撮影された対象物が現れた画像上で3次元計測の対象箇所を特定するための設定をユーザが容易に実行できるようにする、という課題を解決する画像処理装置の第2の構成として、この明細書では、第1のカメラが対象物を斜視する方向から撮影した画像に基づいて得られる正面視画像である第1の画像と、第1のカメラが撮影する方向とは異なる方向から対象物を撮影するように配置された第2のカメラが撮影した画像に基づく第2の画像とを用いた処理を行う画像処理装置であって、対象物を斜視する方向から撮影するように配置されている第1のカメラが撮影した斜視画像を正面視画像に変換する変換演算を行う変換手段と、第1のカメラが設定用の対象物を撮影した画像を前記変換手段が変換することにより得られた設定用画像を用いて、ユーザに計測対象位置についての設定をさせる設定手段と、第1のカメラが計測対象の対象物を撮影した画像を前記変換手段が変換することにより得られた第1の画像上において、前記設定に基づいて対象物上の位置を特定する位置特定手段と、第1の画像において特定された前記位置に対応する、第2の画像における位置を特定し、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出する3次元計測手段とを備えた画像処理装置を、提案する。 (7) Second configuration of an image processing apparatus that solves the problem of enabling a user to easily execute a setting for specifying a target portion of a three-dimensional measurement on an image in which a captured target object appears. In this specification, the first image, which is a front view image obtained based on an image captured from the direction in which the first camera squints the object, and a direction different from the direction in which the first camera captures An image processing apparatus that performs processing using a second image based on an image captured by a second camera arranged to capture an object from a direction in which the object is perspectively viewed Conversion means for performing a conversion operation for converting a perspective image captured by the arranged first camera into a front-view image, and the conversion means for converting an image obtained by capturing an object for setting by the first camera. Setting image obtained by On the first image obtained by converting the setting means for allowing the user to set the measurement target position and the image obtained by photographing the target object to be measured by the first camera. , Position specifying means for specifying a position on the object based on the setting, and a position in the second image corresponding to the position specified in the first image, and the specified first image An image processing apparatus including a three-dimensional measuring unit that calculates three-dimensional coordinates using the upper position and the position on the second image is proposed.

このような画像処理装置によれば、カメラが撮影する画像が斜視画像であるにもかかわらず、ユーザは、対象物上の位置を特定するための設定を正面視画像に対して行えばよいので、3次元計測の対象箇所を特定するための設定を容易に行うことができる。さらに、対象物に対して正面視の方向にカメラを設置しない場合や設置することができない場合でも、設定を容易に行うことができる。   According to such an image processing device, the user only has to make a setting for specifying the position on the object with respect to the front view image even though the image captured by the camera is a perspective image. It is possible to easily perform setting for specifying a target portion for three-dimensional measurement. Furthermore, the setting can be easily performed even when the camera is not installed or cannot be installed in the front view direction with respect to the object.

(8)上記第2の構成の画像処理装置にかかる一態様では、変換手段により変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報と、スケール情報と整合する正面視高さであるスケール基準高さの値と、スケール基準高さを含むように定められた正面視高さの許容範囲の値とが利用可能とされており、第1の画像を対象に、スケール情報を用いて2次元画像処理を行う2次元画像処理手段と、3次元計測手段により算出された前記3次元座標が示す正面視高さが前記許容範囲に含まれているかどうかを判定する判定手段とが、さらに設けられる。 (8) In an aspect of the image processing apparatus having the second configuration described above, the scale information relating the dimensions in the front view image converted by the conversion means and the actual dimensions of the measurement target portion is matched with the scale information. The value of the scale reference height that is the front view height and the value of the allowable range of the front view height that is determined to include the scale reference height are available, and the first image is targeted. Determining whether the front view height indicated by the three-dimensional coordinates calculated by the two-dimensional image processing means that performs two-dimensional image processing using the scale information is included in the allowable range. Determination means is further provided.

上記の態様によれば、算出された3次元座標が正面視高さの許容範囲になければ、2次元画像処理手段が利用するスケール情報が示すスケールと、第1の画像の実際のスケールとの間に、想定される程度よりも大きな差異があることがわかる。   According to the above aspect, if the calculated three-dimensional coordinates are not within the allowable range of the front view height, the scale indicated by the scale information used by the two-dimensional image processing means and the actual scale of the first image It can be seen that there is a greater difference between them than expected.

(9)第2の構成の画像処理装置の他の態様では、3次元計測手段により算出された3次元座標が示す正面視高さを用いて、変換手段により変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報を算出するスケール情報算出手段と、第1の画像を対象に、スケール情報を用いて2次元画像処理を行う2次元画像処理手段とが、さらに設けられる。 (9) In another aspect of the image processing apparatus of the second configuration, the dimensions in the front view image converted by the conversion means using the front view height indicated by the three-dimensional coordinates calculated by the three-dimensional measurement means, Scale information calculating means for calculating scale information relating the actual dimensions of the measurement target portion, and two-dimensional image processing means for performing two-dimensional image processing using the scale information for the first image. Provided.

上記の態様によれば、正面視高さの実測値により算出されたスケール情報を用いて2次元画像処理を行うので、対象物についてのより正確な計測を行うことができる。   According to the above aspect, since the two-dimensional image processing is performed using the scale information calculated from the actual measurement value of the front view height, it is possible to perform more accurate measurement on the target object.

(10)第2の構成の画像処理装置の他の態様では、変換手段により変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報と、スケール情報と整合する正面視高さであるスケール基準高さの値とが利用可能とされており、ユーザによる操作に基づきスケール基準高さおよびスケール情報を整合的に変更する調整手段が、さらに設けられる。 (10) In another aspect of the image processing apparatus having the second configuration, the scale information relating the dimensions in the front view image converted by the conversion means and the actual dimensions of the measurement target portion, and the front matching the scale information The scale reference height value, which is the visual height, can be used, and adjustment means for changing the scale reference height and the scale information consistently based on an operation by the user is further provided.

上記の態様においては、ユーザによる操作に基づき、スケール基準高さが3次元計測の対象箇所の実際の正面視高さにほぼ一致するように調整されると、第2の画像上において計測対象箇所が現れる可能性のある範囲が小さくなる。したがって、そのような小さい範囲を対象として、第1の画像上で特定された位置に対応する位置を特定するようにすれば、第1の画像、第2の画像間での計測対象位置の対応付けを誤る可能性が低くなり、対応位置を特定する演算に要する時間も短くなる。
また、ユーザによる操作に基づきスケール情報が正しく調整されると、第1の画像に対して寸法や面積の計測を伴う種々の2次元画像処理を適用したときに、その結果に含まれる誤差が少なくなる。
In the above aspect, when the scale reference height is adjusted so as to substantially coincide with the actual front view height of the target portion of the three-dimensional measurement based on the operation by the user, the measurement target portion on the second image The range in which can appear is reduced. Therefore, if the position corresponding to the position specified on the first image is specified for such a small range, the correspondence of the measurement target position between the first image and the second image is determined. The possibility of erroneous attachment is reduced, and the time required for the calculation for specifying the corresponding position is also reduced.
In addition, when the scale information is correctly adjusted based on the operation by the user, when various two-dimensional image processes involving measurement of dimensions and areas are applied to the first image, the error included in the result is small. Become.

(11)上記(10)の態様の画像処理装置には、第1の画像に対してスケール基準高さにある平面上における実際の寸法を示すスケール図形を加えた表示用の画像を編集する画像編集手段を、さらに設けてもよい。このようにすれば、編集された画像が表示されると、ユーザは表示されたスケール図形と計測対象箇所の像との大きさの関係が正しくなるように調整操作を行うことができる。 (11) In the image processing apparatus according to the above aspect (10), an image for editing a display image in which a scale figure indicating an actual dimension on a plane at a scale reference height is added to the first image. Editing means may be further provided. In this way, when the edited image is displayed, the user can perform an adjustment operation so that the relationship between the displayed scale figure and the image of the measurement target portion is correct.

(12)この明細書で提案する第1の画像処理方法は、第1のカメラが対象物を撮影した画像に基づいて得られる正面視画像である第1の画像と、第1のカメラが撮影する方向とは異なる方向から対象物を撮影するように配置された第2のカメラが撮影した画像に基づく第2の画像とを用いた処理を行うものであって、第1のカメラが設定用の対象物を撮影した画像に基づいて得られた正面視画像であるところの設定用画像を表示し、ユーザに当該設定用画像を用いて指定領域についての設定をさせる設定ステップと、第1のカメラが計測対象の対象物を撮影した画像に基づいて得られた正面視画像であるところの第1の画像に対し、前記設定に基づいて指定領域を定め、当該指定領域内において対象物上の位置を特定する位置特定ステップと、第1の画像において特定された前記位置に対応する、第2の画像における位置を特定し、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出する3次元計測ステップとを備えている。 (12) In the first image processing method proposed in this specification, a first image which is a front view image obtained based on an image obtained by photographing a target by the first camera, and a first camera A second image based on an image photographed by a second camera arranged to photograph an object from a direction different from the direction in which the first camera is used for setting. A setting step for displaying a setting image that is a front-view image obtained based on an image obtained by photographing the target object, and allowing the user to set a designated area using the setting image; For the first image, which is a front view image obtained based on an image obtained by photographing the object to be measured by the camera, a designated area is determined based on the setting, and the designated area is defined on the object within the designated area. Positioning step for identifying the position The position in the second image corresponding to the position specified in the first image is specified, and the three-dimensional coordinates are determined using the specified position on the first image and the position on the second image. And a three-dimensional measurement step for calculating.

(13)この明細書で提案する第2の画像処理方法は、対象物を斜視する方向から撮影するように配置されている第1のカメラが対象物を撮影した画像に基づいて得られる正面視画像である第1の画像と、第1のカメラが撮影する方向とは異なる方向から対象物を撮影するように配置された第2のカメラが撮影した画像に基づく第2の画像とを用いた処理を行うもので、第1のカメラが撮影した斜視画像を正面視画像に変換する変換演算により、第1のカメラが設定用の対象物を撮影した画像を設定用画像に変換し、ユーザに当該設定用画像を用いて計測対象位置についての設定をさせる設定ステップと、前記変換演算により、第1のカメラが計測対象の対象物を撮影した画像を第1の画像に変換し、第1の画像上において、前記設定に基づき対象物上の位置を特定する位置特定ステップと、第1の画像において特定された前記位置に対応する、第2の画像における位置を特定し、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出する3次元計測ステップとを備えている。 (13) The second image processing method proposed in this specification is a front view obtained based on an image obtained by photographing a target by a first camera arranged so as to photograph the target from a perspective direction. A first image, which is an image, and a second image based on an image taken by a second camera arranged to photograph an object from a direction different from the direction taken by the first camera are used. In this process, the image obtained by photographing the setting object by the first camera is converted into the setting image by a conversion operation for converting the perspective image photographed by the first camera into the front view image. The setting step for setting the measurement target position using the setting image, and the conversion calculation, the first camera converts an image obtained by photographing the measurement target object into the first image. Based on the above settings on the image A position specifying step for specifying a position on the object, a position in the second image corresponding to the position specified in the first image, a position on the first image specified and a second position specified And a three-dimensional measurement step for calculating a three-dimensional coordinate using the position on the image.

上記第1,第2の画像処理方法によれば、ユーザは、撮影された対象物が表れた画像上で3次元計測の対象箇所を特定するための設定を容易に行うことができる。   According to the first and second image processing methods, the user can easily perform setting for specifying the target portion of the three-dimensional measurement on the image on which the photographed target object appears.

この発明が適用された検査装置の撮像部の構成を設置例ともに示す斜視図である。It is a perspective view which shows the structure of the imaging part of the test | inspection apparatus with which this invention was applied with the example of installation. 各カメラで撮像された画像の例を示す説明図である。It is explanatory drawing which shows the example of the image imaged with each camera. 検査装置のブロック図である。It is a block diagram of an inspection device. ICの検査にかかる手順を示すフローチャートである。It is a flowchart which shows the procedure concerning a test | inspection of IC. 検出領域の設定例を示す説明図である。It is explanatory drawing which shows the example of a setting of a detection area. ティーチング処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a teaching process. 位置決め領域の設定例を示す説明図である。It is explanatory drawing which shows the example of a setting of a positioning area | region. リード検査の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of a lead test | inspection. 検査時の正面視画像中のワークに対する位置決め領域および検出領域の関係を示す説明図である。It is explanatory drawing which shows the relationship between the positioning area | region with respect to the workpiece | work in the front view image at the time of a test | inspection, and a detection area. 各画像間の対応点の関係を示す説明図である。It is explanatory drawing which shows the relationship of the corresponding point between each image. サーチ領域の設定方法を示す説明図である。It is explanatory drawing which shows the setting method of a search area | region. 高さの範囲とサーチ領域との関係を示す説明図である。It is explanatory drawing which shows the relationship between the range of height and a search area | region. ワーク上の検査対象部位に対するモデル登録例を示す説明図である。It is explanatory drawing which shows the example of model registration with respect to the test | inspection site | part on a workpiece | work. 文字キーの検査にかかる手順を示すフローチャートである、It is a flowchart which shows the procedure concerning inspection of a character key. 検査時の画像に対し、検査対象の領域およびサーチ領域を設定した例を示す説明図である。It is explanatory drawing which shows the example which set the area | region and search area | region to be examined with respect to the image at the time of a test | inspection. 円形の表示領域を有するワークにかかる正面視画像および斜視画像を示す説明図である。It is explanatory drawing which shows the front view image and perspective view concerning a workpiece | work which have a circular display area. 良品ワークに対する表示領域および計測対象領域の指定結果を示す説明図である。It is explanatory drawing which shows the designation | designated result of the display area and measurement object area | region with respect to a quality work. 図16のワークの高さ検査を行う場合の手順を示すフローチャートである。It is a flowchart which shows the procedure in the case of performing the workpiece | work height inspection of FIG. 計測対象領域およびサーチ領域がワークの位置変化に追随する例を示す説明図である。It is explanatory drawing which shows the example in which a measurement object area | region and a search area follow the position change of a workpiece | work. 正面視用の仮想のカメラを設定する例を示した説明図である。It is explanatory drawing which showed the example which sets the virtual camera for front view. 斜視画像を正面視画像に変換するための方法を示す説明図である。It is explanatory drawing which shows the method for converting a perspective image into a front view image. 検査に先立って行われる設定の手順を示すフローチャートである。It is a flowchart which shows the procedure of the setting performed prior to a test | inspection. 正面視画像への変換処理を伴う検査の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the test | inspection accompanied by the conversion process to a front view image. 正面視画像への変換処理を伴う検査の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the test | inspection accompanied by the conversion process to a front view image. 正面視画像への変換処理を伴う検査の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the test | inspection accompanied by the conversion process to a front view image. スケール基準高さおよびスケール情報の変更を含む設定の手順を示すフローチャートである。It is a flowchart which shows the procedure of the setting including the change of scale reference height and scale information. 斜視カメラによるワークの撮影状況を示す説明図である。It is explanatory drawing which shows the imaging | photography condition of the workpiece | work by a perspective camera. モニタに表示されるウインドウの内容を示す説明図である。It is explanatory drawing which shows the content of the window displayed on a monitor. スケール基準高さの変更に伴う編集画像の表示内容の変化を示す説明図である。It is explanatory drawing which shows the change of the display content of the edited image accompanying the change of scale reference | standard height.

図1は、この発明が適用された検査装置(画像処理装置)の撮像部の構成を、その設置例とともに示す。
この検査装置は、3次元および2次元の双方の計測処理機能を有するもので、工場の検査ラインLを搬送される検査対象物W(以下、「ワークW」という。)を、撮像部1により順に撮像して、種々の検査目的に応じた計測処理や判別処理を実行する。
撮像部1は、筐体15内に2台のカメラC0,C1を組み込んだ構成のもので、検査ラインLの上方に設置される。一方のカメラC0は、その光軸を鉛直方向に向けた状態(ワークWに対して正面視の状態)で設置される。他方のカメラC1は、カメラC0と視野が重なるようにして、光軸を傾斜させた状態で設置される。カメラC0およびカメラC1の視野の範囲を規定する撮像面は矩形であり、カメラC1はカメラC0に対して、カメラC0の視野の範囲の横方向(図2の画像A0のx軸方向に対応する。)に沿って並ぶように配置されている。
FIG. 1 shows a configuration of an imaging unit of an inspection apparatus (image processing apparatus) to which the present invention is applied, along with an installation example thereof.
This inspection apparatus has both three-dimensional and two-dimensional measurement processing functions, and an inspection object W (hereinafter referred to as “work W”) transported along a factory inspection line L is captured by the imaging unit 1. Imaging is performed in order, and measurement processing and discrimination processing according to various inspection purposes are executed.
The imaging unit 1 has a configuration in which two cameras C0 and C1 are incorporated in a housing 15, and is installed above the inspection line L. One camera C0 is installed with its optical axis oriented in the vertical direction (front view with respect to the workpiece W). The other camera C1 is installed with the optical axis tilted so that the field of view overlaps the camera C0. The imaging plane that defines the field of view of the camera C0 and the camera C1 is rectangular, and the camera C1 corresponds to the camera C0 in the lateral direction of the field of view of the camera C0 (the x-axis direction of the image A0 in FIG. 2). .) Are arranged in line.

図2は、各カメラC0,C1により生成されたワークWの画像の例を示す。図中のA0がカメラC0からの画像であり、A1がカメラC1からの画像である。この図2および後記する図5等のワークWの画像を例示する図では、各画像A0,A1中のワークについても、図1と同様にWを用いて示す。また、画像A0の横方向(水平方向)をx軸方向、縦方向(垂直方向)をy軸方向とする。   FIG. 2 shows an example of an image of the workpiece W generated by each camera C0, C1. In the figure, A0 is an image from the camera C0, and A1 is an image from the camera C1. In the figure illustrating the image of the work W in FIG. 2 and FIG. 5 and the like which will be described later, the work in each of the images A0 and A1 is also shown using W as in FIG. The horizontal direction (horizontal direction) of the image A0 is the x-axis direction, and the vertical direction (vertical direction) is the y-axis direction.

カメラC0は光軸を鉛直方向に向けて設置されているので、画像A0は、ワークWの上面を正面から見た状態を示すものとなる。これに対し、カメラC1は光軸を斜めに向けて設置されているので、画像A1には、斜めから見た状態のワークWが現れる。以下では、カメラC0からの画像A0を「正面視画像A0」といい、カメラC1からの画像A1を「斜視画像A1」という。正面視画像A0は「第1の画像」、斜視画像A1は「第2の画像」に相当する。この検査装置では、まず画像の歪みが小さい(ワークWの平面図に近い)正面視画像A0を用いて計測対象位置を特定し、つぎに斜視画像A1上で、正面視画像A0上の計測対象位置に対応する位置を特定するようにしている。   Since the camera C0 is installed with the optical axis oriented in the vertical direction, the image A0 shows a state where the upper surface of the workpiece W is viewed from the front. On the other hand, since the camera C1 is installed with the optical axis directed obliquely, the work W in a state seen from the oblique appears in the image A1. Hereinafter, the image A0 from the camera C0 is referred to as “front-view image A0”, and the image A1 from the camera C1 is referred to as “perspective image A1”. The front-view image A0 corresponds to a “first image”, and the perspective image A1 corresponds to a “second image”. In this inspection apparatus, first, a measurement target position is specified using a front-view image A0 with a small image distortion (close to the plan view of the workpiece W), and then a measurement target on the front-view image A0 on the perspective image A1. The position corresponding to the position is specified.

図3は、検査装置の全体構成を示すブロック図である。この検査装置は、撮像部1のほか、本体部2、モニタ3、コンソール4などにより構成される。本体部2には、各カメラC0,C1に対する画像入力部10,11、カメラ駆動部12、演算処理部20、出力部28などが設けられる。   FIG. 3 is a block diagram showing the overall configuration of the inspection apparatus. In addition to the imaging unit 1, the inspection apparatus includes a main body unit 2, a monitor 3, a console 4 and the like. The main body 2 is provided with image input units 10 and 11 for the cameras C0 and C1, a camera drive unit 12, an arithmetic processing unit 20, an output unit 28, and the like.

カメラ駆動部12は、図示しないワーク検出用のセンサからの検知信号を受けて各カメラC0,C1を同時に駆動する。各カメラC0,C1により生成された画像信号は、それぞれの画像入力部10,11に入力され、ディジタル変換される。これにより、カメラ毎に計測処理用のディジタル画像(正面視画像A0および斜視画像A1)が生成される。   The camera drive unit 12 receives the detection signal from a workpiece detection sensor (not shown) and drives the cameras C0 and C1 simultaneously. The image signals generated by the cameras C0 and C1 are input to the respective image input units 10 and 11 and digitally converted. Thereby, digital images for measurement processing (front-view image A0 and perspective image A1) are generated for each camera.

演算処理部20は、コンピュータにより構成されるもので、カメラC0,C1の画像を用いた計測処理を実行した後、その処理結果からワークWの適否を判定する。出力部28は、計測処理や判定処理の結果を、PLCなどの外部機器に出力するための出力用インターフェースである。   The arithmetic processing unit 20 is configured by a computer, and after performing measurement processing using the images of the cameras C0 and C1, the suitability of the work W is determined from the processing result. The output unit 28 is an output interface for outputting the results of measurement processing and determination processing to an external device such as a PLC.

演算処理部20には、画像A0,A1を格納するための画像メモリ21のほか、画像処理部22、計測処理部23、判定部24、表示制御部25、パラメータ算出部26、パラメータ記憶部27などが設けられる。画像メモリ21およびパラメータ記憶部27以外の各部は、専用のプログラムにより演算処理部20としてのコンピュータに設定された機能である。画像メモリ21やパラメータ記憶部27は、このコンピュータのメモリ(RAMなど)に設定される。
図3には示していないが、演算処理部20には、検査に必要な情報(検査領域の設定条件やモデルの画像など)を登録するためのメモリも設けられる。この登録用メモリへの登録処理や、演算処理部20の各処理部が実行する処理の設定または変更は、適宜、コンソール4の操作に応じて行うことができる。
In addition to the image memory 21 for storing the images A0 and A1, the arithmetic processing unit 20 includes an image processing unit 22, a measurement processing unit 23, a determination unit 24, a display control unit 25, a parameter calculation unit 26, and a parameter storage unit 27. Etc. are provided. Each unit other than the image memory 21 and the parameter storage unit 27 is a function set in the computer as the arithmetic processing unit 20 by a dedicated program. The image memory 21 and the parameter storage unit 27 are set in the memory (RAM, etc.) of this computer.
Although not shown in FIG. 3, the arithmetic processing unit 20 is also provided with a memory for registering information necessary for inspection (inspection area setting conditions, model images, and the like). Setting or changing the registration processing in the registration memory and the processing executed by each processing unit of the arithmetic processing unit 20 can be appropriately performed according to the operation of the console 4.

画像処理部22は、2値化、エッジ抽出、パターンマッチングなどにより、ワークWの検査対象部位を特定する。計測処理部23は、画像処理部22により特定された検査対象部位につき、位置や大きさなどを計測する処理を実行する。画像処理部22および計測処理部23は、2次元計測および3次元計測の処理を実行することができる。   The image processing unit 22 identifies the inspection target part of the workpiece W by binarization, edge extraction, pattern matching, and the like. The measurement processing unit 23 executes processing for measuring the position, size, and the like of the inspection target part specified by the image processing unit 22. The image processing unit 22 and the measurement processing unit 23 can execute processing of two-dimensional measurement and three-dimensional measurement.

判定部24は、計測処理部23の計測結果を所定のしきい値と比較するなどして、ワークWの良否を判定する。この計測結果や判定結果は出力部28および表示制御部25に出力される。
表示制御部25は、モニタ3の表示動作を制御するためのもので、画像入力部10,11で生成された正面視画像A0,斜視画像A1を一画面内に並列表示させることができる。さらに、適宜、画像処理部22、計測処理部23、判定部24の処理結果を受け取って、画像とともに表示させることができる。
The determination unit 24 determines the quality of the workpiece W by comparing the measurement result of the measurement processing unit 23 with a predetermined threshold value. The measurement results and determination results are output to the output unit 28 and the display control unit 25.
The display control unit 25 controls the display operation of the monitor 3 and can display the front view image A0 and the perspective image A1 generated by the image input units 10 and 11 in parallel on one screen. Furthermore, the processing results of the image processing unit 22, the measurement processing unit 23, and the determination unit 24 can be appropriately received and displayed together with the image.

パラメータ記憶部27には、3次元計測のための演算に用いる各種係数が保存される。これらの係数の値は、各カメラC0,C1により構成されるステレオ座標系と実際の空間における位置を表す空間座標系との関係(各座標系の原点間の距離、空間座標系に対するステレオ座標系の回転ずれ量など)に応じて変動する(以下、これらの係数を「パラメータ」という。)。これらのパラメータは、検査に先立ち、画像処理部22およびパラメータ算出部26により算出され、パラメータ記憶部27に格納される。このパラメータを算出する処理では、複数の特徴点を有するキャリブレーション用ワークが使用される。
さらに、パラメータ記憶部27には、後記する演算式(1)のホモグラフィ行列を構成するパラメータも登録される。
The parameter storage unit 27 stores various coefficients used for calculation for three-dimensional measurement. The values of these coefficients are the relationship between the stereo coordinate system constituted by the cameras C0 and C1 and the spatial coordinate system representing the position in the actual space (the distance between the origins of each coordinate system, the stereo coordinate system for the spatial coordinate system). (Hereinafter, these coefficients are referred to as “parameters”). These parameters are calculated by the image processing unit 22 and the parameter calculation unit 26 and stored in the parameter storage unit 27 prior to the inspection. In the process of calculating this parameter, a calibration work having a plurality of feature points is used.
Further, the parameter storage unit 27 also registers parameters constituting a homography matrix of the arithmetic expression (1) described later.

この検査装置は、ユーザーに複数種の検査メニューを提示して選択操作を受け付けることにより、検査のアルゴリズムを組み立てることが可能である。また、検査対象の部位に応じて、2次元の計測処理による検査と3次元の計測処理による検査とを、選択して実行することができる。2次元の計測処理による検査では、カメラC0からの正面視画像A0を対象として、パターンマッチング処理、2値化処理、エッジ抽出処理などを実行し、ワーク全体またはワーク中の検査対象部位を特定する。   This inspection apparatus can assemble an inspection algorithm by presenting a plurality of types of inspection menus to a user and accepting a selection operation. In addition, an inspection by a two-dimensional measurement process and an inspection by a three-dimensional measurement process can be selected and executed according to the region to be inspected. In the inspection by the two-dimensional measurement processing, pattern matching processing, binarization processing, edge extraction processing, etc. are executed on the front-view image A0 from the camera C0, and the entire workpiece or the inspection target portion in the workpiece is specified. .

さらに、この検査装置は、3次元の計測処理による検査にも、カメラC0からの正面視画像A0を有効活用することにより、3次元計測処理を高速化している。この点については、後で詳細に説明する。   Further, this inspection apparatus speeds up the three-dimensional measurement process by effectively using the front-view image A0 from the camera C0 for the inspection by the three-dimensional measurement process. This point will be described in detail later.

図4は、ワークWがICである場合に実施される検査の手順を示すものである。この手順は、ワーク検出用のセンサからの検知信号を受けて開始される。最初のST1(STは「ステップ」の略である。以下も同じ。)では、カメラ駆動部12により、カメラC0,C1を同時に駆動して、正面視画像A0,斜視画像A1を生成する。   FIG. 4 shows an inspection procedure performed when the workpiece W is an IC. This procedure is started upon receiving a detection signal from a workpiece detection sensor. In the first ST1 (ST is an abbreviation of “step”. The same applies to the following), the cameras C0 and C1 are simultaneously driven by the camera driving unit 12 to generate the front view image A0 and the perspective image A1.

つぎのST2では、ICのパッケージ部分に印刷された文字を対象とした検査を実行する。この検査では、正面視画像A0のみを用いた2次元の画像処理を実行する。たとえば、パターンマッチング処理により文字の印刷領域を抽出し、そのマッチング時の相関度やマッチング位置から文字の印刷状態の適否を判別する。   In the next ST2, an inspection for characters printed on the package portion of the IC is executed. In this inspection, two-dimensional image processing using only the front-view image A0 is executed. For example, a character print region is extracted by pattern matching processing, and the suitability of the character print state is determined from the degree of correlation at the time of matching and the matching position.

つぎのST3では、正面視画像A0において各リードの先端位置の座標がエッジ検出の手法により求められ、次いで、斜視画像A1において対応する各リードの先端位置の座標がエッジ検出の手法により求められる。そして、両画像における各リードの先端位置の座標から、各リードの先端の3次元座標を求め、その算出値から各リードに浮きや曲がりなどの異常がないかどうかを判別する。   In the next ST3, the coordinates of the tip position of each lead in the front-view image A0 are obtained by an edge detection method, and then the coordinates of the tip position of each corresponding lead in the perspective image A1 are obtained by an edge detection method. Then, the three-dimensional coordinates of the leading end of each lead are obtained from the coordinates of the leading end position of each lead in both images, and it is determined from the calculated value whether there is any abnormality such as floating or bending in each lead.

ST2,3の検査が終了すると、ST4では、各検査の結果を外部機器やモニタ3に出力する。さらに、ワーク検出用のセンサによりつぎのICが検出されると、ST1に戻り、上記と同様の手順を実行する。   When the inspections of ST2 and 3 are completed, the result of each inspection is output to an external device or the monitor 3 in ST4. Further, when the next IC is detected by the workpiece detection sensor, the process returns to ST1 and the same procedure as described above is executed.

このように、2台のカメラC0,C1によりそれぞれワークWを1回撮像することにより、2次元計測による検査と3次元計測による検査とを連続で実行することができる。2次元の計測処理では正面視画像A0を使用するから、文字の歪みのない画像を用いて精度の良い計測処理を行うことが可能になる。   In this way, by picking up an image of the workpiece W once by the two cameras C0 and C1, the inspection by the two-dimensional measurement and the inspection by the three-dimensional measurement can be executed continuously. Since the front-view image A0 is used in the two-dimensional measurement process, it is possible to perform a highly accurate measurement process using an image with no character distortion.

3次元計測処理を行う際には、正面視画像A0と斜視画像A1との間で対応する計測対象の点を特定し、特定された各点の座標を三角測量の原理に基づく演算式にあてはめることにより、3次元座標を算出する。   When performing the three-dimensional measurement process, the corresponding measurement target points are specified between the front-view image A0 and the perspective image A1, and the coordinates of the specified points are applied to an arithmetic expression based on the principle of triangulation. Thus, the three-dimensional coordinates are calculated.

図5は、正面視画像A0における検出領域(ユーザによって設定される指定領域)および斜視画像A1における検出領域の設定例を示す。画像の縦方向(正面視画像A0ではリードの配列に沿う方向となる。)をy方向とし、横方向(正面視画像A0ではリードの長さに沿う方向となる。)をx方向とする。正面視画像A0には、リード6毎に個別の検出領域7が設定され、検出領域7毎に、リードの先端に該当するエッジ点が1点特定される。   FIG. 5 shows a setting example of the detection area (designated area set by the user) in the front view image A0 and the detection area in the perspective image A1. The vertical direction of the image (the direction along the lead arrangement in the front-view image A0) is the y-direction, and the horizontal direction (the direction along the lead length in the front-view image A0) is the x-direction. In the front-view image A0, an individual detection area 7 is set for each lead 6, and one edge point corresponding to the tip of the lead is specified for each detection area 7.

すなわち、ここではカメラC0、C1がx方向に並んでいるので、視差は主にx方向に発生する。そこで、検出領域7内の画像を2値化し、得られた2値画像をy方向に沿って投影することによって、x方向を横軸、投影された「明」画素数または「暗」画素数を縦軸とするヒストグラムを作る。そして、ヒストグラムの値が急変する箇所のx座標をリード6の先端のx座標とする。一方、リード6の先端のy座標については、検出領域7のy方向の中点のy座標をあてる。このようにして求めたx座標およびy座標で示される点をエッジ点とよぶ。   That is, here, since the cameras C0 and C1 are arranged in the x direction, parallax mainly occurs in the x direction. Therefore, by binarizing the image in the detection area 7 and projecting the obtained binary image along the y direction, the number of projected “bright” pixels or “dark” pixels is plotted with the x direction as the horizontal axis. Make a histogram with the vertical axis. Then, the x coordinate of the portion where the value of the histogram changes suddenly is set as the x coordinate of the tip of the lead 6. On the other hand, the y coordinate of the midpoint of the detection region 7 in the y direction is assigned to the y coordinate of the tip of the lead 6. The points indicated by the x-coordinate and y-coordinate thus obtained are called edge points.

ここでは検出領域7内の画像を2値化したが、これに限らず、検出領域7内の画像を濃淡画像のまま各画素の濃度をy方向に積分し、そのようにして得られた積分濃度分布の値がx方向に沿って急変する箇所(たとえばしきい値を横切る箇所)のx座標を求めるようにしてもよい。   Here, the image in the detection area 7 is binarized. However, the present invention is not limited to this. The density of each pixel is integrated in the y direction while the image in the detection area 7 is a grayscale image, and the integration thus obtained is integrated. You may make it obtain | require x coordinate of the location (for example, location which crosses a threshold value) where the value of density distribution changes suddenly along a x direction.

このように、エッジの位置は特定の一方向に沿って検出される。図5の例では、x方向がエッジの検出方向である。ここでは、正面視画像A0に検出領域7を設定した後に、その検出領域7に対してエッジの検出方向を指定するようにしている。しかし、これに限らず、もともと固有のエッジの検出方向を備える検出領域7を設定するようにしてもよいし、先に検出領域7のエッジ検出方向を指定し、その後、正面視画像A0に検出領域7を設定するようにしてもよい。   Thus, the position of the edge is detected along one specific direction. In the example of FIG. 5, the x direction is the edge detection direction. Here, after the detection area 7 is set in the front-view image A0, the edge detection direction is designated for the detection area 7. However, the present invention is not limited to this, and the detection area 7 having the inherent edge detection direction may be set. Alternatively, the edge detection direction of the detection area 7 may be specified first, and then detected in the front-view image A0. The area 7 may be set.

斜視画像A1でも、リード6毎に検出領域8が設定される。これらの検出領域8は一方の画像上の一点を他方の画像上の一点に変換するための演算式(後記する(1)式)に基づき、正面視画像A0の各検出領域7で特定されたエッジ点の座標およびユーザーにより指定された高さ範囲(3次元計測の対象箇所の高さの取り得る範囲)を用いて設定される。ここでいう高さは、ワークWの載置面を基準とした鉛直方向、すなわち正面視方向における高さであり、正面視高さともいう。高さの基準は、ワークWの載置面に限らず、カメラC0の位置や、その他任意の位置に取ることが可能である。ユーザにより指定される高さ範囲は、カメラC0の光軸に沿った3次元計測の対象範囲である。   Even in the perspective image A1, a detection region 8 is set for each lead 6. These detection areas 8 are specified in each detection area 7 of the front-view image A0 based on an arithmetic expression (formula (1) described later) for converting one point on one image into one point on the other image. The coordinates are set using the coordinates of the edge point and the height range specified by the user (the range that the height of the target portion of the three-dimensional measurement can take). The height here is the height in the vertical direction with respect to the mounting surface of the workpiece W, that is, the height in the front view direction, and is also referred to as the front view height. The height reference is not limited to the surface on which the workpiece W is placed, and can be taken at the position of the camera C0 or any other position. The height range specified by the user is a target range for three-dimensional measurement along the optical axis of the camera C0.

図5では、ワークWの右側のリードに対する領域設定のみを示しているが、左側のリードに対しても同様の設定が行われる(以下の図でも同様である。)。   Although FIG. 5 shows only the area setting for the right lead of the workpiece W, the same setting is performed for the left lead (the same applies to the following drawings).

図6は、ICのリード検査のためのティーチング処理(設定処理)の手順を示す。この手順は、図4のIC検査を始める前に実行される。
この手順の最初のステップであるST11では、検査対象のワークW(この例ではIC)について、リード6の長さやリード6間のピッチなどを入力する。ここで入力されたデータは、作業用のメモリに登録され、後記するST15で使用される。
FIG. 6 shows the procedure of teaching processing (setting processing) for IC lead inspection. This procedure is performed before starting the IC inspection of FIG.
In ST11, which is the first step in this procedure, the length of the lead 6, the pitch between the leads 6, and the like are input for the workpiece W to be inspected (IC in this example). The data input here is registered in the working memory and used in ST15 described later.

つぎのST12では、撮像対象位置に設定用の対象物として良品のワークを設置して、これをカメラC0,C1により撮像する。なお、ティーチング処理では、カメラC0からの正面視画像A0が生成されれば足りるが、ここでは、ティーチング処理時にも各カメラC0,C1を同時駆動し、生成された2枚の画像をモニタ3に並べて表示するようにしている。   In the next ST12, a non-defective work is set as an object for setting at the imaging target position, and this is imaged by the cameras C0 and C1. In the teaching process, it is sufficient if the front-view image A0 from the camera C0 is generated. However, here, the cameras C0 and C1 are simultaneously driven during the teaching process, and the generated two images are displayed on the monitor 3. They are displayed side by side.

つぎのST13では、設定用画像としての正面視画像A0を用いて位置決め領域の指定操作を受け付ける。図7はこの指定操作時の正面視画像A0の表示例を示すもので、図中の9が位置決め領域である。
この位置決め領域9は、一列に並んだリード6のうちの一番端のリード(図示例では最上端のリード6aである。以下、これを「先頭リード6a」という。)を抽出するのに用いられる。図7の例では、先頭リード6aのみが含まれるような正方形状の領域9を設定している。位置決め領域9は、ワークWが想定される程度に位置ずれしても、位置決め領域9の中に先頭リード6aを撮像することができるように、その大きさが調整される。また、位置決め領域9は、その下半分の範囲に先頭リード6aが撮像されるように設定される。これにより、位置決め領域9の上半分の範囲にはリードが撮像されていないことをもって、位置決め領域9の下半分の範囲に撮像されているのが先頭リード6aであると確認できる。
In the next ST13, a positioning region designation operation is accepted using the front-view image A0 as the setting image. FIG. 7 shows a display example of the front-view image A0 at the time of this designation operation, and 9 in the figure is a positioning area.
This positioning region 9 is used to extract the end lead (in the illustrated example, the top end lead 6a, hereinafter referred to as the “lead lead 6a”) among the leads 6 arranged in a line. It is done. In the example of FIG. 7, a square-shaped region 9 that includes only the top lead 6a is set. The size of the positioning area 9 is adjusted so that the leading lead 6a can be imaged in the positioning area 9 even if the position of the workpiece W is shifted as much as expected. The positioning area 9 is set so that the top lead 6a is imaged in the lower half of the positioning area 9. As a result, it can be confirmed that the top lead 6 a is imaged in the lower half of the positioning area 9 because the lead is not imaged in the upper half of the positioning area 9.

図6に戻って、位置決め領域9が指定されると、つぎのST14では、この位置決め領域9から先頭リード6aを抽出する。この抽出処理では、たとえば、位置決め領域9内の画像を2値化し、2値化後の画像をy軸方向およびx軸方向に沿って投影する方法により、先頭リード6aの先端のx座標およびy座標を求める。または、位置決め領域9内のエッジやその濃度勾配方向を抽出することにより、リード6aの輪郭線を抽出し、さらにリード6aの先端のx座標およびy座標を求めるようにしてもよい。   Returning to FIG. 6, when the positioning area 9 is designated, the head lead 6a is extracted from the positioning area 9 in the next ST14. In this extraction process, for example, by binarizing the image in the positioning area 9 and projecting the binarized image along the y-axis direction and the x-axis direction, the x-coordinate and y of the tip of the leading lead 6a are projected. Find the coordinates. Alternatively, the contour line of the lead 6a may be extracted by extracting the edge in the positioning region 9 and its concentration gradient direction, and the x and y coordinates of the tip of the lead 6a may be obtained.

ST15では、先頭リード6aの先端のx座標、y座標およびST11で入力されたデータに基づき、各リード6に検出領域7を設定する。具体的には、ST11で入力されたデータ、カメラC0のピクセル数、倍率などを用いて、画像上におけるリード6の長さやリード6間のピッチを算出し、その算出値に基づき、各検出領域7の大きさや領域間の間隔を決定する。このようにして、先頭リード6aの位置を基準に、このリード6aを含む各リード6に対し検出領域7を設定するために必要なデータ、すなわち設定条件を作成する。   In ST15, the detection area 7 is set in each lead 6 based on the x-coordinate and y-coordinate of the tip of the lead 6a and the data input in ST11. Specifically, the length of the lead 6 and the pitch between the leads 6 on the image are calculated using the data input in ST11, the number of pixels of the camera C0, the magnification, and the like, and each detection region is based on the calculated value. The size of 7 and the interval between regions are determined. In this way, data necessary for setting the detection area 7 for each lead 6 including the lead 6a, that is, setting conditions, is created based on the position of the lead 6a.

このような方法をとることができるのは、ワークWの検査対象部位の特性(各リードの長さが等しい、リード間のピッチが等しいなど)がそのまま反映された正面視画像A0を使用するからである。したがって、ユーザにより設定された位置決め領域9において先端リード6aが抽出できれば、他のリード6を抽出しなくとも、全てのリード6に検出領域7を設定することが可能になり、処理効率を大幅に向上することができる。   The reason why such a method can be taken is that the front-view image A0 that directly reflects the characteristics of the inspection target part of the workpiece W (the length of each lead is equal, the pitch between leads is equal, etc.) is used as it is. It is. Therefore, if the tip lead 6a can be extracted in the positioning region 9 set by the user, the detection regions 7 can be set for all the leads 6 without extracting other leads 6, and the processing efficiency is greatly increased. Can be improved.

ST16では、ST13で指定された位置決め領域9の設定条件(領域の位置および大きさ)と、ST15で設定された検出領域7の設定条件を登録用メモリに登録する。さらに、ST17では、位置決め領域9内の画像をモデルとして登録用メモリに登録する。これにより一連のティーチング処理は終了となる。   In ST16, the setting conditions (position and size of the positioning area) specified in ST13 and the setting conditions of the detection area 7 set in ST15 are registered in the registration memory. In ST17, the image in the positioning area 9 is registered as a model in the registration memory. As a result, a series of teaching processes is completed.

ST11からST17までの一連の処理は、第1のカメラが設定用の対象物を撮影した画像に基づいて得られた正面視画像であるところの設定用画像を用いて、ユーザに指定領域についての設定をさせること(より一般的にいうと、ユーザに計測対象位置についての設定をさせること)に相当する。また、ティーチング処理用のプログラムが動作する演算処理部20が、この一連の処理を実行する設定手段として働く。   A series of processing from ST11 to ST17 is performed by using the setting image, which is a front view image obtained based on an image obtained by photographing the setting object by the first camera, to the user about the designated area. This corresponds to setting (more generally speaking, allowing the user to set the measurement target position). In addition, the arithmetic processing unit 20 in which a teaching processing program operates serves as setting means for executing this series of processing.

なお、ST16を実行する前には、作成された設定条件によって設定される検出領域7を正面視画像A0に重ねて示す画像をモニタ3に表示し、ユーザーの確認操作に応じて登録を行うのが望ましい。また、この際に、検出領域7の位置や大きさを微調整できるようにしてもよい。   Before executing ST16, an image showing the detection area 7 set according to the created setting condition superimposed on the front-view image A0 is displayed on the monitor 3, and registration is performed in accordance with the user's confirmation operation. Is desirable. At this time, the position and size of the detection region 7 may be finely adjusted.

図8は、ICのリード検査(図4のST3)にかかる詳細な手順を示す。
この手順のST21からST24までの処理は、計測対象の対象物を撮影した画像である正面視画像A0に対して行われるものである。まず、ST21では、ティーチングで登録された設定条件に基づき、正面視画像A0に位置決め領域9を設定する。つぎのST22では、この位置決め領域9内の画像とティーチング処理のST17において登録したモデルとを照合して、モデルに対するずれ量を抽出する(この処理には、たとえばパターンマッチングの手法を応用することができる。)。
FIG. 8 shows a detailed procedure for IC lead inspection (ST3 in FIG. 4).
The processing from ST21 to ST24 of this procedure is performed on the front view image A0 that is an image obtained by photographing the measurement target object. First, in ST21, the positioning area 9 is set in the front view image A0 based on the setting conditions registered by teaching. In the next ST22, the image in the positioning area 9 is compared with the model registered in ST17 of the teaching process, and a deviation amount with respect to the model is extracted (for example, a pattern matching technique can be applied to this process). it can.).

ST23では、ティーチング時に登録した検出領域7の設定条件をST22で抽出されたずれ量に基づき調整し、その調整後の設定条件により指定領域として各リードの検出領域7を設定する。正面視画像A0によれば、画像上のワークWの歪みを考慮しなくてよいから、位置決め領域9のずれ量をそのまま各検出領域7に適用することができ、各リード6に対し、ティーチング処理時と同様の位置関係をもって検出領域7を設定することが可能になる。   In ST23, the setting condition of the detection area 7 registered at teaching is adjusted based on the deviation amount extracted in ST22, and the detection area 7 of each lead is set as the designated area by the setting condition after the adjustment. According to the front-view image A0, since it is not necessary to consider the distortion of the workpiece W on the image, the shift amount of the positioning region 9 can be applied to each detection region 7 as it is, and the teaching process is performed on each lead 6. The detection area 7 can be set with the same positional relationship as the time.

図9は、検査時の正面視画像A0の一例を示す。この例でのワークWは、図7に示したティーチング時の画像A0より右側にずれているため、リード6の先端が位置決め領域9からはみ出した状態になっている。しかし、検出領域7については、上記した調整処理が行われるため、いずれのリード6にも図4に示したのと同様の条件で検出領域7が設定されている。
この例では、位置ずれしたワークWに合わせて検出領域7の画像内での位置(画像の枠に対する位置)を調整したが、これに代えて、ワークWに位置ずれがあってもワークWが常に画像の枠に対して一定の位置関係になるように画像の内容全体を移動させ、検出領域7は常に画像の枠に対して一定の位置に設定するようにしてもよい。
FIG. 9 shows an example of a front-view image A0 at the time of inspection. Since the workpiece W in this example is shifted to the right side from the image A0 at the time of teaching shown in FIG. 7, the tip of the lead 6 is in a state of protruding from the positioning region 9. However, since the adjustment process described above is performed for the detection area 7, the detection area 7 is set to any lead 6 under the same conditions as shown in FIG. 4.
In this example, the position in the image of the detection area 7 (position with respect to the frame of the image) is adjusted in accordance with the displaced workpiece W. However, instead of this, even if the workpiece W is displaced, The entire contents of the image may be moved so as to always have a fixed positional relationship with respect to the image frame, and the detection area 7 may always be set at a fixed position with respect to the image frame.

このようにしてリード毎に検出領域7が設定されると、つぎのST24では、各検出領域7毎に、リードの先端のx,y座標を取得する。
ST21からST24までの一連の処理は、第1のカメラが計測対象の対象物を撮影した画像に基づいて得られた正面視画像であるところの第1の画像に対し、設定に基づいて指定領域を定め、当該指定領域内において対象物上の位置を特定すること(より一般的にいうと、設定に基づいて対象物上の位置を特定すること)に相当する。また、リード検査処理のための手順を実行するように組み合わせられたプログラムが動作する演算処理部20が、この一連の処理を実行する位置特定手段として働く。
When the detection area 7 is set for each lead in this way, in the next ST24, the x and y coordinates of the tip of the lead are obtained for each detection area 7.
A series of processes from ST21 to ST24 is performed on the first image, which is a front view image obtained based on an image obtained by photographing the object to be measured by the first camera, based on the setting. And specifying the position on the object in the designated area (more generally, specifying the position on the object based on the setting). In addition, the arithmetic processing unit 20 in which a program combined to execute the procedure for the lead inspection process operates as a position specifying unit that executes this series of processes.

つぎのST25では、斜視画像A1上に、各リードの先端位置を検出するための検出領域8を設定する。さらにST26では、設定された検出領域8においてST24と同様の処理を実行し、リードの先端のx,y座標を算出する。この、検出領域8を設定し、x,y座標を算出する処理は、第1の画像において特定された位置に対応する、第2の画像における位置を特定することに相当する。   In the next ST25, a detection area 8 for detecting the tip position of each lead is set on the perspective image A1. In ST26, the same processing as ST24 is executed in the set detection area 8, and the x and y coordinates of the tip of the lead are calculated. The process of setting the detection area 8 and calculating the x and y coordinates corresponds to specifying the position in the second image corresponding to the position specified in the first image.

この後、ST27では、各先端につき、それぞれST24,26で算出された座標を用いて3次元座標を算出する。この処理は、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出することに相当する。第2の画像における位置を特定し、3次元座標を算出するための手順を実行するように組み合わせられたプログラムが動作する演算処理部20が、この一連の処理を実行する3次元計測手段として働く。
さらに、ST28では、算出された3次元座標をあらかじめ登録された基準値と比較するなどして、各リード先端部の良否を判別する。たとえば、いずれかのリードの先端部に浮きがあれば、その先端部の高さを表すZ座標が基準値を超える値となり、そのリードは不良であると判定されることになる。
Thereafter, in ST27, three-dimensional coordinates are calculated for each tip using the coordinates calculated in ST24 and 26, respectively. This process corresponds to calculating a three-dimensional coordinate using the specified position on the first image and the position on the second image. An arithmetic processing unit 20 in which a program combined to execute a procedure for specifying a position in the second image and calculating three-dimensional coordinates operates as a three-dimensional measuring unit that executes this series of processing. .
In ST28, the quality of each lead tip is determined by comparing the calculated three-dimensional coordinates with a reference value registered in advance. For example, if there is a float at the tip of any lead, the Z coordinate representing the height of that tip exceeds the reference value, and the lead is determined to be defective.

つぎに、ST25での検出領域8の設定について、詳細に説明する。
図10は、空間内の任意の高さ位置にある平面D上の一点PがカメラC0,C1の撮像面F0,F1上の点p0,p1にそれぞれ結像した状態を示している。図10において、X,Y,Zは3次元空間を表す座標軸であり、平面Dは、XY平面に平行である。また撮像面F0には、x0,y0の軸による2次元座標系が、撮像面F1には、x1,y1の軸による2次元座標系が、それぞれ設定されている。図10では、たまたま、両撮像面の原点に結像される平面D上の点がPとされているが、これに限らず、点Pの位置は平面D上で任意である。
Next, the setting of the detection area 8 in ST25 will be described in detail.
FIG. 10 shows a state in which a point P on the plane D at an arbitrary height in the space is imaged at points p0 and p1 on the imaging surfaces F0 and F1 of the cameras C0 and C1, respectively. In FIG. 10, X, Y, and Z are coordinate axes representing a three-dimensional space, and the plane D is parallel to the XY plane. A two-dimensional coordinate system with axes x0 and y0 is set on the imaging surface F0, and a two-dimensional coordinate system with axes x1 and y1 is set on the imaging surface F1. In FIG. 10, the point on the plane D that is imaged at the origin of both imaging surfaces is assumed to be P, but this is not limiting, and the position of the point P is arbitrary on the plane D.

撮像面F0における点Pの結像位置(点p0)の座標を(xcam0,ycam0)、撮像面F1における点Pの結像位置(点p)の座標を(xcam1,ycam1)とすると、点p,p間の関係は、つぎの(1)式のようになる。The imaging position of the point P on the imaging plane F0 coordinates (x cam0, y cam0) of (point p0), the imaging position of the point P on the imaging plane F1 coordinates (point p 1) (x cam1, y cam1) Then, the relationship between the points p 0 and p 1 is expressed by the following equation (1).

Figure 2006135040
Figure 2006135040

なお、(1)式において、HZは、高さZの平面D上の点について、撮像面F0上の結像位置と撮像面F1上の結像位置との関係を表す3×3のホモグラフィ行列であり、λは定数である。行列HZは、あらかじめ平面D上の既知の座標を用いたキャリブレーションにより求めることができる(キャリブレーションの詳細については、下記の非特許文献1を参照されたい。)。   In Equation (1), HZ is a 3 × 3 homography that represents the relationship between the imaging position on the imaging surface F0 and the imaging position on the imaging surface F1 for a point on the plane D having a height Z. Is a matrix and λ is a constant. The matrix HZ can be obtained in advance by calibration using known coordinates on the plane D (see Non-Patent Document 1 below for details of calibration).

見市 伸裕,和田 俊和,松山 隆司 「プロジェクタ・カメラシステムのキャリブレーションに関する研究(Calibration of Projector-Camera System)」、[平成17年6月1日検索]、インターネット<URL:http://vision.kuee.Kyoto-u.ac.jp/Research/Thesis/Thesis_PDF/Miichi_2002_P_147.pdf>Nobuhiro Miichi, Toshikazu Wada, Takashi Matsuyama “Calibration of Projector-Camera System”, [Searched on June 1, 2005], Internet <URL: http: // vision. kuee.Kyoto-u.ac.jp/Research/Thesis/Thesis_PDF/Miichi_2002_P_147.pdf>

よって、正面視画像A0の各検出領域7で抽出されたリードのエッジ点を点pと考えて、その座標を(1)式の(xcam0,ycam0)に代入した場合、算出された(xcam1,ycam1)は、斜視画像A1におけるリード先端の位置に相当すると考えることができる。しかし、リード先端の高さが変動すると考えると、平面Dの高さZもそれに応じて変動し、それに応じてホモグラフィー行列HZが変化し、(xcam1,ycam1)の値も変化することになる。Therefore, when thinking edge points of the lead extracted in each detection region 7 of the front view image A0 and the point p 0, was substituted for the coordinates (1) of the (x cam0, y cam0), it was calculated (X cam1 , y cam1 ) can be considered to correspond to the position of the lead tip in the perspective image A1. However, assuming that the height of the lead tip changes, the height Z of the plane D also changes accordingly, the homography matrix HZ changes accordingly, and the values of (x cam1 , y cam1 ) also change. become.

ST25では、この原理に基づき、想定される高さ範囲(カメラC0の光軸に沿った3次元計測の対象範囲)の上限値を平面Dの高さZとしたときと、下限値を高さZとしたときとについて、それぞれその高さZに応じたホモグラフィー行列HZを用いて(1)式を実行することにより、(xcam1,ycam1)として図11に示す2点e,fの座標を得る。そして、斜視画像A1において、図11に示すように、線分efを正面視画像A0側の検出領域7の半値幅kだけ線分efと垂直方向の各側に平行移動させた線分ghおよび線分g’h’を設定し、これら4点を結ぶ矩形領域ghh’g’を検出領域8とする。In ST25, based on this principle, when the upper limit value of the assumed height range (target range of three-dimensional measurement along the optical axis of the camera C0) is the height Z of the plane D, the lower limit value is the height. By executing the equation (1) using the homography matrix HZ corresponding to the height Z for each of Z and Z, the two points e and f shown in FIG. 11 as (x cam1 , y cam1 ) Get the coordinates. Then, in the perspective image A1, as shown in FIG. 11, the line segment gh obtained by translating the line segment ef to each side in the direction perpendicular to the line segment ef by the half-value width k of the detection region 7 on the front view image A0 side. A line segment g′h ′ is set, and a rectangular area ghh′g ′ connecting these four points is set as a detection area 8.

図12は、図5と同様の斜視画像A1について、リード6の取り得る高さ範囲を0〜5mmとした場合と、高さ範囲を−15〜15mmとした場合とでの検出領域8の大きさを対比させて示したものである。この例から明らかなように、検出領域8は、高さ範囲の変動幅が小さいほど小さくなる。図12では簡略化して各検出領域8を互いに平行に描いているが、実際には、斜視画像A1には遠近法の効果によって矩形の対象物が台形に撮像されるような歪みが生じるため、各検出領域8は、それらの中心線(線分ef)同士の間隔が図の右方ほど大きくなるような非平行の配置となる。各検出領域8において、エッジ先端位置を求めるための2値化画像の投影は、検出領域8の中心線と垂直な方向に行う。   FIG. 12 shows the size of the detection area 8 when the height range that the lead 6 can take is 0 to 5 mm and when the height range is −15 to 15 mm for the perspective image A1 similar to FIG. 5. This is shown in contrast. As is clear from this example, the detection region 8 becomes smaller as the fluctuation range of the height range is smaller. In FIG. 12, the detection areas 8 are simplified and drawn in parallel with each other. However, in reality, the perspective image A1 is distorted so that a rectangular object is imaged in a trapezoid shape due to the effect of perspective. Each detection region 8 has a non-parallel arrangement such that the distance between the center lines (line segments ef) increases toward the right in the drawing. In each detection area 8, the binarized image for obtaining the edge tip position is projected in a direction perpendicular to the center line of the detection area 8.

上記の検査装置では、基準画像A0においてリードの先端位置を特定するために、各リード6に対応する検出領域7を設定したが、これに代えて、各リードの先端を含むようにy軸方向に長い1つの検出領域を設定し、この領域内で各リードの先端位置を個別に求めるようにしてもよい。   In the inspection apparatus described above, the detection region 7 corresponding to each lead 6 is set in order to specify the lead tip position in the reference image A0, but instead, the y-axis direction includes the lead tip. One long detection area may be set, and the tip position of each lead may be obtained individually in this area.

つぎに、押釦式の文字キーが配設されたワーク(リモコン、電話機など)を検査対象として、各キーの高さを検査する場合について、説明する。この検査では、検査の準備段階でモデル画像を登録し、正面視画像A0および斜視画像A1においてこのモデル画像と一致する領域を探索する手法が用いられる。   Next, a case will be described in which the height of each key is inspected for a work (remote control, telephone, etc.) provided with push button type character keys. In this inspection, a method is used in which a model image is registered at the preparation stage of the inspection, and a region matching the model image is searched for in the front-view image A0 and the perspective image A1.

検査の準備段階では、図13に示すように、設定用の対象物である良品のワークWを撮像して得られた正面視画像A0を用いて、各キー60毎に、そのキー60に描かれた文字を含む領域70を指定し、その領域70内の画像をモデルとして登録しておく。この処理は、第1のカメラが設定用の対象物を撮影した画像に基づいて得られた正面視画像であるところの設定用画像を用いて、ユーザに計測対象位置についての設定をさせることに相当する。すなわち、ここではモデル画像を登録しているだけで、計測対象位置を直接指定しているわけではないが、検査時にはモデル画像に一致する領域が計測対象領域とされるので、モデル画像を登録することにより間接的に計測対象位置についての設定をしていることになる。図示は省略するが、検査時のワークWの想定される位置ずれ量を考慮して、検査時にモデル画像と一致する領域を探索すべき領域を指定させるようにしてもよい。この探索すべき領域は指定領域に相当する。   In the preparation stage for inspection, as shown in FIG. 13, each key 60 is drawn on the key 60 using a front-view image A0 obtained by imaging a non-defective work W that is a setting object. An area 70 including the designated character is designated, and an image in the area 70 is registered as a model. In this process, the setting of the measurement target position is performed by using the setting image which is a front view image obtained based on an image obtained by photographing the setting object with the first camera. Equivalent to. In other words, the model image is only registered here, and the measurement target position is not directly specified. However, at the time of inspection, the region that matches the model image is set as the measurement target region, so the model image is registered. As a result, the measurement target position is indirectly set. Although illustration is omitted, it is also possible to designate an area in which an area that matches the model image is to be searched at the time of inspection in consideration of an assumed positional deviation amount of the workpiece W at the time of inspection. This area to be searched corresponds to the designated area.

図14は、検査の手順を示す。まずST31において、各カメラC0,C1を同時駆動して画像を生成する。つぎのST32では、正面視画像A0について、検査前に登録されたモデルを用いたパターンマッチング処理を実行し、モデルと最もよく一致する領域を特定して計測対象領域とする。計測対象領域の探索は、指定領域が設定されている場合には指定領域内においてのみ行う。計測対象領域の特定処理は各キー60に対応するモデル毎に行われるが、ここでは説明を簡単にするため、一つのモデルに限定して説明する。   FIG. 14 shows an inspection procedure. First, in ST31, the cameras C0 and C1 are simultaneously driven to generate an image. In the next ST32, pattern matching processing using a model registered before the inspection is executed for the front-view image A0, and an area that most closely matches the model is specified as a measurement target area. The search for the measurement target area is performed only in the designated area when the designated area is set. The measurement target area specifying process is performed for each model corresponding to each key 60, but here, in order to simplify the description, only one model will be described.

計測対象領域が特定されると、つぎのST33では、この領域の代表点(たとえば領域の中心点)の座標を特定する。これは、設定用画像を用いて行われた設定に基づいて対象物上の位置を特定することに相当する。代表点は複数特定することもできる(たとえば、あらかじめ定めたモデル上の複数の特徴点に対応する点)。
ST34では、代表点の座標に基づき、斜視画像A1上にサーチ領域を設定する。この場合にも、前述のリード検査で検出領域8を設定した場合と同様に、あらかじめ指定された高さ範囲の上限値および下限値を高さZとしてホモグラフィー行列HZを設定し、代表点の座標と高さ範囲の上限値および下限値を用いて2回の演算を実行することにより、画像A1上で代表点の存在し得る範囲を求め、その範囲にモデルの大きさを加味した領域をサーチ領域としている。
When the measurement target region is specified, in the next ST33, the coordinates of the representative point of this region (for example, the center point of the region) are specified. This is equivalent to specifying the position on the object based on the setting performed using the setting image. A plurality of representative points can be specified (for example, points corresponding to a plurality of feature points on a predetermined model).
In ST34, a search area is set on the perspective image A1 based on the coordinates of the representative point. Also in this case, as in the case where the detection region 8 is set by the lead inspection described above, the homography matrix HZ is set with the upper limit value and the lower limit value of the height range specified in advance as the height Z, and By executing the calculation twice using the upper limit value and the lower limit value of the coordinates and the height range, a range where the representative point can exist on the image A1 is obtained, and an area in which the size of the model is added to the range is obtained. The search area.

ST35では、サーチ領域において、モデルとの間のパターンマッチング処理を実行して、計測対象領域とその領域内の代表点の位置とを特定する。さらにST36では、正面視、斜視の各画像A0,A1における計測対象領域の代表点の座標を用いて3次元座標を算出する。ついで、ST37では、算出された3次元座標のうちのZ座標を所定のしきい値と比較することにより、キーの高さの適否を判別する。そして、ST38において、判別結果を出力し、処理を終了する。   In ST35, pattern matching processing with the model is executed in the search area, and the measurement target area and the position of the representative point in the area are specified. Furthermore, in ST36, three-dimensional coordinates are calculated using the coordinates of the representative points of the measurement target region in the frontal and perspective images A0 and A1. In ST37, the Z coordinate of the calculated three-dimensional coordinates is compared with a predetermined threshold value to determine whether the key height is appropriate. In ST38, the determination result is output and the process is terminated.

基準画像A0上で、モデルに定めた特徴点に対応する点を代表点として特定した場合には、ST36においても、同様に、モデル上の対応点を特定することができる。また、ST35では、指定された高さ範囲内の所定高さ(たとえばワークが正常であるときの標準となる高さ)に対応するホモグラフィ行列を用いてモデルを斜視カメラC1に撮像されるはずの形状に変換し、その変換後のモデルを用いて計測対象領域を特定するようにしてもよい。逆に、斜視画像A1を正面視画像に変換し、変換された画像上でモデルに一致する領域を特定するようにしてもよい。   When the point corresponding to the feature point determined in the model is specified as the representative point on the reference image A0, the corresponding point on the model can be specified in ST36 as well. In ST35, the model should be imaged by the perspective camera C1 using a homography matrix corresponding to a predetermined height within a specified height range (for example, a standard height when the workpiece is normal). The measurement target region may be specified using the converted model. Conversely, the perspective image A1 may be converted into a front view image, and an area that matches the model may be specified on the converted image.

図15は、上記の検査において、正面視画像A0上でキー60に関して特定された計測対象領域71、この領域71の位置と大きさに基づいて設定された斜視画像A1側のサーチ領域80、およびサーチ領域80において特定された計測対象領域81を示す。   FIG. 15 shows the measurement target area 71 specified for the key 60 on the front-view image A0 in the above inspection, the search area 80 on the perspective image A1 side set based on the position and size of the area 71, and A measurement target area 81 specified in the search area 80 is shown.

図14に示した手順では、3次元計測処理による検査のみを行っているが、この検査でも、正面視画像A0を用いた2次元計測処理により、各キーの文字の印刷状態などの検査を行うことができる。   In the procedure shown in FIG. 14, only the inspection by the three-dimensional measurement process is performed, but also in this inspection, the print state of the character of each key is inspected by the two-dimensional measurement process using the front-view image A0. be able to.

つぎに、中央部に円形状の表示領域を有するワークについて、その表示領域内の高さの適否を検査する場合について説明する。この検査では、撮影の都度、正面視画像A0の一部をモデル画像として抽出し、斜視画像A1においてモデル画像と一致する部分を探索する手法が用いられる。
図16は、各カメラC0,C1により生成されたワークWの画像A0,A1を示す。図中、Sが検査対象である文字の表示(印刷)領域である。正面視画像A0では、ワークWの正面像が現れているため、表示領域Sの輪郭線72も円形状になっている。これに対し、斜視画像A1では、表示領域Sの輪郭線72の形状、表示領域S内の文字の配置状態などが歪んでいる。
Next, a case where the work having a circular display area at the center is inspected for appropriateness of the height in the display area will be described. In this inspection, a method of extracting a part of the front-view image A0 as a model image and searching for a portion that matches the model image in the perspective image A1 is used every time shooting is performed.
FIG. 16 shows images A0 and A1 of the workpiece W generated by the cameras C0 and C1. In the figure, S is a display (printing) area of characters to be inspected. In the front view image A0, since the front image of the workpiece W appears, the outline 72 of the display area S is also circular. On the other hand, in the perspective image A1, the shape of the outline 72 of the display area S, the arrangement state of the characters in the display area S, and the like are distorted.

この検査に先立ち、設定用の対象物であるワークWの良品モデルを撮像し、得られた正面視画像A0上で、ユーザーに表示領域Sの半径や計測対象領域を指定させる。このとき、画像処理部22では、正面視画像A0から表示領域Sの中心点の位置を求める処理を実行し、この中心点に対する計測対象領域の相対位置を登録用メモリに登録する。この処理は、第1のカメラが設定用の対象物を撮影した画像に基づいて得られた正面視画像であるところの設定用画像を用いて、ユーザに計測対象位置についての設定をさせることに相当する。   Prior to this inspection, a non-defective model of the workpiece W, which is a setting object, is imaged, and the user is allowed to specify the radius of the display area S and the measurement target area on the obtained front-view image A0. At this time, the image processing unit 22 executes processing for obtaining the position of the center point of the display area S from the front-view image A0, and registers the relative position of the measurement target area with respect to the center point in the registration memory. In this process, the setting of the measurement target position is performed by using the setting image which is a front view image obtained based on an image obtained by photographing the setting object with the first camera. Equivalent to.

図17は、正面視画像A0中の表示領域Sを拡大して示す。図中、73がユーザーにより指定された計測対象領域であり、74が表示領域Sの中心点である。この中心点74の位置は、正面視画像A0から円形パターンを抽出する処理を実行し、その抽出結果の中からユーザーにより指定された大きさの円(位置修正用モデル)に最もよく合致する輪郭線72を特定して、求めたものである。   FIG. 17 shows the display area S in the front view image A0 in an enlarged manner. In the figure, reference numeral 73 denotes a measurement target area designated by the user, and 74 denotes a center point of the display area S. The position of the center point 74 executes a process of extracting a circular pattern from the front-view image A0, and a contour that best matches a circle (position correction model) having a size designated by the user from the extraction result. The line 72 is specified and obtained.

図18は、図16のワークWに対する高さ検査の手順を示す。
ST41では、各カメラC0,C1を同時駆動して、正面視画像A0および斜視画像A1を生成する。ST42では、正面視画像A0から上記の処理により、表示領域Sの中心点74の位置を求める。
FIG. 18 shows a height inspection procedure for the workpiece W of FIG.
In ST41, the cameras C0 and C1 are simultaneously driven to generate the front view image A0 and the perspective image A1. In ST42, the position of the center point 74 of the display area S is obtained from the front view image A0 by the above processing.

つぎのST43では、ST42で求められた中心点74の座標を基準に、あらかじめ登録された相対位置に基づき計測対象領域73を設定する。そして、続くST44において、計測対象領域73の画像をサーチ用のモデル画像として登録し、さらに計測対象領域73の代表点位置(たとえば、領域内の中心点位置)も登録する。これは、設定用画像を用いて行われた設定に基づいて対象物上の位置を特定することに相当する。   In the next ST43, the measurement target region 73 is set based on the previously registered relative position with reference to the coordinates of the center point 74 obtained in ST42. In ST44, the image of the measurement target area 73 is registered as a model image for search, and the representative point position of the measurement target area 73 (for example, the center point position in the area) is also registered. This is equivalent to specifying the position on the object based on the setting performed using the setting image.

ST45では、斜視画像A1上にサーチ領域82(図19に示す。)を設定する。サーチ領域82の位置や大きさは、ST44で登録された代表点の座標を(1)式に代入し、あらかじめ指定された高さ範囲の上限値および下限値に応じたホモグラフィー行列HZを用いて(1)式を実行することにより決定する。   In ST45, a search area 82 (shown in FIG. 19) is set on the perspective image A1. For the position and size of the search area 82, the coordinates of the representative points registered in ST44 are substituted into the equation (1), and the homography matrix HZ corresponding to the upper limit value and lower limit value of the height range specified in advance is used. Then, it is determined by executing equation (1).

ST46では、ST44で登録したモデル画像を用いて、サーチ領域82において相関マッチング処理を実行する。そして、登録した画像に最も類似する領域を特定し、これを斜視画像A1側の計測対象領域とする。ST47では、斜視画像A1側の計測対象領域について、代表点の座標を求め、この座標と正面視画像A0側の代表点の座標とを用いて3次元座標を算出する。続くST48では、求められたZ座標の適否を判定する。そして、ST49においての判定結果を出力し、しかる後に処理を終了する。   In ST46, the correlation matching process is executed in the search area 82 using the model image registered in ST44. Then, an area most similar to the registered image is specified, and this is set as a measurement target area on the perspective image A1 side. In ST47, the coordinates of the representative point are obtained for the measurement target region on the perspective image A1 side, and the three-dimensional coordinates are calculated using the coordinates and the coordinates of the representative point on the front view image A0 side. In subsequent ST48, the suitability of the obtained Z coordinate is determined. Then, the determination result in ST49 is output, and then the process is terminated.

図19(1)(2)は、それぞれ1組の正面視画像A0と斜視画像A1について、正面視画像A0における計測対象領域73、斜視画像A1におけるサーチ領域82および計測対象領域83を示す。また、正面視画像A0においては、表示領域Sの輪郭線72を太線にして示すとともに、表示領域Sの中心点74の求められた位置を示してある。図19の(1)の画像と(2)の画像とでは、ワークWの位置が異なるが、どちらの場合も計測対象領域73は、その中に目標とする文字が収まるように正しく設定されている。   FIGS. 19 (1) and 19 (2) show the measurement target region 73 in the front view image A0, the search region 82 in the perspective image A1, and the measurement target region 83, respectively, for one set of the front view image A0 and the perspective image A1. Further, in the front view image A0, the outline 72 of the display area S is shown with a bold line, and the position where the center point 74 of the display area S is obtained is shown. The image of (1) and the image of (2) in FIG. 19 are different in the position of the workpiece W, but in both cases, the measurement target area 73 is set correctly so that the target character is contained therein. Yes.

上記図18に示した検査の手順によれば、中心点74の抽出処理や領域73の位置調整処理は、正面視画像A0を用いて行われるので、画像の歪みを考慮する必要がなく、中心点74に対する相対位置関係により計測対象領域73を適切な位置に設定することができる。図19の例でも、(1)の例の画像と(2)の例の画像とでは、ワークWの位置が異なるが、計測対象領域73は同じ条件で設定されている。
さらに、図18に示した検査の手順によれば、検査対象のワークWごとにそのワークWからサーチ用のモデル画像を取得するので、3次元計測の対象とする文字などの表面パターンがワークWごとに異なる場合でも、同一の手順を適用して3次元計測を行うことができる。ここでは、表面パターンはワークWごとに異なるかもしれないが、ワークWの形状とワークWの形状を基準とした計測対象領域の位置はどのワークWにおいても共通であることを利用して計測対象領域を設定している。
According to the inspection procedure shown in FIG. 18, the center point 74 extraction process and the region 73 position adjustment process are performed using the front-view image A0. The measurement target region 73 can be set to an appropriate position based on the relative positional relationship with respect to the point 74. Also in the example of FIG. 19, the position of the workpiece W is different between the image of the example of (1) and the image of the example of (2), but the measurement target region 73 is set under the same conditions.
Furthermore, according to the inspection procedure shown in FIG. 18, a model image for search is acquired from each work W to be inspected, so that the surface pattern such as characters to be subjected to three-dimensional measurement is changed to the work W. Even when different, it is possible to perform three-dimensional measurement by applying the same procedure. Here, although the surface pattern may be different for each workpiece W, the shape of the workpiece W and the position of the measurement target area based on the shape of the workpiece W are common to all the workpieces W. An area is set.

図18の手順においても、登録したサーチ用のモデル画像をホモグラフィ行列Hzを用いて斜視カメラC1に撮像されるはずの形状に変換し、変換後の画像を用いて計測対象領域83を特定するようにしてもよい。逆に、斜視画像A1を正面視画像に変換し、変換された画像上でモデルに一致する計測対象領域領域83を特定するようにしてもよい。
さらに、図18の手順にも、正面視画像A0を用いて表示領域S内の文字の印刷状態を検査する処理を組み込むことができる。
Also in the procedure of FIG. 18, the registered model image for search is converted into a shape that should be imaged by the perspective camera C1 using the homography matrix Hz, and the measurement target region 83 is specified using the converted image. You may do it. Conversely, the perspective image A1 may be converted into a front view image, and the measurement target region 83 matching the model may be specified on the converted image.
Furthermore, the process of inspecting the printing state of the characters in the display area S using the front-view image A0 can also be incorporated into the procedure of FIG.

ところで、上記した検査装置では、正面視画像の生成のために、一方のカメラC0を光軸を鉛直方向にして設置したが、このカメラC0の光軸が斜めに設定されている場合でも、カメラC0で生成された画像を変換することによって、正面視画像を生成することができる。   By the way, in the inspection apparatus described above, one camera C0 is installed with the optical axis in the vertical direction in order to generate a front view image. However, even when the optical axis of the camera C0 is set obliquely, A front view image can be generated by converting the image generated in C0.

図20は、上記の変換処理を行うためのキャリブレーション方法を示す。この方法では、ワークWの戴置面に平行な任意高さの平面上にキャリブレーションワーク75を設置し、カメラC0,C1を、それぞれ斜め上方からキャリブレーションワーク75を撮像するように配置する。
この例では、キャリブレーションワーク75として、上面に複数の円形のパターン76を等間隔に配置した構成の平面状のワークを使用している。
FIG. 20 shows a calibration method for performing the above conversion processing. In this method, the calibration work 75 is placed on a plane having an arbitrary height parallel to the placement surface of the work W, and the cameras C0 and C1 are arranged so as to capture the calibration work 75 from obliquely above.
In this example, a planar work having a configuration in which a plurality of circular patterns 76 are arranged at equal intervals on the upper surface is used as the calibration work 75.

キャリブレーション処理では、光軸を鉛直方向に向けて設置された仮想のカメラC2を想定し、このカメラC2によりキャリブレーションワーク75を撮像した場合に得られる仮想の画像を想定する。そして、図21に示すように、カメラC0により生成された画像A0を仮想のカメラC2による画像B0に変換するためのホモグラフィー行列を求める。そのために、まず、画像A0およびB0上で各円形パターンの中心座標を求める。画像A0については、実際の画像から楕円状に歪んでいる円形パターンの中心の座標(重心座標など)を求める。画像B0については、仮想カメラC2に任意の撮像倍率を設定し、キャリブレーションワーク75上の円形パターンの実際の間隔を、仮想カメラC2に設定した倍率を用いて画像上の間隔dに変換することにより、画像上の円形パターンの中心の座標を算出する。そして各円形パターンの配列順序に基づき、画像A0、B0間で対応する円の中心位置の組み合わせを特定し、これらの円の中心の座標を用いた最小自乗法により、ホモグラフィー行列を求めることができる。   In the calibration process, a virtual camera C2 installed with the optical axis oriented in the vertical direction is assumed, and a virtual image obtained when the calibration work 75 is imaged by the camera C2 is assumed. Then, as shown in FIG. 21, a homography matrix for converting an image A0 generated by the camera C0 into an image B0 by the virtual camera C2 is obtained. For this purpose, first, center coordinates of each circular pattern are obtained on the images A0 and B0. For the image A0, coordinates (such as barycentric coordinates) of the center of the circular pattern distorted in an elliptical shape from the actual image are obtained. For the image B0, an arbitrary imaging magnification is set in the virtual camera C2, and the actual interval of the circular pattern on the calibration work 75 is converted into the interval d on the image using the magnification set in the virtual camera C2. Thus, the coordinates of the center of the circular pattern on the image are calculated. Then, based on the arrangement order of the circular patterns, the combination of the center positions of the corresponding circles between the images A0 and B0 is specified, and the homography matrix can be obtained by the least square method using the coordinates of the centers of these circles. it can.

図20のカメラ配置によれば、ワークWに対して正面視を行う仮想のカメラC2の光軸方向における撮像対象箇所の高さが「正面視高さ」となる。正面視高さは、カメラC2の光軸方向に直交する任意の平面(たとえばワークWの戴置面)を基準に表される。この基準の平面は、一般に水平面であるが、これに限らず、水平面に対して傾きを持つ面や垂直面を基準面としてもよい。   According to the camera arrangement in FIG. 20, the height of the imaging target portion in the optical axis direction of the virtual camera C <b> 2 that performs a front view with respect to the workpiece W is the “front view height”. The front view height is expressed with reference to an arbitrary plane (for example, a placement surface of the workpiece W) orthogonal to the optical axis direction of the camera C2. The reference plane is generally a horizontal plane, but is not limited thereto, and a plane or a vertical plane inclined with respect to the horizontal plane may be used as the reference plane.

上記のキャリブレーション処理によりホモグラフィー行列が定まると、キャリブレーションワーク75と同等の正面視高さにある平面について、カメラC0からの画像A0を用いた変換処理によって、スケールが判明している正面視画像を生成することができる。   When the homography matrix is determined by the above calibration processing, the front view in which the scale has been determined by the conversion processing using the image A0 from the camera C0 for the plane at the front view height equivalent to the calibration work 75 is obtained. An image can be generated.

もっとも、キャリブレーションワーク75と平行であるが正面視高さがキャリブレーションワーク75とは異なる平面を撮像対象とする場合にも、同じ変換演算によって正面視画像を得ることができる。ただし、キャリブレーションワーク75と同じ正面視高さにある平面が変換されたときの正面視画像と比べると、撮像対象平面がキャリブレーションワーク75よりもカメラC2の近くに位置する場合には、拡大された正面視画像に変換される。また、カメラC2から見て、撮像対象平面の方がキャリブレーションワーク75よりも遠くに位置する場合には、撮像対象平面がキャリブレーションワーク75と同じ正面視高さにある場合よりも縮小された正面視画像に変換される。   However, even when a plane that is parallel to the calibration work 75 but has a front view height different from that of the calibration work 75 is to be imaged, a front view image can be obtained by the same conversion calculation. However, when the plane to be imaged is positioned closer to the camera C2 than the calibration work 75 as compared with the front view image when the plane at the same front view height as the calibration work 75 is converted, the enlarged image is displayed. Converted into a front-view image. Further, when the imaging target plane is located farther than the calibration work 75 when viewed from the camera C2, the imaging target plane is reduced as compared with the case where the imaging target plane is at the same front view height as the calibration work 75. Converted to a front view image.

したがって、撮像対象平面の正面視高さがわかっていれば、正面視画像に変換したときの画像の拡大縮小の程度は計算で求めることができる。したがって、正面視高さがわかっている撮像対象平面については、変換された正面視画像上で寸法計測をすることが可能である。   Therefore, if the front view height of the imaging target plane is known, the degree of enlargement / reduction of the image when converted into the front view image can be obtained by calculation. Therefore, it is possible to measure the dimensions of the imaging target plane whose height of front view is known on the converted front view image.

以下、図20のようにカメラC0,C1をともに斜視配置とした検査装置について説明する。全体のブロック構成は図3に示したものと同じであるが、演算処理部20としてのコンピュータには、カメラC0により生成された斜視画像を正面視画像に変換する変換演算を行う機能(変換手段)が設定される。変換により得られた正面視画像(以下、正面視変換画像という。)がモニタ3の画面上に表示されるときの大きさを決める要因には、仮想結像倍率と表示倍率とがある。また、設定用のワークWについての正面視変換画像は設定用画像に相当し、計測対象のワークWについての正面視変換画像は第1の画像に相当する。   Hereinafter, an inspection apparatus in which the cameras C0 and C1 are both arranged in a perspective view as shown in FIG. 20 will be described. The entire block configuration is the same as that shown in FIG. 3, but the computer as the arithmetic processing unit 20 has a function (conversion means) for converting a perspective image generated by the camera C0 into a front view image. ) Is set. Factors that determine the size of a front-view image obtained by the conversion (hereinafter referred to as a front-view converted image) when displayed on the screen of the monitor 3 include a virtual imaging magnification and a display magnification. Also, the front view conversion image for the setting work W corresponds to the setting image, and the front view conversion image for the measurement target work W corresponds to the first image.

仮想結像倍率は、同一の正面視高さにあるワークW上の2点間の実際の距離と仮想のカメラC2の仮想結像面に結像された当該2点間の距離との比率であり、実際の距離を1としたときの仮想結像面上の距離で表す。仮想結像倍率は、撮像対象が仮想カメラC2から遠ざかると小さくなるというように、撮像対象の正面視高さによって変化する。
仮想結像倍率は、仮想カメラC2の焦点距離が変更されたと仮定して、正面視変換演算のパラメータを調整することによっても変更可能であるが、ここでは、仮想カメラC2の焦点距離は固定であるとする。
The virtual imaging magnification is a ratio between the actual distance between two points on the workpiece W at the same front view height and the distance between the two points imaged on the virtual imaging plane of the virtual camera C2. Yes, it is represented by the distance on the virtual imaging plane when the actual distance is 1. The virtual imaging magnification changes depending on the front view height of the imaging target so that the imaging target decreases as the imaging target moves away from the virtual camera C2.
The virtual imaging magnification can be changed by adjusting the parameters for the front view conversion calculation on the assumption that the focal length of the virtual camera C2 is changed, but here, the focal length of the virtual camera C2 is fixed. Suppose there is.

表示倍率は、仮想結像面上の2点間の距離とモニタに表示された当該2点間の距離との比率である。表示倍率は画像を拡大または縮小する演算を行うことにより変更することができる。表示倍率は、計測に用いるスケールに影響せず、後述するスケール図形の大きさと表示される正面視変換画像の大きさとの比率にも影響しないので、画像が表示画面上で観察しやすくなるように適当な値に選べばよい。たとえば、カメラC0で撮影された斜視画像と正面視変換画像との間でワークWの像の大きさがあまり変化しないように正面視変換画像の表示倍率を選択すると、これらの画像の一方から他方へ表示内容を切り替えたときに画像内容を把握しやすい。   The display magnification is a ratio between the distance between two points on the virtual imaging plane and the distance between the two points displayed on the monitor. The display magnification can be changed by performing an operation for enlarging or reducing the image. The display magnification does not affect the scale used for measurement, and does not affect the ratio between the size of the scale figure, which will be described later, and the size of the displayed front view conversion image, so that the image can be easily observed on the display screen. Choose an appropriate value. For example, when the display magnification of the front-view conversion image is selected so that the size of the image of the workpiece W does not change much between the perspective image captured by the camera C0 and the front-view conversion image, one of these images is changed to the other. It is easy to grasp the image content when the display content is switched to.

上述のとおり、キャリブレーションワーク75と同じ正面視高さにある平面についてはキャリブレーションのときに用いた仮想結像倍率をそのまま適用することができる。
正面視高さを指定すれば、それに対応する仮想結像倍率を計算で求めることができる。仮想結像倍率がわかれば、その正面視高さにある計測対象箇所についての寸法計測を、正面視変換画像を用いて正しく行うことができる。
この寸法計測および仮想結像倍率の前提となる正面視高さをスケール基準高さとよぶ。すなわち、スケール基準高さとは、正面視変換画像における寸法から計測対象箇所の実際の寸法を求めるときに前提とされる計測対象箇所の正面視高さであるということができる。
As described above, the virtual imaging magnification used at the time of calibration can be applied to a plane at the same front view height as the calibration work 75 as it is.
If the front view height is specified, the corresponding virtual imaging magnification can be obtained by calculation. If the virtual imaging magnification is known, it is possible to correctly measure the dimensions of the measurement target portion at the front view height using the front view conversion image.
The front view height, which is the premise for this dimension measurement and virtual imaging magnification, is called the scale reference height. That is, it can be said that the scale reference height is the front view height of the measurement target portion that is assumed when the actual size of the measurement target portion is obtained from the dimensions in the front view conversion image.

また、正面視変換画像における寸法と計測対象箇所の実際の寸法とを関係付ける情報をスケール情報とよぶ。たとえば、正面視変換画像の1ピクセルに対応する実際の寸法を、スケール情報として設定することができる。スケール基準高さとスケール情報とは互いに整合していなければならず、一方を変更すれば他方も変更されなければならない関係にある。   Information relating the dimensions in the front view conversion image and the actual dimensions of the measurement target portion is referred to as scale information. For example, an actual dimension corresponding to one pixel of the front view conversion image can be set as the scale information. The scale reference height and the scale information must be consistent with each other, and if one is changed, the other must be changed.

図22は、検査に先立って行われる設定処理の手順を示す。まず、ST51において、カメラC0で設定用のワークW(設定用の対象物)を撮影する。つぎに、ST52では、撮影された斜視画像を正面視画像に変換する。この変換演算用のプログラムが動作する演算処理部20が変換手段として働く。後述の検査における斜視画像から正面視画像への変換についても同様である。
変換処理により得られた正面視変換画像は設定用画像として利用される。
FIG. 22 shows the procedure of the setting process performed prior to the inspection. First, in ST51, the setting work W (target object for setting) is photographed by the camera C0. Next, in ST52, the photographed perspective image is converted into a front view image. The arithmetic processing unit 20 in which the conversion calculation program operates functions as a conversion means. The same applies to conversion from a perspective image to a front-view image in an inspection described later.
The front view conversion image obtained by the conversion process is used as a setting image.

ST53では、スケール基準高さおよびスケール情報を設定する。具体的には、設定用ワークの計測対象部位の正面視高さについて、ユーザの入力を受け付け、入力された値をスケール基準高さとする。さらに、スケール基準高さからスケール情報を算出し、スケール基準高さおよびスケール情報を演算処理部20に記憶する。   In ST53, scale reference height and scale information are set. Specifically, the user's input is received for the height in front of the measurement target part of the setting work, and the input value is set as the scale reference height. Further, the scale information is calculated from the scale reference height, and the scale reference height and the scale information are stored in the arithmetic processing unit 20.

ST54では、設定用画像を用いてユーザに計測処理に必要な設定をさせる。具体的な設定内容の例は、先にカメラC0が正面視配置の場合のリード検査、文字キーの検査、ワークの高さ検査について行われるのと同様である。また、計測時にどのような処理をどのような順序で行うのかも設定させる。   In ST54, the setting image is used to cause the user to make settings necessary for the measurement process. Specific examples of setting contents are the same as those performed for the lead inspection, the character key inspection, and the workpiece height inspection when the camera C0 is arranged in front view. In addition, it is also set what processing is performed and in what order at the time of measurement.

上記のST53では、スケール基準高さとして、たとえば、ワークWの戴置面に対する計測対象箇所の高さを表す寸法を入力させる。正面視高さやスケール基準高さの値は、装置の内部では、必ずしもワークWの戴置面を基準として表現されている必要はなく、たとえば図10の座標系におけるZ座標の値として表現されていてもよい。あるいは、互いに座標変換が可能な他の任意の座標系によって表現されていてもよい。   In the above ST53, for example, a dimension representing the height of the measurement target location with respect to the placement surface of the workpiece W is input as the scale reference height. The values of the front view height and the scale reference height do not necessarily have to be expressed with reference to the mounting surface of the workpiece W in the inside of the apparatus. For example, the values are expressed as Z coordinate values in the coordinate system of FIG. May be. Or you may express by the other arbitrary coordinate systems which can mutually be coordinate-transformed.

しかし、ユーザに入力させるスケール基準高さは、ユーザが計測対象箇所の高さとして自然に認識できる高さであることが好ましい。ワークWの戴置面を基準とした計測対象箇所の高さをスケール基準高さとすることにより、装置の内部処理の詳細を理解していないユーザであっても、スケール基準高さとして入力を要求されているのがどの寸法であるのかを容易に理解することができる。   However, it is preferable that the scale reference height input by the user is a height that the user can naturally recognize as the height of the measurement target portion. Even if the user does not understand the details of the internal processing of the device, the input of the scale reference height is required even if the user does not understand the details of the internal processing of the device by setting the height of the measurement target location with respect to the mounting surface of the workpiece W as the reference height. It is easy to understand which dimensions are being measured.

ただし、このST53のステップを省略して、その代わりに、たとえばキャリブレーションワーク75の正面視高さのような、何らかの既定値をスケール基準高さとして用いることができる場合がある。一般に仮想結像倍率は、その値が小さいことが多い。そのような場合には、計測対象箇所の正面視高さがスケール基準高さと異なっていてもスケールの誤差は比較的小さい。したがって、寸法や面積の高精度の計測を必要としない場合、たとえば汚れの有無判別、外形輪郭における欠け検出、文字の種類判別などを目的とする2次元画像処理を行う場合には、検査対象箇所の正面視高さの違いに応じて都度スケール基準高さを入力することなく、スケール基準高さとして既定値を用いても支障のない場合が多い。また、3次元計測のための計測対象位置を特定する場合にも、同様にスケール基準高さとして既定値を支障なく用いることができる場合が多い。   However, in some cases, the step of ST53 may be omitted, and some predetermined value such as the height of the calibration work 75 viewed from the front, for example, may be used as the scale reference height. In general, the value of the virtual imaging magnification is often small. In such a case, the error of the scale is relatively small even if the front view height of the measurement target portion is different from the scale reference height. Therefore, when high-precision measurement of dimensions and area is not required, for example, when performing two-dimensional image processing for the purpose of determining the presence / absence of dirt, chipping detection in the outer contour, character type determination, etc. In many cases, there is no problem even if the default value is used as the scale reference height without inputting the scale reference height each time depending on the difference in the front view height. Similarly, when a measurement target position for three-dimensional measurement is specified, it is often possible to use the default value as the scale reference height without any trouble.

図23は、上記の設定処理が終了した後に実行される検査の手順の一例を示す。
まず、ST61では、ワーク検出用のセンサからの検知信号に応じてカメラC0およびC1でワーク(計測対象の対象物)Wを撮影する。ST62では、カメラC0で撮影された斜視画像を正面視画像に変換することにより、第1の画像を得る。ST63では、第1の画像上で3次元計測の対象とする位置を特定する。この位置特定の手法の例は、先にカメラC0が正面視配置の場合の各種検査について説明したのと同様である。ST64では、カメラC1で撮影された第2の画像上で、第1の画像上の先に特定された位置に対応する位置を特定する。
FIG. 23 shows an example of an inspection procedure executed after the above setting process is completed.
First, in ST61, the work (object to be measured) W is photographed by the cameras C0 and C1 in accordance with a detection signal from the work detection sensor. In ST62, the first image is obtained by converting the perspective image captured by the camera C0 into a front-view image. In ST63, the position to be subjected to the three-dimensional measurement is specified on the first image. An example of this position specifying method is the same as described above for various inspections when the camera C0 is in the front view arrangement. In ST64, a position corresponding to the previously specified position on the first image is specified on the second image taken by the camera C1.

ST65では、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出する。ST66では、第1の画像を用いて2次元計測を行う。第1の画像は正面視変換画像であるので、従来より、正面視画像を処理対象とすることを前提として開発された種々の2次元画像処理の手法を適用することができる。寸法または面積の計測を伴う2次元計測を行う場合は、図22の設定処理において設定されたスケール情報を利用する。このとき、2次元計測用のプログラムが動作する演算処理部20が2次元画像処理手段として働く。ST66の計測が終了すると、ST67において、ST65,66で得た計測結果の良否の判定処理を実行する。この後は、ST61に戻り、次のワークWが来るのを待つ。   In ST65, three-dimensional coordinates are calculated using the specified position on the first image and the position on the second image. In ST66, two-dimensional measurement is performed using the first image. Since the first image is a front-view converted image, various two-dimensional image processing techniques developed on the premise that the front-view image is a processing target can be applied. When performing two-dimensional measurement with measurement of a dimension or an area, the scale information set in the setting process of FIG. 22 is used. At this time, the arithmetic processing unit 20 in which the program for two-dimensional measurement operates functions as a two-dimensional image processing means. When the measurement of ST66 ends, in ST67, the quality determination process of the measurement results obtained in ST65 and 66 is executed. After this, the process returns to ST61 and waits for the next workpiece W to come.

図23のST63〜66は、計測処理のためのステップに相当するが、これらのステップの処理内容と順序については、いろいろな設定がありうる。たとえば、複数の点について3次元計測するようにしてもよい。その場合、ST63、ST64のそれぞれの中で複数の位置を特定し、ST65の中で複数の点の3次元座標を算出することも考えられるし、1つの点について位置特定と3次元座標算出をするST63からST65までのステップを複数回繰り返すことによって、繰り返しの1回につき1箇所ずつ3次元座標を算出するようにしてもよい。ST66の2次元計測は何種類でも設定可能であるし、ST62以降であればどのタイミングで2次元計測を実行するように設定してもよい。   ST63 to ST66 in FIG. 23 correspond to steps for measurement processing, but there are various settings for the processing contents and order of these steps. For example, three-dimensional measurement may be performed for a plurality of points. In that case, it is conceivable to specify a plurality of positions in each of ST63 and ST64 and calculate the three-dimensional coordinates of the plurality of points in ST65, or to specify the position and calculate the three-dimensional coordinates for one point. By repeating the steps from ST63 to ST65 a plurality of times, the three-dimensional coordinates may be calculated one place at a time for each repetition. Any number of types of two-dimensional measurement in ST66 can be set, and the timing may be set to execute the two-dimensional measurement at any timing after ST62.

図24は、検査の手順の他の例である。この検査を行う場合には、図22のST54において正面視高さの許容範囲がユーザにより設定され、演算処理部20に記憶されているものとする。正面視高さの許容範囲は、スケール基準高さをその範囲の中に含むように定められている。正面視高さの許容範囲は、計測対象箇所の正面視高さがその範囲内にあれば、正面視変換画像のスケールの誤差が想定の範囲内に収まるという観点から定められるものであり、ワークWの良否についての判定基準とは異なる。   FIG. 24 shows another example of the inspection procedure. When performing this inspection, it is assumed that the allowable range of the front view height is set by the user and stored in the arithmetic processing unit 20 in ST54 of FIG. The allowable range of the height in front view is determined so that the scale reference height is included in the range. The permissible range of the front view height is determined from the viewpoint that if the front view height of the measurement target location is within that range, the scale error of the front view conversion image falls within the expected range. It is different from the criterion for W quality.

ST61からST67まではそれぞれ図23の同じ符号の処理と同じ内容である。ST71の処理は、ST65で算出された3次元座標が示す正面視高さが、設定されている許容範囲に含まれているかどうかを判定するものである。この判定を行うプログラムが動作する演算処理部20が判定手段として働く。   ST61 to ST67 have the same contents as the processes with the same reference numerals in FIG. The process of ST71 determines whether or not the front view height indicated by the three-dimensional coordinates calculated in ST65 is included in the set allowable range. An arithmetic processing unit 20 in which a program for performing this determination operates serves as a determination unit.

算出された3次元座標が正面視高さの許容範囲になければ、ST72の報知処理を経てST61に戻り、許容範囲内であれば報知処理を行わずにST61に戻る。ST72に進んだときには、2次元計測において利用されるスケール情報が示すスケールと、第1の画像の実際のスケールとの間に、想定される程度よりも大きな差異があることについて報知する。たとえば、その旨の表示をしたり、警告音を発する。報知の他の例として、スケール誤差のある第1の画像に基づいて処理したことによる誤差が計測値に含まれている旨の表示を、2次元計測の結果の表示に付記するようにしてもよい。   If the calculated three-dimensional coordinates are not within the allowable range of the front view height, the process returns to ST61 through the notification process of ST72, and if within the allowable range, the process returns to ST61 without performing the notification process. When the process proceeds to ST72, it is notified that there is a difference larger than an assumed level between the scale indicated by the scale information used in the two-dimensional measurement and the actual scale of the first image. For example, a display to that effect or a warning sound is generated. As another example of the notification, a display indicating that an error caused by processing based on the first image having a scale error is included in the measurement value may be added to the display of the two-dimensional measurement result. Good.

図25は、検査の手順のさらに他の例である。ST61からST65まで、およびST67の処理内容は、それぞれ図23の同じ符号の処理と同じ内容である。ST81では、ST65で求められた3次元座標が示す正面視高さをスケール基準高さとして第1の画像のスケール情報を算出する。このスケール情報の算出を行うプログラムが動作する演算処理部20がスケール情報算出手段として働く。ST82では、算出されたスケール情報を用いて、第1の画像についての2次元計測を行う。   FIG. 25 shows still another example of the inspection procedure. The processing contents of ST61 to ST65 and ST67 are the same as the processing of the same reference numerals in FIG. In ST81, the scale information of the first image is calculated using the front view height indicated by the three-dimensional coordinates obtained in ST65 as the scale reference height. The arithmetic processing unit 20 in which the program for calculating the scale information operates works as scale information calculation means. In ST82, two-dimensional measurement is performed on the first image using the calculated scale information.

つぎに、図26は、図22に示した設定処理の手順を、ユーザがスケール基準高さおよびスケール情報の設定の適否を確認しながら設定値を調整できるように変更したものである。この手順では、まず、ST91においてカメラC0で設定用のワークWを撮影する。つぎに、ST92では、撮影された斜視画像を正面視画像に変換する。得られた正面視変換画像は設定用画像として利用される。また、このとき、モニタ3には、正面視変換画像および変換前の原画像を含む設定用のウィンドウ90(図28に示す。)が表示される。   Next, FIG. 26 is a modification of the procedure of the setting process shown in FIG. 22 so that the user can adjust the set value while confirming whether the scale reference height and the scale information are set appropriately. In this procedure, first, a setting work W is photographed by the camera C0 in ST91. Next, in ST92, the photographed perspective image is converted into a front view image. The obtained front view conversion image is used as a setting image. At this time, the monitor 3 displays a setting window 90 (shown in FIG. 28) including the front view converted image and the original image before conversion.

詳細は後記するが、この段階では、スケール基準高さの初期値として、キャリブレーション時に入力されたキャリブレーションワーク75の正面視高さが設定されている。つぎのST94では、ユーザに、設定用ウィンドウ90を用いてスケール基準高さの値を変更する操作を行わせ、その操作に応じてスケール基準高さおよびスケール情報を変更する。この変更操作は、ユーザがスケール基準高さが適切になったと判断するまで繰り返し実行される。変更処理が終了するとST95に進み、図22のST54の場合と同様に、設定用画像を用いてユーザに計測処理に必要な設定を行わせる。   Although details will be described later, at this stage, the front view height of the calibration work 75 input at the time of calibration is set as the initial value of the scale reference height. In the next ST94, the user is caused to perform an operation of changing the value of the scale reference height using the setting window 90, and the scale reference height and the scale information are changed according to the operation. This change operation is repeatedly executed until the user determines that the scale reference height is appropriate. When the change process is completed, the process proceeds to ST95, and the setting necessary for the measurement process is made to be performed by the user using the setting image, as in ST54 of FIG.

図27は、上記の設定処理の際のカメラC0による設定用のワークWの撮影状況を示す(カメラC1も設けられているが図示を省略する。)。設定用ワークWは計測対象のワークWの中から選ばれた良品であるとする。ここでのワークWは、全体形状が立方体である。符号TはワークWの上面である。図27には仮想的な平面R0、R1、R2、R3が示されている。R0はワークWの載置面であり、たとえばワークWが載置されるベルトコンベアの表面である。平面R1、R2、R3はR0に平行で、それぞれR0からの高さがh1、h2、h3(h1<h2<h3)であり、平面R2の高さh2がワークWの上面Tの高さに一致している。また、キャリブレーションは、キャリブレーションワーク75を平面R1の高さに置いて行われ、スケール基準高さの初期値として、平面R1の高さh1が設定されている。   FIG. 27 shows the shooting situation of the setting work W by the camera C0 during the above setting process (the camera C1 is also provided, but not shown). It is assumed that the setting workpiece W is a non-defective product selected from the workpieces W to be measured. The work W here has a cubic shape as a whole. Reference symbol T denotes the upper surface of the workpiece W. FIG. 27 shows virtual planes R0, R1, R2, and R3. R0 is a placement surface of the workpiece W, for example, the surface of the belt conveyor on which the workpiece W is placed. The planes R1, R2, and R3 are parallel to R0, and the heights from R0 are h1, h2, and h3 (h1 <h2 <h3), respectively, and the height h2 of the plane R2 is the height of the upper surface T of the workpiece W. Match. The calibration is performed by placing the calibration work 75 at the height of the plane R1, and the height h1 of the plane R1 is set as the initial value of the scale reference height.

図28は、図27の撮像状態下においてモニタ3に表示される設定用ウィンドウ90の内容を示す。このウインドウ90には、カメラC0によって撮影された設定用ワークWの画像91、編集画像92、スケール基準高さの調整バー93および調整ハンドル94、スケール基準高さの数値表示部95、スケール基準高さの確定ボタン96、スケール図形の寸法入力部97、スケール図形の種類の選択部98が表示されている。編集画像92にはワークWの正面視変換画像に加えて、スケール図形99も表示されている。編集画像92の内容を作成するプログラムが動作する演算処理部20が画像編集手段として働く。   FIG. 28 shows the contents of the setting window 90 displayed on the monitor 3 in the imaging state of FIG. The window 90 includes an image 91 of the setting work W photographed by the camera C0, an edited image 92, a scale reference height adjustment bar 93 and an adjustment handle 94, a scale reference height numerical value display section 95, a scale reference height. A size confirmation button 96, a scale graphic dimension input unit 97, and a scale graphic type selection unit 98 are displayed. In addition to the front-view converted image of the work W, a scale graphic 99 is also displayed in the edited image 92. The arithmetic processing unit 20 in which a program for creating the contents of the edited image 92 operates functions as an image editing unit.

カメラC0によって撮影された画像91においては、ワークWの上面Tは台形に表示されているが、編集画像92においては本来の正方形に変換されて表示されている。しかし、スケール基準高さの初期値がキャリブレーションワーク75の正面視高さであるh1に設定されているのに対し、実際の上面Tの正面視高さがh2であるため、変換表示されている上面Tのスケールには誤差が生じている。すなわち、上面Tは、それがスケール基準高さにあったとした場合よりも大きく表示されている。   In the image 91 photographed by the camera C0, the upper surface T of the work W is displayed in a trapezoidal shape, but in the edited image 92, it is converted into an original square and displayed. However, while the initial value of the scale reference height is set to h1 which is the front view height of the calibration work 75, the actual front view height of the upper surface T is h2, so that it is converted and displayed. There is an error in the scale of the upper surface T. That is, the upper surface T is displayed larger than when it is at the scale reference height.

スケール図形99は、スケール基準高さにおける仮想結像倍率に基づき、スケール基準高さにある平面上における実際の寸法をモニタ3の表示画面上で示す図形である。スケール図形99の種類は、選択部98において、正方形、円、グリッドのいずれかを選択することができる。寸法入力部97に入力する寸法は、スケール図形99が正方形の場合は1辺の長さ、円の場合は直径、グリッドの場合はグリッド線の間隔を意味する。スケール図形99は、ワークWの正面視変換画像との比較がしやすいように、ドラッグ操作により、編集画像92内の任意の位置に移動させることができる。   The scale figure 99 is a figure showing the actual dimensions on the plane at the scale reference height on the display screen of the monitor 3 based on the virtual imaging magnification at the scale reference height. As the type of the scale graphic 99, the selection unit 98 can select any one of square, circle, and grid. The dimension input to the dimension input unit 97 means the length of one side when the scale figure 99 is a square, the diameter when it is a circle, and the interval between grid lines when it is a grid. The scale figure 99 can be moved to an arbitrary position in the edited image 92 by a drag operation so that it can be easily compared with the front view converted image of the workpiece W.

ここで、スケール画像99としてワークWの上面Tの形状と比較しやすい図形を選択し(ここでは上面Tと同じ形状である正方形を選択した)、寸法入力部97にワークWの上面Tの大きさと比較するのに適した値を入力すると(ここでは上面Tの辺の長さと同じ寸法を入力した)、ワークWの上面T(計測対象箇所)の実際の高さがスケール基準高さよりも高ければ(仮想カメラC2に近ければ)、スケール図形99と対比して認識される上面Tの大きさは実際よりも大きくなり、逆の場合は実際よりも小さくなる。   Here, a figure that is easy to compare with the shape of the upper surface T of the work W is selected as the scale image 99 (here, a square having the same shape as the upper surface T is selected), and the size of the upper surface T of the work W is input to the dimension input unit 97. When a value suitable for comparison is input (here, the same dimension as the length of the side of the upper surface T is input), the actual height of the upper surface T (measurement target location) of the workpiece W is higher than the scale reference height. If it is close to the virtual camera C2, the size of the upper surface T recognized in contrast to the scale figure 99 is larger than the actual size, and vice versa.

したがって、設定用ワークWの計測対象箇所の大きさが既知であれば、モニタ3上で観察されるワークWの形状と比較しやすいスケール画像99を選択し、その寸法を計測対象箇所の既知の大きさと比較するのに適した値に設定したとき、ワークWの正面視変換画像における計測対象箇所の大きさとスケール図形99の大きさとの比率が正しくなっていれば、そのときのスケール基準高さはワークWの計測対象箇所(この場合は上面T)の正面視高さと一致する。   Therefore, if the size of the measurement target location of the setting work W is known, a scale image 99 that is easy to compare with the shape of the workpiece W observed on the monitor 3 is selected, and the dimensions thereof are known to the measurement target location. When the ratio is set to a value suitable for comparison with the size, if the ratio between the size of the measurement target portion and the size of the scale figure 99 in the front view conversion image of the workpiece W is correct, the scale reference height at that time Corresponds to the front view height of the measurement target portion of the workpiece W (in this case, the upper surface T).

図26でST93を最初に実行する際には、スケール基準高さの初期値からスケール情報の初期値を算出した後に、ユーザーの選択したスケール図形99を、寸法入力部97に入力された寸法およびスケール情報の初期値に応じた大きさをもって編集画像92上に表し、ユーザにスケール基準高さの調整を行わせる。また、調整の都度、その調整されたスケール基準高さからスケール情報を算出し、その算出結果に基づいてスケール図形99の大きさを変化させる。   When ST93 is executed for the first time in FIG. 26, after the initial value of the scale information is calculated from the initial value of the scale reference height, the scale figure 99 selected by the user is input to the dimension input unit 97 with the dimensions and A size corresponding to the initial value of the scale information is displayed on the edited image 92, and the user adjusts the scale reference height. Further, each time adjustment is performed, scale information is calculated from the adjusted scale reference height, and the size of the scale graphic 99 is changed based on the calculation result.

スケール基準高さは、調整ハンドル94を調整バー93に沿ってドラッグ操作することにより調整することができる。現時点での調整基準高さはスケール基準高さの数値表示部95に表示される。スケール基準高さの調整が終了すると、確定ボタン96を押すことにより、図26のST94からST95に進む処理が行われる。このときにスケール情報も確定される。このようにして、スケール基準高さおよびスケール情報が整合的に変更される。この一連の処理を行うためのプログラムが動作する演算処理部20が調整手段として働く。   The scale reference height can be adjusted by dragging the adjustment handle 94 along the adjustment bar 93. The adjustment reference height at the present time is displayed on the numerical display section 95 for the scale reference height. When the adjustment of the scale reference height is completed, the process proceeds from ST94 to ST95 in FIG. 26 by pressing the confirm button 96. At this time, the scale information is also determined. In this way, the scale reference height and the scale information are changed consistently. An arithmetic processing unit 20 in which a program for performing this series of processes operates functions as an adjusting unit.

図29は、図28に示した編集画像92について、スケール基準高さの変更に伴う表示内容の変化を示す。編集画像92aは、スケール基準高さを初期値のh1とした場合である。いま、上面Tは1辺100mmの正方形であるとし、スケール図形99として1辺100mmの正方形を表示しているものとする。この場合に表示されているスケール図形99は、スケール基準高さ(この場合は高さh1)に1辺100mmの正方形があったとして、これを撮影した場合に、この撮影された正方形を正面視変換した場合に表示されるはずの図形に相当する。実際の上面Tはh2の高さにあるから、スケール図形99よりも大きく表示されている。   FIG. 29 shows a change in the display content of the edited image 92 shown in FIG. 28 accompanying a change in the scale reference height. The edited image 92a is a case where the scale reference height is the initial value h1. Now, it is assumed that the upper surface T is a square with a side of 100 mm, and a square with a side of 100 mm is displayed as the scale figure 99. The scale figure 99 displayed in this case is assumed to have a square with a side of 100 mm at the scale reference height (in this case, height h1). Corresponds to the figure that should be displayed when converted. Since the actual upper surface T is at the height of h2, it is displayed larger than the scale figure 99.

スケール基準高さをh2に調整すると、編集画像92bに示すように、上面Tの大きさとスケール図形の大きさとが一致した編集画像が得られる。さらに、スケール基準高さをh3まで大きくすると、編集画像92cに示すように、スケール図形99が上面Tの正面視変換画像よりも大きく表示されるようになる。   When the scale reference height is adjusted to h2, as shown in the edited image 92b, an edited image in which the size of the upper surface T matches the size of the scale figure is obtained. Further, when the scale reference height is increased to h3, the scale figure 99 is displayed larger than the front view conversion image on the upper surface T as shown in the edited image 92c.

上記の操作により、ユーザは、スケール基準高さをh2に設定したときに、その設定値が上面Tの正面視高さに一致すると判断することができる。ドラッグ操作によりスケール図形99を上面Tの正面視変換画像に重ねると、より正確に大きさを対比することができる。   With the above operation, the user can determine that the set value matches the front view height of the upper surface T when the scale reference height is set to h2. When the scale figure 99 is superimposed on the front view conversion image on the upper surface T by the drag operation, the size can be compared more accurately.

このように、ユーザは、編集画像中の計測対象箇所とスケール画像99との比率が正しい状態になるまでスケール基準高さを調整することにより、スケール基準高さを計測対象箇所の正面視高さに正しく合わせることができる。これにより、スケール情報も正しく設定することができる。   In this way, the user adjusts the scale reference height until the ratio between the measurement target portion in the edited image and the scale image 99 is in a correct state, whereby the scale reference height is set to the front view height of the measurement target portion. Can be adjusted correctly. Thereby, scale information can also be set correctly.

上記の表示によれば、ユーザは、設定用ワークWの計測対象箇所の正面視高さとスケール基準高さとがおよそ一致していることを編集画像92の表示により直接確認することができる。この高さの一致についての誤差が小さいと、第2の画像上における高さ方向の対応位置探索範囲が小さくても対応位置を見つけることができる。また、この高さの一致についての誤差が小さいと、第1の画像を用いて寸法計測や面積計測を含む2次元計測をした場合に計測結果の誤差が小さくなる。   According to the above display, the user can directly confirm from the display of the edited image 92 that the front view height of the measurement target portion of the setting work W and the scale reference height are approximately the same. If the error about the coincidence in height is small, the corresponding position can be found even if the corresponding position search range in the height direction on the second image is small. In addition, when the error about the coincidence of the height is small, the error of the measurement result is small when two-dimensional measurement including dimension measurement and area measurement is performed using the first image.

このように、上記の例では、編集画像92を見ながらスケール基準高さを計測対象箇所の正面視高さに合わせるような調整を行ったが、ユーザは必ずしもスケール基準高さの概念を理解する必要はないので、ユーザに対して調整対象がスケール基準高さであることを示すことも、必ずしも必要ではない。たとえば、ユーザに対しては正面視変換画像のスケールの調整であるように見せ、実際には基準高さの調整がされるようにしてもよい。また、実際にも正面視変換画像のスケールの調整処理を行い、スケールの調整結果から対応するスケール基準高さを算出するようにしてもよい。   As described above, in the above example, the scale reference height is adjusted to match the front view height of the measurement target portion while viewing the edited image 92, but the user does not necessarily understand the concept of the scale reference height. Since it is not necessary, it is not always necessary to indicate to the user that the adjustment target is the scale reference height. For example, it may appear to the user to adjust the scale of the front view conversion image, and the reference height may actually be adjusted. Further, the scale adjustment processing of the front-view converted image may actually be performed, and the corresponding scale reference height may be calculated from the scale adjustment result.

たとえば、スケール基準高さを直接調整するのに代えて、ワークWの正面視変換画像における計測対象箇所の大きさとスケール図形99の大きさとの比率が正しくなるように、スケール図形99およびワークWの正面視変換画像のいずれか一方を拡大または縮小し、または両方を互いに異なる比率で拡大または縮小し、これらの拡大縮小率からスケール情報を求めるとともに、対応するスケール基準高さを計算するようにしてもよい。   For example, instead of directly adjusting the scale reference height, the scale graphic 99 and the workpiece W are adjusted so that the ratio between the size of the measurement target portion and the size of the scale graphic 99 in the front view conversion image of the workpiece W is correct. Enlarge or reduce one of the front-view converted images, or enlarge or reduce both at different ratios, obtain scale information from these enlargement / reduction ratios, and calculate the corresponding scale reference height Also good.

このような、ワークWの正面視変換画像における計測対象箇所の大きさとスケール図形99の大きさとの比率を参照しつつ最終的にスケール基準高さを求める手法は、ワークWの計測対象箇所の正面視高さを知らずに、モニタ3に表示される画像を見ながらスケール基準高さを設定する場合に活用することができる。   The method of finally obtaining the scale reference height while referring to the ratio between the size of the measurement target portion in the front-view converted image of the workpiece W and the size of the scale figure 99 is the front of the measurement target portion of the workpiece W. This can be used when the scale reference height is set while viewing the image displayed on the monitor 3 without knowing the visual height.

ところで、スケール基準高さおよびスケール情報の一方から他方を求める手法は、斜視画像から変換した正面視画像を2次元計測の対象とする場合に限らず、図1のように、カメラC0を正面視を行うように配置して撮影した場合の正面視画像を2次元計測の対象とする場合にも、適用することが可能である。この場合にも同様に設定の容易さの利点が得られる。   By the way, the method of obtaining the other from one of the scale reference height and the scale information is not limited to the case where the front view image converted from the perspective image is a target for two-dimensional measurement, and the camera C0 is viewed from the front as shown in FIG. The present invention can also be applied to a case in which a front-view image obtained by arranging and photographing so as to perform two-dimensional measurement is a target for two-dimensional measurement. In this case as well, the advantage of ease of setting can be obtained.

また、第1のカメラが斜視配置、正面視配置のいずれの場合にも、3次元計測の結果によって示される正面視高さとスケール基準高さとを比較することによって、スケール情報の値が適正であるかどうかについての評価を行うことができる。このようにして、3次元計測を行うことが2次元計測の正確性を検証することに寄与する。   In addition, the scale information value is appropriate by comparing the front view height indicated by the result of the three-dimensional measurement with the scale reference height when the first camera is in the perspective view or the front view placement. An assessment can be made as to whether or not Thus, performing three-dimensional measurement contributes to verifying the accuracy of two-dimensional measurement.

いうまでもなく、図24を用いて説明した、算出された3次元座標が示す正面視高さが許容範囲に含まれているかどうかを判定する手法、図25を用いて説明した、算出された3次元座標が示す正面視高さを用いてスケール情報を算出する手法、図26から図29までを用いて説明した、ユーザによる操作に基づきスケール基準高さを調整する手法は、いずれも第1のカメラC0が正面視の方向を向けて配置されている場合にも適用することができる。   Needless to say, the method for determining whether or not the front view height indicated by the calculated three-dimensional coordinates is included in the allowable range described with reference to FIG. 24, the calculation described with reference to FIG. 25. The method for calculating the scale information using the front view height indicated by the three-dimensional coordinates, and the method for adjusting the scale reference height based on the operation by the user described with reference to FIGS. This can also be applied to the case where the camera C0 is arranged in the front view direction.

スケール基準高さからスケール情報を算出する場合に用いるスケール基準高さとしては、ユーザによって入力された値を用いてもよいし、装置自身が実際にワークWを対象に計測した正面視高さを用いてもよい。この正面視高さの計測は、第1、第2のカメラを用いる3次元計測機能により計測してもよいが、正面視高さ計測用のセンサを設けて、このセンサにより計測するようにしてもよい。正面視高さ計測用のセンサとしては、レーザビームの投射とその反射光の受光に基づく三角測距方式のレーザ変位計や、プローブ接触式の変位計など、周知の種々のセンサを用いることができる。   As the scale reference height used when calculating the scale information from the scale reference height, a value input by the user may be used, or the front view height actually measured for the workpiece W by the apparatus itself may be used. It may be used. This front view height may be measured by a three-dimensional measurement function using the first and second cameras. However, a sensor for front view height measurement is provided and measured by this sensor. Also good. As a sensor for measuring the height of the front view, various known sensors such as a laser displacement meter of a triangulation system based on projection of a laser beam and reception of reflected light, a probe contact type displacement meter, and the like may be used. it can.

以上の開示に基づき、以下に述べる画像処理装置も認識される。
(A) 第1のカメラが対象物を撮影した画像に基づいて得られる正面視画像である第1の画像と、第1のカメラが撮影する方向とは異なる方向から対象物を撮影するように配置された第2のカメラが撮影した画像に基づく第2の画像とを用いた処理を行う画像処理装置であって、
第1のカメラが設定用の対象物を撮影した画像に基づいて得られた正面視画像であるところの設定用画像を用いて、ユーザに計測対象位置についての設定をさせる設定手段と、
第1のカメラが計測対象の対象物を撮影した画像に基づいて得られた正面視画像であるところの第1の画像に対し、前記設定に基づいて対象物上の位置を特定する位置特定手段と、
第1の画像において特定された前記位置に対応する、第2の画像における位置を特定し、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出する3次元計測手段とを備え、
正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報およびスケール情報と整合する正面視高さであるスケール基準高さが利用可能とされており、
さらに、第1の画像を対象に、スケール情報を用いて2次元画像処理を行う2次元画像処理手段と、
を備えた画像処理装置。
Based on the above disclosure, the image processing apparatus described below is also recognized.
(A) A first image that is a front view image obtained based on an image obtained by photographing the object by the first camera and a direction that is different from the direction in which the first camera is photographed. An image processing apparatus that performs processing using a second image based on an image captured by a second camera arranged,
Setting means for allowing a user to set a measurement target position using a setting image that is a front-view image obtained based on an image obtained by photographing an object for setting by a first camera;
Position specifying means for specifying a position on the object based on the setting with respect to the first image which is a front view image obtained based on an image obtained by photographing the object to be measured by the first camera. When,
A position in the second image corresponding to the position specified in the first image is specified, and a three-dimensional coordinate is determined using the specified position on the first image and the position on the second image. A three-dimensional measuring means for calculating,
Scale information that associates the dimensions in the front view image with the actual dimensions of the measurement target location and the scale reference height that is the front view height that matches the scale information are available.
Furthermore, two-dimensional image processing means for performing two-dimensional image processing on the first image using scale information;
An image processing apparatus.

(B) さらに、スケール基準高さを含むように定められた正面視高さの許容範囲の値が利用可能とされており、
前記3次元計測手段により算出された前記3次元座標が示す正面視高さが前記許容範囲に含まれているかどうかを判定する判定手段をさらに備えた(A)の画像処理装置。
(B) Furthermore, the value of the allowable range of the front view height determined to include the scale reference height is made available,
(A) The image processing apparatus according to (A), further comprising: a determination unit that determines whether or not a front view height indicated by the three-dimensional coordinates calculated by the three-dimensional measurement unit is included in the allowable range.

(C) 前記3次元計測手段により算出された前記3次元座標が示す正面視高さを用いてスケール情報を算出するスケール情報算出手段をさらに備えた(A)の画像処理装置。 (C) The image processing apparatus according to (A), further comprising scale information calculation means for calculating scale information using a front view height indicated by the three-dimensional coordinates calculated by the three-dimensional measurement means.

(D) ユーザによる操作に基づきスケール基準高さおよびスケール情報を整合的に変更する調整手段をさらに備えた(A)の画像処理装置。 (D) The image processing apparatus according to (A), further including an adjustment unit that changes the scale reference height and the scale information consistently based on an operation by the user.

(E) 第1の画像に対してスケール基準高さにある平面上における実際の寸法を示すスケール図形を加えた表示用の画像を編集する画像編集手段をさらに備えた(D)の画像処理装置。 (E) The image processing apparatus according to (D), further comprising image editing means for editing a display image obtained by adding a scale figure indicating an actual dimension on a plane at a scale reference height to the first image. .

(A)の画像処理装置が用いる正面視画像は、正面視配置のカメラで撮影した画像でもよいし、斜視配置のカメラで撮影した画像を正面視変換したものでもよい。この画像処理装置によれば、互いに整合するスケール情報およびスケール基準高さが利用可能であり、計測対象の対象物についてスケール情報を用いた2次元画像処理が行われるとともに、3次元計測も行われる。したがって、3次元計測により求めた正面視高さとスケール基準高さとの間の差が大きい場合には、スケール情報を用いた2次元画像処理の結果に誤差が生じていることがわかる。
また、計測対象箇所の正面視高さをスケール基準高さとして、スケール情報をスケール基準高さから算出するようにすれば、対象物の種類が変更されて計測対象箇所の高さが変わるような場合にも、スケール情報を容易に設定することができる。スケール情報を定めるための正面視高さは、ユーザが指定したものでも画像処理装置自身が計測したものでもよい。
The front view image used by the image processing apparatus of (A) may be an image taken with a front-view camera, or may be a front view-converted image taken with a perspective camera. According to this image processing apparatus, scale information and scale reference height that match each other can be used, and two-dimensional image processing using scale information is performed on an object to be measured, and three-dimensional measurement is also performed. . Therefore, when the difference between the front view height obtained by the three-dimensional measurement and the scale reference height is large, it can be seen that an error occurs in the result of the two-dimensional image processing using the scale information.
In addition, if the front view height of the measurement target location is set as the scale reference height and the scale information is calculated from the scale reference height, the type of the target object is changed and the height of the measurement target location changes. Even in this case, scale information can be set easily. The front view height for determining the scale information may be specified by the user or measured by the image processing apparatus itself.

(B)の画像処理装置によれば、算出された3次元座標が正面視高さの許容範囲にない場合に、2次元画像処理手段が利用するスケール情報が示すスケールと、第1の画像の実際のスケールとの間に、想定される程度よりも大きな差異があることがわかる。   According to the image processing apparatus of (B), when the calculated three-dimensional coordinates are not within the allowable range of the front view height, the scale indicated by the scale information used by the two-dimensional image processing means, and the first image It can be seen that there is a larger difference from the expected scale than the actual scale.

(C)の画像処理装置によれば、正面視高さの実測値により算出されたスケール情報を用いて2次元画像処理を行うので、対象物についてのより正確な計測を行うことができる。   According to the image processing apparatus of (C), two-dimensional image processing is performed using the scale information calculated from the actual measurement value of the front view height, so that more accurate measurement can be performed on the object.

(D)の画像処理装置によれば、ユーザによる操作に基づき、スケール基準高さが3次元計測の対象箇所の実際の正面視高さにほぼ一致するように調整されると、第2の画像上において計測対象箇所が現れる可能性のある範囲が小さくなる。したがって、そのような小さい範囲を対象として、第1の画像上で特定された位置に対応する位置を特定するようにすれば、第1の画像、第2の画像間での計測対象位置の対応付けを誤る可能性が低くなり、対応位置を特定する演算に要する時間も短くなる。
また、ユーザによる操作に基づきスケール情報が正しく調整されると、第1の画像に対して寸法や面積の計測を伴う種々の2次元画像処理を適用したときに、その結果に含まれる誤差が少なくなる。
According to the image processing apparatus of (D), when the scale reference height is adjusted so as to substantially match the actual front view height of the target portion of the three-dimensional measurement based on the operation by the user, the second image The range in which the measurement target portion may appear is reduced. Therefore, if the position corresponding to the position specified on the first image is specified for such a small range, the correspondence of the measurement target position between the first image and the second image is determined. The possibility of erroneous attachment is reduced, and the time required for the calculation for specifying the corresponding position is also reduced.
In addition, when the scale information is correctly adjusted based on the operation by the user, when various two-dimensional image processes involving measurement of dimensions and areas are applied to the first image, the error included in the result is small. Become.

(E)の画像処理装置によれば、編集された画像が表示されると、ユーザは表示されたスケール図形と計測対象箇所の像との大きさの関係が正しくなるように調整操作を行うことができる。

According to the image processing apparatus of (E), when the edited image is displayed, the user performs an adjustment operation so that the size relationship between the displayed scale graphic and the image of the measurement target portion is correct. Can do.

Claims (13)

第1のカメラが対象物を撮影した画像に基づいて得られる正面視画像である第1の画像と、第1のカメラが撮影する方向とは異なる方向から対象物を撮影するように配置された第2のカメラが撮影した画像に基づく第2の画像とを用いた処理を行う画像処理装置であって、
第1のカメラが設定用の対象物を撮影した画像に基づいて得られた正面視画像であるところの設定用画像を用いて、ユーザに指定領域についての設定をさせる設定手段と、
第1のカメラが計測対象の対象物を撮影した画像に基づいて得られた正面視画像であるところの第1の画像に対し、前記設定に基づいて指定領域を定め、当該指定領域内において対象物上の位置を特定する位置特定手段と、
第1の画像において特定された前記位置に対応する、第2の画像における位置を特定し、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出する3次元計測手段と、
を備えた画像処理装置。
The first camera is arranged so as to photograph the object from a direction different from the direction in which the first camera captures the first image obtained based on the image obtained by capturing the object. An image processing apparatus that performs processing using a second image based on an image captured by a second camera,
Setting means for allowing a user to set a specified area using a setting image that is a front-view image obtained based on an image obtained by photographing an object for setting by a first camera;
For the first image which is a front view image obtained based on an image obtained by photographing the target object to be measured by the first camera, a designated area is determined based on the setting, and the target area is within the designated area. Position specifying means for specifying a position on an object;
A position in the second image corresponding to the position specified in the first image is specified, and a three-dimensional coordinate is determined using the specified position on the first image and the position on the second image. Three-dimensional measuring means for calculating;
An image processing apparatus.
対象物を斜視する方向から撮影するように配置されている第1のカメラが撮影した斜視画像を正面視画像に変換する変換演算を行う変換手段をさらに備え、
前記設定用画像は、第1のカメラが設定用の対象物を斜視する方向から撮影した画像を前記変換手段が変換することにより得られたものであり、
第1の画像は、第1のカメラが計測対象の対象物を斜視する方向から撮影した画像を前記変換手段が変換することにより得られたものである、請求項1に記載の画像処理装置。
The image processing apparatus further includes conversion means for performing a conversion operation for converting a perspective image captured by the first camera arranged to capture an object from a perspective direction into a front view image,
The setting image is obtained by the conversion means converting the image taken from the direction in which the first camera squints the setting object,
The image processing apparatus according to claim 1, wherein the first image is obtained by the conversion unit converting an image captured from a direction in which the first camera squints an object to be measured.
前記変換手段により変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報と、スケール情報と整合する正面視高さであるスケール基準高さの値と、スケール基準高さを含むように定められた正面視高さの許容範囲の値とが利用可能とされており、
第1の画像を対象に、スケール情報を用いて2次元画像処理を行う2次元画像処理手段と、
前記3次元計測手段により算出された前記3次元座標が示す正面視高さが前記許容範囲に含まれているかどうかを判定する判定手段とをさらに備えた請求項2に記載の画像処理装置。
Scale information relating the dimensions in the front view image converted by the conversion means and the actual dimensions of the measurement target location, the value of the scale reference height that is the height in front view that matches the scale information, and the scale reference height And the allowable value of the front view height determined to include
Two-dimensional image processing means for performing two-dimensional image processing on the first image using scale information;
The image processing apparatus according to claim 2, further comprising a determination unit that determines whether or not a front view height indicated by the three-dimensional coordinates calculated by the three-dimensional measurement unit is included in the allowable range.
前記3次元計測手段により算出された前記3次元座標が示す正面視高さを用いて、変換手段により変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報を算出するスケール情報算出手段と、
第1の画像を対象に、スケール情報を用いて2次元画像処理を行う2次元画像処理手段とをさらに備えた、請求項2に記載の画像処理装置。
Using the front view height indicated by the three-dimensional coordinates calculated by the three-dimensional measurement means, the scale information relating the dimensions in the front view image converted by the conversion means and the actual dimensions of the measurement target portion is calculated. Scale information calculation means for
The image processing apparatus according to claim 2, further comprising: a two-dimensional image processing unit that performs two-dimensional image processing on the first image using scale information.
前記変換手段により変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報と、スケール情報と整合する正面視高さであるスケール基準高さの値とが利用可能とされており、
ユーザによる操作に基づきスケール基準高さおよびスケール情報を整合的に変更する調整手段をさらに備えた、請求項2に記載の画像処理装置。
Scale information relating the dimensions in the front view image converted by the conversion means and the actual dimensions of the measurement target portion, and the value of the scale reference height that is the height in front view that matches the scale information can be used. Has been
The image processing apparatus according to claim 2, further comprising an adjusting unit that consistently changes the scale reference height and the scale information based on an operation by a user.
第1の画像に対してスケール基準高さにある平面上における実際の寸法を示すスケール図形を加えた表示用の画像を編集する画像編集手段をさらに備えた、請求項5に記載の画像処理装置。   6. The image processing apparatus according to claim 5, further comprising image editing means for editing an image for display in which a scale graphic indicating an actual dimension on a plane at a scale reference height is added to the first image. . 第1のカメラが対象物を斜視する方向から撮影した画像に基づいて得られる正面視画像である第1の画像と、第1のカメラが撮影する方向とは異なる方向から対象物を撮影するように配置された第2のカメラが撮影した画像に基づく第2の画像とを用いた処理を行う画像処理装置であって、
対象物を斜視する方向から撮影するように配置されている第1のカメラが撮影した斜視画像を正面視画像に変換する変換演算を行う変換手段と、
第1のカメラが設定用の対象物を撮影した画像を前記変換手段が変換することにより得られた設定用画像を用いて、ユーザに計測対象位置についての設定をさせる設定手段と、
第1のカメラが計測対象の対象物を撮影した画像を前記変換手段が変換することにより得られた第1の画像上において、前記設定に基づいて対象物上の位置を特定する位置特定手段と、
第1の画像において特定された前記位置に対応する、第2の画像における位置を特定し、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出する3次元計測手段と、
を備えた画像処理装置。
The first image, which is a front view image obtained based on the image captured from the direction in which the first camera illuminates the object, and the object is captured from a direction different from the direction in which the first camera images. An image processing apparatus that performs processing using a second image based on an image captured by a second camera disposed in
Conversion means for performing a conversion operation for converting a perspective image captured by a first camera arranged to capture an object from a perspective direction into a front view image;
Setting means for allowing the user to set the measurement target position using the setting image obtained by the conversion means converting the image obtained by photographing the setting object by the first camera;
Position specifying means for specifying a position on the object based on the setting on the first image obtained by the conversion means converting an image obtained by photographing the object to be measured by the first camera; ,
A position in the second image corresponding to the position specified in the first image is specified, and a three-dimensional coordinate is determined using the specified position on the first image and the position on the second image. Three-dimensional measuring means for calculating;
An image processing apparatus.
前記変換手段により変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報と、スケール情報と整合する正面視高さであるスケール基準高さの値と、スケール基準高さを含むように定められた正面視高さの許容範囲の値とが利用可能とされており、
第1の画像を対象に、スケール情報を用いて2次元画像処理を行う2次元画像処理手段と、
前記3次元計測手段により算出された前記3次元座標が示す正面視高さが前記許容範囲に含まれているかどうかを判定する判定手段とを、さらに備えた請求項7に記載の画像処理装置。
Scale information relating the dimensions in the front view image converted by the conversion means and the actual dimensions of the measurement target location, the value of the scale reference height that is the height in front view that matches the scale information, and the scale reference height And the allowable value of the front view height determined to include
Two-dimensional image processing means for performing two-dimensional image processing on the first image using scale information;
The image processing apparatus according to claim 7, further comprising: a determination unit that determines whether or not a front view height indicated by the three-dimensional coordinates calculated by the three-dimensional measurement unit is included in the allowable range.
前記3次元計測手段により算出された前記3次元座標が示す正面視高さを用いて、変換手段により変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報を算出するスケール情報算出手段と、
第1の画像を対象に、スケール情報を用いて2次元画像処理を行う2次元画像処理手段とをさらに備えた、請求項7に記載の画像処理装置。
Using the front view height indicated by the three-dimensional coordinates calculated by the three-dimensional measurement means, the scale information relating the dimensions in the front view image converted by the conversion means and the actual dimensions of the measurement target portion is calculated. Scale information calculation means for
The image processing apparatus according to claim 7, further comprising two-dimensional image processing means for performing two-dimensional image processing on the first image using scale information.
前記変換手段により変換された正面視画像における寸法と計測対象箇所の実際の寸法とを関係付けるスケール情報と、スケール情報と整合する正面視高さであるスケール基準高さの値とが利用可能とされており、
ユーザによる操作に基づきスケール基準高さおよびスケール情報を整合的に変更する調整手段をさらに備えた、請求項7に記載の画像処理装置。
Scale information relating the dimensions in the front view image converted by the conversion means and the actual dimensions of the measurement target portion, and the value of the scale reference height that is the height in front view that matches the scale information can be used. Has been
The image processing apparatus according to claim 7, further comprising an adjusting unit that consistently changes the scale reference height and the scale information based on an operation by a user.
第1の画像に対してスケール基準高さにある平面上における実際の寸法を示すスケール図形を加えた表示用の画像を編集する画像編集手段をさらに備えた、請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, further comprising an image editing unit that edits a display image in which a scale graphic indicating an actual dimension on a plane at a scale reference height is added to the first image. . 第1のカメラが対象物を撮影した画像に基づいて得られる正面視画像である第1の画像と、第1のカメラが撮影する方向とは異なる方向から対象物を撮影するように配置された第2のカメラが撮影した画像に基づく第2の画像とを用いた処理を行う画像処理方法であって、
第1のカメラが設定用の対象物を撮影した画像に基づいて得られた正面視画像であるところの設定用画像を表示し、ユーザに当該設定用画像を用いて指定領域についての設定をさせる設定ステップと、
第1のカメラが計測対象の対象物を撮影した画像に基づいて得られた正面視画像であるところの第1の画像に対し、前記設定に基づいて指定領域を定め、当該指定領域内において対象物上の位置を特定する位置特定ステップと、
第1の画像において特定された前記位置に対応する、第2の画像における位置を特定し、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出する3次元計測ステップと、
を備えた画像処理方法。
The first camera is arranged so as to photograph the object from a direction different from the direction in which the first camera captures the first image obtained based on the image obtained by capturing the object. An image processing method for performing processing using a second image based on an image captured by a second camera,
The first camera displays a setting image that is a front-view image obtained based on an image obtained by photographing the setting object, and allows the user to set the designated area using the setting image. Configuration steps;
For the first image which is a front view image obtained based on an image obtained by photographing the target object to be measured by the first camera, a designated area is determined based on the setting, and the target area is within the designated area. A position identifying step for identifying a position on an object;
A position in the second image corresponding to the position specified in the first image is specified, and a three-dimensional coordinate is determined using the specified position on the first image and the position on the second image. A three-dimensional measurement step to calculate;
An image processing method comprising:
対象物を斜視する方向から撮影するように配置されている第1のカメラが対象物を撮影した画像に基づいて得られる正面視画像である第1の画像と、第1のカメラが撮影する方向とは異なる方向から対象物を撮影するように配置された第2のカメラが撮影した画像に基づく第2の画像とを用いた処理を行う画像処理方法であって、
第1のカメラが撮影した斜視画像を正面視画像に変換する変換演算により、第1のカメラが設定用の対象物を撮影した画像を設定用画像に変換し、ユーザに当該設定用画像を用いて計測対象位置についての設定をさせる設定ステップと、
前記変換演算により、第1のカメラが計測対象の対象物を撮影した画像を第1の画像に変換し、第1の画像上において、前記設定に基づき対象物上の位置を特定する位置特定ステップと、
第1の画像において特定された前記位置に対応する、第2の画像における位置を特定し、特定された第1の画像上の位置と第2の画像上の位置とを用いて3次元座標を算出する3次元計測ステップと、
を備えた画像処理方法。

A first image, which is a front view image obtained based on an image obtained by photographing a target object by a first camera arranged to shoot the target object from a perspective direction, and a direction in which the first camera takes a picture. An image processing method for performing processing using a second image based on an image captured by a second camera arranged to capture an object from a different direction,
By converting the perspective image captured by the first camera into a front-view image, an image obtained by capturing the setting object by the first camera is converted into a setting image, and the setting image is used by the user. Setting step for setting the measurement target position,
A position specifying step of converting an image obtained by photographing the object to be measured by the first camera into a first image by the conversion calculation and specifying a position on the object based on the setting on the first image. When,
A position in the second image corresponding to the position specified in the first image is specified, and a three-dimensional coordinate is determined using the specified position on the first image and the position on the second image. A three-dimensional measurement step to calculate;
An image processing method comprising:

JP2006541746A 2005-06-17 2006-06-16 Image processing apparatus and image processing method for performing three-dimensional measurement Active JP4811272B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006541746A JP4811272B2 (en) 2005-06-17 2006-06-16 Image processing apparatus and image processing method for performing three-dimensional measurement

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005177616 2005-06-17
JP2005177616 2005-06-17
PCT/JP2006/312099 WO2006135040A1 (en) 2005-06-17 2006-06-16 Image processing device and image processing method performing 3d measurement
JP2006541746A JP4811272B2 (en) 2005-06-17 2006-06-16 Image processing apparatus and image processing method for performing three-dimensional measurement

Publications (2)

Publication Number Publication Date
JPWO2006135040A1 true JPWO2006135040A1 (en) 2009-01-08
JP4811272B2 JP4811272B2 (en) 2011-11-09

Family

ID=37532393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006541746A Active JP4811272B2 (en) 2005-06-17 2006-06-16 Image processing apparatus and image processing method for performing three-dimensional measurement

Country Status (6)

Country Link
US (1) US8233041B2 (en)
EP (1) EP1788345B1 (en)
JP (1) JP4811272B2 (en)
KR (2) KR20070088318A (en)
CN (1) CN100460807C (en)
WO (1) WO2006135040A1 (en)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4774824B2 (en) * 2005-06-17 2011-09-14 オムロン株式会社 Method for confirming measurement target range in three-dimensional measurement processing, method for setting measurement target range, and apparatus for performing each method
JP4888013B2 (en) * 2006-09-28 2012-02-29 富士通株式会社 Height limit calculation device, height limit calculation method, and height limit calculation program
WO2008121073A1 (en) * 2007-04-03 2008-10-09 Hexagon Metrology Ab Method and device for exact measurement of objects
JP4492654B2 (en) * 2007-08-29 2010-06-30 オムロン株式会社 3D measuring method and 3D measuring apparatus
JP4935606B2 (en) * 2007-09-28 2012-05-23 オムロン株式会社 Imaging system
KR100941978B1 (en) * 2008-02-26 2010-02-11 울산대학교 산학협력단 Method and device for measuring 3D position information of object using CD camera and laser beam
CN103134446B (en) 2008-02-26 2017-03-01 株式会社高永科技 3 d shape measuring apparatus and measuring method
CA2828598C (en) * 2008-05-22 2015-04-28 Matrix Electronic Measuring Properties, Llc Stereoscopic measurement system and method
DE102009040649A1 (en) * 2008-09-11 2010-05-20 Schott Ag Method and apparatus for generating digital frames of disc-shaped elements in a manufacturing process
JP5353154B2 (en) * 2008-09-25 2013-11-27 オムロン株式会社 Image processing apparatus and image processing method therefor
CN101729737B (en) * 2008-10-29 2012-06-20 鸿富锦精密工业(深圳)有限公司 Image correcting system and method
JP2010210585A (en) * 2009-03-12 2010-09-24 Omron Corp Model display method in three-dimensional visual sensor, and three-dimensional visual sensor
JP5257375B2 (en) * 2009-03-13 2013-08-07 オムロン株式会社 Image processing apparatus and image processing method
CN101887030A (en) * 2009-05-15 2010-11-17 圣戈本玻璃法国公司 Method and system for detecting defects on the surface and/or inside of a transparent substrate
US9533418B2 (en) * 2009-05-29 2017-01-03 Cognex Corporation Methods and apparatus for practical 3D vision system
EP3236254B1 (en) 2009-10-05 2020-12-02 Kawasaki Jukogyo Kabushiki Kaisha Ultrasonic system and method for determining porosity in composite materials.
JP5476943B2 (en) * 2009-11-20 2014-04-23 オムロン株式会社 Posture recognition method and three-dimensional visual sensor using this method
JP5257335B2 (en) * 2009-11-24 2013-08-07 オムロン株式会社 Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
JP5713159B2 (en) * 2010-03-24 2015-05-07 独立行政法人産業技術総合研究所 Three-dimensional position / orientation measurement apparatus, method and program using stereo images
JP5018980B2 (en) * 2010-04-08 2012-09-05 カシオ計算機株式会社 Imaging apparatus, length measurement method, and program
JP5365645B2 (en) * 2011-01-17 2013-12-11 オムロン株式会社 Substrate inspection apparatus, substrate inspection system, and method of displaying screen for confirming substrate inspection result
US8799769B2 (en) * 2011-02-08 2014-08-05 Ebay Inc. Application above-the-fold rendering measurements
JP2012187651A (en) * 2011-03-09 2012-10-04 Omron Corp Image processing apparatus, image processing system, and guidance apparatus therefor
KR101340555B1 (en) * 2011-09-23 2013-12-11 광주과학기술원 Apparatus and method for generating base view image
CN102628693A (en) * 2012-04-16 2012-08-08 中国航空无线电电子研究所 Method for registering camera spindle and laser beam in parallel
CN103196375B (en) * 2013-04-03 2015-09-30 江南大学 A kind of automatic testing method of battery plus-negative plate ear glue height
JP6198312B2 (en) * 2013-09-30 2017-09-20 Jukiオートメーションシステムズ株式会社 Three-dimensional measuring apparatus, three-dimensional measuring method, and substrate manufacturing method
JP6303867B2 (en) * 2014-06-27 2018-04-04 オムロン株式会社 Substrate inspection apparatus and control method thereof
WO2016057043A1 (en) * 2014-10-10 2016-04-14 Georgia Tech Research Corporation Dynamic digital fringe projection techniques for measuring warpage
US10334209B2 (en) * 2015-12-17 2019-06-25 Nike, Inc. Image stitching for footwear component processing
CN107328331B (en) * 2017-08-25 2023-05-23 郑州市质量技术监督检验测试中心 Distributed steel ruler calibrating device and method based on vision
DE102017009153B4 (en) * 2017-09-29 2021-12-09 Baumer Inspection Gmbh Arrangement and method for the inspection of moving plate-shaped objects
CN109118480B (en) * 2018-07-26 2021-01-05 北京东软医疗设备有限公司 Adjusting method and device
EP3859269B1 (en) 2018-09-28 2023-05-03 Panasonic Intellectual Property Management Co., Ltd. Measurement device and measurement method
DE102020101191B4 (en) 2020-01-20 2024-07-18 Carl Zeiss Microscopy Gmbh Microscope and method for determining a measuring location of a microscope
CN112082481B (en) * 2020-09-09 2022-04-19 易思维(杭州)科技有限公司 Precision evaluation method of visual detection system for detecting thread characteristics
CN114469001B (en) * 2022-01-27 2024-10-18 庄源东 System and method for fusing camera image and X-ray perspective image

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4972494A (en) * 1988-02-26 1990-11-20 R. J. Reynolds Tobacco Company Package inspection system
NO178909C (en) * 1993-04-19 1996-06-26 Toni Rydningen Measuring device
JP3855244B2 (en) 1996-08-09 2006-12-06 株式会社テクノホロン Three-dimensional image recognition device using a microscope
JP3995030B2 (en) * 1996-09-17 2007-10-24 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション Semiconductor package inspection equipment
US6064759A (en) * 1996-11-08 2000-05-16 Buckley; B. Shawn Computer aided inspection machine
JPH10143660A (en) * 1996-11-11 1998-05-29 Hitachi Ltd Defect judgment processing method and device
US6084663A (en) * 1997-04-07 2000-07-04 Hewlett-Packard Company Method and an apparatus for inspection of a printed circuit board assembly
JP3712847B2 (en) * 1997-05-20 2005-11-02 株式会社リコー Three-dimensional shape measurement method, three-dimensional shape measurement device, and posture detection device for imaging means
US6118540A (en) * 1997-07-11 2000-09-12 Semiconductor Technologies & Instruments, Inc. Method and apparatus for inspecting a workpiece
US5978521A (en) * 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine calibration locations of multiple cameras that image a common object
US6072898A (en) * 1998-01-16 2000-06-06 Beaty; Elwin M. Method and apparatus for three dimensional inspection of electronic components
US6915006B2 (en) * 1998-01-16 2005-07-05 Elwin M. Beaty Method and apparatus for three dimensional inspection of electronic components
JPH11237210A (en) * 1998-02-19 1999-08-31 Komatsu Ltd Semiconductor package inspection equipment
JPH11259658A (en) 1998-03-11 1999-09-24 Omron Corp Body recognizing method and body recognizing device using same method, and method and device for vehicle recognition
GB9828109D0 (en) 1998-12-19 1999-02-17 Kestra Ltd Inspection equipment and methods of inspection
JP2000269700A (en) * 1999-03-16 2000-09-29 Matsushita Electric Ind Co Ltd Pattern matching recognition method
JP2001033236A (en) * 1999-07-23 2001-02-09 Mitsubishi Heavy Ind Ltd Stereoscopic image measuring device and stereoscopic image measuring method
JP2001165863A (en) 1999-09-30 2001-06-22 Omron Corp Image processing device
CN1115546C (en) * 1999-12-29 2003-07-23 宝山钢铁股份有限公司 Surface three-dimensional appearance testing method and equipment
US7075565B1 (en) * 2000-06-14 2006-07-11 Landrex Technologies Co., Ltd. Optical inspection system
JP3618649B2 (en) * 2000-08-22 2005-02-09 アジア航測株式会社 An extended image matching method between images using an indefinite window
US6445518B1 (en) * 2000-11-28 2002-09-03 Semiconductor Technologies & Instruments, Inc. Three dimensional lead inspection system
JP4688309B2 (en) * 2001-02-20 2011-05-25 成典 田中 3D computer graphics creation support apparatus, 3D computer graphics creation support method, and 3D computer graphics creation support program
US7277187B2 (en) * 2001-06-29 2007-10-02 Quantronix, Inc. Overhead dimensioning system and method
JP2004046772A (en) 2002-05-13 2004-02-12 3D Media Co Ltd Method, system and apparatus for processing image
US7133560B2 (en) * 2002-07-09 2006-11-07 Lee Shih-Jong J Generating processing sequences for image-based decision systems
WO2005010495A2 (en) * 2003-07-22 2005-02-03 Trestle Corporation System and method for generating digital images of a microscope slide
US7015492B2 (en) * 2003-08-15 2006-03-21 Asm International N.V. Method and apparatus for mapping of wafers located inside a closed wafer cassette

Also Published As

Publication number Publication date
KR20070088318A (en) 2007-08-29
JP4811272B2 (en) 2011-11-09
EP1788345A4 (en) 2010-09-01
KR101155816B1 (en) 2012-06-12
US8233041B2 (en) 2012-07-31
CN100460807C (en) 2009-02-11
KR20100017396A (en) 2010-02-16
WO2006135040A1 (en) 2006-12-21
EP1788345A1 (en) 2007-05-23
US20090128648A1 (en) 2009-05-21
CN101010559A (en) 2007-08-01
EP1788345B1 (en) 2014-03-05

Similar Documents

Publication Publication Date Title
JP4811272B2 (en) Image processing apparatus and image processing method for performing three-dimensional measurement
JP5273196B2 (en) Image processing device
US8229208B2 (en) Transprojection of geometry data
JP5097480B2 (en) Image measuring device
US7450248B2 (en) Three-dimensional measuring method and three-dimensional measuring apparatus
JP4885584B2 (en) Rangefinder calibration method and apparatus
US20020029127A1 (en) Method and apparatus for measuring 3-D information
JP2012021914A (en) Image processing system and visual inspection method
JP2009053147A (en) Three-dimensional measuring method and three-dimensional measuring device
JP2020126590A (en) Information processing apparatus, information processing method, and program
JP3690581B2 (en) POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF
JP4788475B2 (en) Image processing apparatus and image processing method
US7409152B2 (en) Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method
JP5445064B2 (en) Image processing apparatus and image processing program
CN112710662A (en) Generation method and device, generation system and storage medium
JP2006220424A (en) X-ray CT inspection apparatus and X-ray CT inspection method
JPH03158710A (en) Image data creation device
CN100417914C (en) Image processing device and image processing method
JP2006220425A (en) Printed circuit board visual inspection apparatus and printed circuit board visual inspection method
JPH08128809A (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110726

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110808

R150 Certificate of patent or registration of utility model

Ref document number: 4811272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3