[go: up one dir, main page]

WO2018100669A1 - 個体識別装置 - Google Patents

個体識別装置 Download PDF

Info

Publication number
WO2018100669A1
WO2018100669A1 PCT/JP2016/085541 JP2016085541W WO2018100669A1 WO 2018100669 A1 WO2018100669 A1 WO 2018100669A1 JP 2016085541 W JP2016085541 W JP 2016085541W WO 2018100669 A1 WO2018100669 A1 WO 2018100669A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
individual identification
partial region
feature
individual
Prior art date
Application number
PCT/JP2016/085541
Other languages
English (en)
French (fr)
Inventor
高橋 徹
石山 塁
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2018553570A priority Critical patent/JP6810392B2/ja
Priority to US16/347,740 priority patent/US11037326B2/en
Priority to PCT/JP2016/085541 priority patent/WO2018100669A1/ja
Publication of WO2018100669A1 publication Critical patent/WO2018100669A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06018Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding
    • G06K19/06028Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding using bar codes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Definitions

  • the present invention relates to an individual identification device, an individual identification method, and a program.
  • Patent Document 1 a protective film is applied to a specific part of the product surface, a random pattern on the product surface at the protective film application part is acquired as an image using a photographing device, and the obtained captured image is used.
  • the article management apparatus was described.
  • Patent Document 2 describes a product identification means that uses a camera to photograph a satin finish formed on the surface of a part or product, and uses the image features of a satin pattern included in the captured image.
  • Patent Document 3 and Patent Document 4 describe a method for determining the authenticity of an article using a random pattern of taggants (microparticles) on the article for the purpose of individual identification and article authenticity determination.
  • Patent Document 5 proposes a method of performing two-dimensional Fourier transform on a captured image of a human fingerprint and identifying and authenticating an individual using a phase-only correlation of the captured image.
  • Patent Document 6 proposes a method for identifying and authenticating an individual (individual) using a phase-only correlation with respect to a captured image of an iris.
  • Patent Document 7 for the purpose of personal authentication, an image of a subject is subjected to frequency conversion and polar coordinate conversion, and a frequency band representing the characteristics of the subject is selected from the frequency spectrum image represented by the polar coordinate system.
  • An image conversion apparatus that generates a vector for individual identification including an element that specifies a selected frequency band and an element that represents a frequency spectrum is described.
  • the biometric information is read by calculating the sum of the distances between the vectors while changing the combination of the direction for the input feature information vector and the direction for the registered feature information vector at the time of matching. This corresponds to a positional shift caused by a change in the direction of the subject from time to time.
  • Patent Document 8 describes an image collation apparatus that can perform collation even when there are differences in the amount of translation, rotation angle, and enlargement / reduction between the collation image and the registered image.
  • the matching image and the registered image are subjected to Fourier transform and logarithmic-polar coordinate transformation, and the registration image is obtained by the phase-only correlation between the matching image obtained thereby and the frequency spectrum image of the registered image.
  • the correction information magnification information, rotation information
  • the collation image is corrected based on the correction information, and collation is performed by correlation processing between the corrected collation image and the registered image.
  • Patent Document 7 the feature amount of the subject is extracted from a frequency spectrum image obtained by subjecting an image of the subject to frequency conversion and polar coordinate conversion.
  • image alignment is not performed when extracting feature amounts. Therefore, in patent document 7, the processing amount at the time of collation increases. That is, in Patent Document 7, at the time of collation, by changing the combination of the direction for the input feature information vector and the direction for the registered feature information vector, calculating the sum of the distances between the two vectors, It is necessary to cope with a positional shift caused by a difference in the direction of the subject at each reading time. Therefore, it is conceivable to apply the image alignment technique described in Patent Document 8 to the technique described in Patent Document 7.
  • correction information magnification information, rotation information
  • correction information magnification information, rotation information of the first image with respect to the second image is obtained by the phase-only correlation between the frequency spectrum image of the first image and the frequency spectrum image of the second image. Information). Therefore, even if there is a common partial area used for alignment between the first image and the second image, correction is performed so that the alignment can be accurately performed under the influence of areas other than the common partial area. There is a problem that it is difficult to seek information.
  • An object of the present invention is to provide an individual identification apparatus that solves the above-described problems.
  • the individual identification device is A conversion unit that performs frequency conversion on an image obtained by imaging an object; An alignment unit that aligns an image for extracting a feature quantity for identifying an individual object based on a first partial region in the image after the frequency conversion; Is provided.
  • the individual identification method is: Perform frequency conversion on the image obtained by imaging the object, Based on the first partial region in the image after the frequency conversion, image alignment for extracting a feature amount for identifying the individual object is performed.
  • a program is: Computer A conversion unit that performs frequency conversion on an image obtained by imaging an object; An alignment unit that aligns an image for extracting a feature quantity for identifying an individual object based on a first partial region in the image after the frequency conversion; And make it work.
  • the present invention has the above-described configuration, it is possible to accurately align an image obtained by imaging an object.
  • This embodiment utilizes the fact that a fine pattern unique to each product and a fine pattern common to a plurality of products exist on the surfaces of a plurality of products manufactured through the same manufacturing process.
  • this embodiment uses the fact that the spatial frequency is different between a fine pattern unique to each product and a fine pattern common to a plurality of products.
  • this embodiment will be described item by item.
  • Patent Document 1 and Patent Document 2 describe a method of pressing an imaging mechanism against an object surface to image the same part.
  • a mechanism for precisely moving individual products and photographing mechanisms is necessary.
  • the introduction of this mechanism usually tends to be a large-scale device.
  • In order to incorporate this mechanism into an existing production line it is necessary to greatly change the design of the production line itself. As a result, there is a possibility of causing a large cost increase.
  • Patent Document 1 Patent Document 2, Patent Document 3, in consideration of fluctuations in the position of a target object at the time of shooting, a method for aligning captured images using a mark, a logo, or the like included in the captured image is used. Is described. However, this method requires marks and logos that are common to all individuals in parts and products to be managed individually, and cannot be applied to parts or products that do not have these. In particular, many industrial parts do not have marks or logos, which is a problem. Further, in the manufacturing process, it can be dealt with by providing positioning marks on the surface. However, such a method increases the number of manufacturing steps, and may lead to deterioration of tact time and production efficiency.
  • a method is conceivable in which a feature amount is extracted from the entire image including the part displacement error range of the component, and individual identification and authentication of each component or product is performed using the feature amount.
  • Patent Document 4 describes a method in which feature points are extracted from a taggant distribution and collated using feature amounts based on the positional relationship.
  • this method is based on the premise that a reference taggant can be detected.
  • a part or product surface is photographed over a wide area so as to include misalignment errors, other taggant or individual-specific features may become noise, and may not be extracted as reproducible features.
  • this method has a problem that only parts and products in which taggant particles are randomly attached to the surface can be used.
  • Patent Document 5 proposes a method of performing two-dimensional Fourier transform on a captured image of a human fingerprint and identifying and authenticating an individual using a phase-only correlation of the captured image. .
  • Patent Document 6 proposes a method for identifying and authenticating an individual (individual) using a phase-only correlation with respect to a captured image of an iris.
  • Patent Document 7 proposes a method of calculating the sum of distances between vectors while changing the combination of the direction for the input feature information vector and the direction for the registered feature information vector at the time of matching.
  • Patent Document 8 discloses a method for performing matching for registration image alignment for each registered image at the time of matching of the matching image and performing matching by correlation processing between the corrected matching image and the registered image. Has been proposed.
  • correction information of the first image with respect to the second image is obtained by the phase-only correlation between the frequency spectrum image of the first image and the frequency spectrum image of the second image.
  • magnification information, rotation information there is a problem that an area other than the common partial area used for alignment becomes noise and accurate alignment cannot be performed.
  • the present embodiment has been made in view of the above problems, and provides an individual identification / authentication system suitable for realizing individual management of parts and products mass-produced on a production line.
  • FIG. 1 is a block diagram of the individual identification device according to the present embodiment.
  • the individual identification apparatus 100 includes an image acquisition unit 101, an image storage unit 102, a frequency domain conversion unit 103, a polar coordinate conversion unit 104, a feature selection unit 105, a common feature storage unit 106, an individual A unique feature extraction parameter storage unit 107, an image registration unit 108, a feature extraction unit 109, a feature amount storage unit 110, a score calculation unit 111, a determination unit 112, and an information presentation unit 113 are provided.
  • the feature selection unit 105 is also referred to as a reference image determination unit or a second partial region determination unit.
  • the score calculation unit 111 and the determination unit 112 are also referred to as a collation unit.
  • the image acquisition unit 101 has a function of acquiring an image of the surface of a product to be managed.
  • the image storage unit 102 has a function of storing the image obtained by the image acquisition unit 101.
  • the frequency domain conversion means 103 has a function of performing frequency conversion on an image and converting it to a frequency spectrum image.
  • As the frequency transform a two-dimensional discrete Fourier transform is used, but other types of frequency transform such as a two-dimensional discrete wavelet transform may be used.
  • the polar coordinate conversion means 104 has a function of converting a frequency spectrum image into polar coordinates.
  • the feature selection means 105 is based on the frequency spectrum image converted into polar coordinates, and appears in common with the frequency features (common features) that appear on the images of the surfaces of the plurality of products, and appears specific to the product in the images of the surfaces of the products. It has a function for obtaining a parameter (individual unique feature extraction parameter) including a frequency band in which a frequency feature appears.
  • the common feature storage unit 106 has a function of storing the common feature output from the feature selection unit 105.
  • the individual unique feature extraction parameter storage unit 107 has a function of storing the individual unique feature extraction parameter output from the feature selection unit 105.
  • the image alignment means 108 functions to align the frequency spectrum image after the polar coordinate conversion corresponding to the captured image of the surface of the product to be managed with respect to the common feature stored in the common feature storage means 106.
  • the feature extraction unit 109 has a function of calculating a feature amount unique to each individual from the frequency spectrum image after alignment using the parameters stored in the individual unique feature extraction parameter storage unit 107.
  • the feature amount storage unit 110 has a function of storing individual-specific feature amounts obtained by the feature extraction unit 109 from the captured image.
  • the score calculation unit 111 compares the feature quantity unique to the individual obtained by the feature extraction unit 109 from the captured image that is a query image with the feature quantity stored in the feature quantity storage unit 110, and the similarity between the feature quantities As a score (numerical value).
  • the determination unit 111 has a function of outputting a determination result of identification and collation based on the score obtained in 110.
  • the information presenting means 113 has a function of presenting individual management information based on the determination result.
  • the individual identification device 100 includes an imaging unit 201 such as a camera, an operation input unit 202 such as a keyboard and a mouse, a screen display unit 203 such as a liquid crystal display, a communication interface unit 204, a memory And an information processing apparatus 200 such as a personal computer or a smartphone having a storage unit 205 such as a hard disk and an arithmetic processing unit 206 such as one or more microprocessors, and a program 207.
  • the program 207 is read from an external computer-readable storage medium into the memory when the information processing apparatus 200 is started up, etc., and controls the operation of the arithmetic processing unit 206, so that image acquisition means is stored on the arithmetic processing unit 206.
  • 101, image storage unit 102, frequency domain conversion unit 103, polar coordinate conversion unit 104, feature selection unit 105, common feature storage unit 106, individual unique feature extraction parameter storage unit 107, image registration unit 108, feature extraction unit 109, feature Functional means such as the quantity storage means 110, the score calculation means 111, the determination means 112, and the information presentation means 113 are realized.
  • 3 and 4 are an operation flow and a flowchart of common feature extraction and individual unique feature extraction parameter determination processing.
  • the image acquisition unit 101 acquires a surface pattern image of each of a plurality of products to be managed, and stores it in the image storage unit 102 (step S102).
  • the image acquisition unit 101 acquires at least one image for each individual and stores it in the image storage unit 102.
  • the image acquisition unit 101 may acquire a plurality of images for each individual and store them in the image storage unit 102 in order to increase the accuracy of the individual unique feature extraction parameter.
  • the image acquisition unit 101 may be any of a photographing device such as a camera or a scanner, an image data acquisition device via a network, or an image data acquisition device via a storage medium such as a CD-ROM.
  • the image acquisition unit 101 stores the acquired image of the surface pattern of the product in the image storage unit 102 for each production line.
  • the production line includes an assembly process by a flow operation or a single assembly process by a single processing machine, which is made in order to manufacture a large number of the same and similar products.
  • the image acquisition unit 101 distinguishes between the image of the surface pattern of the product manufactured by the first production line and the image of the surface pattern of the product manufactured by the second production line, and stores the image in the image storage unit 102. save.
  • a pattern unique to the mold A1 is transferred to the entire surface of the product manufactured by the first production line.
  • a pattern unique to the mold A2 is transferred to the entire surface.
  • the first production line uses the cutting device B1 to cut the material to mass-produce the product
  • the second production line uses the same cutting device B1 as the cutting device B2.
  • the product shall be mass-produced by cutting.
  • the image acquisition unit 101 distinguishes between the image of the surface pattern of the product manufactured by the first production line and the image of the surface pattern of the product manufactured by the second production line, and stores the image in the image storage unit 102. save.
  • fine irregularities having a surface roughness specific to the cross section of the blade used for cutting included in the cutting device B1 appear on the cut surface.
  • fine irregularities having a surface roughness specific to the cross section of the blade used for cutting included in the cutting device B2 appear on the cut surface.
  • the same processing method and equipment listed here are merely examples, and other same manufacturing processes and processing equipment can be handled in the same manner.
  • FIG. 11 shows an example of the contents of the image storage means 102.
  • FIG. 11A shows an example in which the image acquisition unit 101 acquires one image for each individual and stores it in the image storage unit 102.
  • Images G 1 ,..., G n are n images corresponding one-to-one with n products.
  • FIG. 11B shows an example in which the image acquisition unit 101 acquires m (m ⁇ 2) images for each individual and stores them in the image storage unit 102.
  • Image G 11, ..., G 1 m, image G 21, ..., G 2m, ..., the image G n1, ..., G nm is n ⁇ m pieces of images corresponding to the 1-to-1 to n of the product.
  • FIG. 11A shows an example in which the image acquisition unit 101 acquires one image for each individual and stores it in the image storage unit 102.
  • Images G 1 ,..., G n are n images corresponding one-to-one with n products.
  • FIG. 11B shows an example in
  • 11C shows an example in which the image acquisition unit 101 stores product images in the image storage unit 102 for each production line.
  • Images G 1 ,..., G n are n images corresponding to n products produced on the first production line on a one-to-one basis.
  • Images G n + 1 ,..., G n + n are n images corresponding to n products produced on the second production line on a one-to-one basis.
  • one image is stored for each individual, but a plurality of images may be stored for each individual.
  • the frequency domain conversion means 103 takes out the images of the surface patterns of a plurality of products to be managed from the image storage means 102, and converts them into two-dimensional frequency spectrum data of each image (step S103). Further, in step S103, the frequency domain conversion means 103 may further take the logarithm of the obtained two-dimensional frequency spectrum data and convert it into logarithmic amplitude spectrum data.
  • the two-dimensional frequency spectrum data obtained by this processing is referred to as a frequency spectrum image.
  • the polar coordinate conversion unit 104 converts the frequency spectrum image obtained by the frequency domain conversion unit 103 into polar coordinates (step S104).
  • the movement in the rotational direction in the real coordinates is the lateral movement along the ⁇ axis in the polar coordinates. Therefore, the amount of rotational fluctuation between the two frequency spectrum images is expressed by the amount of translation along the ⁇ axis between the two frequency spectrum images after the polar coordinate conversion.
  • the polar coordinate conversion unit 104 may convert the frequency spectrum image obtained by the frequency domain conversion unit 103 into logarithmic polar coordinates in step S104. In general, scale variation in real coordinates results in lateral movement along the log-r axis in logarithmic polar coordinates.
  • the rotational fluctuation amount and the scale fluctuation between the two frequency spectrum images are determined by the translation amount along the ⁇ axis and the translation amount along the log-r axis between the two frequency spectrum images after logarithmic polar transformation. Expressed. Therefore, conversion to logarithmic polar coordinates is effective when there is a scale variation in addition to a rotational variation between captured images at the time of image acquisition.
  • FIG. 12 shows an example of processing results of the frequency domain conversion unit 103 and the polar coordinate conversion unit 104.
  • FIG. 12A shows the result of processing one image for each individual shown in FIG.
  • Images SG 1 ,..., SG n are frequency spectrum images after n polar coordinate transformations corresponding one-to-one with n products.
  • FIG. 12 (b) shows the result of processing m (m ⁇ 2) images for each individual shown in FIG. 11 (b).
  • Image SG 11, ..., SG 1 m, image SG 21, ..., SG 2m, ..., image SG n1, ..., SG nm is after n ⁇ m pieces of the polar coordinate conversion corresponding to one-to-one to n products It is a frequency spectrum image.
  • FIG. 12A shows the result of processing one image for each individual shown in FIG.
  • Images SG 1 ,..., SG n are frequency spectrum images after n polar coordinate transformations corresponding one-to-one with n products.
  • Images SG 1 ,..., SG n are frequency spectrum images after n polar coordinate transformations corresponding to n products produced on the first production line on a one-to-one basis.
  • Images SG n + 1 ,..., SG n + n are frequency spectrum images after n polar coordinate transformations corresponding to n products produced on the second production line on a one-to-one basis.
  • FIG. 5 shows an image obtained by imaging a surface pattern of a product to be managed, a frequency spectrum image obtained by frequency-converting the image, and log-polar coordinate conversion of the frequency spectrum image. An example with a frequency spectrum image is shown.
  • the feature selection unit 105 uses the frequency spectrum image after the polar coordinate conversion obtained by the polar coordinate conversion unit 104 to use the frequency spectrum component common to the images of a plurality of products to be managed and the individual unique feature extraction parameter. Are calculated (step S105). Hereinafter, it demonstrates individually.
  • the feature selection unit 105 repeatedly extracts a part of a specific frequency band as a partial area image from the frequency spectrum image after the polar coordinate conversion of a plurality of products, and obtains a normalized cross-correlation between all the partial area images.
  • a common frequency spectrum component (common feature) is calculated.
  • the feature selection unit 105 applies the phase-only correlation method to all pairs from all the partial region images instead of the normalized cross-correlation, obtains the S / N ratio of the correlation peak and the surrounding region, and S A partial region image having the highest / N ratio may be obtained as a common feature.
  • the feature selection unit 105 may perform distance calculation such as Euclidean distance between the partial region images, and may select a partial region having the smallest distance as a common feature. Further, the feature selection unit 105 may obtain a frequency spectrum (common feature) that is common to all products by a statistical method or machine learning on the frequency spectrum images after the polar coordinate conversion of a plurality of products.
  • the feature selection unit 105 images the plurality of products manufactured on the production line for each production line in step S105.
  • Frequency spectrum components (common features) common to the two are calculated.
  • a common frequency spectrum component (common feature) derived from a pattern transferred at the time of manufacture by the mold A1 is calculated.
  • a common frequency spectrum component (common feature) derived from a pattern transferred during casting or forging by the mold A2 is calculated.
  • a common frequency spectrum component derived from fine irregularities corresponding to the cross-section of the cutting blade generated at the time of cutting by the cutting device B1 (The common frequency derived from the fine irregularities corresponding to the cross-section of the cutting blade generated at the time of cutting by the cutting device B2 from the frequency spectrum images of a plurality of products manufactured using the cutting device B2 Spectral components (common features) are calculated.
  • the feature selection unit 105 calculates a band other than the frequency spectrum calculated as the common feature in the frequency spectrum image after the polar coordinate conversion as the individual unique feature extraction parameter. For example, as shown in FIG. 6, the feature selection unit 105 calculates a part of the frequency spectrum after logarithmic polar coordinate conversion as a frequency spectrum component (common feature) common to a plurality of products. Bands other than the frequency spectrum are calculated as individual characteristic parameters. Preferably, the feature selection unit 105 selects a band on the band side higher than the common feature as the individual unique feature parameter. Individual-specific features exist within a band determined by the individual-specific feature extraction parameters.
  • the frequency band of the common feature and the band determined by the individual unique feature extraction parameter are different frequency bands.
  • the frequency band of the common feature and the band determined by the individual unique feature extraction parameter are bands that do not overlap each other.
  • the frequency band of the common feature is a band having a frequency lower than that determined by the individual unique feature extraction parameter.
  • the feature selection means 105 is common to a plurality of products manufactured on the production line for each production line in step S105.
  • a band (preferably a band on a higher band side than the common feature) other than the frequency spectrum component (common feature) to be calculated is calculated as an individual unique feature extraction parameter.
  • the feature selection unit 105 uses a plurality of frequency spectrum images of the same individual or different individuals and a plurality of images after the polar coordinate conversion to perform principal component analysis or It is preferable to apply a statistical method such as linear discriminant analysis or machine learning. Thereby, the feature selection unit 105 can easily include a lot of noise during shooting, and can determine a frequency band having a poor S / N ratio as a feature amount unique to the individual. The feature selecting unit 105 then determines the frequency band having a poor S / N ratio from the band other than the frequency spectrum (common feature) calculated as the common feature (preferably, the higher frequency side of the common feature).
  • the feature selection unit 105 divides a band other than the frequency spectrum calculated as the common feature (preferably a higher frequency side band than the common feature) into a plurality of frequency bands, and determines each of the frequency bands as described above. Based on the S / N ratio, a weighting coefficient corresponding to the degree of information amount contributing to individual identification is given. This weighting factor is included in the individual unique feature parameter and can be used to improve the performance of individual identification and individual verification described later.
  • the feature selection unit 105 stores the calculated frequency spectrum components (common features) common to the plurality of products in the common feature storage unit 106 (step S106).
  • the common feature stored in the common feature storage unit 106 is also called a reference image.
  • the feature selection unit 105 stores the calculated individual unique feature extraction parameter in the individual unique feature extraction parameter storage unit 107 (step S106).
  • FIG. 13 shows an example of the contents of the common feature storage means 106 and the individual unique feature extraction parameter storage means 107.
  • FIG. 13A shows a storage example of the common feature CF and the individual unique feature extraction parameter PFP obtained as a result of processing one or more images for each individual shown in FIGS. 12A and 12B.
  • FIG. 13B shows a storage example for each production line.
  • a common feature CF 1 and an individual unique feature extraction parameter PFP 1 indicate a common feature and an individual unique feature extraction parameter obtained as a result of processing an image of the first production line.
  • the common feature CF 2 and the individual unique feature extraction parameter PFP 2 indicate the common feature and the individual unique feature extraction parameter obtained as a result of processing the image of the second production line.
  • the image acquisition unit 101 acquires an image obtained by imaging the surface of an object to be registered as an individual (Step S201).
  • the frequency domain conversion unit 103 performs frequency conversion on the captured image acquired by the image acquisition unit 101 to generate a frequency spectrum image (step S202).
  • the polar coordinate conversion means 104 performs logarithmic polar coordinate conversion on the frequency spectrum image generated by the frequency domain conversion means 103 (step S203).
  • the image alignment unit 108 uses the frequency spectrum image (after the polar coordinate conversion) of the captured image of the object to be registered as an individual registration obtained by the polar coordinate conversion unit 104 and the common feature stored in the common feature storage unit 106. (Frequency spectrum component common to a plurality of products) is input, and the amount of positional deviation of the frequency spectrum image (after polar coordinate conversion) for the common feature is corrected (step S204).
  • the image alignment unit 108 when the common features for each production line are stored in the common feature storage unit 106, the production line on which the product to be registered as an individual is produced. Use common features corresponding to. For example, if the product of interest in individual registration is produced in a first production line, using the common features CF 1.
  • the image alignment means 108 obtains a phase-only correlation between the frequency spectrum image (after polar coordinate conversion) and the common feature, and calculates the displacement amount from the correlation peak position.
  • the image alignment unit 108 corrects the frequency spectrum image (after polar coordinate conversion) of the captured image of the object to be registered as an individual according to the calculated displacement amount.
  • image alignment processing is merely an example, and general-purpose alignment processing such as minimization of the sum of squares of differences between two images or alignment based on normalized cross-correlation can be substituted. Needless to say.
  • the feature extraction unit 109 inputs the frequency spectrum image after registration obtained by the image registration processing unit 108 and the parameters stored in the individual unique feature extraction parameter storage unit 107.
  • the feature extraction unit 109 when the individual unique feature extraction parameter storage unit 107 stores individual unique feature extraction parameters for each production line, The individual unique feature extraction parameter corresponding to the produced production line is used. For example, if the product to be registered is produced on the first production line, the individual unique feature extraction parameter PFP 1 is used.
  • the feature extraction unit 109 extracts a partial image from the frequency spectrum image after alignment based on the frequency band information indicated by the input individual unique feature extraction parameter, and outputs the extracted image as an individual specific feature amount.
  • the individual specific feature extraction parameter includes a weighting factor for each frequency
  • the feature extraction unit 109 multiplies each frequency component by the weighting factor, and then outputs it as an individual specific feature amount.
  • the feature quantity unique to an individual need not be a real value of the frequency spectrum, and may be a numerical sequence expressing the real value of the frequency spectrum as binary data of 0 and 1.
  • the feature extraction unit 109 cuts out a frequency band determined by the individual unique feature extraction parameter as a partial image from the frequency spectrum image after alignment. Next, the feature extraction unit 109 randomly selects a pixel pair from the partial image. Alternatively, the feature extraction unit 109 selects a pixel pair at a predetermined position on the partial image. Next, the feature extraction unit 109 compares the values of the selected pixel pair. Next, the feature extraction unit 109 assigns values of 0 and 1 according to the magnitude relationship of the pixel pair values based on the comparison result.
  • the feature extraction unit 109 outputs the binary code obtained by assigning the values of 0 and 1 in this way as a feature amount unique to the individual.
  • the feature extraction means 109 uses means for converting to binary feature values represented by binary hashing, and converts binary codes generated from other real-valued feature vectors into individual-specific features. It may be output as a quantity.
  • the feature amount storage unit 110 stores the feature amount specific to the individual to be registered obtained by the feature extraction unit 109 (step S206).
  • the feature quantity storage means 110 is associated with information relating to the product to be registered (also referred to as supplementary information) such as the ID number, registration date and time, dimensions, and product specifications of the individual to be registered. ) Register individual unique features. By doing so, it becomes possible to present the individual management information of the product based on the determination result at the time of individual identification and individual authentication described later.
  • FIG. 14 shows an example of the contents of the feature amount storage means 110.
  • the feature amounts PF 1 ,..., PF n and the accompanying information SI 1 ,..., SI n are feature amounts and accompanying information that correspond one-to-one with the individual to be registered.
  • FIG. 9 and FIG. 10 are a processing flow and flowchart of the operation at the time of individual identification and individual verification.
  • the image acquisition unit 101 acquires an image obtained by imaging the surface of an object to be identified and verified (step S301).
  • the frequency domain conversion unit 103 performs frequency conversion on the captured image acquired by the image acquisition unit 101 to generate a frequency spectrum image (step S302).
  • the polar coordinate conversion means 104 performs logarithmic polar coordinate conversion on the frequency spectrum image generated by the frequency domain conversion means 103 (step S303).
  • the processes in steps S301 to S303 are the same as the processes in steps S201 to S203 in FIG. 8 during the individual registration operation.
  • the image alignment unit 108 uses the frequency spectrum image (after polar coordinate conversion) of the captured image of the object to be identified and collated obtained by the polar coordinate conversion unit 104 and the common feature storage unit 106.
  • the feature frequency spectrum component common to a plurality of products
  • the image alignment unit 108 uses all the common features.
  • the image alignment means 108 corrects the amount of positional deviation of the frequency spectrum image (after polar coordinate conversion) with respect to the common feature CF 1, and the frequency spectrum image after alignment (after polar coordinate conversion) (hereinafter referred to as the first position). A frequency spectrum image after combining) is generated. Further, the image alignment means 108 corrects the positional shift amount of the frequency spectrum image (after polar coordinate conversion) with respect to the common feature CF 2, and the frequency spectrum image after alignment (after polar coordinate conversion) (hereinafter referred to as the second position). A frequency spectrum image after combining) is generated.
  • the correction method of the positional deviation amount is the same as the processing in step S204 in FIG. 8 during the individual registration operation.
  • the feature extraction unit 109 inputs the frequency spectrum image after registration obtained by the image registration processing unit 108 and the parameters stored in the individual unique feature extraction parameter storage unit 107.
  • the feature extraction unit 109 stores all individual unique feature extraction parameters when individual production feature extraction parameters for each production line are stored in the individual unique feature extraction parameter storage unit 107. use. That is, when the frequency spectrum image after alignment is an image that has been aligned using the common feature CF 1 , the feature extraction unit 109 uses the individual unique feature extraction parameter PFP 1 that is paired with the common feature CF 1. To do. In addition, when the frequency spectrum image after the alignment is registered using the common feature CF 2 , the feature extraction unit 109 uses the individual unique feature extraction parameter PFP 2 that is paired with the common feature CF 2. To do.
  • the feature extraction unit 109 extracts a partial image from the frequency spectrum image after alignment based on the frequency band information indicated by the input individual unique feature extraction parameter, and outputs the extracted image as an individual specific feature amount.
  • the feature extraction unit 109 extracts feature quantities unique to each individual.
  • the feature extraction means 109 is based on the frequency band information indicated by the individual unique feature extraction parameter PFP 1, from the frequency spectrum image after the first alignment described above, the individual unique feature amount (hereinafter referred to as the first individual unique feature amount). (Denoted as feature value).
  • the feature extraction means 109 is based on the frequency band information indicated by the individual unique feature extraction parameter PFP 2, from the frequency spectrum image after the second alignment described above, an individual specific feature amount (hereinafter referred to as a second individual specific feature). (Denoted as feature value). Further, when the individual specific feature extraction parameter includes a weighting factor for each frequency, the feature extraction unit 109 multiplies each frequency component by the weighting factor, and then outputs it as an individual specific feature amount. Similar to the case of individual registration, the individual-specific feature amount need not be a real value of the frequency spectrum, and may be a numerical string expressing the real value of the frequency spectrum as binary data of 0 and 1. Further, a binary code generated from other real-valued feature vectors may be used as an individual-specific feature value by using a means for converting to a binary feature value typified by binary hashing.
  • the score calculation means 111 compares the individual feature quantities of the product to be identified and verified obtained by the feature extraction means 109 with all the feature quantities stored in the feature quantity storage means 110. A score representing the similarity between feature quantities is calculated as a numerical value (step S306).
  • the score calculation means 111 compares each feature quantity unique to the individual with all feature quantities stored in the feature quantity storage means 110. Calculate the score. For example, the score calculation unit 111 compares the first individual unique feature amount with the feature amounts PF 1 ,..., PF n stored in the feature amount storage unit 110 in FIG. Is calculated. Further, the score calculation unit 111 compares the above-described second individual unique feature amount with the feature amounts PF 1 ,..., PF n of FIG. Calculate the score.
  • the score calculation unit 111 calculates a score between feature quantities by, for example, obtaining a normalized cross-correlation or a phase-only correlation between two feature quantities. Alternatively, the score calculation unit 111 may calculate a Hamming distance or Euclidean distance between two feature quantities as a score. In addition, the score calculation unit 111 may perform some linear transformation on the correlation value and the distance, and normalize the score so that it falls within a certain value range.
  • the determination unit 112 determines which feature quantity stored in the feature quantity storage unit 110 matches the captured image of the product to be identified and verified. To do. For example, the determination unit 112 sorts the scores of the feature amounts obtained from the captured images of the products to be identified and verified and the total feature amounts stored in the feature amount storage unit 119, and the score is maximized (normalized cross-correlation). Is selected) (step S307). Then, the determination unit 112 reads the incidental information associated with the selected feature amount from the feature amount storage unit 110 and outputs it as product information of the product to be identified and verified.
  • the determination unit 112 determines whether the score of the feature amount obtained from the captured image of the product to be identified and verified and the total feature amount stored in the feature amount storage unit 119 exceeds a preset threshold value. A determination may be made. Then, the determination unit 112 performs the identification and verification when the score of the feature amount obtained from the captured image of the product to be identified and verified and the total feature amount stored in the feature amount storage unit 119 does not exceed the threshold value. It is determined that the target product is not registered, and information indicating an authentication error is output.
  • the determination means 112 that operates in this way can be used for the purpose of individual authentication such as authenticity determination of a management target.
  • the information presentation unit 113 receives the product information obtained from the determination unit 112 and the authentication error information, and displays the product information that is the individual identification result of the product to be identified and verified and the individual authentication information not shown. It is displayed on the device or output to an external terminal (step S308).
  • the image alignment means 108 is based on a partial region (frequency spectrum component common to a plurality of products in this embodiment) in an image to be aligned (frequency spectrum image after polar coordinate conversion in this embodiment). This is for alignment.
  • individual management of parts and products mass-produced on the production line can be realized by introducing a low-cost additional device to the existing production line.
  • the reason for this is that the image can be accurately aligned as described above, so that the conveyance system for positioning with high accuracy, the mechanism for pressing the imaging mechanism against the object surface to photograph the same location, and the provision of positioning marks.
  • FIG. 15 is a block diagram of the individual identification device according to the present embodiment. Compared with the individual identification device 100 shown in FIG. 1, the individual identification device 300 according to the present embodiment omits the individual unique feature extraction parameter storage unit 107, the feature selection unit 105, and the feature extraction unit 109. The difference is in the function of, and the rest is the same.
  • the feature selection unit 105 of the individual identification device 300 is different from the feature selection unit 105 of the individual identification device 100 shown in FIG. 1 in that the function of calculating the individual unique feature extraction parameter is omitted. Except for the same.
  • the feature extraction unit 109 of the individual identification device 300 extracts the feature amount of the individual identification device 100 in that the feature amount unique to the individual is extracted from a predetermined band of the image after alignment (frequency spectrum image after polar coordinate conversion). It is different from the means 109 and other than that is the same. If the predetermined band is set so as to include a band other than the frequency spectrum region common to the plurality of products stored in the common feature storage unit 109, the predetermined band includes the frequency spectrum region common to the plurality of products. May be.
  • the individual identification device 300 Compared to the individual identification device 100 shown in FIG. 1, the individual identification device 300 according to the present embodiment includes a plurality of feature quantities extracted from an individual image by the feature extraction unit 109 in addition to individual feature quantities. Although the identification / collation accuracy is lowered in that there is a possibility that a feature amount common to individuals is included, there is an advantage that the configuration and operation are simplified.
  • FIG. 16 is a block diagram of the individual identification device according to the present embodiment.
  • the individual identification device 400 according to the present embodiment is different from the individual identification device 300 shown in FIG. 15 in the functions of the image alignment unit 108 and the feature extraction unit 109, and is otherwise the same.
  • the image registration unit 108 of the individual identification device 400 includes a frequency spectrum image (after polar coordinate conversion) of the captured image of the object obtained by the polar coordinate conversion unit 104 and a common feature (that is, a plurality of features) stored in the common feature storage unit 106. Frequency spectrum component common to products) is input, and the amount of positional deviation of the frequency spectrum image (after polar coordinate conversion) for the common feature is calculated. Next, the image alignment unit 108 calculates a correction amount indicating magnification information (enlargement / reduction ratio) and rotation angle information of the captured image of the object based on the calculated displacement amount.
  • the image alignment unit 108 corrects the captured image acquired by the image acquisition unit 101 according to the calculated correction amount. Specifically, the image alignment unit 108 enlarges / reduces the captured image according to the magnification information included in the correction amount, and rotates the captured image according to the rotation angle information included in the correction amount.
  • the feature extraction unit 109 of the individual identification device 400 extracts a feature amount unique to the individual from the captured image after alignment obtained by the image alignment processing unit 108.
  • the individual-specific feature amount does not need to be the luminance value of the captured image, and may be a numerical string expressing the luminance value of the captured image as binary data of 0 and 1.
  • the feature extraction unit 109 selects a pixel pair at a predetermined position from the captured image after alignment, assigns values of 0 and 1 according to the magnitude relationship, and uses a binary code as a feature amount. Also good.
  • the feature extraction unit 109 may use a binary code generated from another real-valued feature vector as a feature amount by using a unit that converts it into a binary feature amount typified by binary hashing. .
  • the individual identification device 400 Compared to the individual identification device 100 shown in FIG. 1, the individual identification device 400 according to the present embodiment requires alignment processing in the spatial region of the original captured image, but directly from the original captured image. Feature quantities can be extracted.
  • FIG. 17 is a block diagram of the individual identification device according to the present embodiment. Compared with the individual identification device 100 shown in FIG. 1, the individual identification device 500 according to the present embodiment has the polar coordinate conversion unit 104 omitted, and the functions of the feature selection unit 105 and the image registration unit 108. Are different, but otherwise the same.
  • the feature selection unit 105 of the individual identification device 500 uses the frequency spectrum image (without polar coordinate conversion) of the object generated by the frequency domain conversion unit 103.
  • the frequency spectrum component (common feature) common to a plurality of products is different from the point that individual characteristic extraction parameters are calculated, and the rest is the same.
  • the image registration unit 108 of the individual identification device 500 includes a frequency spectrum image (without polar coordinate conversion) of the captured image of the object obtained by the frequency domain conversion unit 103 and a common feature (a plurality of features) stored in the common feature storage unit 106. Frequency spectrum component common to the product) is input, and the amount of positional deviation of the frequency spectrum image (without polar coordinate conversion) for the common feature is corrected.
  • the image alignment unit 108 obtains a phase-only correlation between the frequency spectrum image (without polar coordinate conversion) and the common feature, and calculates a positional deviation amount from the correlation peak position. Then, the image alignment unit 108 corrects the frequency spectrum image (without polar coordinate conversion) of the captured image of the object according to the calculated displacement amount. Note that the above-described image alignment processing is merely an example, and general-purpose alignment processing such as minimization of the sum of squares of differences between two images or alignment based on normalized cross-correlation can be substituted. Needless to say.
  • the individual identification device 500 has an advantage that the configuration and the operation are simplified as compared with the individual identification device 100 shown in FIG. This embodiment is effective when there is no scale fluctuation and rotation fluctuation between captured images at the time of image acquisition.
  • FIG. 18 is a block diagram of the individual identification device according to the present embodiment.
  • the individual identification device 600 according to the present embodiment further includes a frequency domain conversion unit 114, a feature selection unit 105, an image registration unit 108, and a feature. The difference is in the function of the extraction means 109, and the rest is the same.
  • the polar coordinate conversion unit 104 has a function of performing frequency conversion such as two-dimensional discrete Fourier transform on the frequency spectrum image after the polar coordinate conversion generated by the polar coordinate conversion means 104.
  • the image resulting from the conversion by the polar coordinate conversion unit 104 is output to the feature selection unit 105 and the image alignment unit 108.
  • the feature selection unit 105 of the individual identification device 600 is obtained from an image obtained by further frequency-converting the frequency spectrum image after the polar coordinate conversion obtained by the frequency domain conversion unit 114.
  • the difference is that frequency spectrum components (common features) common to a plurality of products to be managed and individual characteristic extraction parameters are calculated.
  • the image registration unit 108 of the individual identification device 600 further converts the frequency spectrum image after the polar coordinate conversion corresponding to the captured image of the surface of the product to be managed into a frequency. The difference is that the image obtained by the conversion is aligned with the common feature stored in the common feature storage unit 106.
  • the feature extraction unit 109 of the individual identification device 600 extracts the feature amount unique to the individual from the image after alignment (the image obtained by further frequency-converting the frequency spectrum image after the polar coordinate conversion). It is different from the feature extraction means 109, and the others are the same.
  • FIG. 19 is a block diagram of the individual identification device according to the present embodiment.
  • the individual identification device 700 according to the present embodiment includes a conversion unit 701 and an alignment unit 702.
  • the conversion unit 701 has a function of performing frequency conversion on an image obtained by imaging an object.
  • the conversion unit 701 can be realized by, for example, the frequency domain conversion unit 103 in FIG. 1, but is not limited thereto.
  • the alignment unit 702 has a function of performing image alignment for extracting a feature amount for identifying an individual object based on the first partial region in the image after frequency conversion by the conversion unit 701.
  • This alignment means 702 is realized by, for example, the image alignment means 108 in FIG. 1, the image alignment means 108 in FIG. 15, the image alignment means 108 in FIG. 16, or the image alignment means 108 in FIG. Can, but is not limited to.
  • the individual identification device 700 configured in this way operates as follows. That is, first, the conversion unit 701 performs frequency conversion on an image obtained by imaging an object. Next, the registration unit 702 performs registration of the image for extracting the feature quantity for identifying the individual object based on the first partial region in the image after the frequency conversion by the conversion unit 701.
  • the images can be accurately aligned.
  • the conversion unit 701 performs frequency conversion on the image obtained by imaging the object
  • the positioning unit 702 identifies the feature of the object based on the first partial region in the frequency-converted image. This is because the position of the image for extracting the image is adjusted.
  • the present invention acquires naturally occurring fine pattern differences such as fine irregularities and patterns on the product surface, random patterns on the surface of the material, etc. in the same manufacturing process as an image using an imaging device such as a camera. By recognizing fine patterns, it can be used in the field of individual identification and management of individual products.
  • [Appendix 1] A conversion unit that performs frequency conversion on an image obtained by imaging an object; An alignment unit that aligns an image for extracting a feature quantity for identifying an individual object based on a first partial region in the image after the frequency conversion; An individual identification device comprising: [Appendix 2] The first partial region is a partial region in the image after the polar transformation or log polar transformation of the image after the frequency transformation. The individual identification device according to attachment 1. [Appendix 3] The first partial region is a partial region in the image after the frequency-transformed or polar-polar coordinate transformation of the image after the frequency transformation and further the frequency transformation. The individual identification device according to attachment 1.
  • the first partial region is a region showing characteristics common to individuals, The individual identification device according to any one of appendices 1 to 3.
  • the image to be aligned for extracting the feature amount is the image after the frequency conversion.
  • the alignment unit calculates a positional deviation amount between the reference image and the image before alignment based on a result of comparing the reference image of the first partial region and the image before alignment, Correcting the positional deviation of the image before alignment based on the amount of positional deviation in order to generate an image after alignment; The individual identification device according to any one of appendices 1 to 5.
  • a reference image determination unit that extracts, as the reference image, a partial region indicating a common feature from a plurality of images obtained by frequency-converting a plurality of images obtained by imaging a plurality of objects;
  • the individual identification device according to attachment 6.
  • the alignment unit is configured to determine a plurality of positions of the plurality of reference images and the image before alignment based on a result of comparing the plurality of reference images of the first partial region and the image before alignment. Calculating a displacement amount, and correcting a displacement of the plurality of images before the alignment based on the plurality of displacement amounts to generate a plurality of images after the alignment;
  • the individual identification device according to any one of appendices 1 to 5.
  • the first partial region and the second partial region are different frequency bands, The individual identification device according to appendix 11 or 12.
  • the second partial region is a frequency band in which a weighting factor is given to a frequency spectrum.
  • [Appendix 19] A collation unit that collates the extracted feature quantity with a feature quantity of an object registered in advance; The individual identification device according to any one of appendices 10 to 18.
  • [Appendix 20] Perform frequency conversion on the image obtained by imaging the object, Based on the first partial region in the image after the frequency conversion, align the image for extracting a feature amount for identifying the individual object, Individual identification method.
  • the first partial region is a partial region in the image after the polar transformation or log polar transformation of the image after the frequency transformation.
  • the first partial region is a partial region in the image after the frequency-transformed or polar-polar coordinate transformation of the image after the frequency transformation and further the frequency transformation.
  • the individual identification method according to attachment 20 [Appendix 23]
  • the first partial region is a region showing characteristics common to individuals, The individual identification method according to any one of appendices 20 to 22.
  • the image to be aligned for extracting the feature amount is the image after the frequency conversion.
  • Appendix 25 In the alignment, a positional deviation amount between the reference image and the image before alignment is calculated based on a result of comparing the reference image of the first partial region and the image before alignment, Correcting misalignment of the image before alignment based on the misregistration amount in order to generate an image after alignment; The individual identification method according to any one of appendices 20 to 24.
  • a partial region showing a common feature is associated with the production line on a one-to-one basis from a plurality of images obtained by frequency-converting a plurality of images obtained by imaging a plurality of objects manufactured on the production line. Extracting as the reference image; The individual identification method according to appendix 27. [Appendix 29] Further, the feature amount is extracted from the image after the alignment. The individual identification method according to any one of appendices 20 to 28. [Appendix 30] In the feature amount extraction, the feature amount is extracted from a second partial region in the image after the alignment. The individual identification method according to attachment 29. [Appendix 31] The second partial region is a region showing individual unique features. The individual identification method according to attachment 30.
  • the first partial region and the second partial region are different frequency bands, The individual identification method according to supplementary note 30 or 31.
  • the second partial region is a frequency band in which a weighting factor is given to a frequency spectrum.
  • Appendix 34 Furthermore, a partial area other than a partial area showing a feature common to a plurality of images after frequency conversion of a plurality of images obtained by imaging a plurality of objects is extracted as the second partial area. The individual identification method according to any one of appendices 30 to 33.
  • Appendix 38 Furthermore, the extracted feature value is collated with a feature value of an object registered in advance.
  • the individual identification method according to any one of appendices 29 to 38.
  • Appendix 39 Computer A conversion unit that performs frequency conversion on an image obtained by imaging an object; An alignment unit that aligns an image for extracting a feature quantity for identifying an individual object based on a first partial region in the image after the frequency conversion; Program to make it function.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

個体識別装置は、変換部と位置合わせ部とを備える。変換部は、物体を撮像して得られた画像に周波数変換を行う。位置合わせ部は、周波数変換後の画像における第1の部分領域に基づき、物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う。

Description

個体識別装置
 本発明は、個体識別装置、個体識別方法、およびプログラムに関する。
 従来、工業製品や商品等の物体に対して、製造番号やバーコード、QRコード等を付与することで、製品個々の品質や流通管理を行っている。また、ICタグやRFIDを製品個々に付与し、無線通信方式によって、効率よく製品の生産から物流、販売に至る総合的な製品管理や製品の紛失防止、盗難防止、偽造防止を実現する技術がある。
 しかしながら、上記製造番号やバーコード、QRコード、あるいはICタグやRFIDタグを用いる製品の個体管理方法は、これらを製造物個々に対して付与する必要がある。したがって、製品の生産量に比例してコストが膨大になるという問題があった。
 また、例えば、ネジやボルト等の物理的に小さな金属部品や樹脂製部品等、製品によっては、製造番号やバーコードを直接記入することや、上記タグを装着することができない場合も多い。さらに、バーコード等を物理的に記入することや、タグを付与することが可能な製造物であっても、これらを付与することは、製造物の外観や意匠といったデザインを損ねてしまうという課題があった。
 そこで、製品表面の微細凹凸や紋様、素材表面のランダムパターン等といった、同一製造過程で生じる自然発生的な微小な差異を、カメラ等の撮影装置を用いて画像として取得し、その撮像画像を認識することで、製品個々の識別や管理を行う手法が提案されている。
 例えば、特許文献1では、製品表面の特定部位に対して保護フィルムを貼り付け、保護フィル貼付部位における製品表面のランダムパターンを、撮影装置を用いて画像として取得し、得られた撮像画像を用いた物品管理装置について記載されている。
 また、特許文献2では、部品または製造物表面に形成された梨地加工をカメラで撮影し、その撮像画像に含まれる梨地紋様の画像特徴を用いた製造物識別手段について記載されている。
 また、特許文献3や特許文献4では、個体識別や物品の真贋判定を目的として、物品上のタガント(微小粒子)のランダムパターンを用いて、物品の真贋判定を行う方法について記載されている。
 また、類似の技術として、人間の指紋や虹彩、掌紋などのパターンを用いて個人認証を行うバイオメトリクス認証技術がある。通常、指紋や虹彩といった撮影対象に応じて特徴量を設計し、その特徴量同士の類似度を算出することで個体(個人)の識別や認証を行う。しかし、汎用的な画像マッチング手法を用いて個体(個人)の識別や認証を行う方式も存在する。例えば、特許文献5には、人間の指紋の撮像画像に対して2次元フーリエ変換を施し、撮像画像の位相限定相関を用いて、個体(個人)の識別や認証を行う方式が提案されている。また、特許文献6には、虹彩の撮像画像に対して位相限定相関を用いて、個体(個人)の識別や認証を行う方式が提案されている。
 また、特許文献7では、個人認証を目的として、被写体が写った画像を周波数変換および極座標変換し、この極座標系で表された周波数スペクトル画像から上記被写体の特徴を表す周波数帯域を選択し、この選択した周波数帯域を特定する要素と周波数スペクトルを表す要素とを含む個体識別のためのベクトルを生成する画像変換装置について記載されている。また特許文献7では、照合時、入力特徴情報ベクトルについての方向と、登録特徴情報ベクトルについての方向との組み合わせを変更しつつ、両ベクトル間の距離の総和を算出することにより、生体情報の読み取り時ごとに被写体の方向が異なることによる位置ずれに対応している。
 また、特許文献8では、照合画像と登録画像間に平行移動量、回転角度、拡大/縮小の差異があっても照合を行うことができる画像照合装置について記載されている。より詳細には、特許文献8では、まず、照合画像と登録画像をフーリエ変換および対数-極座標変換し、それによって得られた照合画像と登録画像の周波数スペクトル画像間の位相限定相関によって、登録画像に対する照合画像の補正情報(倍率情報、回転情報)を生成する。次に、上記補正情報に基づいて照合画像の補正を行い、この補正された後の照合画像と登録画像との相関処理によって照合を行う。
特許第4337422号公報 WO2014/163014 特表2007-534067号公報 特開2013-196418号公報 特許第3235075号公報 特許第4664147号公報 特開2014-142881号公報 特開2004-240931号公報
 特許文献7では、被写体が写った画像を周波数変換および極座標変換した後の周波数スペクトル画像から上記被写体の特徴量を抽出している。しかし、特許文献7では、特徴量の抽出時に画像の位置合わせを行っていない。そのため、特許文献7では、照合時の処理量が増大する。即ち、特許文献7では、照合時、入力特徴情報ベクトルについての方向と、登録特徴情報ベクトルについての方向との組み合わせを変更しつつ、両ベクトル間の距離の総和を算出することにより、生体情報の読み取り時ごとに被写体の方向が異なることによる位置ずれに対応しなければならない。そこで、特許文献7に記載される技術に、特許文献8に記載される画像の位置合わせ技術を適用することが考えられる。
 しかしながら、特許文献8では、第1の画像の周波数スペクトル画像と第2の画像の周波数スペクトル画像との間の位相限定相関によって、第2の画像に対する第1の画像の補正情報(倍率情報、回転情報)を生成する。そのため、第1の画像と第2の画像とに位置合わせに利用する共通な部分領域が存在していても、その共通な部分領域以外の領域の影響を受けて、位置合わせを正確に行える補正情報を求めることが困難になる、という課題がある。
 本発明の目的は、上述した課題を解決する個体識別装置を提供することにある。
 本発明の一形態に係る個体識別装置は、
 物体を撮像して得られた画像に周波数変換を行う変換部と、
 前記周波数変換後の画像における第1の部分領域に基づき、前記物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う位置合わせ部と、
を備える。
 本発明の他の形態に係る個体識別方法は、
 物体を撮像して得られた画像に周波数変換を行い、
 前記周波数変換後の画像における第1の部分領域に基づき、前記物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う。
 本発明の他の形態に係るプログラムは、
 コンピュータを、
 物体を撮像して得られた画像に周波数変換を行う変換部と、
 前記周波数変換後の画像における第1の部分領域に基づき、前記物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う位置合わせ部と、
して機能させる。
 本発明は、上述した構成を有するため、物体を撮像して得られた画像を正確に位置合わせすることができる。
本発明の第1の実施形態に係る個体識別装置のブロック図である。 本発明の第1の実施形態に係る個体識別装置のハードウェア構成の一例を示すブロック図である。 本発明の第1の実施形態に係る個体識別装置における共通特徴抽出と個体固有特徴抽出用のパラメータ決定の動作フロー図である。 本発明の第1の実施形態に係る個体識別装置における共通特徴抽出と個体固有特徴抽出用のパラメータ決定処理の一例を示すフローチャートである。 管理対象の製造物の表面パターンを撮像して得られた画像と、その画像を周波数変換して得られた周波数スペクトル画像と、その周波数スペクトル画像を対数極座標変換して得られた周波数スペクトル画像との一例を示す図である。 対数極座標変換後の周波数スペクトルにおける共通特徴と個体固有の特徴との関係を示す図である。 本発明の第1の実施形態に係る個体識別装置における個体登録の動作の処理フロー図である。 本発明の第1の実施形態に係る個体識別装置における個体登録処理の一例を示すフローチャートである。 本発明の第1の実施形態に係る個体識別装置における個体識別および個体照合時の動作の処理フロー図である。 本発明の第1の実施形態に係る個体識別装置における個体識別および個体照合処理の一例を示すフローチャートである。 本発明の第1の実施形態に係る個体識別装置における画像記憶手段の内容の一例を示す図である。 本発明の第1の実施形態に係る個体識別装置における周波数領域変換手段および極座標変換手段の処理結果の一例を示す図である。 本発明の第1の実施形態に係る個体識別装置における共通特徴記憶手段および個体固有特徴抽出パラメータ記憶手段の内容の一例を示す図である。 本発明の第1の実施形態に係る個体識別装置における特徴量記憶手段の内容例を示す図である。 本発明の第2の実施形態に係る個体識別装置のブロック図である。 本発明の第3の実施形態に係る個体識別装置のブロック図である。 本発明の第4の実施形態に係る個体識別装置のブロック図である。 本発明の第5の実施形態に係る個体識別装置のブロック図である。 本発明の第6の実施形態に係る個体識別装置のブロック図である。
[第1の実施形態]
 本実施形態は、同一の製造過程を経て製造される複数の製品の表面には、個々の製品固有の微細パターンと、複数の製品に共通な微細パターンとが存在していることを利用する。また、本実施形態は、個々の製品固有の微細パターンと複数の製品に共通な微細パターンとは、空間周波数が相違していることを利用する。以下、本実施形態について、項目別に説明する。
<本実施形態が解決しようとする課題>
 上記で述べた各文献記載の方法では、製造ラインで大量生産される部品や製品の個体管理を実現する上で、実用上、以下に示す課題がある。
 製造ライン上における部品や製品個々の登録時に、部品や製品個々の表面同一箇所を、製造工程のタクトタイムを悪化させることなく、自動的かつ再現性良く撮影する方式が必要である。通常、製品の外観検査用途では、部品の製造ライン上にカメラや照明機器などを設置することで、これを実現している。しかしながら、同一製造過程の製品間に生じる微細な個体差を撮影するためには、表面の微小な部位をズームレンズ等によって拡大する必要がある。しかし、拡大を行うと、撮影時の部品の位置決めの誤差が、撮像画像上で大きな位置ずれとなってしまう。このため、製造ライン上において、部品をカメラの下に極めて精度良く配送する必要がある。これは、既存の製造ラインではその要件を満たすことが難しい。そのため、精度良く位置決め可能な搬送系の導入が必要となる。また、装置導入のコストが大きくなってしまう。
 また、特許文献1や特許文献2では、物体表面に撮像機構を押し当て、同一箇所を撮影する方式について記載されている。しかしながら、本方式を製造ライン上に導入するためには、製品個々や撮影機構を精密に動かす機構が必要である。この機構の導入は、通常、大掛かりな装置になりやすい。また、この機構を既存の製造ラインに組み込むためには、製造ラインそのものの設計を大きく変更する必要がある。その結果、大きなコスト増を招く可能性がある。
 また、撮影時の部品や製品の位置決め誤差範囲を含めるように広域(広角)に撮影した画像に対して位置合わせを行い、部品や製品の表面における同一箇所から個体固有の特徴を取り出す方式がある。
 例えば特許文献1、特許文献2、特許文献3には、撮影時の対象物体の位置の揺らぎを考慮し、撮像画像中に含まれるマークやロゴ等を利用し、撮像画像の位置合わせを行う方式について記載されている。しかしながら、本方式では、個体管理対象の部品や製品において、全個体共通に存在するマークやロゴが必要であり、これらを有さない部品や製品に対しては適用することができない。特に、工業用の部品では、マークやロゴが存在しないものも多く、問題となる。また、製造工程においては、表面に位置決め用のマーク等を施すことで対応することができる。しかし、そのような方法では、製造工程を増やすことになり、タクトタイムの悪化や生産効率の悪化を招く可能性がある。
 また、部品の位置ずれ誤差範囲を含む画像全体から特徴量を抽出し、その特徴量を用いて部品や製品個々の個体識別や認証を行う方式が考えられる。
 例えば特許文献4には、タガントの分布から特徴点を抽出し、その位置関係に基づく特徴量を用いて照合する方式について記載されている。しかしながら、本方式は基準となるタガントを検出できることが前提である。部品や製品表面を位置ずれ誤差を含むように広域撮影した際には、他のタガントや個体固有の特徴がノイズとなり、再現性のある特徴量として抽出できない可能性がある。また、本方式は、そもそも表面にタガント粒子がランダムに付着している部品や製品しか対応できないという問題がある。
 また、類似の技術として、人間の指紋や虹彩、掌紋などのパターンを用いて個人認証を行うバイオメトリクス認証技術がある。通常、指紋や虹彩といった撮影対象に応じて特徴量を設計し、その特徴量同士の類似度を算出することで個体(個人)の識別や認証を行う。しかし、汎用的な画像マッチング手法を用いて個体(個人)の識別や認証を行う方式も存在する。例えば、特許文献5には、人間の指紋の撮像画像に対して2次元フーリエ変換を施し、撮像画像の位相限定相関を用いて、個体(個人)の識別や認証を行う方式が提案されている。また、特許文献6には、虹彩の撮像画像に対して位相限定相関を用いて、個体(個人)の識別や認証を行う方式が提案されている。また、特許文献7には、照合時、入力特徴情報ベクトルについての方向と、登録特徴情報ベクトルについての方向との組み合わせを変更しつつ、両ベクトル間の距離の総和を算出する方式が提案されている。また、特許文献8には、照合画像の照合時、登録画像ごとに、照合画像の位置合わせのための補正を行い、補正された後の照合画像と登録画像との相関処理によって照合を行う方式が提案されている。
 上記に例示した汎用的な画像マッチング手法を用いて、製造物表面のランダムパターンの撮像画像のマッチングによる個体識別や個体認証を実現することが考えられる。しかしながら、上記の手法を用いた場合、1回あたりの識別、または照合処理において、比較する画像それぞれに対して2次元フーリエ変換を行う必要があり、計算量が大きい課題がある。特に、大量生産される部品や製品全ての個体管理を実現するためには、登録件数に比例した回数だけ識別、または照合処理を行うことになる。そのため、実利用に耐え得る速度で識別・照合結果を得るためには、大量の計算リソースが必要になり、装置導入にかかるコスト増大の問題がある。
 また、画像を保存する代わりに、その画像を2次元フーリエ変換した結果のデータを保存しておくことで、識別や照合処理時の計算量を減らす方式が考えられる。しかしながら、部品の位置決め誤差を考慮するために広域に撮影する場合、その撮像画像はデータサイズが大きく、それに伴いフーリエ変換後のデータサイズも大きい。大量生産される部品や製品全ての個体管理を行う場合、全登録データを保持するために必要な記憶容量は莫大であり、記憶容量増大に伴うコストが増加するという問題がある。
 さらに、特許文献8に記載されるように、第1の画像の周波数スペクトル画像と第2の画像の周波数スペクトル画像との間の位相限定相関によって、第2の画像に対する第1の画像の補正情報(倍率情報、回転情報)を生成する方式の位置合わせでは、位置合わせに利用する共通な部分領域以外の領域がノイズとなって、正確な位置合わせが行えないという課題がある。
 そこで本実施形態は、上記問題を鑑みてなされたものであり、製造ラインで大量生産される部品や製品の個体管理を実現するのに好適な個体識別・認証方式を提供することにある。
<本実施形態の構成>
 図1は、本実施形態に係る個体識別装置のブロック図である。本実施形態に係る個体識別装置100は、画像取得手段101と、画像記憶手段102と、周波数領域変換手段103と、極座標変換手段104と、特徴選択手段105と、共通特徴記憶手段106と、個体固有特徴抽出パラメータ記憶手段107と、画像位置合わせ手段108と、特徴抽出手段109と、特徴量記憶手段110と、スコア算出手段111と、判定手段112と、情報提示手段113とを備える。上記特徴選択手段105は、基準画像決定部あるいは第2の部分領域決定部とも呼ぶ。上記スコア算出手段111、判定手段112は、照合部とも呼ぶ。
 画像取得手段101は、管理対象である製造物の表面の画像を取得する機能を有する。画像記憶手段102は、画像取得手段101によって得られた画像を記憶する機能を有する。周波数領域変換手段103は、画像に対して周波数変換を施し、周波数スペクトル画像に変換する機能を有する。周波数変換としては、2次元離散フーリエ変換を使用するが、2次元離散ウェーブレット変換等、他の方式の周波数変換であってもよい。極座標変換手段104は、周波数スペクトル画像を極座標に変換する機能を有する。特徴選択手段105は、極座標に変換された周波数スペクトル画像に基づき、複数の製造物の表面の画像に共通して現れる周波数特徴(共通特徴)と、製造物の表面の画像に製造物固有に現れる周波数特徴が出現する周波数帯域を含むパラメータ(個体固有特徴抽出パラメータ)とを求める機能を有する。共通特徴記憶手段106は、特徴選択手段105から出力された共通特徴を記憶する機能を有する。個体固有特徴抽出パラメータ記憶手段107は、特徴選択手段105から出力された個体固有特徴抽出パラメータを記憶する機能を有する。
 画像位置合わせ手段108は、管理対象である製造物の表面の撮像画像に対応する、極座標変換後の周波数スペクトル画像を、共通特徴記憶手段106に記憶された共通特徴に対して位置合わせを行う機能を有する。特徴抽出手段109は、個体固有特徴抽出パラメータ記憶手段107に記憶されたパラメータを用いて、位置合わせ後の周波数スペクトル画像から、個体固有の特徴量を算出する機能を有する。特徴量記憶手段110は、撮像画像から特徴抽出手段109によって得られた個体固有の特徴量を記憶する機能を有する。スコア算出手段111は、クエリ画像である撮像画像から特徴抽出手段109によって得られた個体固有の特徴量と、特徴量記憶手段110に記憶された特徴量とを比較し、特徴量間の類似度をスコア(数値)として算出する機能を有する。判定手段111は、スコア算出手段は110で得られたスコアに基づき、識別および照合の判定結果を出力する機能を有する。情報提示手段113は、判定結果に基づき個体管理情報を提示する機能を有する。
 個体識別装置100は、例えば図2に示すように、カメラ等の撮像部201と、キーボードやマウスなどの操作入力部202と、液晶ディスプレイ等の画面表示部203と、通信インタフェース部204と、メモリやハードディスク等の記憶部205と、1以上のマイクロプロセッサ等の演算処理部206とを有するパーソナルコンピュータやスマートフォン等の情報処理装置200と、プログラム207とで実現することができる。
 プログラム207は、情報処理装置200の立ち上げ時等に外部のコンピュータ読み取り可能な記憶媒体からメモリに読み込まれ、演算処理部206の動作を制御することにより、演算処理部206上に、画像取得手段101、画像記憶手段102、周波数領域変換手段103、極座標変換手段104、特徴選択手段105、共通特徴記憶手段106、個体固有特徴抽出パラメータ記憶手段107、画像位置合わせ手段108、特徴抽出手段109、特徴量記憶手段110、スコア算出手段111、判定手段112、および情報提示手段113といった機能的手段を実現する。
 次に、本実施形態に係る個体識別装置100の動作を、図面を用いて説明する。個体識別装置100の動作は、以下の三つに大別される。
(a)共通特徴の抽出と個体固有特徴抽出パラメータを決定する事前処理の動作
(b)個体登録の動作
(c)個体識別および個体照合の動作
[事前処理:共通特徴の抽出と個体固有特徴抽出パラメータ決定処理]
 まず、前段階の処理として、共通特徴の抽出と、個体固有特徴抽出パラメータ決定処理の動作を説明する。
 図3および図4は、共通特徴抽出と個体固有特徴抽出パラメータ決定処理の動作フローおよびフローチャートである。
<画像の取得と保存>
 まず、画像取得手段101は、管理対象である複数個の製品それぞれの表面パターンの画像を取得し、画像記憶手段102に保存する(ステップS102)。画像取得手段101は、各個体につき少なくとも1枚の画像を取得して、画像記憶手段102に保存する。或いは画像取得手段101は、個体固有特徴抽出パラメータの精度を高めるために、各個体につき複数枚の画像を取得して、画像記憶手段102に保存してもよい。画像取得手段101は、カメラやスキャナ等の撮影装置、ネットワーク経由による画像データの取得装置、CD-ROM等の記憶媒体経由等による画像データの取得装置のいずれであってもよい。
 また、管理対象の製造物を製造する生産ラインが複数存在する場合、画像取得手段101は、取得した製品の表面パターンの画像を生産ライン別に画像記憶手段102に保存する。ここで、生産ラインとは、同一・同種の製品を大量に製造するために作られた、流れ作業による組み立て工程、或いは単一の加工機械による単一の組み立て工程を含む。
 例えば、第1の生産ラインでは金型A1を使用した鋳造もしくは圧造によって製品を大量生産し、また、第2の生産ラインでは金型A1と同一の金型A2を使用した鋳造もしくは圧造によって製品を大量生産するものとする。この場合、画像取得手段101は、第1の生産ラインによって製造された製品の表面パターンの画像と第2の生産ラインによって製造された製品の表面パターンの画像とを区別して、画像記憶手段102に保存する。このとき、第1の生産ラインによって製造された製品には、金型A1に固有のパターンが表面全体に転写されている。また、第2の生産ラインによって製造された製品には、金型A2に固有のパターンが表面全体に転写されている。
 また例えば、第1の生産ラインでは切断機器B1を使用して素材を切断することによって製品を大量生産し、また、第2の生産ラインでは切断機器B1と同一の切断機器B2を使用して素材を切断することによって製品を大量生産するものとする。この場合、画像取得手段101は、第1の生産ラインによって製造された製品の表面パターンの画像と第2の生産ラインによって製造された製品の表面パターンの画像とを区別して、画像記憶手段102に保存する。このとき、第1の生産ラインによって製造された製品には、切断機器B1が有する切断に用いる刃の断面に固有の表面粗さの微細凹凸が切断面に現れる。また、第2の生産ラインによって製造された製品には、切断機器B2が有する切断に用いる刃の断面に固有の表面粗さの微細凹凸が切断面に現れる。ここで挙げた同一加工方法や機器はあくまで一例であり、その他の同一製造工程や加工機器も同様に扱うことができる。
 図11は画像記憶手段102の内容の一例を示す。図11(a)は、画像取得手段101が各個体につき1枚の画像を取得して画像記憶手段102に保存した例を示す。画像G1,…,Gnはn個の製品に1対1に対応するn個の画像である。また、図11(b)は、画像取得手段101が各個体につきm(m≧2)枚の画像を取得して画像記憶手段102に保存した例を示す。画像G11,…,G1m、画像G21,…,G2m、…、画像Gn1,…,Gnmは、n個の製品に1対1に対応するn×m個の画像である。また、図11(c)は、画像取得手段101が製品の画像を生産ライン別に画像記憶手段102に保存した例を示す。画像G1,…,Gnは第1の生産ラインで生産されたn個の製品に1対1に対応するn個の画像である。画像Gn+1,…,Gn+nは第2の生産ラインで生産されたn個の製品に1対1に対応するn個の画像である。図11(c)の例では、個体1つ当たり1つの画像を保存しているが、個体1つ当たり複数の画像を保存してもよい。
<共通特徴抽出処理および個体固有特徴抽出パラメータの決定処理>
 次に、周波数領域変換手段103は、画像記憶手段102から、管理対象である複数個の製品の表面パターンの画像を取り出し、各画像の2次元周波数スペクトルデータに変換する(ステップS103)。また、周波数領域変換手段103は、ステップS103において、更に、得られた2次元周波数スペクトルデータの対数をとり、対数振幅スペクトルデータに変換してもよい。以後、本処理で得られた2次元周波数スペクトルデータを、周波数スペクトル画像と呼ぶ。
 次に、極座標変換部104は、周波数領域変換手段103によって得られた周波数スペクトル画像を極座標に変換する(ステップS104)。一般に、実座標における回転方向の動きは、極座標におけるθ軸に沿った横方向の動きになる。そのため、2つの周波数スペクトル画像間の回転変動量は、極座標変換後の2つの周波数スペクトル画像間のθ軸に沿った平行移動量で表現される。また、極座標変換部104は、ステップS104において、周波数領域変換手段103によって得られた周波数スペクトル画像を対数極座標に変換してもよい。一般に、実座標におけるスケール変動は、対数極座標におけるlog-r軸に沿った横方向の動きになる。そのため、2つの周波数スペクトル画像間の回転変動量とスケール変動は、対数極座標変換後の2つの周波数スペクトル画像間のθ軸に沿った平行移動量とlog-r軸に沿った平行移動量とで表現される。そのため、対数極座標への変換は、画像取得時に、撮像画像間に回転変動に加え、スケール変動がある場合に有効である。
 図12は周波数領域変換手段103および極座標変換手段104の処理結果の一例を示す。図12(a)は、図11(a)に示した各個体につき1枚の画像を処理した結果を示す。画像SG1,…,SGnはn個の製品に1対1に対応するn個の極座標変換後の周波数スペクトル画像である。また、図12(b)は、図11(b)に示した各個体につきm(m≧2)枚の画像を処理した結果を示す。画像SG11,…,SG1m、画像SG21,…,SG2m、…、画像SGn1,…,SGnmは、n個の製品に1対1に対応するn×m個の極座標変換後の周波数スペクトル画像である。また、図12(c)は、図11(c)に示した生産ライン別の画像を処理した結果を示す。画像SG1,…,SGnは第1の生産ラインで生産されたn個の製品に1対1に対応するn個の極座標変換後の周波数スペクトル画像である。画像SGn+1,…,SGn+nは第2の生産ラインで生産されたn個の製品に1対1に対応するn個の極座標変換後の周波数スペクトル画像である。
 図5は、管理対象の製造物の表面パターンを撮像して得られた画像と、その画像を周波数変換して得られた周波数スペクトル画像と、その周波数スペクトル画像を対数極座標変換して得られた周波数スペクトル画像との一例を示している。
 次に、特徴選択手段105は、極座標変換部104によって得られた極座標変換後の周波数スペクトル画像を用いて、管理対象である複数の製品の画像に共通する周波数スペクトル成分と、個体固有特徴抽出パラメータとを算出する(ステップS105)。以下、個別に説明する。
<複数の製品に共通する周波数スペクトル成分(共通特徴)の算出>
 例えば、特徴選択手段105は、複数の製品の極座標変換後の周波数スペクトル画像から、特定の周波数帯域の部分を部分領域画像として取り出し、全ての部分領域画像間の正規化相互相関を求めることを繰り返すことによって、共通する周波数スペクトル成分(共通特徴)を算出する。このとき、特徴選択手段105は、正規化相互相関に代えて全部分領域画像から全てのペアに対して位相限定相関法を適用し、相関ピークとその周辺領域のS/N比を求め、S/N比が最も高い部分領域画像を共通特徴として求めても良い。また、特徴選択手段105は、部分領域画像間のユークリッド距離等の距離計算を行い、距離が最小となる部分領域を共通特徴として選択しても良い。また、特徴選択手段105は、複数の製品の極座標変換後の周波数スペクトル画像に対して統計的手法や機械学習によって、全ての製品に共通に存在する周波数スペクトル(共通特徴)を求めても良い。
 また、製品の表面パターンの画像が生産ライン別に画像記憶手段102に保存されている場合、特徴選択手段105は、ステップS105において、生産ライン毎に、その生産ラインで製造された複数の製品の画像に共通する周波数スペクトル成分(共通特徴)を算出する。これにより、例えば、金型A1を使用して製造された複数の製品の周波数スペクトル画像からは、金型A1によって製造時に転写されたパターンに由来する共通の周波数スペクトル成分(共通特徴)が算出され、金型A2を使用して製造された複数の製品の周波数スペクトル画像からは、金型A2による鋳造もしくは圧造時に転写されたパターンに由来する共通の周波数スペクトル成分(共通特徴)が算出される。また、例えば、切断機器B1を使用して製造された複数の製品の周波数スペクトル画像からは、切断機器B1による切断時に生じた切断刃の断面に応じた微細凹凸に由来する共通の周波数スペクトル成分(共通特徴)が算出され、切断機器B2を使用して製造された複数の製品の周波数スペクトル画像からは、切断機器B2による切断時に生じた切断刃の断面に応じた微細凹凸に由来する共通の周波数スペクトル成分(共通特徴)が算出される。
<個体固有特徴抽出パラメータの算出>
 特徴選択手段105は、極座標変換後の周波数スペクトル画像における共通特徴として算出された周波数スペクトル以外の帯域を、個体固有特徴抽出パラメータとして算出する。例えば、特徴選択手段105は、図6に示すように、対数極座標変換後の周波数スペクトルのうちの一部を複数の製品に共通する周波数スペクトル成分(共通特徴)として算出した場合、その算出された周波数スペクトル以外の帯域を、個体固有特徴パラメータとして算出する。好ましくは、特徴選択手段105は、共通特徴より高い帯域側の帯域を個体固有特徴パラメータとして選択する。この個体固有特徴抽出パラメータで定まる帯域内に、個体固有の特徴が存在する。このように、共通特徴の周波数帯域と、個体固有特徴抽出パラメータで定まる帯域とは、互いに異なる周波数帯域である。また、共通特徴の周波数帯域と個体固有特徴抽出パラメータで定まる帯域とは、互いに重複しない帯域である。また、共通特徴の周波数帯域は、個体固有特徴抽出パラメータで定まる帯域より周波数の低い帯域である。
 また、製品の表面パターンの画像が生産ライン別に画像記憶手段102に保存されている場合、特徴選択手段105は、ステップS105において、生産ライン毎に、その生産ラインで製造された複数の製品に共通する周波数スペクトル成分(共通特徴)以外の帯域(好ましくは、共通特徴より高い帯域側の帯域)を、個体固有特徴抽出パラメータとして算出する。
 また、個体固有の特徴を抽出する周波数帯域の決定に当たっては、特徴選択手段105は、同一個体あるいは異なる個体の複数の周波数スペクトル画像およびその極座標変換後の複数の画像を用いて、主成分分析や線形判別分析等の統計的手法や、機械学習を適用することが好ましい。これにより、特徴選択手段105は、撮影時のノイズが多く含まれやすく、個体固有の特徴量としてS/N比の悪い周波数帯域を決定することができる。そして、特徴選択手段105は、共通特徴として算出された周波数スペクトル(共通特徴)以外の帯域(好ましくは共通特徴よりも周波数の高い側の帯域)から、上記決定したS/N比の悪い周波数帯域を削減することによって、個体個々の識別に有用な情報のみを特徴量として抽出可能なパラメータを決定する。或いは、特徴選択手段105は、共通特徴として算出された周波数スペクトル以外の帯域(好ましくは共通特徴よりも周波数の高い側の帯域)を複数の周波数帯域に分割し、個々の周波数帯域に、上記決定したS/N比に基づいて個体識別に寄与する情報量の程度に応じた重み係数を付与する。この重み係数は、個体固有特徴パラメータに含められ、後述する個体識別および個体照合の性能を向上させるために利用することができる。
 特徴選択手段105は、算出した複数の製品に共通する周波数スペクトル成分(共通特徴)は共通特徴記憶手段106に保存する(ステップS106)。共通特徴記憶手段106に保存された共通特徴は、基準画像とも呼ばれる。また、特徴選択手段105は、算出した個体固有特徴抽出パラメータを、個体固有特徴抽出パラメータ記憶手段107に保存する(ステップS106)。
 図13は共通特徴記憶手段106および個体固有特徴抽出パラメータ記憶手段107の内容の一例を示す。図13(a)は、図12(a)、(b)に示した各個体につき1枚乃至複数枚の画像を処理した結果得られた共通特徴CFおよび個体固有特徴抽出パラメータPFPの格納例を示す。また、図13(b)は、生産ライン別の格納例を示す。図13(b)において、共通特徴CF1と個体固有特徴抽出パラメータPFP1は、第1の生産ラインの画像を処理した結果得られた共通特徴および個体固有特徴抽出パラメータを示す。また、共通特徴CF2と個体固有特徴抽出パラメータPFP2は、第2の生産ラインの画像を処理した結果得られた共通特徴および個体固有特徴抽出パラメータを示す。
[個体登録の動作]
 次に、管理対象の物体個々を登録する個体登録の動作について説明する。
 図7および図8は、個体登録の動作の処理フローおよびフローチャートである。まず、画像取得手段101は、個体登録の対象とする物体の表面を撮像して得られる画像を取得する(ステップS201)。次に、周波数領域変換手段103は、画像取得手段101によって取得された撮像画像を周波数変換し、周波数スペクトル画像を生成する(ステップS202)。次に、極座標変換手段104は、周波数領域変換手段103によって生成された周波数スペクトル画像を対数極座標変換する(ステップS203)。これらの処理は、共通特徴抽出および個体固有特徴抽出パラメータ決定を行う事前処理のときと同様である。
 次に、画像位置合わせ手段108は、極座標変換手段104によって得られた個体登録の対象とする物体の撮像画像の周波数スペクトル画像(極座標変換後)と、共通特徴記憶手段106に格納された共通特徴(複数の製品に共通する周波数スペクトル成分)とを入力とし、共通特徴に対する周波数スペクトル画像(極座標変換後)の位置ずれ量を補正する(ステップS204)。画像位置合わせ手段108は、共通特徴記憶手段106に図13(b)に示したように、生産ライン別の共通特徴が記憶されている場合、個体登録の対象とする製品が生産された生産ラインに対応する共通特徴を使用する。例えば、個体登録の対象とする製品が第1の生産ラインで生産されたならば、共通特徴CF1を使用する。
 位置ずれ量の補正では、先ず、画像位置合わせ手段108は、周波数スペクトル画像(極座標変換後)と共通特徴間の位相限定相関を求め、その相関ピーク位置から位置ずれ量を算出する。次に、画像位置合わせ手段108は、この算出した位置ずれ量に従い、個体登録の対象とする物体の撮像画像の周波数スペクトル画像(極座標変換後)を補正する。なお、上記の画像位置合わせ処理は一例に過ぎず、二つの画像間の差分二乗和の最小化や、正規化相互相関に基づく位置合わせ等といった、汎用的な位置合わせ処理でも代替可能なことは言うまでもない。
 次に、特徴抽出手段109は、画像位置合わせ処理部108によって得られた位置合わせ後の周波数スペクトル画像と、個体固有特徴抽出パラメータ記憶手段107に格納されたパラメータとを入力する。特徴抽出手段109は、個体固有特徴抽出パラメータ記憶手段107に図13(b)に示したように、生産ライン別の個体固有特徴抽出パラメータが記憶されている場合、個体登録の対象とする製品が生産された生産ラインに対応する個体固有特徴抽出パラメータを使用する。例えば、個体登録の対象とする製品が第1の生産ラインで生産されたならば、個体固有特徴抽出パラメータPFP1を使用する。次に、特徴抽出手段109は、入力した個体固有特徴抽出パラメータが示す周波数帯域情報に基づき、位置合わせ後の周波数スペクトル画像から部分画像を切り出し、この切り出した画像を個体固有の特徴量として出力する(ステップS205)。特徴抽出手段109は、個体固有特徴抽出パラメータが周波数毎の重み係数を含む場合は、各周波数成分に重み係数を乗じた後、個体固有の特徴量として出力する。
 個体固有の特徴量は、周波数スペクトルの実数値である必要は無く、周波数スペクトルの実数値を0と1の二値データとして表現した数値列としてもよい。例えば、特徴抽出手段109は、位置合わせ後の周波数スペクトル画像から、個体固有特徴抽出パラメータで定まる周波数帯域を部分画像として切り出す。次に、特徴抽出手段109は、その部分画像からランダムに画素ペアを選択する。或いは特徴抽出手段109は、その部分画像上の予め定められた位置の画素ペアを選択する。次に、特徴抽出手段109は、選択した画素ペアの値どうしを比較する。次に、特徴抽出手段109は、その比較結果に基づき、画素ペアの値の大小関係に応じて0、1の値を割り振る。次に、特徴抽出手段109は、こうして0、1の値を割り振って得られる二値のコードを、個体固有の特徴量として出力する。また、特徴抽出手段109は、バイナリハッシング(Binary Hashing)に代表される二値特徴量に変換する手段を用いて、その他の実数値の特徴ベクトルから生成した二値のコードを、個体固有の特徴量として出力してもよい。
 次に、特徴量記憶手段110は、特徴抽出手段109によって得られた登録対象の個体固有の特徴量を記憶する(ステップS206)。このとき、特徴量記憶手段110は、登録対象の個体のID番号、登録日時、寸法、製品仕様等といった当該登録対象の製造物に関わる情報(付帯情報とも称す)と紐付けて(対応付けて)個体固有の特徴量を登録する。こうしておくことで、後述する個体識別や個体認証時の判定結果に基づき、製造物の個体管理情報を提示することが可能になる。
 図14は、特徴量記憶手段110の内容例を示す。特徴量PF1,…,PFnおよび付帯情報SI1,…,SInは、登録対象の個体に1対1に対応する特徴量および付帯情報である。
[個体識別および個体照合の動作]
 次に、管理対象の物体個々を識別および照合する動作について説明する。
 図9および図10は、個体識別および個体照合時の動作の処理フローおよびフローチャートである。まず、画像取得手段101は、識別および照合の対象とする物体の表面を撮像して得られる画像を取得する(ステップS301)。次に、周波数領域変換手段103は、画像取得手段101によって取得された撮像画像を周波数変換し、周波数スペクトル画像を生成する(ステップS302)。次に、極座標変換手段104は、周波数領域変換手段103によって生成された周波数スペクトル画像を対数極座標変換する(ステップS303)。これらステップS301~S303の処理は、個体登録の動作時における図8のステップS201~S203の処理と同様である。
 次に、画像位置合わせ手段108は、極座標変換手段104によって得られた識別および照合の対象とする物体の撮像画像の周波数スペクトル画像(極座標変換後)と、共通特徴記憶手段106に格納された共通特徴(複数の製品に共通する周波数スペクトル成分)とを入力とし、共通特徴に対する周波数スペクトル画像(極座標変換後)の位置ずれ量を補正する(ステップS304)。画像位置合わせ手段108は、共通特徴記憶手段106に図13(b)に示したように、生産ライン別の共通特徴が記憶されている場合、それら全ての共通特徴を使用する。即ち、画像位置合わせ手段108は、共通特徴CF1に対する周波数スペクトル画像(極座標変換後)の位置ずれ量を補正して、位置合わせ後の周波数スペクトル画像(極座標変換後)(以下、第1の位置合わせ後の周波数スペクトル画像と称す)を生成する。また、画像位置合わせ手段108は、共通特徴CF2に対する周波数スペクトル画像(極座標変換後)の位置ずれ量を補正して、位置合わせ後の周波数スペクトル画像(極座標変換後)(以下、第2の位置合わせ後の周波数スペクトル画像と称す)を生成する。位置ずれ量の補正方法は、個体登録の動作時における図8のステップS204の処理と同様である。
 次に、特徴抽出手段109は、画像位置合わせ処理部108によって得られた位置合わせ後の周波数スペクトル画像と、個体固有特徴抽出パラメータ記憶手段107に格納されたパラメータとを入力する。特徴抽出手段109は、個体固有特徴抽出パラメータ記憶手段107に図13(b)に示したように、生産ライン別の個体固有特徴抽出パラメータが記憶されている場合、全ての個体固有特徴抽出パラメータを使用する。即ち、位置合わせ後の周波数スペクトル画像が共通特徴CF1を使用して位置合わせされたものである場合、特徴抽出手段109は、共通特徴CF1と組みになる個体固有特徴抽出パラメータPFP1を使用する。また、位置合わせ後の周波数スペクトル画像が共通特徴CF2を使用して位置合わせされたものである場合、特徴抽出手段109は、共通特徴CF2と組みになる個体固有特徴抽出パラメータPFP2を使用する。
 次に、特徴抽出手段109は、入力した個体固有特徴抽出パラメータが示す周波数帯域情報に基づき、位置合わせ後の周波数スペクトル画像から部分画像を切り出し、この切り出した画像を個体固有の特徴量として出力する(ステップS305)。特徴抽出手段109は、位置合わせ後の周波数スペクトル画像が複数存在する場合、それぞれから個体固有の特徴量を抽出する。例えば、特徴抽出手段109は、個体固有特徴抽出パラメータPFP1が示す周波数帯域情報に基づき、上述した第1の位置合わせ後の周波数スペクトル画像から個体固有の特徴量(以下、第1の個体固有の特徴量と記す)を抽出する。また、特徴抽出手段109は、個体固有特徴抽出パラメータPFP2が示す周波数帯域情報に基づき、上述した第2の位置合わせ後の周波数スペクトル画像から個体固有の特徴量(以下、第2の個体固有の特徴量と記す)を抽出する。また、特徴抽出手段109は、個体固有特徴抽出パラメータが周波数毎の重み係数を含む場合は、各周波数成分に重み係数を乗じた後、個体固有の特徴量として出力する。個体登録時と同様に、個体固有の特徴量は、周波数スペクトルの実数値である必要は無く、周波数スペクトルの実数値を0と1の二値データとして表現した数値列としてもよい。また、バイナリハッシング(Binary Hashing)に代表される二値特徴量に変換する手段を用いて、その他の実数値の特徴ベクトルから生成した二値のコードを、個体固有の特徴量としてもよい。
 次に、スコア算出手段111は、特徴抽出手段109によって得られた識別および照合の対象とする製品の個体固有の特徴量と、特徴量記憶手段110に記憶された全ての特徴量とを比較し、特徴量間の類似性を表すスコアを数値として算出する(ステップS306)。スコア算出手段111は、識別および照合の対象とする個体固有の特徴量が複数存在する場合、その個体固有の特徴量それぞれと特徴量記憶手段110に記憶された全ての特徴量とを比較してスコアを算出する。例えば、スコア算出手段111は、上述した第1の個体固有の特徴量と特徴量記憶手段110に記憶された図14の特徴量PF1,…,PFnとを比較して、n個のスコアを算出する。また、スコア算出手段111は、上述した第2の個体固有の特徴量と特徴量記憶手段110に記憶された図14の特徴量PF1,…,PFnとを比較して、更に別のn個のスコアを算出する。
 スコア算出手段111は、例えば、二つの特徴量間の正規化相互相関や位相限定相関を求めることによって、特徴量間のスコアを算出する。或いは、スコア算出手段111は、二つの特徴量間のハミング距離やユークリッド距離をスコアとして算出してもよい。また、スコア算出手段111は、上記相関の値や上記距離に対して何らかの線形変換を施し、或る値の範囲内に収まるようにスコアを正規化しても良い。
 続いて、判定手段112は、スコア算出手段111が算出したスコアに基づき、識別および照合対象の製品の撮像画像が、特徴量記憶手段110に格納されている、どの特徴量と合致するかを判定する。例えば、判定手段112は、識別および照合対象の製品の撮像画像から得られた特徴量と特徴量記憶手段119に格納された全特徴量とのスコアをソートし、スコアが最大(正規化相互相関が最大)となる特徴量を選択する(ステップS307)。そして、判定手段112は、選択された特徴量に紐付いた付帯情報を特徴量記憶手段110から読み出して、識別および照合対象の製品の生産物情報として出力する。
 また、判定手段112は、識別および照合対象の製品の撮像画像から得られた特徴量と特徴量記憶手段119に格納された全特徴量とのスコアが、予め設定された閾値を超えるかどうかの判定を行ってもよい。そして、判定手段112は、識別および照合対象の製品の撮像画像から得られた特徴量と特徴量記憶手段119に格納された全特徴量とのスコアのいずれも閾値を超えない場合、識別および照合対象の製品は、登録されていないと判断し、認証エラーを表す情報を出力する。このように動作する判定手段112は、管理対象の真贋判定といった、個体認証目的で使用することができる。
 続いて、情報提示手段113は、判定手段112から得た生産物情報や、認証エラー情報を受け、識別および照合対象の製品の個体識別結果である生産物情報や、個体認証情報を図示しない表示装置に表示し或いは外部の端末へ出力する(ステップS308)。
<本実施形態の効果>
 本実施形態によれば、物体を撮像して得られた画像を正確に位置合わせすることができる。その理由は、画像位置合わせ手段108は、位置合わせ対象とする画像(本実施形態では極座標変換後の周波数スペクトル画像)における部分領域(本実施形態では複数の製品に共通する周波数スペクトル成分)に基づき位置合わせを行うためである。
 また本実施形態によれば、製造ラインで大量生産される部品や製造物の個体管理を、既存の製造ラインに対して低コストの追加装置の導入によって、実現することができる。その理由は、上述したように画像を正確に位置合わせできるため、精度良く位置決めするための搬送系や、物体表面に撮像機構を押し当てて同一箇所を撮影する機構や、位置決め用のマークの付与や、タガント粒子の付与や、登録件数に比例した回数の識別および照合処理等が不要になるためである。
[第2の実施形態]
 図15は、本実施形態に係る個体識別装置のブロック図である。本実施形態に係る個体識別装置300は、図1に示した個体識別装置100と比較して、個体固有特徴抽出パラメータ記憶手段107が省略されていることと、特徴選択手段105と特徴抽出手段109の機能が相違していることで相違し、それ以外は同じである。
 個体識別装置300の特徴選択手段105は、図1に示した個体識別装置100の特徴選択手段105と比較して、個体固有特徴抽出パラメータを算出する機能が省略されている点で相違し、それ以外は同じである。
 個体識別装置300の特徴抽出手段109は、位置合わせ後の画像(極座標変換後の周波数スペクトル画像)の予め定められた帯域から個体固有の特徴量を抽出する点で、個体識別装置100の特徴抽出手段109と相違し、それ以外は同じである。予め定められた帯域は、共通特徴記憶手段109に記憶された複数の製品に共通な周波数スペクトル領域以外の帯域を含むように設定されていれば、複数の製品に共通な周波数スペクトル領域を含んでいてもよい。
 本実施形態に係る個体識別装置300は、図1に示した個体識別装置100と比較して、特徴抽出手段109によって個体の画像から抽出される特徴量が、個体固有の特徴量以外に複数の個体に共通な特徴量が含まれる可能性がある点で識別・照合精度が低下するが、構成および動作が簡略化されるメリットがある。
[第3の実施形態]
 図16は、本実施形態に係る個体識別装置のブロック図である。本実施形態に係る個体識別装置400は、図15に示した個体識別装置300と比較して、画像位置合わせ手段108と特徴抽出手段109の機能が相違し、それ以外は同じである。
 個体識別装置400の画像位置合わせ手段108は、極座標変換手段104によって得られた物体の撮像画像の周波数スペクトル画像(極座標変換後)と、共通特徴記憶手段106に格納された共通特徴(即ち複数の製品に共通する周波数スペクトル成分)とを入力とし、共通特徴に対する周波数スペクトル画像(極座標変換後)の位置ずれ量を算出する。次に、画像位置合わせ手段108は、算出した位置ずれ量に基づいて、物体の撮像画像の倍率情報(拡大/縮小率)および回転角度情報を示す補正量を算出する。これは、実座標における回転方向の動きは極座標におけるθ軸に沿った横方向の動きになり、実座標におけるスケール変動は、対数極座標におけるlog-r軸に沿った横方向の動きになることを利用する。次に、画像位置合わせ手段108は、算出した補正量に従って、画像取得手段101で取得された撮像画像を補正する。具体的には、画像位置合わせ手段108は、補正量に含まれる倍率情報に従って撮像画像を拡大/縮小処理し、補正量に含まれる回転角度情報に従って撮像画像を回転処理する。
 個体識別装置400の特徴抽出手段109は、画像位置合わせ処理部108によって得られた位置合わせ後の撮像画像から個体固有の特徴量を抽出する。個体固有の特徴量は、撮像画像の輝度値である必要は無く、撮像画像の輝度値を0と1の二値データとして表現した数値列としてもよい。例えば、特徴抽出手段109は、位置合わせ後の撮像画像から、所定位置の画素ペアを選択し、その大小関係に応じて0、1の値を割り振り、二値のコードとしたものを特徴量としてもよい。また、特徴抽出手段109は、バイナリハッシング(Binary Hashing)に代表される二値特徴量に変換する手段を用いて、その他の実数値の特徴ベクトルから生成した二値のコードを特徴量としてもよい。
 本実施形態に係る個体識別装置400は、図1に示した個体識別装置100と比較して、元の撮像画像の空間領域での位置合わせ処理が必要になるが、元の撮像画像から直接に特徴量を抽出することができる。
[第4の実施形態]
 図17は、本実施形態に係る個体識別装置のブロック図である。本実施形態に係る個体識別装置500は、図1に示した個体識別装置100と比較して、極座標変換手段104が省略されていることと、特徴選択手段105と画像位置合わせ手段108の機能とが相違することで相違し、それ以外は同じである。
 個体識別装置500の特徴選択手段105は、図1に示した個体識別装置100の特徴選択手段105と比較して、周波数領域変換手段103によって生成された物体の周波数スペクトル画像(極座標変換無し)から複数の製品に共通する周波数スペクトル成分(共通特徴)と個体固有特徴抽出パラメータとを算出する点で相違し、それ以外は同じである。
 個体識別装置500の画像位置合わせ手段108は、周波数領域変換手段103によって得られた物体の撮像画像の周波数スペクトル画像(極座標変換無し)と、共通特徴記憶手段106に格納された共通特徴(複数の製品に共通する周波数スペクトル成分)とを入力とし、共通特徴に対する周波数スペクトル画像(極座標変換無し)の位置ずれ量を補正する。例えば、画像位置合わせ手段108は、周波数スペクトル画像(極座標変換無し)と共通特徴間の位相限定相関を求め、その相関ピーク位置から位置ずれ量を算出する。そして、画像位置合わせ手段108は、この算出した位置ずれ量に従い、物体の撮像画像の周波数スペクトル画像(極座標変換無し)を補正する。なお、上記の画像位置合わせ処理は一例に過ぎず、二つの画像間の差分二乗和の最小化や、正規化相互相関に基づく位置合わせ等といった、汎用的な位置合わせ処理でも代替可能なことは言うまでもない。
 本実施形態に係る個体識別装置500は、図1に示した個体識別装置100と比較して、極座標あるいは対数極座標への変換処理が無い分だけ構成および動作が簡略化されるメリットがある。本実施形態は、画像取得時に、スケール変動がなく、撮像画像間に回転変動がある場合に有効である。
[第5の実施形態]
 図18は、本実施形態に係る個体識別装置のブロック図である。本実施形態に係る個体識別装置600は、図1に示した個体識別装置100と比較して、周波数領域変換手段114を更に備えていることと、特徴選択手段105と画像位置合わせ手段108と特徴抽出手段109の機能が相違していることで相違し、それ以外は同じである。
 極座標変換手段104によって生成された極座標変換後の周波数スペクトル画像に対して、更に2次元離散フーリエ変換等の周波数変換を行う機能を有する。極座標変換手段104による変換結果の画像は、特徴選択手段105と画像位置合わせ手段108に出力される。
 個体識別装置600の特徴選択手段105は、図1の特徴選択手段105と比較して、周波数領域変換手段114によって得られた極座標変換後の周波数スペクトル画像を更に周波数変換して得られる画像から、管理対象である複数の製品に共通する周波数スペクトル成分(共通特徴)と個体固有特徴抽出パラメータとを算出する点で、相違する。
 個体識別装置600の画像位置合わせ手段108は、図1に示した画像位置合わせ手段108と比較して、管理対象の製造物表面の撮像画像に対応する、極座標変換後の周波数スペクトル画像を更に周波数変換して得られる画像を、共通特徴記憶手段106に記憶された共通特徴に対して位置合わせを行う点で相違する。
 個体識別装置600の特徴抽出手段109は、位置合わせ後の画像(極座標変換後の周波数スペクトル画像を更に周波数変換した後の画像)から個体固有の特徴量を抽出する点で、個体識別装置100の特徴抽出手段109と相違し、それ以外は同じである。
[第6の実施の形態]
 図19は、本実施形態に係る個体識別装置のブロック図である。本実施形態に係る個体識別装置700は、変換手段701と位置合わせ手段702とを備えている。
 変換手段701は、物体を撮像して得られた画像に周波数変換を行う機能を有する。変換手段701は、例えば、図1の周波数領域変換手段103によって実現することができるが、それに限定されない。
 位置合わせ手段702は、変換手段701による周波数変換後の画像における第1の部分領域に基づき、物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う機能を有する。この位置合わせ手段702は、例えば、図1の画像位置合わせ手段108、あるいは図15の画像位置合わせ手段108、あるいは図16の画像位置合わせ手段108、或いは図17の画像位置合わせ手段108によって実現することができるが、それに限定されない。
 このように構成された個体識別装置700は、以下のように動作する。即ち、先ず、変換手段701は、物体を撮像して得られた画像に周波数変換を行う。次に、位置合わせ手段702は、変換手段701による周波数変換後の画像における第1の部分領域に基づき、物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う。
 このように本実施形態によれば、画像を正確に位置合わせすることができる。その理由は、変換手段701が物体を撮像して得られた画像に周波数変換を行い、位置合わせ手段702が周波数変換後の画像における第1の部分領域に基づき、物体の個体を識別する特徴量を抽出するための画像の位置合わせを行うためである。
 以上、上記各実施形態を参照して本発明を説明したが、本発明は、上述した実施形態に限定されるものではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 本発明は、製品表面の微細凹凸や紋様、素材表面のランダムパターン等の、同一製造過程で生じる自然発生的な微細なパターンの差異を、カメラ等の撮像装置を用いて画像として取得し、その微細なパターンを認識することで、製品個々の個体識別や管理を行う分野に利用できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 物体を撮像して得られた画像に周波数変換を行う変換部と、
 前記周波数変換後の画像における第1の部分領域に基づき、前記物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う位置合わせ部と、
を備える個体識別装置。
[付記2]
 前記第1の部分領域は、前記周波数変換後の前記画像を極座標変換または対数極座標変換した後の画像における部分領域である、
付記1に記載の個体識別装置。
[付記3]
 前記第1の部分領域は、前記周波数変換後の前記画像を極座標変換または対数極座標変換し、さらに周波数変換した後の画像における部分領域である、
付記1に記載の個体識別装置。
[付記4]
 前記第1の部分領域は、個体共通の特徴を示す領域である、
付記1乃至3の何れかに記載の個体識別装置。
[付記5]
 前記特徴量を抽出するために位置合わせを行う前記画像は、前記周波数変換後の前記画像である、
付記1乃至4の何れかに記載の個体識別装置。
[付記6]
 前記位置合わせ部は、前記第1の部分領域の基準画像と前記位置合わせ前の画像とを比較した結果に基づいて、前記基準画像と前記位置合わせ前の画像との位置ずれ量を算出し、位置合わせ後の画像を生成するために前記位置ずれ量に基づいて前記位置合わせ前の画像の位置ずれを補正する、
付記1乃至5の何れかに記載の個体識別装置。
[付記7]
 複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域を前記基準画像として抽出する基準画像決定部を、更に備える、
付記6に記載の個体識別装置。
[付記8]
 前記位置合わせ部は、前記第1の部分領域の複数の基準画像と前記位置合わせ前の画像とを比較した結果に基づいて、前記複数の基準画像と前記位置合わせ前の画像との複数の位置ずれ量を算出し、複数の位置合わせ後の画像を生成するために前記複数の位置ずれ量に基づいて前記位置合わせ前の複数の画像の位置ずれを補正する、
付記1乃至5の何れかに記載の個体識別装置。
[付記9]
 生産ラインで製造された複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域を前記生産ラインに1対1に対応する前記基準画像として抽出する基準画像決定部を、更に備える、
付記8に記載の個体識別装置。
[付記10]
 前記位置合わせ後の画像から前記特徴量を抽出する特徴抽出部を、更に備える、
付記1乃至9の何れかに記載の個体識別装置。
[付記11]
 前記特徴抽出部は、前記位置合わせ後の画像における第2の部分領域から前記特徴量を抽出する、
付記10に記載の個体識別装置。
[付記12]
 前記第2の部分領域は、個体固有の特徴を示す領域である、
付記11に記載の個体識別装置。
[付記13]
 前記第1の部分領域と前記第2の部分領域とは互いに異なる周波数帯域である、
付記11または12に記載の個体識別装置。
[付記14]
 前記第2の部分領域は、周波数スペクトルに対して重み係数が付与された周波数帯域である、
付記11乃至13の何れかに記載の個体識別装置。
[付記15]
 複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像に共通する特徴を示す部分領域以外の部分領域を前記第2の部分領域として抽出する第2の部分領域決定部を、更に備える、
付記11乃至14の何れかに記載の個体識別装置。
[付記16]
 生産ラインで製造された複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域以外の部分領域を前記生産ラインに1対1に対応する前記第2の部分領域として抽出する第2の部分領域決定部を、更に備える、
付記11乃至14の何れかに記載の個体識別装置。
[付記17]
 前記位置合わせを行う前記画像は、前記周波数変換前の前記画像である、
付記1乃至4の何れかに記載の個体識別装置。
[付記18]
 前記抽出された特徴量を、前記物体の識別番号に関連付けて記憶する記憶部を、更に備える、
付記10乃至17の何れかに記載の個体識別装置。
[付記19]
 前記抽出された特徴量を、予め登録されている物体の特徴量と照合する照合部を、更に備える、
付記10乃至18の何れかに記載の個体識別装置。
[付記20]
 物体を撮像して得られた画像に周波数変換を行い、
 前記周波数変換後の画像における第1の部分領域に基づき、前記物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う、
個体識別方法。
[付記21]
 前記第1の部分領域は、前記周波数変換後の前記画像を極座標変換または対数極座標変換した後の画像における部分領域である、
付記20に記載の個体識別方法。
[付記22]
 前記第1の部分領域は、前記周波数変換後の前記画像を極座標変換または対数極座標変換し、さらに周波数変換した後の画像における部分領域である、
付記20に記載の個体識別方法。
[付記23]
 前記第1の部分領域は、個体共通の特徴を示す領域である、
付記20乃至22の何れかに記載の個体識別方法。
[付記24]
 前記特徴量を抽出するために位置合わせを行う前記画像は、前記周波数変換後の前記画像である、
付記20乃至23の何れかに記載の個体識別方法。
[付記25]
 前記位置合わせでは、前記第1の部分領域の基準画像と前記位置合わせ前の画像とを比較した結果に基づいて、前記基準画像と前記位置合わせ前の画像との位置ずれ量を算出し、位置合わせ後の画像を生成するために前記位置ずれ量に基づいて前記位置合わせ前の画像の位置ずれを補正する、
付記20乃至24の何れかに記載の個体識別方法。
[付記26]
 更に、複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域を前記基準画像として抽出する、
付記25に記載の個体識別方法。
[付記27]
 前記位置合わせでは、前記第1の部分領域の複数の基準画像と前記位置合わせ前の画像とを比較した結果に基づいて、前記複数の基準画像と前記位置合わせ前の画像との複数の位置ずれ量を算出し、複数の位置合わせ後の画像を生成するために前記複数の位置ずれ量に基づいて前記位置合わせ前の複数の画像の位置ずれを補正する、
付記20乃至24の何れかに記載の個体識別方法。
[付記28]
 更に、生産ラインで製造された複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域を前記生産ラインに1対1に対応する前記基準画像として抽出する、
付記27に記載の個体識別方法。
[付記29]
 更に、前記位置合わせ後の画像から前記特徴量を抽出する、
付記20乃至28の何れかに記載の個体識別方法。
[付記30]
 前記特徴量の抽出では、前記位置合わせ後の画像における第2の部分領域から前記特徴量を抽出する、
付記29に記載の個体識別方法。
[付記31]
 前記第2の部分領域は、個体固有の特徴を示す領域である、
付記30に記載の個体識別方法。
[付記32]
 前記第1の部分領域と前記第2の部分領域とは互いに異なる周波数帯域である、
付記30または31に記載の個体識別方法。
[付記33]
 前記第2の部分領域は、周波数スペクトルに対して重み係数が付与された周波数帯域である、
付記30乃至32の何れかに記載の個体識別方法。
[付記34]
 更に、複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像に共通する特徴を示す部分領域以外の部分領域を前記第2の部分領域として抽出する、
付記30乃至33の何れかに記載の個体識別方法。
[付記35]
 更に、生産ラインで製造された複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域以外の部分領域を前記生産ラインに1対1に対応する前記第2の部分領域として抽出する、
付記30乃至33の何れかに記載の個体識別方法。
[付記36]
 前記位置合わせを行う前記画像は、前記周波数変換前の前記画像である、
付記30乃至33の何れかに記載の個体識別方法。
[付記37]
 更に、前記抽出された特徴量を、前記物体の識別番号に関連付けて記憶する、
付記29乃至36の何れかに記載の個体識別方法。
[付記38]
 更に、前記抽出された特徴量を、予め登録されている物体の特徴量と照合する、
付記29乃至38の何れかに記載の個体識別方法。
[付記39]
 コンピュータを、
 物体を撮像して得られた画像に周波数変換を行う変換部と、
 前記周波数変換後の画像における第1の部分領域に基づき、前記物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う位置合わせ部と、
して機能させるためのプログラム。
100…個体識別装置
101…画像取得手段
102…画像記憶手段
103…周波数領域変換手段
104…極座標変換手段
105…特徴選択手段
106…共通特徴記憶手段
107…個体固有特徴抽出パラメータ記憶手段
108…画像位置合わせ手段
109…特徴抽出手段
110…特徴量記憶手段
111…スコア算出手段
112…判定手段
113…情報提示手段
114…周波数領域変換手段
200…情報処理装置
201…撮像部
202…操作入力部
203…画面表示部
204…通信インタフェース部
205…記憶部
206…演算処理部
207…プログラム
300…個体識別装置
400…個体識別装置
500…個体識別装置
600…個体識別装置
700…個体識別装置
701…変換手段
702…位置合わせ手段

Claims (39)

  1.  物体を撮像して得られた画像に周波数変換を行う変換部と、
     前記周波数変換後の画像における第1の部分領域に基づき、前記物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う位置合わせ部と、
    を備える個体識別装置。
  2.  前記第1の部分領域は、前記周波数変換後の前記画像を極座標変換または対数極座標変換した後の画像における部分領域である、
    請求項1に記載の個体識別装置。
  3.  前記第1の部分領域は、前記周波数変換後の前記画像を極座標変換または対数極座標変換し、さらに周波数変換した後の画像における部分領域である、
    請求項1に記載の個体識別装置。
  4.  前記第1の部分領域は、個体共通の特徴を示す領域である、
    請求項1乃至3の何れかに記載の個体識別装置。
  5.  前記特徴量を抽出するために位置合わせを行う前記画像は、前記周波数変換後の前記画像である、
    請求項1乃至4の何れかに記載の個体識別装置。
  6.  前記位置合わせ部は、前記第1の部分領域の基準画像と前記位置合わせ前の画像とを比較した結果に基づいて、前記基準画像と前記位置合わせ前の画像との位置ずれ量を算出し、位置合わせ後の画像を生成するために前記位置ずれ量に基づいて前記位置合わせ前の画像の位置ずれを補正する、
    請求項1乃至5の何れかに記載の個体識別装置。
  7.  複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域を前記基準画像として抽出する基準画像決定部を、更に備える、
    請求項6に記載の個体識別装置。
  8.  前記位置合わせ部は、前記第1の部分領域の複数の基準画像と前記位置合わせ前の画像とを比較した結果に基づいて、前記複数の基準画像と前記位置合わせ前の画像との複数の位置ずれ量を算出し、複数の位置合わせ後の画像を生成するために前記複数の位置ずれ量に基づいて前記位置合わせ前の複数の画像の位置ずれを補正する、
    請求項1乃至5の何れかに記載の個体識別装置。
  9.  生産ラインで製造された複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域を前記生産ラインに1対1に対応する前記基準画像として抽出する基準画像決定部を、更に備える、
    請求項8に記載の個体識別装置。
  10.  前記位置合わせ後の画像から前記特徴量を抽出する特徴抽出部を、更に備える、
    請求項1乃至9の何れかに記載の個体識別装置。
  11.  前記特徴抽出部は、前記位置合わせ後の画像における第2の部分領域から前記特徴量を抽出する、
    請求項10に記載の個体識別装置。
  12.  前記第2の部分領域は、個体固有の特徴を示す領域である、
    請求項11に記載の個体識別装置。
  13.  前記第1の部分領域と前記第2の部分領域とは互いに異なる周波数帯域である、
    請求項11または12に記載の個体識別装置。
  14.  前記第2の部分領域は、周波数スペクトルに対して重み係数が付与された周波数帯域である、
    請求項11乃至13の何れかに記載の個体識別装置。
  15.  複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像に共通する特徴を示す部分領域以外の部分領域を前記第2の部分領域として抽出する第2の部分領域決定部を、更に備える、
    請求項11乃至14の何れかに記載の個体識別装置。
  16.  生産ラインで製造された複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域以外の部分領域を前記生産ラインに1対1に対応する前記第2の部分領域として抽出する第2の部分領域決定部を、更に備える、
    請求項11乃至14の何れかに記載の個体識別装置。
  17.  前記位置合わせを行う前記画像は、前記周波数変換前の前記画像である、
    請求項1乃至4の何れかに記載の個体識別装置。
  18.  前記抽出された特徴量を、前記物体の識別番号に関連付けて記憶する記憶部を、更に備える、
    請求項10乃至17の何れかに記載の個体識別装置。
  19.  前記抽出された特徴量を、予め登録されている物体の特徴量と照合する照合部を、更に備える、
    請求項10乃至18の何れかに記載の個体識別装置。
  20.  物体を撮像して得られた画像に周波数変換を行い、
     前記周波数変換後の画像における第1の部分領域に基づき、前記物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う、
    個体識別方法。
  21.  前記第1の部分領域は、前記周波数変換後の前記画像を極座標変換または対数極座標変換した後の画像における部分領域である、
    請求項20に記載の個体識別方法。
  22.  前記第1の部分領域は、前記周波数変換後の前記画像を極座標変換または対数極座標変換し、さらに周波数変換した後の画像における部分領域である、
    請求項20に記載の個体識別方法。
  23.  前記第1の部分領域は、個体共通の特徴を示す領域である、
    請求項20乃至22の何れかに記載の個体識別方法。
  24.  前記特徴量を抽出するために位置合わせを行う前記画像は、前記周波数変換後の前記画像である、
    請求項20乃至23の何れかに記載の個体識別方法。
  25.  前記位置合わせでは、前記第1の部分領域の基準画像と前記位置合わせ前の画像とを比較した結果に基づいて、前記基準画像と前記位置合わせ前の画像との位置ずれ量を算出し、位置合わせ後の画像を生成するために前記位置ずれ量に基づいて前記位置合わせ前の画像の位置ずれを補正する、
    請求項20乃至24の何れかに記載の個体識別方法。
  26.  更に、複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域を前記基準画像として抽出する、
    請求項25に記載の個体識別方法。
  27.  前記位置合わせでは、前記第1の部分領域の複数の基準画像と前記位置合わせ前の画像とを比較した結果に基づいて、前記複数の基準画像と前記位置合わせ前の画像との複数の位置ずれ量を算出し、複数の位置合わせ後の画像を生成するために前記複数の位置ずれ量に基づいて前記位置合わせ前の複数の画像の位置ずれを補正する、
    請求項20乃至24の何れかに記載の個体識別方法。
  28.  更に、生産ラインで製造された複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域を前記生産ラインに1対1に対応する前記基準画像として抽出する、
    請求項27に記載の個体識別方法。
  29.  更に、前記位置合わせ後の画像から前記特徴量を抽出する、
    請求項20乃至28の何れかに記載の個体識別方法。
  30.  前記特徴量の抽出では、前記位置合わせ後の画像における第2の部分領域から前記特徴量を抽出する、
    請求項29に記載の個体識別方法。
  31.  前記第2の部分領域は、個体固有の特徴を示す領域である、
    請求項30に記載の個体識別方法。
  32.  前記第1の部分領域と前記第2の部分領域とは互いに異なる周波数帯域である、
    請求項30または31に記載の個体識別方法。
  33.  前記第2の部分領域は、周波数スペクトルに対して重み係数が付与された周波数帯域である、
    請求項30乃至32の何れかに記載の個体識別方法。
  34.  更に、複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像に共通する特徴を示す部分領域以外の部分領域を前記第2の部分領域として抽出する、
    請求項30乃至33の何れかに記載の個体識別方法。
  35.  更に、生産ラインで製造された複数の物体を撮像して得られた複数の画像を周波数変換した後の複数の画像から、共通する特徴を示す部分領域以外の部分領域を前記生産ラインに1対1に対応する前記第2の部分領域として抽出する、
    請求項30乃至33の何れかに記載の個体識別方法。
  36.  前記位置合わせを行う前記画像は、前記周波数変換前の前記画像である、
    請求項30乃至33の何れかに記載の個体識別方法。
  37.  更に、前記抽出された特徴量を、前記物体の識別番号に関連付けて記憶する、
    請求項29乃至36の何れかに記載の個体識別方法。
  38.  更に、前記抽出された特徴量を、予め登録されている物体の特徴量と照合する、
    請求項29乃至38の何れかに記載の個体識別方法。
  39.  コンピュータを、
     物体を撮像して得られた画像に周波数変換を行う変換部と、
     前記周波数変換後の画像における第1の部分領域に基づき、前記物体の個体を識別する特徴量を抽出するための画像の位置合わせを行う位置合わせ部と、
    して機能させるためのプログラム。
PCT/JP2016/085541 2016-11-30 2016-11-30 個体識別装置 WO2018100669A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018553570A JP6810392B2 (ja) 2016-11-30 2016-11-30 個体識別装置
US16/347,740 US11037326B2 (en) 2016-11-30 2016-11-30 Individual identifying device
PCT/JP2016/085541 WO2018100669A1 (ja) 2016-11-30 2016-11-30 個体識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/085541 WO2018100669A1 (ja) 2016-11-30 2016-11-30 個体識別装置

Publications (1)

Publication Number Publication Date
WO2018100669A1 true WO2018100669A1 (ja) 2018-06-07

Family

ID=62242402

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/085541 WO2018100669A1 (ja) 2016-11-30 2016-11-30 個体識別装置

Country Status (3)

Country Link
US (1) US11037326B2 (ja)
JP (1) JP6810392B2 (ja)
WO (1) WO2018100669A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110309A1 (ja) * 2018-11-30 2020-06-04 日本電気株式会社 画像照合装置、画像照合方法、プログラム
EP3719831A1 (en) * 2019-04-05 2020-10-07 ASML Netherlands B.V. Systems and methods for image enhancement for a multi-beam charged-particle inspection system
JPWO2021065009A1 (ja) * 2019-10-04 2021-04-08

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7011152B2 (ja) * 2017-08-30 2022-01-26 富士通株式会社 生体画像処理装置、生体画像処理方法、及び生体画像処理プログラム
US10638109B2 (en) * 2017-09-15 2020-04-28 Elphel, Inc. Method for the FPGA-based long range multi-view stereo with differential image rectification
EP3971826B1 (en) * 2019-05-16 2023-07-19 NEC Corporation Image comparison apparatus
JP7276592B2 (ja) * 2020-02-27 2023-05-18 日本電気株式会社 基板管理システム
WO2022085185A1 (ja) * 2020-10-23 2022-04-28 日本電気株式会社 個体識別装置
US20230281790A1 (en) * 2022-03-01 2023-09-07 General Electric Company Inspection Systems and Methods

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240931A (ja) * 2003-02-05 2004-08-26 Sony Corp 画像照合装置、画像照合方法、およびプログラム
JP2014228940A (ja) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 画像処理方法、画像処理装置および画像処理プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3235075B2 (ja) 1996-08-21 2001-12-04 株式会社山武 パターン照合装置
KR100308456B1 (ko) * 1999-07-09 2001-11-02 오길록 주파수 공간상에서의 질감표현방법 및 질감기반 검색방법
JP4337422B2 (ja) 2003-06-20 2009-09-30 富士ゼロックス株式会社 物品登録装置、物品確認装置、及び物品登録確認装置
JP4342299B2 (ja) 2003-12-26 2009-10-14 富士通株式会社 共通パターン抽出プログラムおよび共通パターン抽出方法
US7687271B2 (en) 2004-04-22 2010-03-30 Kodak Graphic Communications Canada Company Covert authentication method and apparatus
JP4664147B2 (ja) 2005-07-29 2011-04-06 株式会社山武 虹彩認証装置
JP5631769B2 (ja) * 2011-02-17 2014-11-26 株式会社東芝 画像処理装置
JP2013196418A (ja) 2012-03-21 2013-09-30 Dainippon Printing Co Ltd 個体識別装置、個体識別方法、プログラム
JP6075084B2 (ja) 2013-01-25 2017-02-08 富士通株式会社 画像変換装置、画像変換方法、生体認証装置及び生体認証方法ならびに画像変換用コンピュータプログラム
WO2014163014A1 (ja) 2013-04-04 2014-10-09 日本電気株式会社 識別システム、識別方法、照合装置及びプログラム
JP6096872B1 (ja) * 2015-11-30 2017-03-15 ファナック株式会社 製造ラインの生産実績情報を管理する生産管理装置及び生産システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240931A (ja) * 2003-02-05 2004-08-26 Sony Corp 画像照合装置、画像照合方法、およびプログラム
JP2014228940A (ja) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 画像処理方法、画像処理装置および画像処理プログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020110309A1 (ja) * 2018-11-30 2021-09-27 日本電気株式会社 画像照合装置、画像照合方法、プログラム
US11748863B2 (en) 2018-11-30 2023-09-05 Nec Corporation Image matching apparatus, image matching method, and program
JP7081685B2 (ja) 2018-11-30 2022-06-07 日本電気株式会社 画像照合装置、画像照合方法、プログラム
WO2020110309A1 (ja) * 2018-11-30 2020-06-04 日本電気株式会社 画像照合装置、画像照合方法、プログラム
CN113661557A (zh) * 2019-04-05 2021-11-16 Asml荷兰有限公司 用于多束带电粒子检查系统的图像增强的系统和方法
WO2020200958A1 (en) * 2019-04-05 2020-10-08 Asml Netherlands B.V. Systems and methods for image enhancement for a multi-beam charged-particle inspection system
EP3719831A1 (en) * 2019-04-05 2020-10-07 ASML Netherlands B.V. Systems and methods for image enhancement for a multi-beam charged-particle inspection system
US11961700B2 (en) 2019-04-05 2024-04-16 Asml Netherlands B.V. Systems and methods for image enhancement for a multi-beam charged-particle inspection system
CN113661557B (zh) * 2019-04-05 2024-11-22 Asml荷兰有限公司 用于多束带电粒子检查系统的图像增强的系统和方法
WO2021065009A1 (ja) * 2019-10-04 2021-04-08 日本電気株式会社 表面性状推定システム
JPWO2021065009A1 (ja) * 2019-10-04 2021-04-08
JP7264268B2 (ja) 2019-10-04 2023-04-25 日本電気株式会社 表面性状推定システム
US12196545B2 (en) 2019-10-04 2025-01-14 Nec Corporation Surface property estimation system

Also Published As

Publication number Publication date
JP6810392B2 (ja) 2021-01-06
JPWO2018100669A1 (ja) 2019-07-25
US20190287266A1 (en) 2019-09-19
US11037326B2 (en) 2021-06-15

Similar Documents

Publication Publication Date Title
JP6810392B2 (ja) 個体識別装置
CN108291876B (zh) 用于检测产品的真实性的系统及方法
Zhao et al. Robust hashing for image authentication using Zernike moments and local features
US10019646B2 (en) Method for object recognition and/or verification on portable devices
JP6217886B1 (ja) 物体管理装置
US7151846B1 (en) Apparatus and method for matching fingerprint
JP6860081B2 (ja) 個体識別装置
US20190362193A1 (en) Eyeglass positioning method, apparatus and storage medium
US11380115B2 (en) Digital identifier for a document
WO2014030399A1 (ja) 物体識別装置、物体識別方法、及びプログラム
WO2014163015A1 (ja) 識別方法、識別システム、照合装置及びプログラム
CN110427972B (zh) 证件视频特征提取方法、装置、计算机设备和存储介质
US11688153B2 (en) Object ID-centered workflow
WO2021192216A1 (ja) 個体識別システム
JP5998090B2 (ja) 画像照合装置、画像照合方法、画像照合プログラム
KR20230095614A (ko) 문서 위변조 판별 방법, 장치, 시스템 및 컴퓨터 프로그램
CN113516598A (zh) 图像校正方法、装置和服务器
Saba A simple and fast method based on DWT and image texture for detection of splicing forgery in images [J]
Wrobel et al. Fingerprint reference point detection based on high curvature points
HK1247372B (zh) 眼镜定位方法、装置及存储介质
HK1247372A (en) Glasses positioning method, device and storage medium
CN119048778A (zh) 图像检测方法、装置、计算机设备及存储介质
JPH064671A (ja) パターン処理方法
CN119301648A (zh) 具有失真容限的标记验证
CN117252603A (zh) 商品真伪鉴别方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16922755

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2018553570

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16922755

Country of ref document: EP

Kind code of ref document: A1