[go: up one dir, main page]

WO2006011261A1 - 画像処理方法、画像処理装置および画像処理プログラム - Google Patents

画像処理方法、画像処理装置および画像処理プログラム Download PDF

Info

Publication number
WO2006011261A1
WO2006011261A1 PCT/JP2005/003453 JP2005003453W WO2006011261A1 WO 2006011261 A1 WO2006011261 A1 WO 2006011261A1 JP 2005003453 W JP2005003453 W JP 2005003453W WO 2006011261 A1 WO2006011261 A1 WO 2006011261A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light source
image processing
base
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2005/003453
Other languages
English (en)
French (fr)
Inventor
Satoshi Sato
Kunio Nobori
Kazutoyo Takata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006528350A priority Critical patent/JP3935499B2/ja
Priority to US11/141,308 priority patent/US7203362B2/en
Publication of WO2006011261A1 publication Critical patent/WO2006011261A1/ja
Priority to US11/591,778 priority patent/US7236630B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Definitions

  • Image processing method image processing apparatus, and image processing program
  • the present invention relates to an image processing technique, and more particularly to a technique for removing the influence of specular reflection and shadows, which are problems when processing an image shot in a general environment.
  • a method using a camera has been widely used for detecting the position and orientation of an object, recognizing the object, detecting the movement of the object, and the like. This is realized by applying image processing such as pattern matching, optical flow detection, and feature point extraction to an image captured by a camera.
  • Patent Document 1 the image processing as described in Patent Document 1 described above is effective for an image having no noise, but sufficient reliability and accuracy for an image photographed in a general environment.
  • Patent Document 1 This is mainly because normal image processing assumes an object with only diffuse reflection, so the color information of the image data changes depending on the camera position due to the effect of specular reflection, and the pixel value is large due to shadows. This is because it is unaware considering the change in width.
  • FIG. 37 is a diagram schematically showing an image of the mobile phone 201 taken at home.
  • a specular reflection region 203 having a high pixel value is generated. Therefore, for example, when trying to detect the mobile phone 201 by pattern matching using the pattern image 204 shown in FIG. 38, the specular reflection region 203 is larger in brightness and edge information than the corresponding region 205 in the pattern image 204. Is different. Therefore, the detection accuracy is extremely deteriorated.
  • the force is also a mirror
  • the position of the surface reflection area differs depending on the camera position, and the luminance also changes depending on the light source state.
  • FIG. 40 shows images when the object 207 is photographed by the stereo cameras 206L and 206R, respectively, as shown in FIG.
  • specular reflection regions 203L and 203R are generated in both the left image and the right image.
  • the left image and the right image are completely different images. This causes a deterioration in the accuracy of stereo matching.
  • a pre-process for performing image processing it is widely performed to correct a shadow area if specular reflection is performed.
  • the first conventional example using a polarizing filter (for example, Patent Document 2) using the difference in polarization characteristics between specular reflection and diffuse reflection, and rotating an object.
  • a second conventional example in which a specular reflection region is separated by using a multispectral camera (for example, Patent Document 3), and further, an image of an object to which a light source is applied from various directions is used.
  • a third conventional example (for example, Non-Patent Document 2) that synthesizes a ⁇ linearized image '' that is an image in an ideal state that does not cause image separation and uses this linearized image to separate specular reflection and shadow areas There is.
  • the brightness of an object is expressed as the sum of a diffuse reflection component and a specular reflection component.
  • the pixel value I d of the diffuse reflection component is expressed by the following equation.
  • n is the product of the normal direction N of the object surface and diffuse reflectance (albedo)
  • s is the product of the light source direction unit vector and the light source illuminance.
  • FIG. 42 there are two types of shadows: an attached shadow that occurs because the normal of the object does not face the light source direction, and a cast shadow that occurs when light is shielded by other objects. Divided into types. If there is no influence of ambient light or mutual reflection, the brightness of both is zero. However, in (Formula 1), the attached shadow has a negative value and the cast shadow has a positive value.
  • k can be expressed by a linear combination as follows.
  • This image is called a “linearized image”.
  • I L is a linearized image corresponding to the input image I
  • i B , i B , i B are respectively kk 1 2 3
  • the linearized image generated in this way is an image in an ideal state where no specular reflection occurs. Therefore, by performing image processing using this linearized image, it is possible to realize image processing without being affected by specular reflection or shadow.
  • the third conventional example also shows region segmentation based on optical characteristics using this linearized image.
  • the pixel value of the pixel p in the input image I is i and the pixel value of the linearized image corresponding to kk (p) is i L , diffuse reflection, specular reflection, cast shadow and k (p)
  • Patent Document 1 Japanese Patent No. 2961264
  • Patent Document 2 Japanese Patent No. 3459981
  • Patent Document 3 Japanese Patent Laid-Open No. 2003-85531
  • Patent Document 4 Japanese Unexamined Patent Application Publication No. 2004-5509
  • Non-Patent Document 1 Takahiko Sakano, Katsushi Ikeuchi "Speckle Removal from Vehicles Using Self-Space Images with a Moving Camera", Information Processing Society of Japan Research Report CVIM, 2003— CVIM— 141, pp. 1 7-23, 2003
  • Non-Patent Document 2 Ikui Ikunori, Fukui Kotaro, Mukaikawa Yasuhiro, Takenaga Takeshi “Linearization of images based on optical phenomenon classification", IPSJ Journal, vol.44, no. SIG5 (CVIM6) , pp.11-21, 2003
  • Non-Special Terms 3 Shashua A., “Geometry and Photometry in 3D Visual Recognition", PD thesis, Dept. Brain and Cognitive science, MIT, 1992
  • Non-Special Terms 4 MA Fischler and RC Bolles, "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography", Communications of the ACM, Volume 24, Issue 6, pp. 381-395 Disclosure
  • FIG. 44 is a diagram showing a result of image processing using the third conventional example.
  • 24 images with different parallel light source orientations were used as input images.
  • (a) is a part of the input image
  • (b) is a linear image created using the image of (a).
  • (C), (d), and (e) show the specular reflection, cast shadow, and attached shadow, respectively, separated from the images in (a) and (b) using (Equation 4).
  • Equation 4 As can be seen from Figure 44, good results are obtained for parallel light sources.
  • FIG. 45 is a diagram showing a result of the same processing performed on 24 input images in which the position of the point light source is changed.
  • (a) is a part of the input image
  • (b) is a linearized image created using the image of (a)
  • (c) is derived from the images of (a) and (b) (formula The specular reflection separated using 4) is shown. From Fig. 45, it can be seen that the generation of the linearized image failed because the point light source was used instead of the parallel light source, and as a result, the specular reflection component was erroneously separated.
  • the processing can be realized even if the position of the light source is unknown.
  • the following two conditions are necessary.
  • the present invention makes it possible to generate a linearized image even in a general environment such as a home where a parallel light source cannot be assumed, and to remove the effects of specular reflection and shadows. This is the issue.
  • the present invention divides a plurality of input images obtained by photographing the same object into a plurality of small regions in common, and each input image for each small region.
  • the base image is generated from the base image, and the base image is generated by interpolation processing using the calculation values related to the base image generation in the near subregion for the small region where the base image could not be generated.
  • a linear image of the object in a given light source environment is generated using the base image.
  • the parallel light source is used in each small area. It becomes possible to make assumptions and a base image can be generated.
  • a base image is generated by interpolation processing using a calculation value related to base image generation in the neighboring small region. Then, a linearized image of the object in a given light source environment is generated using each generated base image. In other words, a linear image can be generated even in a general environment such as a home. Therefore, by using this linearized image, image processing in which the effects of specular reflection and shadows are removed can be realized. Can do.
  • a linear image that is an image in an ideal state in which no specular reflection occurs can be generated with a very simple configuration in a general environment such as a home. Therefore, it is possible to remove the influence of specular reflection and shadow, which have been problems in the past in image processing. Furthermore, it is possible to separate specular reflection areas and shadow areas in the image using this linear image.
  • FIG. 1 is a configuration diagram of an image processing apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a schematic diagram of a home work robot.
  • FIG. 3 is a diagram for explaining the difference between a parallel light source and a point light source.
  • FIG. 4 is a diagram showing a certain shooting situation and an image at that time.
  • FIG. 5 is a diagram showing small area division in the case of FIG. 4.
  • FIG. 6 is a flowchart showing a calculation process of a linearization coefficient group in the first embodiment of the present invention.
  • FIG. 7 is a flowchart showing a base image generation process in the first embodiment of the present invention.
  • FIG. 8 is a diagram showing a result of applying the third conventional example to FIG. 5 (a).
  • FIG. 9 is a diagram illustrating an example of a neighborhood region.
  • FIG. 10 is a flowchart showing a method for selecting an optimum linearization coefficient group in the neighborhood region.
  • FIG. 11 is a diagram showing another example of the neighborhood region.
  • FIG. 12 is a diagram showing a boundary area with a neighboring area.
  • FIG. 13 is a linearized image for FIG.
  • FIG. 14 (a) is a linearized image generated from FIG. 45 (a), and FIG. 14 (b) is a specular reflection component separated from FIG. 45 (a).
  • FIG. 15 shows another example of area division, in which small areas overlap each other.
  • FIG. 16 is another example of area division, in which the shape of the small area is not rectangular.
  • FIG. 17 is a diagram for explaining a method of calculating a linearization coefficient set by setting weights as a function of position.
  • FIG. 18 is a diagram schematically showing the separation accuracy of the linearization coefficient group.
  • FIG. 19 is an example of a linear image generated by the first embodiment of the present invention. is there.
  • FIG. 20 is a diagram showing the relationship of element vectors when a matrix is degenerated.
  • Figure 21 is a diagram showing the triangulation of a matrix and the geometrical meaning of its diagonal components.
  • FIG. 22 is a diagram for explaining threshold determination in a method for determining whether or not three normal directions are equal.
  • FIG. 23 is a graph showing the evaluation values of the conditional expressions in FIG.
  • FIG. 24 is a graph showing the evaluation values of the conditional expressions in FIG.
  • FIG. 25 is a graph showing the evaluation values of the conditional expressions in FIG.
  • FIG. 26 is a flowchart showing a linearization coefficient group calculation process using normal direction detection in another example of the first embodiment of the present invention.
  • FIG. 27 is a diagram for explaining a method of detecting an area where a base image cannot be obtained by using an edge of the image.
  • FIG. 28 is a diagram for explaining a method of detecting an area where a base image cannot be obtained by using an edge of the image.
  • FIG. 29 is a diagram for explaining a method for detecting an area where a base image cannot be obtained by using an edge of the image.
  • FIG. 30 is a diagram for explaining a change in area division.
  • FIG. 31 is a diagram for explaining the change of area division.
  • FIG. 32 is a configuration diagram of an image processing apparatus according to a second embodiment of the present invention.
  • FIG. 33 is a block diagram of an image processing apparatus according to a third embodiment of the present invention.
  • FIG. 34 is a diagram for explaining processing when there are a plurality of light sources.
  • FIG. 35 is a diagram showing face authentication using a mobile terminal.
  • FIG. 36 is a diagram showing an image taken in the situation of FIG. 35 and region division.
  • FIG. 37 is a diagram schematically showing an image when mobile phone 201 is photographed in the home.
  • FIG. 38 is a pattern image for detecting the mobile phone in FIG. 37.
  • FIG. 39 is a diagram showing a situation where an object is photographed by a stereo camera.
  • FIG. 40 is an image photographed in FIG. 39.
  • FIG. 41 is a conceptual diagram showing the relationship between the light source, the camera, and the normal direction of the object.
  • FIG. 42 is a conceptual diagram showing diffuse reflection, specular reflection, and shadow, which are optical phenomena.
  • FIG. 43 is a graph showing criteria of region division based on optical characteristics.
  • FIG. 44 is a diagram showing a result of image processing using a third conventional example in a parallel light source.
  • FIG. 45 is a diagram showing a result of image processing using a third conventional example with a point light source.
  • FIG. 46 is a conceptual diagram for explaining that the base image changes depending on the segmentation cutout position.
  • FIG. 47 is a conceptual diagram for expressing a qualitative ternary expression using 8 neighborhoods.
  • FIG. 48 is a conceptual diagram for explaining a process of creating a base image while changing the segmentation cutout position.
  • FIG. 49 is a diagram showing a shooting situation of an object having protrusions.
  • FIG. 50 is a diagram showing the image in FIG. 49 and the result of region segmentation based on its optical characteristics.
  • FIG. 51 is a diagram showing an input image when a base image is created while changing the segmentation cutout position.
  • FIG. 52 is a diagram showing 16 base images created while changing the segmentation cutout positions in 16 ways.
  • FIG. 53 is a diagram showing an accurate base image created by combining the base images of FIG. 52.
  • the second step of dividing, the third step of generating a base image from each input image for each divided small region, and the generation of a base image in the neighborhood small region for a small region for which a base image could not be generated A fourth step of generating a base image by interpolation processing using the calculated value, and generating a linearized image of the object in a given light source environment using each of the generated base images I will provide a.
  • an image processing method comprising the step of performing image processing using the generated linearized image.
  • the image processing is performed based on the optical characteristics of the target object! / At least one of area separation, target identification, target three-dimensional position 'shape estimation
  • An image processing method according to a second aspect including processing is provided.
  • a fourth aspect of the present invention there is provided the image processing method according to the first aspect, wherein the object is photographed while changing a light source environment, and the plurality of images are acquired.
  • a fifth aspect of the present invention there is provided the image processing method according to the fourth aspect, wherein the light source is controlled so that the positions of shadows generated on the object are different in the plurality of images.
  • the image processing method according to the first aspect, wherein the object is photographed when a change in a light source environment is detected, and the plurality of images are acquired.
  • a seventh aspect of the present invention there is provided the image processing method according to the sixth aspect, wherein when the position of a shadow generated on the object changes, it is detected that the light source environment has changed.
  • the third step includes selecting N (N is a positive integer: N + K) base source images from the K input images, and the remaining (KN ) For each of the input images, a step of determining a linearization coefficient set using the N base element images, linearizing the N base element images using the determined linearization coefficient group, and N
  • N is a positive integer: N + K
  • the linearization coefficient set determination step a predetermined number of points are randomly selected from the input image, and the linearization coefficient is determined from the predetermined number of points.
  • a candidate calculation process for obtaining an evaluation index value indicating the certainty of the set is obtained repeatedly, and a linearization coefficient pair candidate with the most probable evaluation index value is linearized for the input image.
  • the candidate calculation processing includes a step of determining whether or not the normal directions of the predetermined number of points are different from each other, and the predetermined calculation selected at each repetition.
  • the image processing method according to the tenth aspect is such that when it is determined that the normal directions are the same for each of the number points, it is determined that the base image cannot be generated in the small region.
  • the image processing method which takes into account the value of the evaluation index related to the linearization coefficient group of each neighboring small region at the time of interpolation.
  • the third step generates a linear image having a light source environment in common with at least one of the input images using the N base images.
  • the second step is based on an upper limit of light spread that can be regarded as a parallel light source, a distance between the light source and the object, a distance between the camera and the object, and a camera parameter. ! /
  • the first aspect of the image processing method for determining the size of the small area is provided.
  • the cutout position of the small region is changed for the small region where the base image cannot be generated, and the third step is performed again.
  • a first aspect of the image processing method to be executed is provided.
  • the plurality of input images are in an environment where a plurality of light sources exist.
  • an image processing method according to the first aspect that is executed in a robot that performs work at home.
  • the image processing method according to the second aspect wherein the image processing is a process of estimating a position of a protrusion or a depression of the object.
  • an image input unit that acquires a plurality of input images obtained by photographing the same object, and a plurality of small areas that are shared by the input images acquired by the image input unit.
  • An image region dividing unit that divides the image into regions
  • a small region synthesized image generating unit that generates a base image from each input image for each small region divided by the image region dividing unit, and a base in the small region synthesized image generating unit.
  • An image interpolation unit that generates a base image by interpolation processing using a calculation value related to base image generation in a neighboring small region for a small region for which an image could not be generated.
  • an image processing apparatus for generating a linearized image of the object in a given light source environment.
  • a program for causing a computer to execute image processing a step of dividing a plurality of input images obtained by photographing the same object into a plurality of small regions in common, For a region, a step of generating a base image from each input image, and a small region where the base image could not be generated, and an interpolation process using a calculation value related to the generation of the base image in the nearby small region
  • An image processing program for causing a computer to execute an image generation step and a step of generating a linearized image of the object in a given light source environment using each generated base image is provided.
  • FIG. 1 is a block diagram showing the configuration of an image processing apparatus that executes the image processing method according to the first embodiment of the present invention.
  • the image processing apparatus includes a light source control unit 101 that controls the position of the light source, an image input unit 102 that inputs a plurality of images in a state where the light source environment is changed by the light source control unit 101, and an image input unit 102. And a linearized image generation unit 103 that generates a linearized image using a plurality of images having different light source environments.
  • the linearized image generation unit 103 includes an image holding unit 104 that holds a plurality of input images, an image region dividing unit 105 that divides an input image held by the image holding unit 104 into small regions, For each divided small region, a small region composite image generation unit 106 that generates a base image as a composite image from a plurality of images, and a small region for which a composite image could not be generated are interpolated to perform a base image. And an image interpolation unit 107 for generating. Then, the linear shape image generation unit 103 generates a linearized image that is a composite image in an ideal state in which specular reflection does not occur, using the generated base image of each small region.
  • the image processing unit 108 further performs image processing such as region segmentation based on optical characteristics, identification of an object, and estimation of a three-dimensional position of the object using the generated linearized image. It may be.
  • the robot 10 includes a camera 11 that performs imaging, and a light source 13 that is installed in a movable unit 12 such as an arm.
  • the light source 13 may be a point light source or a surface light source such as a liquid crystal display.
  • the light source control unit 101 changes the position and orientation of the light source 13 by controlling the movement of the movable unit 12 of the robot 10, thereby changing the light source environment.
  • the image input unit 102 captures a plurality of images of a certain object using the camera 11 while the light source control unit 101 changes the light source environment. At this time, for example, the light source 13 may be controlled so that the position of the shadow generated on the object is different.
  • the image holding unit 104 stores the images input by the image input unit 102 one after another, thereby storing a plurality of images having different light source environments and preparing for the following processing. In addition to the input image, the image holding unit 104 includes a linearized image generation unit 103. Even if the base image or linear image generated by is stored, it is not a problem.
  • the image area dividing unit 105 is held by the image holding unit 104 and divides the input image into small areas as units for generating a base image. This small area division is performed in order to make it possible to generate a linearized image assuming that the light source environment is a parallel light source.
  • a parallel light source is a light source in which the spread ⁇ of light incident on an object within the imaging range is limited to a very narrow range (0 0).
  • a point light source is a light source that spreads and reaches. For this reason, even if it is the same light source, it can be regarded as a parallel light source or a point light source depending on the distance between the light source and the object and the imaging range.
  • the light source 22 can be regarded as a parallel light source.
  • the incident angle ⁇ becomes large (0 ⁇ 0). For this reason, the light source 22 can be regarded as a parallel light source.
  • the input image is divided into small areas so that the light source environment of the input image can be regarded as a parallel light source, and image processing is performed for each of the divided small areas.
  • V is placed on a table 24, and a ball 25 is irradiated by a light source 22 to form a table.
  • the upper force of 24 is also taken by the camera 23. At this time, an image as shown in FIG. 4 (b) is obtained. In this state, since the light spread ⁇ is sufficiently wide, the light source 22 is regarded as a point light source.
  • the image is divided into small areas, and processing is performed for each small area.
  • FIG. 5 (b) shows the visual field range An corresponding to the small region n shown in FIG. 5 (a). From Fig. 5 (b), by dividing the image into small regions, the light spread ⁇ is sufficiently smaller than ⁇ . I understand. In other words, if the image is divided so that the light spread ⁇ ⁇ is sufficiently small so that a parallel light source can be assumed, image processing assuming a parallel light source can be performed even with a point light source.
  • the object is a flat surface that is an object whose shape changes smoothly, such as a protrusion or a depression!
  • the distance from the light source 22 to the object plane is D and the length of one side of the object plane in the visual field range An is Ls, the light spread satisfies the following equation.
  • the camera parameters and the distance between the camera and the object need only be known.
  • the setting of the small region may be performed based on the distance D between the light source and the subject. In other words, if the distance D is long, set the small area relatively wide, and if the distance D is short, set the small area relatively narrow!
  • the illuminance of the light source irradiated to each point of the object is all equal.
  • this assumption does not hold because light is attenuated.
  • the light attenuation is the same, so the illuminance of the light source is equal. Therefore, it is desirable to set a small area for each area where the distance from the light source is almost equal.
  • Camera parameters include camera internal parameters such as focal length (distance between projection center and imaging plane), lens distortion coefficient, image distortion center, screen aspect ratio, and pixel size, and camera focus position and orientation. Including camera external parameters such as (orientation). It is necessary to estimate these parameters before image processing.
  • the camera internal parameters are, for example, “ Roger Y. Tsai, “An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision”, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 364—374, 1986 ” It ’s okay.
  • the camera external parameters can be obtained by using an existing method disclosed in, for example, JP-A-5-38688.
  • the distance between the camera and the object can be easily obtained.
  • the robot position is recognized by providing an image pattern to the robot and performing pattern matching processing on the image of the camera installed on the ceiling.
  • the position of the object is recognized by a method such as background subtraction. From the results of these processes, the distance between the camera installed on the robot and the object can be easily detected.
  • Th may be set to about 5.
  • Th may be set to about 5.
  • This value is not limited to this.
  • the small region composite image generation unit 106 generates a composite image for each small region divided by the image region division unit 105 based on a plurality of input images held in the image holding unit 104. It is assumed that K (K is a positive integer) input images are held in the image holding unit 104, and the processing of each small region is also performed using the number of input images.
  • a base image and a linearized image are created using RANSAC.
  • (1) calculation of linearization coefficient set, (2) creation of base image, and (3) linearity of input image are executed.
  • a linearized image corresponding to the input image can be created.
  • FIG. 6 is a flowchart showing the calculation processing of the linearization coefficient group.
  • 4 is assigned to counter k (step S11)
  • 1 is assigned to counter ite
  • 0 is assigned to Num—mux (step S12).
  • k is a counter that represents an input image to be processed
  • ite is a counter that represents the number of times that repeated operations have been performed. Num-mux will be described later.
  • the number of iterations of the process is predetermined as ite-th.
  • step S13 three points are randomly selected from the input image k (step S13).
  • the three selected points be (X, y), (x, y), (x, y).
  • a linearization coefficient pair candidate tmp-c is calculated (step S14). This is obtained by calculating the following equation.
  • Step S16 Classification based on optical characteristics using k L (Equation 4). Then, a diffuse reflection area on the image is obtained, and the number of pixels Num—d belonging to this diffuse reflection area is calculated (step S16). Steps S13 to S16 correspond to candidate calculation processing.
  • the more suitable the created linearization coefficient pair candidate tmp-c the larger the number of pixels Num-d in the diffuse reflection area. It is considered to be.
  • the linearization coefficient pair tmp-c having the largest value is detected as the optimal linearization coefficient group. Therefore, among the iterations so far, the largest pixel number Num-d is set as Num-max, and the linearization coefficient set candidate tmp_c at that time is held as c.
  • step S16 the number of pixels Num-d calculated in step S16 is compared with the maximum value Nu m-max so far (S17). If Num-d is larger (Yes in S17), Num-max Is replaced with Num—d, and c is further replaced with tmp—c (step S18), and the next random sampling is prepared (step S19). On the other hand, when Num-d is smaller (No in S17), Num-d, c is not replaced and the process proceeds to Step S19.
  • step S 19 it is checked whether random sampling has been performed a predetermined number of times (ite ⁇ th times). If random sampling has not been performed a predetermined number of times (No in step S19), the counter ite is incremented by 1 (step S20), and random sampling is performed again (step S13). On the other hand, when random sampling has already been performed a predetermined number of times (Yes in step S19), c is selected as the linearization coefficient set c of the input image k (scaling).
  • Step S21 the processing of the input image k is terminated.
  • step S23 the counter k is incremented by 1 (step S23), and the next input image is processed (step S23).
  • the base image it is preferable to select an image having a small amount of specular reflection or shadow area as the base original image here. For this purpose, for example, it is desirable to use an input image with many pixels that are neither extremely high nor low as the base image.
  • the base image it is preferable to select three input images having greatly different light source environments. For this purpose, for example, it is only necessary to select three input images whose pixel values at several points on the image are greatly different from each other. For example, the light source environment may be estimated, and three input images with different light source positions and intensities may be selected.
  • a method for estimating the light source environment a method using a specular sphere and a method of photographing a light source state with a wide-angle camera facing the ceiling are widely known. What is reflected on the surface of a sphere whose surface is a mirror surface is information on the light source incident on the position where the sphere is placed. Therefore, such a specular sphere is photographed with a camera and the image is analyzed to estimate the position of the light source and the distribution of illumination intensity (for example, “Takahiro Tanaka, Shoji Tominaga” measurement of the light source spectral distribution in all directions) And its application “, Image recognition” understanding symposium (MIRU2002), vol. II, pp. 99-100, 2000 ").
  • illumination intensity for example, “Takahiro Tanaka, Shoji Tominaga” measurement of the light source spectral distribution in all directions
  • RANSAC is used to process one pixel at a time.
  • i B [i B i B i B ] indicates the pixel value of the base image for the pixel m.
  • FIG. 7 is a flowchart showing a base image generation process.
  • the linear Unlike the coefficient set calculation process the process is performed for each pixel.
  • the base pixel value is determined by the RANSAC framework for each pixel.
  • the pixel m to be processed is set (step S31).
  • 0 is substituted for 1 Num-max for the counter ite for initialization (step S32).
  • the counter ite indicates the number of repeated operations, and the number of process iterations is predetermined as ite-th. Num-max will be described later.
  • three (K-3) input image forces for which linearization coefficient groups have already been obtained are selected at random (step S33).
  • the selected three input images are k, k and k. Substituting the three pixel values selected in this way into (Equation 9),
  • TMP-a i B is referred to as a base pixel value candidate.
  • the base pixel value candidate tmp_i B is calculated (step S34). That is,
  • the base pixel value candidate having the largest value may be detected as the optimum base pixel value using the number of pixels Num ⁇ d in the diffuse reflection region as an evaluation index. Therefore, among the iterations so far, the largest pixel value Num-d is set as Num-max, and the base pixel value candidate tmp-i B at that time is held as i.
  • step S36 the number of pixels Num—d calculated in step S36 is compared with the maximum value Nu m—max so far (S37). If Num—d is larger (Yes in S37), Num—max Is replaced with Num_d, and i is replaced with tmp_i B (Step S38)
  • step S39 The next random sampling is prepared (step S39). On the other hand, Num d is smaller If not (No in S37), Num-d, i is not replaced and the process proceeds to step S39.
  • step S39 it is checked whether random sampling has been performed a predetermined number of times (ite-th times). If random sampling has not been performed a predetermined number of times (No in step S39), the counter ite is incremented by 1 (step S40), and random sampling is performed again (step S43). On the other hand, if random sampling has already been performed a predetermined number of times (Yes in step S39), i is selected as the base pixel value i B of pixel m (step S39).
  • step S42 if processing is still performed! /, Na! /, There is a pixel (No in step S42), the counter m is incremented by 1 (step S43), and processing is performed for the next pixel (step S43). S32). On the other hand, if the processing has been completed for all pixels (Yes in step S42), the processing ends.
  • the base image is generated by performing the above processing for all the pixels of all the divided images.
  • a linearized image I L of the input image k is created by linearization coefficient set c of each input image and line k 1 2 3 form combination of the base images IB, IB and IB.
  • the linear image is an image observed in an ideal state where no specular reflection occurs. Therefore, by performing image processing using this linear image, image processing that is not affected by specular reflection or shadow becomes possible.
  • a linearized image of the image held in the image holding unit 104 can be created.
  • FIG. 8 shows the result of applying the third conventional example to each small region divided as shown in FIG. 5 (a).
  • a linearized image cannot be generated in the planar regions 31, 32, that is, there is only one plane in the image, and the region where the normal direction is the same for most pixels.
  • a solution cannot be obtained even in a region that does not include the diffuse reflection region and has only the shadow specular reflection.
  • the base image and the linearized image may not be generated for all regions, and only a part of the image can be generated, and the remaining regions can be generated. May not be generated.
  • the image interpolating unit 107 performs the base processing by the interpolation process for the small region in which the small region synthesized image generating unit 106 cannot generate the base image or the linearized image. Generate images and linearized images. First, the following assumptions are made.
  • the linearization coefficient group has a correlation with the linearization coefficient group in the neighboring small region.
  • I is the linearized image in the small region (X, y) (region of interest 41 in Fig. 9) of the input image k.
  • Images I, I, and I are images of small regions (X, y) in three base images, c
  • T [c 1 c 2 c, 3 ] T is the linearizer k (xy) k (xy) k (xy) k (xy) in the small region (x, y) of the input image k
  • Equation 13 states that “a linearization coefficient set for a certain small region (X, y) can be generated by using the linearization coefficient set for its eight neighboring regions (region 42 in FIG. 9)”. Is shown.
  • a linearization coefficient set as a calculation value related to base image generation is used, and a linearization coefficient set in the neighborhood small region is used.
  • a base image or a linearized image is generated by the interpolation processing used. The method will be described below.
  • FIG. 10 is a flowchart showing a method of selecting the optimum linearization coefficient group in the neighboring area as the linearization coefficient group in the attention area.
  • 0 is substituted to initialize Rate—max (step S51).
  • step S52 one region near the region of interest is selected (step S52).
  • step S53 Check whether or not the linearization coefficient set is found for the selected neighborhood region X (step S53). If not (No in S53), check other neighborhood regions. Perform (step S59). If all of the neighborhood areas have been checked (Yes in S59), the process ends.
  • a linearization coefficient set for the selected neighborhood region X is obtained (Yes in S53)
  • a linearized image of the neighborhood region X is generated using the linearization coefficient set and (Equation 3).
  • Step S54 region division based on optical characteristics is performed on the image of the neighboring region X (step S55).
  • Xd, Xs, Xc, Xa be the number of pixels in each of the diffuse reflection, specular reflection, cast shadow, and attached shadow regions obtained here, and Xall be the total number of pixels in the neighboring region.
  • the diffuse reflection pixel rate Rate-X defined by the following equation is calculated (step S56).
  • Rate_x Xd / (Xall- (Xc + Xa)) (Equation 14)
  • the diffuse reflection pixel rate Rate—x defined in (Equation 14) is the ratio of the number of pixels excluding the number of pixels determined to be a shadow from the total number of pixels to the number of pixels determined to be a diffuse reflection region. Represents. As described above, in the input image, the diffuse reflection area is more dominant than the specular reflection area, so the value of the diffuse reflection pixel rate Rate—X increases as the obtained linearization coefficient pair becomes more positive. Become. That is, the diffuse reflection pixel rate Rate-X can be used as an evaluation index indicating the likelihood of the linearization coefficient group.
  • Rate—X and Rate—max are compared (step S57). If Rate—x is larger (Yes in S57), the reliability of the linearization coefficient pair in this neighborhood region X is It is considered high enough. Accordingly, Rate—X is substituted for Rate—max, and the linearization coefficient group in this neighboring region x is held as a linearization coefficient group candidate (step S58). On the other hand, when it is smaller than Rate_x force 3 ⁇ 4ate —max (No in S57), it is determined that the reliability of the linearization coefficient pair in this neighboring region x is already maintained and lower than the linearization coefficient pair candidate. Then, the linearization coefficient group is not regarded as a linearization coefficient group candidate, and other neighboring areas are checked (step S59).
  • the most probable linear coefficient group among the eight neighboring areas can be obtained as a linearization coefficient group candidate.
  • V is the most reliable in the neighboring area. They are considered to be a linearization coefficient group.
  • the linearization coefficient composition obtained by such interpolation processing By using complements, it is possible to create a linearized image and perform optical region segmentation even for powerful regions for which no solution can be obtained in base image generation.
  • the force using the 8-neighbor region is not limited to this as the range in which the linearization coefficient group is most reliably selected for the region of interest.
  • the 4-neighbor region 43 may be used.
  • the processing time can be shortened by setting the neighborhood region narrow.
  • the neighborhood region may be set wider, such as the 12 neighborhood region 44 shown in FIG. 11 (b) and the 24 neighborhood region 45 shown in FIG. 11 (c). Since the choices increase by setting the neighborhood region wide, the linear coefficient set of the region of interest can be selected with high accuracy.
  • the evaluation index for selecting the linearization coefficient group is not limited to this. For example, simply using the number Xd of pixels in the diffuse reflection area as an evaluation index does not matter. In addition, using shadow areas and using X d + Xc + Xd as an evaluation index is also a good idea.
  • the evaluation index value is calculated only in the vicinity area, but instead, the evaluation area for calculating the evaluation index value may be determined separately from the vicinity area. It doesn't matter. For example, in steps S54 to S56 in the flow of FIG. 10 described above, a linearized image is generated for the evaluation region that is determined separately from the neighboring region X, the region is divided based on the optical characteristics, and the diffuse reflection pixel is used as an evaluation index. Rate Rate— Calculate X ⁇
  • This method is effective when the image features are completely different for each divided region.
  • the region (X–1, y) is often a shadow region, while 2Z3 is a shadow region, while the region (x + 1, y) often does not contain any shadow.
  • this evaluation region is based on the small region divided to obtain the linearization coefficient pair.
  • the evaluation areas 46 and 47 in Fig. 9 may be set.
  • the number of pixels in the small area is all (PxQ) pixels
  • X is the linearized pixel value of the pixel (p, q) in the small area (X, y) of the input image k.
  • the value of the linearization coefficient set be a function g (m, n) of the position (m, n) of the region, and consider approximating this curved surface by the following quadratic equation.
  • the position (m, n) indicates the center position of the region.
  • Equation 15 it is only necessary to obtain 6 or more linearization coefficient pairs. Therefore, out of the neighboring regions of the region of interest, select the 6 regions for which the linearization coefficient pair is found, and substitute the linearization coefficient group and position (m, n) to solve (Equation 15). be able to.
  • Equation 15 may be solved independently for each element cc 2 , c 3 of the linearization coefficient set c.
  • Equation 16 where S is the region where the linearization coefficient set is found near the region of interest (X, y). In other words, (Equation 16) represents the average linear coefficient set in the neighborhood area weighted by the diffuse reflection pixel rate.
  • the weight is not limited to the diffuse reflection pixel ratio, and the above-mentioned number of pixels in the diffuse reflection region is used, or the weighting is not performed and the average value of the linearization coefficient set in a simple neighboring region is used. Even if you do not help.
  • the processing area is divided into a plurality of images shot while controlling the point light source, and further interpolation processing is performed, so that the influence of specular reflection and shadow is corrected even in the point light source.
  • a linear image can be created.
  • the image processing unit 108 then performs linearization. Image processing is performed using the linearized image generated by the image generation unit 103. Since the linearized image is an ideal image from which specular reflections and shadows have been removed, image processing that is not affected by specular reflections or shadows can be realized by using linear images. Examples of the image processing include, for example, three-dimensional position ′ shape estimation of an object, object identification, and / or area division based on optical characteristics.
  • FIG. 13 is a linear image corresponding to the stereo image of FIG. From Fig. 13, it can be seen that the specular reflection also removes the image power. Therefore, the accuracy of stereo matching is improved, and the accuracy of 3D position 'shape estimation is improved. Also in the object identification processing, accuracy degradation due to specular reflection or the like can be suppressed by using a linear image.
  • region separation based on optical characteristics such as diffuse reflection, specular reflection, cast shadow, and attached shadow can be performed on the input image using the linearized image and (Equation 4).
  • FIG. 14 (a) is a diagram showing a linearized image generated by the method of the present embodiment from the input image of FIG. 45 (a).
  • FIG. 14 (b) is a diagram showing the specular reflection component separated from the input image of FIG. 45 (a) using the linear image of FIG. 14 (a) and (Equation 4). Comparing Figs. 14 (a) and 14 (b) to Figs. 45 (b) and 45 (c) according to the third conventional example, it can be seen that the generation accuracy of the linearized image is improved particularly in the plane region. Further, the separation accuracy between the specular reflection area and the diffuse reflection area is 70% in the third conventional example, but is greatly improved to 91% in the present embodiment. The separation accuracy is calculated by the following equation.
  • the regions are divided so that there is no overlap between the small regions.
  • the regions are divided so that the small regions overlap each other. It doesn't matter.
  • the shape of the small area need not be rectangular. For example, as shown in FIG. It does not matter.
  • Fig. 17 shows the state of this process.
  • the small area is set to be circular.
  • the evaluation area is set as a circular area 51 having a radius r, and the separation accuracy E (r) is obtained.
  • the evaluation area is changed to a circular area 52 having a radius r ′, and the separation accuracy E (r ′) is obtained again.
  • the separation accuracy can be expressed as a function E (x, y, r) of the center position (X, y) and radius r of the evaluation circular region.
  • 11 is a diagram schematically showing the separation accuracy EE of C.
  • the light source control unit 101 may change the light source environment by switching the light source of the shooting environment, for example, lighting in the home. For example, an echo net using a power line can be used to switch the light source.
  • Incandescent lamps and fluorescent lamps that are normally used in the home were not able to be used as light sources in the third conventional example because the assumption of parallel light did not hold.
  • the change of the light source environment by the light source control unit 101 may be performed periodically at night when the resident is absent, at work, or at a time zone after commuting.
  • FIG. 19 is an example of a linearized image generated by the present embodiment. As shown in FIG. 19, according to the image processing method of the present embodiment, a linearized image that is an image in an ideal state where no specular reflection occurs is generated.
  • the image input unit 102 is not necessarily required to perform imaging.
  • images stored in a memory or hard disk may be imported through a network or interface.
  • the viewpoint position must be fixed, but by using the arbitrary viewpoint composition technique, even when the viewpoint moves, camera position information, motion information, etc. are used. You can also convert images taken from the same viewpoint.
  • the image input unit 102 uses this arbitrary viewpoint synthesis technique to equalize the viewpoint position and create a composite image.
  • the image interpolation unit 107 may include a control unit that switches the following three processes.
  • the determinant I A depends on the point that the point light source approximates to parallel light, the influence of quantization error, and noise.
  • a a method using a can be considered.
  • matrix A is degenerate
  • vectors a, a, and a are arranged on a plane or straight line, as shown in Figs. 20 (a) and 20 (b). Therefore, the angle component formed by these three vectors a, a, and a may be used as an index for matrix degeneration. That is, Find the angles between a and a, a and a, and a and a, and find the minimum of those angles.
  • Equation 19 has the advantage that the threshold is easier to compare than (Equation 18) because the unit of the index is an angle.
  • Fig. 20 (a) the three vectors are on the same plane. If it exists! /, There is a problem that detection fails. For this reason, it is preferred to use with determinants.
  • Equation 11 The determinant IAI is the plane spanned by three vectors a, a, and a, as shown in Fig. 20 (c).
  • condition number of the matrix is an index for examining the degeneracy of the matrix. line; queue; procession; parade
  • condition number of A is an indicator of whether matrix A is weU-conditioned or iU-conditioned, and is expressed as follows.
  • Matrix A can be expanded as
  • Matrix triangulation is achieved by using techniques such as Gram-Schmidt orthogonalization.
  • Gram-Schmidt orthogonalization When Gram-Schmidt orthogonalization is used, (Equation 21) is obtained as follows.
  • V 1, V 2, and V are orthonormal bases
  • ⁇ X is the length of the foot lowered to a force a
  • ⁇ X is the length of the foot with the a force lowered to the plane where a and a stretch
  • Figure 21 illustrates this relationship. From this, it can be determined that the three normal directions are equal when the following conditional expression is satisfied.
  • a plane 71 and a sphere 73 as an object are imaged by a camera 71.
  • the normal directions of all points in the image are all equal, and when the sphere 73 is imaged as shown in FIG.
  • the normal direction of each point is different.
  • the camera 71 and the object 73 are installed in the same way as the actual environment.
  • the camera 71 is placed 50 cm away from the plane 72 and the radius of the sphere 73 is 10 cm.
  • the camera 71 has a horizontal angle of view of 56 ° and a pixel count of 640x480, which is the same as that installed on an actual robot.
  • FIG. 23 is a graph showing the frequency of determinants normalized by the length of three vectors, ie, the absolute values of (Equation 20) are removed.
  • FIG. 24 is a graph showing the frequency of condition numbers using the ratio between the maximum eigenvalue and the minimum eigenvalue of the matrix and the cumulative value.
  • FIG. 25 is a graph showing the frequency of the minimum value of the diagonal component and the cumulative value when the matrix is triangulated, as shown in (Equation 22).
  • step S11 As shown in FIG. 26, first, as initialization processing, 4 is assigned to counter k (step S11), 1 is assigned to counter ite, 0 is assigned to Num max, and initial value c is assigned to c (step S61). Early here
  • the value C should be set to a value that does not exist as a linearization coefficient pair. For example, C 0 0
  • step S13 three points are randomly selected from the image of the input image k (step S13).
  • the three selected points be (X, y), (x, y), (x, y). Using these three points, I mentioned above.
  • step S62 It is determined whether the normal directions of the three points are equal (step S62).
  • the normal direction of 3 points is If they are different (Yes in S62), create a linearized image using the three selected points, and evaluate the linearization coefficient pair using the number of diffuse reflection area pixels Num-d as an evaluation index. (S14—S18).
  • the process proceeds to step S19 without creating a linear image.
  • step S63 After random sampling is performed a predetermined number of times (ite-th) in this way (Yes in S19), it is checked whether or not c is a value other than the initial value c (step S63). If initial value c is a value other than the initial value c (step S63). If initial value c is a value other than the initial value c (step S63). If initial value c is a value other than the initial value c (step S63). If initial value c is a value other than the initial value c.
  • step S63 If it remains 0 0 (Yes in S63), it is determined that no solution can be obtained for this small area of the input image k, and the process is terminated (step S64). Then, another input image is processed (S22, S23). The solution cannot be found if the normal directions in this subregion are almost equal, or if shadows and specular reflection are dominant in this subregion. The processing for areas that are determined not to have a solution will be described later.
  • the input image is processed (S22, S23).
  • the image interpolation unit 107 may perform the interpolation process as described above.
  • the size of the small region may be increased again by the image region dividing unit 105 and the processing may be performed again. This is because the larger the processing area, the lower the possibility that the three normal directions will be equal.
  • the parallel light source assumption is not valid. For this reason, it is desirable to enlarge the processing area within the range where the parallel light source assumption holds. For example, based on the distance between the light source and the object,
  • the size of the processing area of t ⁇ ⁇ size should be set first, and if the solution cannot be found in that small area, the area should be enlarged. Conversely, a processing area of an appropriate size is set, and when the solution is obtained, the size is reduced, and the area of the minimum size for which the solution is obtained is set as the optimum processing area. Don't hesitate. In this case, the distance between the light source and the object may be unknown! /. [0171] (1) When it is determined that a solution cannot be obtained during the linearization coefficient pair calculation process, the base element images I 1, 1, 1 are changed to different input images I 1, 1, 1 It may be. At this time, as in the case of selecting the base original image, it is desirable to select a new basal image having a small specular reflection or shadow area.
  • Equation 24 Note that the matrix c is already known. Also, as mentioned above, paying attention to the fact that there is a correlation between the shaping coefficient groups, the following assumptions are introduced.
  • the optimal neighborhood region (m n,) may be selected by nearest neighbor, quadratic interpolation, weighting processing, or the like.
  • FIG. 27 is an example of a base image generated by the method described above.
  • area 81 is the area where the solution is found and an accurate base image is generated
  • area 82 is the area where the exact solution is found. In other words, this is an area where an accurate base image cannot be obtained.
  • edges 1), 2) and 3) in the input image, but there are only edges 1) and 2) in the base image and linearized image. That is, if the base image and linearized image are found correctly, the following relational expression is satisfied.
  • Edge (l) indicates the result of extracting the edge of the image I force.
  • FIG. 28 (a) is an enlarged view of a region 81 in FIG. 27, and (b) is a diagram showing a region corresponding to the region 81 in each input image. As shown in Fig. 28, region 81 satisfies (Equation 33).
  • FIG. 29 (a) is an enlarged view of the region 82 in FIG. 27, and (b) is a diagram showing a region corresponding to the region 82 in each input image.
  • the edge of the region 83 is not included in any input image (FIG. 29 (b)), and the region 82 does not satisfy (Equation 33). This is because no solution was found in region 82.
  • (Expression 33) can be used as a discriminant for determining whether or not a solution can be obtained. In other words, if the region satisfying this (Equation 33) does not satisfy the force for which an accurate base image is obtained, it can be determined that the region for which the accurate base image is obtained is ⁇ . !
  • FIG. 30 is an image of a state in which four spheres are placed. At this time, if region division is performed as shown by a solid line, as shown in FIG. 31 (a), there is a plane region 84 in which only one plane exists in the region and a linear image cannot be generated. On the other hand, when FIG. 30 is divided into regions as shown in FIG. 31 (b), since each region has a plurality of normal directions, a linearized image can be generated in all regions. Therefore, when there is a small area where a solution cannot be obtained, change the position where the area is divided.
  • the setting of the small area may be performed so that the areas overlap each other. Even if the size of the region is not uniform and there is an overlap between the regions, the linearization coefficient set can be interpolated by the interpolation processing as described above. This can be realized, for example, by performing weighted interpolation using the reliability of the distance between the center of gravity of the attention area and the neighboring area, the diffuse reflection pixel ratio of the neighboring area, and the like.
  • an optimum base image may be created by creating a plurality of base images while changing the method of dividing the small region and combining the created base images. This process will be described in detail.
  • Fig. 46 (a) shows an image of two spherical objects 461 and 462 placed on a plane.
  • K images are taken by changing the light source position, and a linearized image is created using these images as input images.
  • FIGS. 46 (b) and 46 (c) it is considered that the cutout position of the screen area division is changed and the processing is performed separately.
  • a small area obtained by dividing an area divided by a straight line is shown.
  • region 467 When region division is performed as shown in FIG. 46 (b), the region 467 is included in the cutout region 469. As is clear from FIG. 46 (b), it is considered that the base image is obtained correctly in the cutout region 469 because the spherical object 462 is dominant. On the other hand, when region division is performed as shown in FIG. 46 (c), the region 467 is included in the cut-out region 470. As is clear from FIG. 46 (c), the cutout region 470 has a dominant plane, so it is considered that the base image cannot be obtained correctly as described above. On the other hand, consider region 468. When region division is performed as shown in FIG. 46 (b), the region 467 is included in the cutout region 471.
  • the base image is created multiple times while changing the cutout position, and the correct base image is combined by combining only the areas for which the base image is correctly obtained from the plurality of base images thus obtained. Can be created.
  • a qualitative ternary expression for example, “Osamu Yamaro, Kazuhiro Fukui“ Image matching based on qualitative ternary expression ”, IEICE Technical Report PRMU2002-34, pp. 23-30, 2002 ”).
  • Qualitative ternary expression expresses the magnitude relationship and equivalence relation of luminance values with neighboring pixels, and is known to be a feature that is strong against light source fluctuations.
  • the qualitative ternary representation in the vicinity of 8 as shown in Fig. 47 is expressed as follows.
  • a process of creating a base image is performed a plurality of times while changing the segmentation cutout position S to create a plurality of base images.
  • the base image obtained by the cut-out Lf standing S is [IBIBIB].
  • the plurality of base images obtained in this way are again divided into small regions as shown in Fig. 48, and a qualitative ternary expression is obtained for each region. In this figure, a small area obtained by dividing an area divided by a straight line is shown. The same applies to the corresponding area of K input images I and I.
  • the qualitative ternary representation uses 8 neighborhoods, but this method is of course not limited to this.
  • a qualitative ternary expression only in the horizontal and vertical directions may be used.
  • FIGS. 51 to 53 show how a base image is generated by this processing.
  • Fig. 52 shows the base images created while changing the cutout position S in 16 ways with respect to the input image of Fig. 51.
  • the solid line indicates the divided area.
  • Fig. 53 shows the base images synthesized from the 16 base images thus obtained using the qualitative ternary representation.
  • FIG. 32 is a diagram showing the configuration of an image processing apparatus that executes the image processing method according to the second embodiment of the present invention.
  • the same components as those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted here.
  • a light source environment change detection unit 109 that detects a change in the light source environment in the imaging environment is provided instead of the light source control unit 101.
  • the image input unit 102 captures an image, thereby acquiring a plurality of images.
  • a plurality of images with different light source environments are acquired by performing imaging when the light source environment changes without controlling the light source itself.
  • the acquired image is held in the image holding unit 104 and processed by the same method as in the first embodiment.
  • the light source environment change detection unit 109 may have, for example, an illuminometer, and may determine that the light source environment has changed when a measurement value by the illuminometer changes. Only one illuminometer can be attached to a part of the shooting area, or multiple illuminometers can be used.
  • a configuration may be used in which a luminance value, an RGB value, or the like on the screen is measured, and when the measured value changes, it is determined that the light source environment has changed. At this time, it does not matter if you set the measurement target area in one or more parts on the screen and examine only the change in that area. In addition, it is desirable to set such a measurement target region in a white region so that the change can be easily divided.
  • an object to be measured such as barium sulfate or Spectralon that does not cause specular reflection is generated in the imaging area, and the brightness value in that area detects changes in RGB values. Even if you do it.
  • the light source environment change detection unit 109 may not be configured to determine that the optical environment has changed every predetermined time. This configuration is particularly effective, for example, in an environment where window power sunlight enters.
  • the state of the light source may be actually observed to detect the change.
  • the observation of the light source state can be realized by imaging the light source state using a specular sphere or by photographing the light source with the wide-angle camera facing the ceiling.
  • the position of the pixel having the highest luminance in the imaging region may be recognized, and when the position changes, it may be determined that the light source environment has changed. This is because the pixel with the highest luminance should have specular reflection, so when this position moves, it is also a force that can be thought of as a change in the light source position. [0203] Alternatively, when the position of a shadow generated on an object changes, it may be detected that the light source environment has changed.
  • a linear image can be generated as in the first embodiment without actively changing the light source.
  • FIG. 33 is a diagram showing the configuration of an image processing apparatus that executes the image processing method according to the third embodiment of the present invention.
  • the same components as those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted here.
  • the light source control unit 101 is omitted.
  • a base image is already created by the above-described method and held in the image holding unit 104, and a linear image of the image input by the image input unit 102 is generated. For this reason, since it is not necessary to generate a base image, it can be processed at high speed.
  • An image input by the image input unit 102 is held in the image holding unit 104.
  • the base image is already held in the image holding unit 104.
  • the image area dividing unit 105 divides the image into small areas by the method described above.
  • the small region synthesized image generation unit 106 linearly converts the input image into each small region divided by the image region dividing unit 105 by the method of “(3) linearization of input image” described in the first embodiment.
  • the image interpolation unit 107 performs an interpolation process to generate a linearized image.
  • the image area dividing unit 105 may change the area dividing method and perform the process again.
  • a linearized image for the input image can be generated at a higher speed.
  • the light source environment is not changed as in the first embodiment, and the change in the light source environment is not detected as in the second embodiment. It is unclear whether the power of the light source environment is different for the input images. However, if an input image with the same light source environment can be detected, it can be discarded and only a plurality of input images with different light source environments can be prepared. [0210] Here, it has already been explained that it is possible to determine whether or not the normal directions of the three points are equal by examining the degeneracy of the matrix. However, even when the light source environments are equal, the matrix is similarly degenerated. In other words, images with the same light source environment can be detected by the same method. Therefore, it is possible to use only images with different light source environments, and therefore it is possible to generate a linearized image without actively changing the light source environment or detecting a change in the light source environment. it can.
  • FIG. 34 (a) is a schematic diagram showing a situation in which an object is photographed by the camera 23 in an environment in which two light sources 22A and 22B exist.
  • the two light sources 22A and 22B have the same color vector, that is, the same light source.
  • the focal length, gain, and white balance of the camera 23 are assumed to be fixed.
  • I represents an image captured when only the light source 13 controlled by the light source control unit 101 is irradiated, and I represents an image captured when illuminated by only other outside light. is doing.
  • the change in luminance value due to the light source changes linearly. For this reason, as in the case where the color vectors are the same, it can be processed by the above-described method.
  • the number of base images may be switched according to the light source state. For example, if the light source is single and the position is fixed, but only the radiance is different, the change in radiance with only one base image is expressed by the change in gain only. If there are two light sources but the position is fixed and only the radiance changes, two base images are sufficient. As described above, this is clear from the fact that an image captured in the state of being illuminated by two light sources is a linear sum of images captured by V for each light source alone.
  • Such a situation is effective when, for example, a domestic lighting fixture is used as a light source. There are usually several lighting fixtures installed in the home, but their positions are fixed. Moreover, if it is inverter illumination, radiance will change. The radiance changes due to flickering of lighting.
  • the work can be performed accurately even in a general environment such as in the home. it can.
  • the light source environment changes greatly at home, and image processing accuracy is significantly degraded by specular reflection and shadows. This is a major factor in causing a measurement error when, for example, a robot grips an object and measures its position and orientation with a stereo camera or the like.
  • the image processing according to the present invention can be performed by installing a light source on a movable part such as an arm of a robot and capturing an image while powering the light source. At this time, a linearized image from which the influence of specular reflection or the like is removed is generated. Therefore, accurate position and orientation measurement can be performed by measuring the position of the object in this linear image.
  • the present invention is not limited to this.
  • the light source is fixed
  • feature points may be extracted from images in which the position and orientation of the object have changed, and the corresponding points between the images may be obtained to obtain the correspondence between the images. For example, “J. Shi and C. Tomasi,” Good Features to Track, "IEEE Conference on Computer Vision and Pattern Recognition, 1994, pp. 593-600, 1994” If you use the method.
  • Patent Document 4 discloses a method for synthesizing an image of an object photographed under arbitrary illumination, but this method is based on parallel light as in the third conventional example. Therefore, it is extremely difficult to apply it as it is to the general environment. However, by applying the method of the present invention described above, it can also be implemented in a point light source that is a general environment. Of course, you can move both the light source and the object.
  • FIG. 49 a case is considered in which the object 21 has an extremely different protrusion 26 whose distance from the light source power is extremely different from the surroundings.
  • the object is a diffusing object
  • the camera is installed in the vicinity of the light source 22 in FIG.
  • Figures 50 (a) and 50 (b) show a schematic diagram showing the image captured at this time and the result of linearizing the image using the image and classifying it based on the optical characteristics.
  • the black area 27 indicates an area classified as a diffuse reflection area
  • the white area 28 indicates an area classified as an undefined area or a specular reflection area.
  • there is a shadow area but it is omitted here for the sake of simplicity. From this figure, objects with almost the same distance as the light source power are accurately classified as diffuse reflection areas! However, it is important that the projection 26, which is a diffuse object, fails to be classified.
  • the projection 26, which is a diffuse object fails to be classified.
  • the number of pixels Num-d classified as the diffuse reflection region is very small.
  • the region that is classified as a diffuse reflection region is a region that has a distance to the light source that is approximately equal to the distance D to the light source at the three points. However, this area is dominant in the object. For this reason, the number of pixels Num-d classified as a diffuse reflection region is very large. Therefore, as shown in Fig. 50 (b), an object with almost the same distance from the light source is correctly classified as a diffuse reflection area, but the projection 26 that is a diffuse object fails to be classified. .
  • Removal of the effects of specular reflection and shadows may be used for three-dimensional measurement such as object position / posture detection as described above. Estimating the position of protrusions and depressions by the above method is very effective because it directly performs 3D measurement.
  • the linearity processing of the image cannot be obtained accurately.
  • the small region segmentation by the image region segmentation unit 105 is almost equal to the distance of the light source power. It can be done for each area! /.
  • the image processing according to the present invention is particularly effective for biometric authentication and the like.
  • face authentication and iris authentication reflection due to specular reflection becomes image noise, leading to deterioration of authentication accuracy.
  • the present invention since a linear image that is an image of only diffuse reflection can be generated, it is possible to prevent deterioration in authentication accuracy due to specular reflection.
  • FIG. 35 is a diagram in which a person 91 performs face authentication using a mobile terminal 92.
  • the portable terminal 92 has a camera and a plurality of LED light sources (not shown), and is configured to be able to execute image processing according to the first embodiment. Then, using the generated linearized image, face authentication is performed by a conventional method.
  • the light source control unit 101 in the mobile terminal 92 turns on the plurality of LED light sources in order. Thereby, a plurality of images with different light source environments can be taken. At this time, since there is a high possibility that the camera position is shifted due to camera shake or the like, it is desirable to introduce camera shake correction processing such as a gyro.
  • a light source an environmental light source 93 exists in addition to a plurality of LED light sources provided in the mobile terminal 92.
  • Fig. 36 (a) is an example of an image taken in the situation of Fig. 35.
  • the light source environment is completely different between the person area 94 to be authenticated and the background area 95. This is particularly noticeable when the background is empty.
  • the person area 94 is sufficiently close to the mobile terminal 92 and is strongly influenced by the light source.
  • the background area 95 is considerably far from the portable terminal 92, it is hardly affected by the light source, and the environment light source 93 is dominant. For this reason, regions with completely different light source environments coexist on a single image, and in the third conventional example, a low-reliability linear image that makes it difficult to estimate the linearization coefficient is created. As a result, the authentication accuracy is degraded.
  • the image is divided into small regions 96 for processing, so that each small region in person region 94 includes a boundary with background region 95. Except for small areas, the light source environment is the same. Therefore, a highly reliable linearized image can be generated, and as a result, the authentication accuracy can be improved.
  • the image processing according to the present invention may be applied when an image is presented. This is particularly effective for objects such as cut gemstones and metals, where the specular reflection is very strong. Such an object has too much specular reflection, so it is difficult to confirm its shape with sight. However, by applying the present invention, it is possible to generate an image that does not cause specular reflection, and an image suitable for confirming the shape can be presented. [0240] Further, since an image of an arbitrary light source can be generated by linearly combining the base images, an image with a different light source environment can be easily generated. This makes it possible to confirm in advance how an object looks in various light source environments. This is effective, for example, when considering interiors in the home.
  • all or part of the steps may be realized by using dedicated hardware, or may be realized by software using a computer program. It does n’t work.
  • the image processing method according to each embodiment of the present invention can be realized by causing a computer to execute a program for realizing the method.
  • the image processing according to the present invention generates a specular reflection with a very simple configuration even in a complicated light source environment! / Generates a linearized image that is an image in an ideal state.
  • image processing devices such as home robots and automobiles, authentication devices and image presentation devices, for example.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

 画像領域分割部(105)は各入力画像を複数の小領域に分割し、小領域合成画像生成部(106)は各小領域について各入力画像から、拡散反射のみの画像である基底画像を生成する。画像補間部(107)は、基底画像が生成不能であった小領域について、補間処理によって基底画像を生成する。線形化画像生成部(103)は各小領域の基底画像を用いて、与えられた光源環境における理想状態での画像である線形化画像を生成する。                                                                                 

Description

明 細 書
画像処理方法、画像処理装置および画像処理プログラム
技術分野
[0001] 本発明は、画像処理技術に関し、特に、一般環境で撮影した画像の処理の際に問 題となる鏡面反射や影の影響を除去するための技術に関する。
背景技術
[0002] 従来、対象物の位置や姿勢の検出、対象物の認識、対象物の動きの検出等を行う ために、カメラを用いる方法が広く用いられている。これは、カメラで撮影された画像 に対し、例えばパターンマッチングやオプティカルフロー検出、特徴点抽出といった 画像処理を適用することによって実現される。
[0003] 例えば、カメラ画像から対象物の位置'姿勢を検出するものとして、対象物の 3次元 形状モデルをステレオカメラの画像に位置合わせして統合するものがあった (例えば 、特許文献 1)。
[0004] し力しながら、上述の特許文献 1のような画像処理は、ノイズのない画像に対しては 有効であるが、一般環境で撮影された画像に対しては十分な信頼性'精度が得られ ないといった問題がある (例えば、非特許文献 1参照)。この原因は主として、通常の 画像処理が拡散反射のみの物体を仮定しているため、鏡面反射の影響により画像 データの色情報がカメラ位置によって変化することや、影が生じるために画素値が大 幅に変化してしまうことを考慮して ヽな 、ためである。
[0005] 例えば、家庭内のような実環境では、光源の正反射によって生じる鏡面反射が検 出精度や認識率の低下の原因となる。図 37は携帯電話 201を家庭内で撮影したと きの画像を模式的に示す図である。家庭内では通常、 1個以上の光源 202が存在す る。そして、光源とカメラが携帯電話 201の表面に対して正反射の関係を満たすとき 、画素値の高い鏡面反射領域 203が生じる。このため、例えば、図 38に示すパター ン画像 204を用いてパターンマッチングにより携帯電話 201を検出しょうとする場合、 鏡面反射領域 203はパターン画像 204において対応する領域 205とは輝度もエッジ 情報も大きく異なっている。したがって、検出精度は極端に劣化してしまう。し力も、鏡 面反射領域は、カメラ位置によって位置が異なり、また、光源状態によって輝度も変 化する。
[0006] また、鏡面反射はステレオマッチング処理でも重要な影響を及ぼす。図 40は、図 3 9に示すように対象物 207をステレオカメラ 206L, 206Rによってそれぞれ撮影した ときの画像である。図 40に示すように、光源 202の影響により、左画像および右画像 のいずれにも鏡面反射領域 203L, 203Rが生じている。ところ力 鏡面反射領域 20 3L, 203Rの位置と色情報はカメラ位置によって異なっているため、左画像と右画像 とは全く異なる画像になっている。このことは、ステレオマッチングの精度を劣化させ る原因となる。
[0007] また、このような問題は、鏡面反射だけでなぐ近傍に存在する物体が落とす影 ( cast shadow)や、対象物の法線方向 Nと光源方向 Lとの角度(図 41参照)が 90° 以 上になるときに生じる影(attached shadow)によっても生じる。図 37のように、携帯電 話 201の近傍に遮蔽物 208が存在している場合、遮蔽物 208が作り出す影は携帯 電話 201上に落ち、携帯電話 201上に影領域 209が生じる。影領域 209はパターン 画像 204とは異なる画像であるため、鏡面反射同様に精度を劣化させる原因となる。
[0008] このような問題を解決するために、画像処理を行う前処理として、鏡面反射ゃ影領 域を補正することが広く行われて!/、る。鏡面反射や影領域を推定する手法としては、 鏡面反射と拡散反射との偏光特性の違いを利用し、偏光フィルタを用いる第 1の従 来例(例えば、特許文献 2)、対象物を回転させ、マルチスペクトルカメラを利用するこ とによって鏡面反射領域を分離する第 2の従来例 (例えば、特許文献 3)、さらには、 様々な方向から光源を当てた対象物の画像を利用し、鏡面反射が生じない理想状 態での画像である「線形化画像」を合成し、この線形化画像を利用して鏡面反射や 影領域を分離する第 3の従来例 (例えば、非特許文献 2)などがある。
[0009] し力しながら、第 1の従来例では、カメラに偏光フィルタを取り付ける必要があり、一 般のカメラによって実現することは難しい。また、第 2の従来例では、対象物を回転テ 一ブルに載せて撮像する必要があるため、家庭内等での利用には不向きである。
[0010] 一方、第 3の従来例は、対象物に照射する光源の位置のみを変化させればよぐし 力も、その光源の位置は未知でも力まわないため、家庭内のような一般環境におい て効果的であると考えられる。
[0011] この第 3の従来例について説明する。まず、光学現象である拡散反射、鏡面反射 および影について、図 42を用いて説明する。
[0012] 2色性反射モデルを仮定すると、物体の輝度は、拡散反射成分と鏡面反射成分と の和として表現される。また、 Lambertianモデルによれば、拡散反射成分の画素値 I d は、次式で示される。
[0013] I =n- s (式 1)
d
ここで、 nは物体表面の法線方向 Nと拡散反射率 (albedo)との積であり、 sは光源方 向単位ベクトルと光源照度との積を表す。
[0014] また、影は、図 42に示すように、物体の法線が光源方向を向いていないために生じ る attached shadowと、他の物体により光が遮蔽されることによって生じる cast shadow の 2種類に分けられる。環境光や相互反射の影響がない場合、両者とも輝度は 0にな る。し力し、(式 1)では、 attached shadowは負の値となり、 cast shadowは正の値となる
[0015] Shashuaは、平行光源および完全拡散反射面を仮定することによって、光源方向 の異なる 3枚の画像の線形結合により、任意の光源方向の画像を表現できることを示 した (非特許文献 3参照)。つまり、光源方向の異なる 3枚の画像をベクトル表現したも のを I , 1 , 1
1 2 3とすると、任意の方向の画像 I
kは、次式のように線形結合によって表現 できる。
I =c 'ΐ +c ¾ +c 3I (式 2)
k k 1 k 2 k 3
ここで、
「 1 2 3 Ί Τ
c = Lc C C 」
k k k k
を画像 I に対する「線形化係数組」と呼ぶ。またこのように、線形和によって作成され k
た画像を「線形化画像」と呼ぶ。
[0016] しかし、実画像は影や鏡面反射を含むため、(式 2)を満たさない。そこで第 3の従 来例では、(式 2)を満たす拡散反射のみの 3枚の画像を作成するために、光源方向 の異なる複数枚の画像を撮影し、 RANS AC (非特許文献 4参照)を利用する。こうし て作成した拡散反射のみの画像を「基底画像」と呼ぶ。基底画像を Shashuaの方法 に適用することによって、撮影画像の光源環境に対応する線形化画像を作成するこ とができる。すなわち、線形化画像は次の式で示される。
I L =c '^ +ο '^ +ο 3! 8 (式 3)
k k 1 k 2 k 3
ただし、 I Lは入力画像 I に対応する線形化画像、 i B , i B , i Bはそれぞれ上述の方 k k 1 2 3
法で作成した 3枚の基底画像を示す。このようにして生成された線形化画像は、鏡面 反射が生じていない、理想状態での画像である。このため、この線形化画像を用いて 画像処理を行うことによって、鏡面反射や影の影響を受けな 、画像処理を実現する ことができる。
また、第 3の従来例では、この線形化画像を利用した、光学特性に基づく領域分割 についても示されている。ここで、入力画像 I における画素 pの画素値を i 、これに k k(p) 対応する線形化画像の画素値を i Lとすると、拡散反射、鏡面反射、 cast shadowお k(p)
よび attached shadowは、次の関係式に従って分離できる。図 43はこれを図示したも のである。
拡散反射 if I k(p、)一 k(p) I ≤T'i ,、
k(p)
鏡面反射 if (i i L >T-i ) and (i L≥0)
k(p) k(p) k(p) k(p)
cast shadow if (i — i L <— Τ·ί ) and (i <Ts)
k(p) k(p) k(p) k(p)
attached shadow if(i L < 0) and (i <Ts)
k(p) k(p)
(式 4)
特許文献 1:特許第 2961264号公報
特許文献 2:特許第 3459981号公報
特許文献 3 :特開 2003 - 85531号公報
特許文献 4 :特開 2004— 5509号公報
非特許文献 1:阪野貴彦、池内克史"移動カメラによる自空間画像を用いた車両から のスぺキユラ除去",情報処理学会 研究報告 CVIM, 2003— CVIM— 141, pp. 1 7-23, 2003
非特許文献 2 :石井育規,福井孝太郎,向川康博,尺長健"光学現象の分類に基づ く画像の線形化",情報処理学会論文誌, vol.44, no. SIG5 (CVIM6), pp.11-21, 2003 非特言午文献 3 : Shashua A., "Geometry and Photometry in 3D Visual Recognition", P.D. thesis, Dept. Brain and Cognitive science, MIT, 1992
非特言午文献 4 : M. A. Fischler and R. C. Bolles, "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography", Communications of the ACM, Volume 24, Issue 6, pp. 381-395 発明の開示
発明が解決しょうとする課題
[0018] 図 44は第 3の従来例を用いて画像処理を行った結果を示す図である。ここでは、 入力画像として、平行光源の向きを変化させた 24枚の画像を利用した。同図中、(a) は入力画像の一部、(b)は(a)の画像を利用して作成した線形ィ匕画像である。また (c ) , (d) , (e)は、(a)および (b)の画像から (式 4)を利用して分離した鏡面反射、 cast shadowおよび attached shadowをそれぞれ示している。図 44から分かるように、平行 光源については良好な結果が得られる。
[0019] これに対して図 45は、点光源の位置を変化させた 24枚の入力画像に対し、同様の 処理を行った結果を示す図である。同図中、(a)は入力画像の一部、(b)は (a)の画 像を利用して作成した線形化画像、(c)は(a)および (b)の画像から (式 4)を利用し て分離した鏡面反射を示す。図 45から、平行光源でなく点光源を用いたために、線 形化画像の生成に失敗し、この結果、鏡面反射成分が誤って分離されていることが 分かる。
[0020] 一般に、屋外など遮蔽物の存在しな!、環境では、太陽光は平行光源に近似できる ことが知られているが、家庭内の光源である電球などの照明器具は平行光源では近 似できず、むしろ点光源であることが知られている。このため、平行光源を仮定してい る第 3の従来例の手法を家庭内等にそのまま適応することはできず、家庭内等の一 般環境において利用可能にするためには、第 3の従来例を、点光源を考慮した手法 に拡張することが必須条件である。
[0021] また、第 3の従来例は、カメラ固定および対象物固定であれば、光源の位置は未知 であっても、処理が実現できる。ただし、次の 2つの条件が必要である。
〇ランダムサンプリングにお 、て、処理画像中の拡散反射領域の 3点を選択する。 〇選択された拡散反射領域の 3点の法線方向が異なっている。
ここで、第 2の条件について説明する。(式 2)力も明らかなように、線形化係数組を求 めるためには、 1 , 1 , 1が独立であることが条件である。しかし、 1 , 1 , 1の法線方
1 2 3 1 2 3 向が全て異なっていない場合、これらの画素値は独立にならない。もし、これらの画 素値が独立でない場合、すなわち 3画素の法線方向が全て異なっていない場合、 ( 式 2)は縮退してしまい、正確な解を求めることはできない。
[0022] 前記の問題に鑑み、本発明は、平行光源を仮定できないような家庭内等の一般環 境においても、線形化画像を生成可能にし、鏡面反射や影の影響を除去できるよう にすることを課題とする。
課題を解決するための手段
[0023] 前記の課題を解決するために、本発明は、画像処理として、同一の対象物を撮影 した複数の入力画像を、共通に複数の小領域に分割し、各小領域について各入力 画像から基底画像を生成し、基底画像が生成不能であった小領域について、その近 傍小領域における基底画像生成に係る演算値を用いた補間処理によって基底画像 を生成するものであり、生成した各基底画像を用いて、与えられた光源環境における 前記対象物の線形ィ匕画像を生成するものである。
[0024] この発明によると、複数の入力画像は、小領域に分割されるので、平行光源が仮定 できないような光源環境で撮影された場合であっても、それぞれの小領域では、平行 光源を仮定できるようになり、基底画像を生成可能になる。また、基底画像が生成不 能であった小領域についても、その近傍小領域における基底画像生成に係る演算 値を用いた補間処理によって、基底画像が生成される。そして、生成した各基底画像 を用いて、与えられた光源環境における対象物の線形化画像が生成される。すなわ ち、家庭内等一般環境においても、線形ィ匕画像が生成可能になり、したがって、この 線形化画像を用いることによって、鏡面反射や影の影響が除去された画像処理を実 現することができる。
発明の効果
[0025] 本発明によると、家庭内のような一般環境において、非常に簡易な構成によって、 鏡面反射が生じない理想状態での画像である線形ィ匕画像を生成することができる。 したがって、画像処理において、従来、問題になっていた鏡面反射や影の影響を除 去することができる。さらに、この線形ィ匕画像を用いて、画像中の鏡面反射領域や影 領域の分離を行うことも可能になる。
図面の簡単な説明
[図 1]図 1は、本発明の第 1の実施形態に係る画像処理装置の構成図である。
[図 2]図 2は、家庭内作業ロボットの模式図である。
[図 3]図 3は、平行光源と点光源との相違を説明するための図である。
[図 4]図 4は、ある撮影状況と、そのときの画像とを示す図である。
[図 5]図 5は、図 4の場合における小領域分割を示す図である。
[図 6]図 6は、本発明の第 1の実施形態における線形化係数組の算出処理を示すフ ローチャートである。
[図 7]図 7は、本発明の第 1の実施形態における基底画像の生成処理を示すフロー チャートである。
[図 8]図 8は、図 5 (a)に第 3の従来例を適用した結果を示す図である。
[図 9]図 9は、近傍領域の例を示す図である。
[図 10]図 10は、近傍領域の線形化係数組のうち最適なものを選択する方法を示すフ ローチャートである。
[図 11]図 11は、近傍領域の他の例を示す図である。
[図 12]図 12は、近傍領域との境界領域を示す図である。
[図 13]図 13は、図 40に対する線形化画像である。
[図 14]図 14 (a)は図 45 (a)から生成した線形化画像、図 14 (b)は図 45 (a)から分離 した鏡面反射成分である。
[図 15]図 15は、領域分割の他の例であり、小領域同士が重なりを持つ例である。
[図 16]図 16は、領域分割の他の例であり、小領域の形状が矩形でない例である。
[図 17]図 17は、重みを位置の関数として設定して線形化係数組を算出する方法を説 明するための図である。
[図 18]図 18は、線形化係数組の分離精度を模式的に示す図である。
[図 19]図 19は、本発明の第 1の実施形態によって生成された線形ィ匕画像の一例で ある。
[図 20]図 20は、行列が縮退しているときのその要素ベクトルの関係を示す図である。 圆 21]図 21は、行列の三角化とその対角成分の幾何学的な意味を示す図である。
[図 22]図 22は、 3点の法線方向が等しいか否かの判断方法における閾値決定を説 明するための図である。
[図 23]図 23は、図 22における、各条件式の評価値を示すグラフである。
[図 24]図 24は、図 22における、各条件式の評価値を示すグラフである。
[図 25]図 25は、図 22における、各条件式の評価値を示すグラフである。
[図 26]図 26は、本発明の第 1の実施形態の他の例における、法線方向検出を利用し た線形化係数組の算出処理を示すフローチャートである。
[図 27]図 27は、基底画像が求まらない領域を画像のエッジを利用して検出する方法 を説明するための図である。
[図 28]図 28は、基底画像が求まらない領域を画像のエッジを利用して検出する方法 を説明するための図である。
[図 29]図 29は、基底画像が求まらない領域を画像のエッジを利用して検出する方法 を説明するための図である。
圆 30]図 30は、領域分割の変更を説明するための図である。
圆 31]図 31は、領域分割の変更を説明するための図である。
[図 32]図 32は、本発明の第 2の実施形態に係る画像処理装置の構成図である。
[図 33]図 33は、本発明の第 3の実施形態に係る画像処理装置の構成図である。
[図 34]図 34は、光源が複数存在する場合の処理を説明するための図である。
[図 35]図 35は、携帯端末を利用した顔認証を示す図である。
[図 36]図 36は、図 35の状況で撮影した画像と領域分割を示す図である。
[図 37]図 37は、携帯電話 201を家庭内で撮影したときの画像を模式的に示す図であ る。
[図 38]図 38は、図 37の携帯電話を検出するためのパターン画像である。
[図 39]図 39は、対象物をステレオカメラによって撮影する状況を示す図である。
[図 40]図 40は、図 39において撮影された画像である。 [図 41]図 41は、光源とカメラ、対象物の法線方向の関係を示す概念図である。
[図 42]図 42は、光学現象である拡散反射、鏡面反射および影を示す概念図である。
[図 43]図 43は、光学特性に基づく領域分割の基準を示すグラフである。
[図 44]図 44は、平行光源において、第 3の従来例を用いて画像処理を行った結果を 示す図である。
[図 45]図 45は、点光源において、第 3の従来例を用いて画像処理を行った結果を示 す図である。
[図 46]図 46は、領域分割の切り出し位置によって、基底画像が変化することを説明 するための概念図である。
[図 47]図 47は、 8近傍を利用した定性的 3値表現を表現するための概念図である。
[図 48]図 48は、領域分割の切り出し位置を変更させながら基底画像を作成する処理 を説明するための概念図である。
[図 49]図 49は、突起物を有する対象物の撮影状況を示す図である。
[図 50]図 50は、図 49における画像と、その光学特性に基づく領域分割の結果を示 す図である。
[図 51]図 51は、領域分割の切り出し位置を変更しながら基底画像を作成した際の入 力画像を示す図である。
[図 52]図 52は、領域分割の切り出し位置を 16通り変更しながら作成した 16枚の基底 画像を示す図である。
[図 53]図 53は、図 52の基底画像を組み合わせて作成した正確な基底画像を示す図 である。
符号の説明
101 光源制御部
102 画像入力部
103 線形化画像生成部
104 画像保持部
105 画像領域分割部
106 小領域合成画像生成部 107 画像補間部
108 画像処理部
109 光源環境変化検出部
発明を実施するための最良の形態
[0028] 本発明の第 1態様では、画像処理方法として、同一の対象物を撮影した複数の入 力画像を取得する第 1ステップと、取得した各入力画像を共通に複数の小領域に分 割する第 2ステップと、分割した各小領域について、各入力画像から基底画像を生成 する第 3ステップと、基底画像が生成不能であった小領域について、その近傍小領 域における基底画像生成に係る演算値を用いた補間処理によって、基底画像を生 成する第 4ステップとを備え、生成した各基底画像を用いて、与えられた光源環境に おける前記対象物の線形化画像を生成するものを提供する。
[0029] 本発明の第 2態様では、生成された線形化画像を用いて、画像処理を行うステップ を備えた第 1態様の画像処理方法を提供する。
[0030] 本発明の第 3態様では、前記画像処理は、対象物の光学特性に基づ!/ヽた領域分 離、対象物識別、対象物 3次元位置 '形状推定のうちの少なくとも 1つの処理を含む 第 2態様の画像処理方法を提供する。
[0031] 本発明の第 4態様では、前記対象物を、光源環境を変化させつつ撮影し、前記複 数の画像を取得する第 1態様の画像処理方法を提供する。
[0032] 本発明の第 5態様では、前記複数の画像において、前記対象物に生じる影の位置 が異なるように光源を制御する第 4態様の画像処理方法を提供する。
[0033] 本発明の第 6態様では、前記対象物を、光源環境の変化を検出したとき撮影し、前 記複数の画像を取得する第 1態様の画像処理方法を提供する。
[0034] 本発明の第 7態様では、前記対象物に生じる影の位置が変化したとき、光源環境 が変化したものと検出する第 6態様の画像処理方法を提供する。
[0035] 本発明の第 8態様では、前記第 3ステップは、 K枚の入力画像から N (Nは正の整 数: Nく K)枚の基底元画像を選択するステップと、残り(K N)枚の入力画像につい て、前記 N枚の基底元画像を用いて線形化係数組をそれぞれ決定するステップと、 決定した線形化係数組を用いて前記 N枚の基底元画像を線形化し、 N枚の基底画 像を生成するステップとを備えた第 1態様の画像処理方法を提供する。
[0036] 本発明の第 9態様では、 Nは 3である第 8態様の画像処理方法を提供する。
[0037] 本発明の第 10態様では、前記線形化係数組決定ステップにお 、て、当該入力画 像カゝら所定数の点をランダムに選択し、この所定数の点から、線形化係数組候補を 求めるともに、その確からしさを示す評価指標の値を求める候補算出処理を、繰り返 し実行し、前記評価指標の値が最も確からしい線形化係数組候補を、当該入力画像 の線形化係数組として決定する第 8態様の画像処理方法を提供する。
[0038] 本発明の第 11態様では、前記候補算出処理は、前記所定数の点の法線方向が互 いに異なっている力否かを判断するステップを含み、繰り返し毎に選択した前記所定 数の点が、いずれも、その法線方向が互いに等しいと判断したとき、当該小領域は基 底画像が生成不能と判断する第 10態様の画像処理方法を提供する。
[0039] 本発明の第 12態様では、前記第 4ステップは、当該小領域の線形化係数組を、そ の近傍小領域について求められた線形化係数組を用いて補間する第 8態様の画像 処理方法を提供する。
[0040] 本発明の第 13態様では、補間の際に、各近傍小領域の線形化係数組に係る前記 評価指標の値を加味する第 12態様の画像処理方法を提供する。
[0041] 本発明の第 14態様では、前記第 3ステップは、前記 N枚の基底画像を用いて、前 記入力画像の少なくともいずれか 1つと光源環境が共通する線形ィ匕画像を生成する ステップを含む第 8態様の画像処理方法を提供する。
[0042] 本発明の第 15態様では、前記第 2ステップは、平行光源とみなせる光の広がりの 上限値、光源と対象物との距離、カメラと対象物との距離、およびカメラパラメータに 基づ!/ヽて、小領域のサイズを決定する第 1態様の画像処理方法を提供する。
[0043] 本発明の第 16態様では、基底画像が生成不能の小領域について、前記第 4ステツ プにおける補間処理に代えて、そのサイズを変更し、再度、前記第 3ステップを実行 する第 1態様の画像処理方法を提供する。
[0044] 本発明の第 17態様では、基底画像が生成不能の小領域について、前記第 4ステツ プにおける補間処理に代えて、前記小領域の切り出し位置を変更し、再度、前記第 3 ステップを実行する第 1態様の画像処理方法を提供する。 [0045] 本発明の第 18態様では、前記複数の入力画像は、光源が複数存在する環境にお
V、て、撮影されたものである第 1態様の画像処理方法を提供する。
[0046] 本発明の第 19態様では、前記複数の入力画像は、家庭内で撮影されたものである 第 1態様の画像処理方法を提供する。
[0047] 本発明の第 20態様では、家庭内で作業を行うロボットにおいて、実行される第 1態 様の画像処理方法を提供する。
[0048] 本発明の第 21態様では、前記対象物は人の顔である第 1態様の画像処理方法を 提供する。
[0049] 本発明の第 22態様では、バイオメトリタス認証に利用される第 1態様の画像処理方 法を提供する。
[0050] 本発明の第 23態様では、前記画像処理は、前記対象物が有する突起物または窪 みの位置を推定する処理である第 2態様の画像処理方法を提供する。
[0051] 本発明の第 24態様では、同一の対象物を撮影した複数の入力画像を取得する画 像入力部と、前記画像入力部によって取得された各入力画像を共通に複数の小領 域に分割する画像領域分割部と、前記画像領域分割部によって分割された各小領 域について、各入力画像から基底画像を生成する小領域合成画像生成部と、前記 小領域合成画像生成部において基底画像が生成不能であった小領域について、そ の近傍小領域における基底画像生成に係る演算値を用いた補間処理によって、基 底画像を生成する画像補間部とを備え、生成した各基底画像を用いて、与えられた 光源環境における前記対象物の線形化画像を生成する画像処理装置を提供する。
[0052] 本発明の第 25態様では、コンピュータに画像処理を実行させるプログラムとして、 同一の対象物を撮影した複数の入力画像を共通に複数の小領域に分割するステツ プと、分割した各小領域について、各入力画像から基底画像を生成するステップと、 基底画像が生成不能であった小領域にっ ヽて、その近傍小領域における基底画像 生成に係る演算値を用いた補間処理によって、基底画像を生成するステップと、生 成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化画 像を生成するステップとをコンピュータに実行させる画像処理プログラムを提供する。
[0053] 以下、本発明の実施の形態について、図面を参照しながら説明する。 [0054] (第 1の実施形態)
図 1は本発明の第 1の実施形態に係る画像処理方法を実行する画像処理装置の 構成を示すブロック図である。この画像処理装置は、光源の位置を制御する光源制 御部 101と、光源制御部 101によって光源環境が変化して 、る状態で複数の画像を 入力する画像入力部 102と、画像入力部 102によって入力された光源環境が異なる 複数の画像を用いて、線形化画像を生成する線形化画像生成部 103とを備えている
[0055] 線形化画像生成部 103は、入力された複数の画像を保持する画像保持部 104と、 画像保持部 104が保持している入力画像を小領域に分割する画像領域分割部 105 と、分割した各小領域について、複数の画像から合成画像として基底画像を生成す る小領域合成画像生成部 106と、合成画像が生成不能であった小領域にっ ヽて、 補間処理によって、基底画像を生成する画像補間部 107とを備えている。そして、線 形ィ匕画像生成部 103は、生成した各小領域の基底画像を用いて、鏡面反射が生じ ない理想状態での合成画像である線形化画像を生成する。
[0056] さらに、生成された線形化画像を利用して、光学特性に基づく領域分割、対象物の 識別、対象物の 3次元位置'形状の推定等の画像処理を行う画像処理部 108を備え ていてもよい。
[0057] ここでは、図 2のような家庭内作業ロボットに、図 1の画像処理装置が設けられてい るものとする。図 2において、ロボット 10は、撮像を行うカメラ 11と、例えば腕などの可 動部 12に設置された光源 13とを備えている。この光源 13は、点光源であってもよい し、液晶ディスプレイのような面光源であってもよ 、。
[0058] 光源制御部 101はロボット 10の可動部 12の動きを制御することによって、光源 13 の位置や姿勢を変更し、これにより、光源環境を変化させる。画像入力部 102は、光 源制御部 101が光源環境を変化させている間に、カメラ 11を利用して、ある対象物 について複数の画像を撮影する。このとき、例えば、対象物に生じる影の位置が異な るように光源 13を制御すればよい。画像保持部 104は画像入力部 102が入力した画 像を次々に保持することによって、光源環境が異なる複数枚の画像を蓄え、以下の 処理に備える。なお、画像保持部 104は、入力画像の他に、線形化画像生成部 103 が生成した基底画像や線形ィ匕画像を蓄えてもカゝまわない。
[0059] <小領域分割 >
画像領域分割部 105は画像保持部 104によって保持されて 、る入力画像を、基底 画像を生成する単位としての小領域に分割する。この小領域分割は、光源環境を平 行光源と仮定して、線形化画像を生成可能にするために行うものである。
[0060] まず、平行光源と点光源の関係について説明する。平行光源とは、撮像範囲内の 対象物に入射する光の広がり Θが非常に狭い範囲に限定されている( 0 0)光源 である。一方、点光源は、光が広がって到達する光源である。このため、同一光源で あっても、光源と対象物との距離や撮像範囲によって、平行光源とみなせたり、点光 源とみなせたりする。
[0061] すなわち、図 3 (a)に示すように、対象物 21の長さ Lに対して光源 22と対象物 21と の距離 Dが十分に長い場合、光の広がり 0 は十分に小さくなる(Θ 0)。こ
narrow narrow
のため、光源 22に照射される対象物 21上の全ての点は、光源 22からの距離がほぼ 等しくなり、光源 22は平行光源とみなすことができる。一方、図 3 (b)に示すように、対 象物 21の長さ Lに対して光源 22と対象物 21との距離 Dが十分長くはない場合、入 射角 Θ は大きくなる(0 ≠0)。このため、光源 22を平行光源とみなすことはでき wide wide
ず、点光源であるとみなされる。
[0062] 言い換えると、光源と対象物との距離、および対象物の長さを変更することによって
、点光源であっても、平行光源と仮定して処理することが可能である。
[0063] そこで本実施形態では、入力画像の光源環境を平行光源とみなせるように、入力 画像を小領域に分割し、分割した小領域毎に画像処理を行うものとする。
[0064] V、ま、図 4 (a)に示すように、台 24の上に置 、た球 25を光源 22によって照射し、台
24の上方力もカメラ 23によって撮影するものとする。このとき、図 4 (b)のような画像が 得られる。この状態では、光の広がり Θ は十分に広いため光源 22は点光源とみなさ れる。
[0065] そこで、図 5 (a)に示すように画像を小領域に分割し、小領域ごとに処理を行う。図 5
(b)に、図 5 (a)で示した小領域 nに対応した視野範囲 Anを示す。図 5 (b)から、画像 を小領域に分割することによって、光の広がり Θ は Θ に比べて十分に小さくなるこ とが分かる。つまり、平行光源を仮定できる程度に光の広がり θ ηが十分に小さくなる ように画像を小さく分割すれば、点光源であっても、平行光源を仮定した画像処理を 行うことが可能である。
[0066] ここで、対象物は、突起物や窪みのな!、、形状が滑らかに変化する物体である平面 と仮定する。図 5 (b)において、光源 22から対象物平面までの距離を D、視野範囲 A nにおける対象物平面の一辺の長さを Lsとすると、光の広がりは次の式を満たす。
Θ ≤2-tan_1 (Ls/ (2-D) ) (式 5)
ここで、例えば平行光源を仮定するための条件が、
θ ≤ θ
n Th
と分力つているものとすると、長さ Lsが次の条件を満たせば、平行光源を仮定できる ことになる。
2 -tan"1 (Ls/ (2-D) )≤ θ
Th
.·. Ls≤2-Dtan ( Θ /2) (式 6)
Th
つまり、 Ls = 2'Dtan ( 0 /2) となるように、小領域を設定すればよい。
Th
[0067] そして、対象物平面の一辺の長さ Lsから画像上の小領域のサイズを決定するため には、カメラパラメータ、およびカメラと対象物との距離が既知であればよい。
[0068] また、(式 6)から、小領域の設定は、光源と被写体との距離 Dに基づいて行えばよ いことがわかる。つまり、距離 Dが長い領域では、小領域を比較的広く設定し、また、 距離 Dが短 、領域では、小領域を比較的狭く設定すればよ!、。
[0069] また、平行光源では、対象物各点に照射される光源の照度はすべて等しいことを 仮定している。点光源など実際の光源では、光は減衰するため、この仮定は成り立た ない。しかし、光源と被写体との距離が等しい領域では、光の減衰度合が等しくなる ため、光源の照度は等しくなる。そのため、光源からの距離がほぼ等しい領域ごとに 小領域を設定することが望まし 、。
[0070] カメラパラメータは、焦点距離 (投影中心と撮像平面の距離)、レンズ歪み係数、画 像の歪み中心、画面の縦横比、画素サイズなどのカメラ内部パラメータと、カメラの焦 点位置、姿勢(向き)などのカメラ外部パラメータとを含む。画像処理を行う際には、事 前にこれらのパラメータを推定する必要がある。カメラ内部パラメータは、例えば、「 Roger Y.Tsai, "An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision", Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 364— 374, 1986」などの方法を利用して、事前に求めておけばよ い。またカメラ外部パラメータは、例えば、特開平 5— 38688号公報に開示された既 存の方法を用いて求めればょ 、。
[0071] また、カメラと対象物との距離も、容易に得ることができる。例えば、特願 2003— 05 7886に示されている物品管理システムでは、ロボットに画像パターンを設けて、天井 等に設置したカメラの画像にパターンマッチング処理を行うことによって、ロボットの位 置を認識する。また、対象物に関しては、背景差分などの手法によってその位置を認 識する。これらの処理の結果から、ロボットに設置したカメラと対象物との距離を、容 易に検出することができる。
[0072] このように、処理領域に対する光の広がり 0 を設定することによって、小領域のサ
Th
ィズを設定することができる。広がり 0 °
Thは例えば 5 程度に設定すればよい。ただし
、この値はこの限りではない。
[0073] <基底画像と線形化画像の作成 >
小領域合成画像生成部 106は、画像領域分割部 105によって分割された各小領 域について、それぞれ、画像保持部 104に保持された複数の入力画像を基にして、 合成画像を生成する。画像保持部 104に K (Kは正の整数)枚の入力画像が保持さ れており、各小領域の処理も、 Κ枚の入力画像を用いて行われるものとする。
[0074] ここでは、上述した第 3の従来例の手法を基にして、 RANSACを用いて、基底画 像と線形化画像の作成を行う。その手順としては、(1)線形化係数組の算出、(2)基 底画像の作成、および (3)入力画像の線形ィヒ を実行する。分割された全ての小領 域について処理を行うことによって、入力画像に対応する線形化画像を作成すること ができる。
[0075] ( 1 )線形化係数組の算出
まず、 Κ枚の入力画像から、 3枚の基底元画像 I , 1 , 1を選択する。この選択方法
1 2 3
については後述する。そして、この基底元画像 I , 1 , 1から、残りの入力画像 I (k =
1 2 3 k
4, 5, 6, · · ·, K)について、これを表現するための線形化係数組をそれぞれ算出す る。ここでは、 RANSACを利用する。
[0076] 図 6は線形化係数組の算出処理を示すフローチャートである。図 6に示すように、ま ず、初期化処理としてカウンタ kに 4 (ステップ S11)、カウンタ iteに 1、 Num— muxに 0 を代入する (ステップ S12)。 kは処理を行う入力画像を表すカウンタであり、 iteは繰り 返し演算を行った回数を表すカウンタである。 Num— muxについては後述する。また 処理の反復回数は、 ite— thとして予め定めておく。
[0077] 次に、入力画像 kの画像内から 3点をランダムに選択する (ステップ S13)。ここで、 選択された 3点を (X , y ) , (x , y ) , (x , y )とする。こうして選択された 3点を利用し て、線形化係数組候補 tmp—cを算出する (ステップ S 14)。これは、次の方程式を計 算することによって求められる。
[数 1] ,)
Figure imgf000019_0001
tmp c = 2 )
,) ( , ) _
(式 7)
, )
ただし、 D =
Figure imgf000019_0002
, ') ここで、 i は入力画像 kにおける画素(u, V)の画素値を表して!/、る。
次に、こうして求めた線形化係数組候補を利用して、次式から線形化画像を作成す る(ステップ S 15)。
丄 =tmp― c 1 +tmp― c2I +tmp _c Ί (式 8)
一 一 一
たたし、 tmp c= [tmp c tmp c tmp c ] [0079] そして入力画像 kの画像領域を、(式 8)によって作成した線形ィ匕画像 I
k L (式 4)を 用いて光学特性に基づき分類する。そして画像上の拡散反射領域を求め、この拡散 反射領域に属する画素数 Num—dを算出する (ステップ S16)。ステップ S13— S16 が候補算出処理に相当する。
[0080] ここで、入力画像は拡散反射領域が支配的であると考えると、作成した線形化係数 組候補 tmp— cが適当であればあるほど、拡散反射領域の画素数 Num—dは多くな ると考えられる。つまり、拡散反射領域の画素数 Num#dを評価指標として、その値が 最も大きくなる線形化係数組 tmp— cを、最適な線形化係数組として検出すればょ 、 。そこで、これまで反復を行った中で、最も大きい画素数 Num—dを Num— maxとし 、そのときの線形化係数組候補 tmp_cを cとして保持しておく。
[0081] すなわち、ステップ S16において算出した画素数 Num— dをそれまでの最大値 Nu m— maxと比較し(S17)、 Num— dの方が大きいときは(S17で Yes)、 Num— max の値を Num— dに置き換えるとともに、さらに cを tmp— cに置き換え (ステップ S 18)、 次のランダムサンプリングの準備を行う(ステップ S19)。一方、 Num— dの方が小さ いときは(S17で No)、 Num— d, cの置き換えは行わず、ステップ S19に進む。
[0082] ステップ S 19では、所定回数 (ite— th回)ランダムサンプリングが行われたかをチェ ックする。もし、まだ所定回数ランダムサンプリングが行われていないときは (ステップ S19で No)、カウンタ iteを 1つインクリメントし (ステップ S20)、再度、ランダムサンプリ ングを行う (ステップ S 13)。一方、すでに所定回数ランダムサンプリングが行われて いるときは (ステップ S19で Yes)、入力画像 kの線形化係数組 c として cを選択し (ス
k
テツプ S21)、入力画像 kの処理を終了する。
[0083] このとき、まだ処理を行っていない入力画像があるとき(ステップ S22で No)、カウン タ kを 1つインクリメントし (ステップ S23)、次の入力画像について処理を行う(ステップ
S12)。一方、もし、すべての入力画像において処理が終わっているときは(ステップ
S22で Yes)、処理を終了する。
[0084] なお、ここでの基底元画像としては、鏡面反射や影領域の少な 、画像を選択する のが好ましい。このために例えば、輝度が極端に高くも低くもない画素が多い入力画 像を基底元画像とすることが望ま Uヽ。 [0085] また、基底元画像としては、光源環境が大きく異なる 3枚の入力画像を選択するの が好ましい。このためには例えば、画像上の数点の画素値が互いに大きく異なる 3枚 の入力画像を選択すればよい。また例えば、光源環境を推定し、光源の位置や強度 ができるだけ異なる 3枚の入力画像を選択するようにしても構わな 、。光源環境を推 定する方法としては、鏡面球を利用する方法や、広角カメラを天井方向に向けて光 源状態を撮影する方法が広く知られて 、る。表面が鏡面の物質である球の表面に写 つているものは、球が置かれた位置に入射している光源の情報である。そこでこのよう な鏡面球をカメラで撮影し、その画像を解析することによって、光源の位置と照射輝 度分布を推定する (例えば、「田中法博、富永昌治 "全方位の光源分光分布の計測 とその応用",画像の認識'理解シンポジウム(MIRU2002) , vol. II, pp. 99— 100 4, 2000」)。
[0086] (2)基底画像の作成
次に、(1)で求めた線形化係数組 c
kと各入力画像 I
kを用いて、基底元画像を線形 化し、基底画像を作成する。ここでも RANSACを利用し、 1画素ずつの処理を行う。
[0087] ここで、(式 3)を見直してみる。入力画像 kの画素 mに対して (式 3)を適用すると、 次の式が求まる。
. L 1. B , 2. B , 3. B
1 =c 1 十 c 1 十 c l (^9)
k(m) k l(m) k 2(m) k 3(m)
[0088] ここで、 i B = [i B i B i B ] は画素 mに対する基底画像の画素値を示しており
(m) l(m) 2(m) 3(m)
、基底画素値と呼ぶ。この式において、線形化係数組 c = [c 1 c 2 c 3 ]Tは(1)の k k k k
処理によりすでに求まっている。このため、もし入力画像 kの画素 mが i i Lを k(m) k(m) 満たす、すなわち拡散反射を起しているとき、(式 9)における未知数は、基底画素値 i B = [i B i B i のみの 3個となる。
(m) l(m) 2(m) 3(m)
[0089] したがって、入力画像 k (k=4, 5, 6, · ··, K)のうち、画素 mが拡散反射領域である 3枚を選択することができれば、(式 9)を一意に解くことができる。ところが、実際には どの画素が拡散反射を起しているかは分力 ないため、ここでは RANSACによるラ ンダムサンプリングを利用し、また評価指標として、(1)の処理と同様に拡散反射領 域の画素数を用いることによって、基底画素値を求める。
[0090] 図 7は基底画像の生成処理を示すフローチャートである。ここでは、上述の線形ィ匕 係数組の算出処理と異なり、処理を画素ごとに行う。つまり、基底画素値を 1画素ず つ RANSACの枠組みで求める。
まず、処理を行う画素 mを設定する(ステップ S31)。次に、初期化のためにカウンタ iteに 1 Num— maxに 0を代入する(ステップ S32)。カウンタ iteは繰り返し演算を行つ た回数を示し、また処理の反復回数は ite— thとして予め定めておく。 Num— maxに ついては後述する。次に、線形化係数組が既に求まっている (K-3)枚の入力画像 力も 3枚をランダムに選択する (ステップ S33)。ここで、選択された 3枚の入力画像を k , k , kとする。こうして選択された 3枚の画素値を (式 9)に代入すると、次の方程
1 2 3
式が求まる。
[数 2]
Figure imgf000022_0001
(式 10) ここで、
B 「 B B B T
tmp― i = [tmp― i tmp― i tmp― i ]
m) l(m) 2(m) 3(m)
は、 i , i , i がすべて拡散反射であるとき、基底画素値となる力 そうでないと kl(m) k2(m) k3(m)
きは意味のない値になる。そこで、 tmp— i Bを基底画素値候補と呼ぶ。(式 10)を解
(m)
くことにより、基底画素値候補 tmp_i Bを算出する (ステップ S34)。すなわち、
、m)
[数 3]
Figure imgf000023_0001
(式 11)
ただし、 E =
Figure imgf000023_0002
[0092] 次に、こうして求めた基底画素値候補 tmp—i Bを利用して、(K 3)枚の入力画像
(m)
に対して、次の式力 線形化画素値 i を作成する (ステップ S35)。
k(m)
L I B 3 B
i = c tmp― i + c tmp― i + c tmp― i
k(m) k ― Km) k ― 2(m) k ― 3(m)
ただし、 k=4, 5, 6, · · · , K (式 12)
[0093] さらに、入力画像 kの画素値を、(式 12)で作成した線形化画素値 i Lと (式 4)を用
k(m)
いて光学特性に基づき分類する。そして、分類した i (k=4, 5, 6, · · · , K)
k(m) におい て、拡散反射領域の画素数 Num—dを算出する (ステップ S36)。
[0094] ここで、入力画像は拡散反射領域が支配的であると考えると、作成した線形化画像 候補が適当であればあるほど、拡散反射領域の画素数 Num—dは多くなると考えら れる。つまり、拡散反射領域の画素数 Num—dを評価指標として、その値が最も大き くなる基底画素値候補を、最適な基底画素値として検出すればよい。そこで、これま で反復を行ってきた中で、最も大きい画素値 Num—dを Num— maxとし、そのときの 基底画素値候補 tmp— i Bを iとして保持しておく。
(m)
[0095] すなわち、ステップ S36において算出した画素数 Num— dをそれまでの最大値 Nu m— maxと比較し(S37)、 Num— dの方が大きいときは(S37で Yes)、 Num— max の値を Num_dに置き換えるとともに、さらに iを tmp_i Bに置き換え (ステップ S38)
m)
、次のランダムサンプリングの準備を行う(ステップ S39)。一方、 Num dの方が小さ いときは(S37で No)、 Num— d, iの置き換えは行わず、ステップ S39に進む。
[0096] ステップ S39では、所定回数 (ite— th回)ランダムサンプリングが行われたかをチェ ックする。もし、まだ所定回数ランダムサンプリングが行われていないときは (ステップ S39で No)、カウンタ iteを 1つインクリメントし (ステップ S40)、再度、ランダムサンプリ ングを行う (ステップ S43)。一方、すでに所定回数ランダムサンプリングが行われて いるときは (ステップ S39で Yes)、画素 mの基底画素値 i Bとして iを選択し (ステップ
(m)
S41)、画素 mの処理を終了する。
[0097] このとき、まだ処理を行って!/、な!/、画素がある場合 (ステップ S42で No)、カウンタ m を 1つインクリメントし (ステップ S43)、次の画素について処理を行う(ステップ S32)。 一方、もし、すべての画素について処理が終わっているときは (ステップ S42で Yes) 、処理を終了する。
[0098] 以上の処理を、分割された全ての画像の全ての画素について行うことによって、基 底画像を生成する。
[0099] (3)入力画像の線形ィ匕
次に、(式 3)に従って、各入力画像の線形化係数組 c と基底画像 I B , I B , I Bの線 k 1 2 3 形結合によって、入力画像 kの線形化画像 I Lを作成する。
k
I L =c il B +c ^ B + c Sl 8 (式 3)
k k 1 k 2 k 3
上述したように、線形ィ匕画像とは、鏡面反射が生じていない理想状態のときに観測さ れる画像である。このため、この線形ィ匕画像を利用して画像処理を行うことによって、 鏡面反射や影の影響を受けない画像処理が可能になる。
[0100] なお、ここでの線形化係数組 c は、(1)の処理において求めたものをそのまま用い k
ても力まわないし、入力画像 I , 1 , 1 の代わりに基底画像 I B , i B , I Bを用いて、再
1 2 3 1 2 3
度、(1)の処理によって求めなおしてもかまわない。
[0101] 以上のような処理を行うことによって、画像保持部 104に保持されている画像の線 形化画像を作成することができる。
[0102] なおここでは、入力画像を線形化するまでの処理を示したが、もちろん、 (2)の基底 画像作成処理までで処理を終えてもかまわな ヽ。このような基底画像を画像保持部 1
04に保持することによって、画像入力部 102が入力した画像に対し、(3)の処理を行 うだけで、線形化画像を作成することが可能である。
[0103] <補間処理 >
以上のように、画像を小領域に分割して処理することによって、点光源であっても、 平行光源として仮定して、第 3の従来例と同様の方法によって取り扱うことができる。 ただし、画像を小領域に分割することに起因して、次のような問題が生じる。
[0104] 上述のように第 3の従来例では、次の条件を満たす 3点以上の画素が存在して 、る ことが、前提条件になっている。
[0105] 〇 法線方向が異なる。
〇 拡散反射領域である。
[0106] 前者の前提条件を満たさな!/、とき、(式 7)の行列 Dや (式 11)の行列 Eが縮退を起 すので、(式 7)や (式 8)の解を求めることができない。また、後者の前提条件を満たさ ないとき、 RANSACにおいて評価関数として用いた拡散反射領域の画素数は、拡 散反射領域がそもそも存在しないため、常に 0になってしまい、このため、評価関数と しての役割を果たさなくなる。そして、小領域に分割することは、これらの前提条件を 満たさない領域の存在可能性を高める原因となる。
[0107] 図 8は図 5 (a)のように分割した各小領域において、第 3の従来例を適用した結果で ある。まず平面領域 31, 32すなわち画像内に 1平面しか存在せず、ほとんどの画素 で法線方向が等しい領域では、線形化画像を生成できない。また影領域 33のように 、拡散反射領域を含まず、影力鏡面反射しか存在しない領域でも、やはり解を求める ことができない。このように、小領域に分割して処理を行っても、全ての領域について 基底画像や線形化画像を生成できるとは限らず、生成できるのは画像上の一部であ り、残りの領域については生成不能となる場合があり得る。
[0108] そこで本実施形態では、画像補間部 107が、小領域合成画像生成部 106にお ヽ て基底画像や線形化画像を生成不能であった小領域にっ ヽて、補間処理によって 、基底画像や線形化画像を生成する。まず、次のような仮定をおく。
[0109] 〇 画像を分割した各小領域では、線形化係数組は、近傍小領域の線形化係数 組と相関がある。
[0110] これは、各小領域における光の入射角が連続に変化していくことを考えると、妥当 な仮定である。この仮定より、次の式が導かれる,
[数 4] 一 I ,
(式 13)
ただし、
一 ^^(—(— I, i) ι ν) ί — i,_ +i i) _ν+ι) +i i>
Figure imgf000026_0001
+1, ' 一 J 1 l l +I +1, +l, +1, +1) ,
[0111] ここで、 I ま入力画像 kの小領域 (X, y) (図 9の注目領域 41)における線形化画
k(x,y)
像、 I , I , I はそれぞれ 3枚の基底画像における小領域 (X, y)の画像、 c
Kx,y) (x,y) (x,y)
= [c 1 c 2 c 、 3 ]Tは入力画像 kの小領域 (x, y)における線形化係 k(x y) k(x y) k(x y) k(x y)
数組を示している。すなわち、(式 13)は「ある小領域 (X, y)の線形化係数組は、そ の 8近傍領域(図 9の領域 42)の線形化係数組を利用することによって生成できる」こ とを示している。
[0112] すなわち、ここでは、基底画像が生成不能であった小領域 (注目領域)について、 基底画像生成に係る演算値としての線形化係数組を、その近傍小領域における線 形化係数組を用いた補間処理によって求め、基底画像や線形化画像を生成する。 以下、その手法について説明する。
[0113] 1. Nearest neighbor
まず、前提条件として、撮影された画像上では鏡面反射領域に比べて拡散反射領 域が支配的であるとする。これは、鏡面反射が、光源方向とカメラ方向が対象物の法 線方向に対して正反射の関係になったときにのみ生じるものであることから明らかで ある。
[0114] 図 10は注目領域の線形化係数組として、近傍領域の線形化係数組のうち最適なも のを選択する方法を示すフローチャートである。まず、 Rate— maxの初期化を行うた めに、 0を代入する (ステップ S51)。次に、注目領域の近傍領域を 1つ選択する (ステ ップ S52)。選択した近傍領域 Xにつ 、て線形化係数組が求まって 、るか否かを調べ (ステップ S53)、もし求まっていないときは(S53で No)、他の近傍領域のチェックを 行う(ステップ S59)。もし、全ての近傍領域のチェックが終了しているときは(S59で Y es)、処理を終了する。
[0115] 一方、選択した近傍領域 Xの線形化係数組が求まっているとき(S53で Yes)、その 線形化係数組と(式 3)を用いて、近傍領域 Xの線形化画像を生成する (ステップ S54 )。さらに、生成した線形ィ匕画像と(式 4)を用いて、その近傍領域 Xの画像について光 学特性に基づく領域分割を行う (ステップ S55)。ここで求めた拡散反射、鏡面反射、 cast shadow, attached shadowの各領域の画素数をそれぞれ Xd, Xs, Xc, Xa、近傍 領域内の総画素数を Xallとする。このとき、次式で定義する拡散反射画素率 Rate— Xを計算する(ステップ S56)。
Rate_x = Xd/ (Xall- (Xc + Xa) ) (式 14)
[0116] (式 14)で定義された拡散反射画素率 Rate— xは、総画素数から影と判別された 画素数を除いた画素数と、拡散反射領域と判別された画素数の比を表している。上 述のように、入力画像にお 、て拡散反射領域は鏡面反射領域に比べて支配的であ るため、求まった線形化係数組が正 、ほど拡散反射画素率 Rate— Xの値は高くな る。すなわち、拡散反射画素率 Rate— Xは線形化係数組の確からしさを示す評価指 標として用いることができる。
[0117] そこで、 Rate— Xと Rate— maxとを比較し(ステップ S 57)、 Rate— xの方が大きい ときは(S57で Yes)、この近傍領域 Xの線形化係数組の信頼性は十分高いと考えら れる。そこで、 Rate— maxに Rate— Xを代入するとともに、この近傍領域 xの線开化 係数組を線形化係数組候補として保持する (ステップ S58)。一方、 Rate_x力 ¾ate —maxよりも小さいとき(S57で No)、この近傍領域 xの線形化係数組の信頼性はす でに保持されて 、る線形化係数組候補よりも低 、と判断し、その線形化係数組を線 形化係数組候補とはせず、他の近傍領域のチェックを行う(ステップ S59)。
[0118] このような処理を全ての近傍小領域について繰り返すことによって、近傍 8領域の 中で最も確からし ヽ線形化係数組を線形化係数組候補として求めることができる。上 述したように、近傍の領域同士の線形化係数組には相関があるため、近傍領域にお Vヽて最も確から ヽ線形化係数組は、注目領域にお!、ても確カゝら ヽ線形化係数組 であると考えられる。このため、このような補間処理によって求めた線形化係数組候 補を用いることによって、基底画像生成において解を求めることができな力つた領域 についても、線形化画像を作成し、光学的な領域分割を行うことができる。
[0119] なお、ここでは、注目領域にっ ヽて最も確から ヽ線形化係数組を選択する範囲と して、 8近傍領域を用いた力 これに限られるものではない。例えば図 11 (a)に示す ように、 4近傍領域 43のみを用いてもよい。このように近傍領域を狭く設定することに よって、処理時間を短縮することができる。逆に、例えば図 11 (b)に示す 12近傍領 域 44や図 11 (c)に示す 24近傍領域 45のように、近傍領域を広く設定してもかまわ ない。近傍領域を広く設定することによって、選択肢が増えるので、注目領域の線形 ィ匕係数組を高精度に選択することができる。
[0120] またここでは、拡散反射画素率 Rate— Xを評価関数として用いたが、線形化係数 組を選択するための評価指標は、これに限られるものではない。例えば、単に拡散反 射領域の画素数 Xdを評価指標として用いても力まわない。また、影領域も加えて、 X d+Xc+Xdを評価指標として用いても力まわな 、。
[0121] またここでは、評価指標値の算出はその近傍領域のみにおいて行うものとしたが、 この代わりに、評価指標値を算出するための評価領域を、当該近傍領域とは別個に 定めてもかまわない。例えば上述の図 10のフローのステップ S54— S56において、 近傍領域 Xとは別個に定めた評価領域について、線形化画像を生成し、光学特性に 基づき領域を分割し、評価指標としての拡散反射画素率 Rate— Xを計算すればょ ヽ
[0122] この方法は、分割した領域ごとに画像特徴が全く異なる場合に有効である。例えば 図 9において、領域 (X— 1, y)はその 2Z3が影領域であるのに対し、領域 (x+ 1, y) は全く影を含まない、ということは多々ある。この場合、上述したように、各領域の線形 ィ匕係数組を当該領域の拡散反射画素率 Rate— Xを用いて評価することは、必ずしも 適切ではない。そこで例えば、注目領域 41と 8近傍領域 42とを合わせた 9個の小領 域全体を、評価領域として設定する。すなわち、各近傍領域の線形化係数組を、共 通の領域 41, 42に適用して拡散反射画素率 Rate— Xなどの評価指標値を計算し、 比較する。これにより、より適切な評価を行うことが可能になる。
[0123] もちろん、この評価領域は、線形化係数組を求めるために分割した小領域を基にし て設定する必要は必ずしもなぐ例えば図 9の評価領域 46, 47のように設定してもか まわない。
[0124] また、境界領域の連続性を利用して、線形化係数組を推定してもカゝまわない。隣り 合った画素は相関が強いと考えられるので、注目領域の最外位置の画素値は、その 画素に隣り合った近傍領域の画素値とほぼ等しいと考えられる(図 12の境界領域 48 )。そこで、この連続性を評価関数として利用する。すなわち、評価関数として、境界 領域の連続性を考慮した次式の Func (X を用いる。
k(x,y)
[数 5]
Figure imgf000029_0001
+ g ム | (x S
、<
\f if 領域 (m, n) の線形化係数組が求まっている ただし、 I 0 if 領域 (m, n) の線形化係数組が求しっていない
[0125] ここで、小領域の画素数はすべて (PxQ)画素、 X は入力画像 kの小領域 (X , y)において、その小領域内の画素 (p, q)の線形化画素値を示している。
[0126] 2. 2次補間
ここでは、近傍領域の線形化係数組を 2次補間することによって、注目領域の線形 化係数組を求める方法にっ ヽて説明する。
[0127] まず、線形化係数組の値を領域の位置 (m, n)の関数 g (m, n)とし、この曲面を以 下の 2次式によって、近似することを考える。
g (m, n) =A/2 -m +Β/2 ·η +Cmn+Dm+En+F (式 15)
ここで、位置(m, n)はその領域の中心位置を示す。この(式 15)を解くためには、 6 個以上の線形化係数組が求まっていればよい。そこで、注目領域の近傍領域のうち 、線形化係数組が求まっている 6領域を選択し、その線形化係数組と位置 (m, n)を 代入すること〖こよって、(式 15)を解くことができる。
[0128] このとき、線形化係数組 cの各要素 c c 2, c 3ごとに独立に (式 15)を解いてもよ
k k k k
いし、また c c 2, c 3を極座標表示し、その要素それぞれに対して (式 15)を解いて
k k k
もかまわない。 [0129] また、 6領域力 解を一意に求める代わりに、 6個以上の領域を選択し、最小自乗 法によって解を求めるようにしても力まわない。また、さらに広い領域を (式 15)によつ て近似するようにしても力まわない。これは例えば、多くの領域の線形化係数組を用 V、、 RANSACを用いることによって解を求めればよ!、。
[0130] もちろん、例えば、スプライン補間処理などを用いても力まわないし、また、 3次以上 のフィッティングを行ってもかまわな 、。
[0131] 3.重み付け処理
ここでは、重み付け処理によって、注目領域の線形化係数組を求める方法を説明 する。これは、上述の拡散反射画素率 Rate— Xなど、近傍領域の線形化係数組の確 力 しさの指標を重みとして利用する。近傍の小領域 (m, n)における拡散反射画素 率を Rate— x (m, n)とすると、注目領域 (x, y)の線形化係数組は次の式で表される
[数 6] ノ
",")
C"r )― Y Rate _ x{m, n)
(式 16) ここで、 Sは注目領域 (X, y)の近傍において線形化係数組が求まっている領域を示 している。つまり、(式 16)は拡散反射画素率で重み付けをした近傍領域の平均線形 ィ匕係数組を表している。
[0132] もちろん、重みは拡散反射画素率に限られるものではなぐ上述の拡散反射領域 の画素数を用いたり、また、重み付けを行わず、単純な近傍領域の線形化係数組の 平均値を用いたりしても力まわない。
[0133] また、 1.一 3.のようにして求めた線形化係数組を初期値とし、さらに勾配法を用い て最適な線形化係数組を求めるようにしてもかまわな ヽ。
[0134] このように、点光源を制御しながら撮影した複数の画像に対して、処理領域を分割 し、さらに補間処理を行うことによって、点光源においても、鏡面反射や影の影響を 補正した線形ィ匕画像を作成することができる。そして画像処理部 108は、線形化画 像生成部 103によって生成された線形化画像を用いて、画像処理を行う。線形化画 像は鏡面反射や影が除去された理想的な画像であるため、線形ィ匕画像を用いること によって、鏡面反射や影の影響を受けない画像処理を実現することができる。ここで の画像処理としては、例えば、対象物の 3次元位置'形状推定、対象物の識別、光学 特性に基づ!/、た領域分割などがある。
[0135] 図 13は図 40のステレオ画像に対する線形ィ匕画像である。図 13から、鏡面反射が 画像力もきれいに除去できていることが分かる。したがって、ステレオマッチングの精 度も向上し、 3次元位置'形状の推定の精度も向上する。また、対象物識別処理にお いても、線形ィ匕画像を用いることによって鏡面反射などによる精度劣化を抑えること ができる。
[0136] さらに、入力画像に対し、線形化画像と (式 4)を用いて、拡散反射や鏡面反射、 cast shadowや attached shadowといった光学特性に基づいた領域分離を行うこともで きる。
[0137] 図 14 (a)は図 45 (a)の入力画像から本実施形態の方法によって生成した線形化画 像を示す図である。また図 14 (b)は図 45 (a)の入力画像から図 14 (a)の線形ィ匕画像 および (式 4)を用いて分離した鏡面反射成分を示す図である。図 14 (a) , (b)を第 3 の従来例による図 45 (b) , (c)と比較すると、特に平面領域において線形化画像の 生成精度が上がって 、ることが分かる。また鏡面反射領域と拡散反射領域の分離精 度は、第 3の従来例では 70%であるのに対し、本実施形態では 91%と大幅に改善さ れている。なお、分離精度は次式により計算される。
(分離精度)
= ( (正しく鏡面反射と推定された画素数) + (正しく拡散反射と推定された画素数))
/ ( (拡散反射の画素数) + (鏡面反射の画素数) )
[0138] なお、以上の説明では、領域の分割は各小領域間の重なりがないように行うものと したが、もちろん図 15に示すように、各小領域が重なり合うように領域分割を行っても かまわない。このように領域を分割することによって、注目領域 41と近傍領域 42との 間の相関が高くなるので、補間処理の精度がより向上する。
[0139] また、小領域の形状は矩形である必要はなぐ例えば図 16のように、任意の形状で あってもかまわない。
[0140] また、重みを、領域ごとに設定するのでなぐ画像上での位置の関数として設定して も力まわない。図 17はこの処理の様子を示す図であり、ここでは小領域を円形に設 定している。まず、評価領域を半径 rの円形領域 51として設定し、分離精度 E (r)を求 める。次に、評価領域を半径 r'の円形領域 52に変更し、再度、分離精度 E(r')を求 める。評価領域の半径を変えながらこの処理を繰り返すことによって、分離精度を、 評価円形領域の中心位置 (X, y)と半径 rの関数 E (x, y, r)として表現することができ る。この分離精度 E (x, y, r)は求まった線形係数ごとに存在するため、ある線形化係 数組 C = [c c c ]における分離精度 E (X, y, r)を E (x, y, r)とする。図 18は各線
1 1 2 3 1
形化係数組 C
1一 Cの分離精度 E— Eを模式的に示した図である。
5 1 5
[0141] このとき、任意の点 (xm, ym)の線形化係数組 Cは、次のような重み付け処理によ m
つて求められる。
[数 7] E, (xn, yn, rn) , ただ'し、 (xm -
Figure imgf000032_0001
+ (ym - yn) = rn2
[0142] もちろん、任意の点(xm, ym)の線形化係数組 Cは前述の Nearest neighborを利 m
用し、次のように求めてもかまわない。
[数 8] = cT
I - arg ma / (xn, yn, rn) )
[0143] このような処理を用いることによって、画像の領域を明に分割しなくても線形ィ匕画像 を作成することができる。これは、上述のように評価領域を変化させるため、確定的な 評価領域を用いる必要がな 、ためである。
[0144] また、光源制御部 101は、撮影環境の光源、例えば、家庭内の照明を切り替えるこ とによって、光源環境を変化させるものでもよい。このような光源の切り替えは、例え ば電力線を用いたエコーネットなどを利用すればょ 、。 [0145] 家庭内で通常用いられる白熱灯や蛍光灯は、第 3の従来例では、平行光仮定が成 り立たないために光源として用いることができな力つた。ところが本発明では、点光源 にお!/、ても線形化画像の作成や光学特性に基づ!、た領域分離を行うことができるの で、家庭内照明を点光源の集合体と捉えることによって、処理が可能である。家庭内 照明を光源として利用することができれば、照明を別途準備する必要がなくなるため 、非常にシンプルな画像処理装置にお 、て本発明を実現することができる。
[0146] さらに、光源制御部 101による光源環境の変更は、家庭内であれば、住居人がい なくなる夜や出勤,通勤後の時間帯に定期的に行うようにしても力まわない。
[0147] 図 19は本実施形態によって生成された線形化画像の例である。図 19に示すよう〖こ 、本実施形態の画像処理方法によると、鏡面反射が生じない理想状態での画像であ る線形化画像が生成される。
[0148] また、画像入力部 102は、必ずしも撮像を行う必要はな ヽ。例えば、メモリやハード ディスクなどに蓄えられている画像をネットワークやインターフェイスを通じて取り込む ようにしてもかまわない。
[0149] また、撮影された画像から合成画像を作成するようにしてもかまわな!/ヽ。これは、撮 影した複数画像の視点位置や視点方向が異なる場合に有効である。上述のように、 本実施形態では視点位置は固定でなくてはならな 、が、任意視点合成の技術を用 いることにより、視点が動いた場合においてもカメラ位置情報、動き情報などを用いて あたカゝも同じ視点カゝら撮影した画像に変換できる。画像入力部 102はこの任意視点 合成技術を利用することによって、視点位置が等し ヽ合成画像を作成すればょ ヽ。
[0150] (変形例)
また、画像補間部 107は、次の 3つの処理を切り替えるような制御手段を含んでい てもかまわない。
〇 上述の手法によって補間処理を行う。
〇 補間処理を行わずに、小領域合成画像生成部 105が作成した画像をそのまま画 像処理部 108へ送る。
〇 画像領域分割部 105によって小領域の大きさや位置を変更し、再度、小領域合 成画像生成部 106によって合成画像を作成しなおす。 [0151] 本実施形態では分割した小領域ごとに処理を行うため、 RANSACのランダムサン プリングにおいて、選択した 3点の法線方向が全て等しくなることが起こり易くなる。こ の場合、行列 Dが縮退し、解が求まらず、線形化係数を求めることができない。
[0152] そこで、まず行列 Dの縮退を調べることによって、 RANSACでサンプリングした各 3 点の法線方向が等しいか否かを判断する。もし、行列 Dが縮退しているときは、処理 を中断することによって処理の効率ィ匕を図ることができる。すなわち、行列 Dの縮退を 確認することによって、処理を高速化することができる。そして、すべてのランダムサ ンプリング点にぉ 、て行列 Dが縮退して 、る場合、上述のように処理を切り替える。
[0153] 行列の縮退を調べる指標としては、まず、行列の次元数がある。通常、行列の次元 数を調べるためには行列式を求めればよい。次の行列 Aの行列式 I A Iは、(式 17 )によって表される。
[数 9]
A =
Figure imgf000034_0001
た/ ίし、 a, = [a a al3 0=1,2,3)
\A\ = a a12a33 + ηαΏα + ua32a2l - ana21aM - α α„ - ηα32αΏ (^17) 行列式 I A I力^のとき、行列 Aは縮退していると考えられる。
[0154] ところが本実施形態では、たとえ選択された 3点の法線方向が等 、場合でも、点 光源を平行光と近似している点や、量子化誤差やノイズの影響によって、行列式 I A
Iは小さな値にはなるものの必ずしも 0にはならない。そこで、次の条件を満たすとき
、選択された 3点の法線方向が等しいと判断する。
1 A I ≤Thl (式 18)
[0155] また、行列の縮退を検出するために、例えば、行列 Aの要素である 3つのベクトル a
, a , aを利用する方法も考えられる。行列 Aが縮退しているとき、図 20 (a) (b)に示 すように、ベクトル a, a, aが平面上または直線上に並ぶ。そこで、これら 3つのべク トル a , a , aのなす角度成分を、行列の縮退の指標として用いればよい。すなわち、 aと a , aと a , aと aがなす角度をそれぞれ求め、それらの角度の最小値を求める。
1 2 2 3 3 1
これは、次の条件を満たす場合に、 3画素の法線方向が等しいと判断すればよい。
[数 10]
Th2 (式 19)
Figure imgf000035_0001
(式 19)は指標の単位が角度であるため、(式 18)に比べて閾値がわ力りやすいとい つた長所があるが、図 20 (a)のように 3つのベクトルが同一平面上に存在して!/、るとき には、検出に失敗するという問題がある。このため、行列式とともに用いるのが好まし い。
また同様の方法として、(式 20)のように、行列式を 3つのベクトルの長さで正規ィ匕 するという方法が考えられる。
[数 11]
Figure imgf000035_0002
行列式 I A Iは、図 20 (c)〖こ示すように、 3つのベクトル a , a , aによって張られる平
1 2 3
行六面体 61の体積を表している。したがって、行列式 I A Iを各ベクトルの大きさに よって正規ィ匕することによって、ベクトル間の角度成分のみが抽出される。
[0157] また、行列の縮退を調べる指標として、行列の条件数を用いても力まわな 、。行列
Aの条件数とは、行列 Aが良条件 (weU-conditioned)か悪条件 (iU-conditioned)かの指 標であり、次のようなもので表される。
〇 行列 Aの最大固有値と最小固有値との比
〇 行列 Aの最大特異値と最小特異値との比
〇 行列 Aのノルムと逆行列 A—1のノルムとの比
[0158] さらに、行列の三角化を行い、その対角成分を用いても力まわない。行列 Aは、次 式のように展開できる。
[数 12] an a, 3 xn 0 0
«21 «23 = X2\ X22 0 h V 2 V3 ] (式 21)
«31 a32 «33 . 31 X32 _ このような処理を行列の三角化と呼ぶ。行列の三角化は、 Gram-Schmidtの直交化な どの手法を利用することによって実現される。 Gram-Schmidtの直交化を用いた場合、 (式 21)は以下のように求められる。
[数 13] b*+l = a,+l - (a,+1 · ν , )ν, - (a,+l · ν22 (a +l - ν, )ν,
M I
ここで、 V , V , Vが正規直交基底であることに着目すると、次のことが分かる。
1 2 3
〇 X は a力 aへ下ろした足の長さである
22 2 1
〇 X は a力も aと aが張る平面に下ろした足の長さである
33 3 1 2
図 21はこの関係を図示したものである。このことから、次の条件式を満たすとき、 3点 の法線方向が等しいと判断できる。
min (x , X ) Th4
22 33
[0159] 次に、上述した各条件式を用いた判断手法における閾値決定の方法について説 明する。ここでは、実際に撮像するであろう条件において、平面と、それ以外の対象 物とをそれぞれ撮像することによって、閾値を決めるものとする。
[0160] まず図 22に示すように、カメラ 71によって平面 72と対象物としての球 73を撮像する 。ここで、図 22 (a)のように平面 72を撮像したとき、画像中の各点の法線方向は全て 等しくなり、また図 22 (b)のように球 73を撮像したとき、画像中の各点の法線方向は 全て異なっている。カメラ 71と対象物 73は実際の環境と同様に設置する。ここでは、 家庭内作業ロボットが作業を行うことを想定し、カメラ 71は平面 72から 50cm離して 設置し、球 73の半径は 10cmとした。カメラ 71は実際のロボットに設置されるものと同 様の水平画角 56° 、画素数 640x480のものを利用した。
[0161] そして、図 22 (a) , (b)の状況でそれぞれ撮影した画像における各条件式の評価 関数の頻度を求めることによって、最適な閾値を決定することができる。図 23—図 25 は各条件式の評価値を示すグラフである。ただし、これらの評価値は、撮像された画 面中央部の 160x160画素における評価値である。
[0162] 図 23は行列式を 3個のベクトルの長さで正規化した値、すなわち(式 20)において 絶対値を外したものの頻度を示すグラフである。また図 24は行列の最大固有値と最 小固有値の比を利用した条件数の値の頻度とその累積値を示すグラフである。さら に、図 25は (式 22)で示した、行列を三角化した際の対角成分の最小値の頻度とそ の累積値を示すグラフである。グラフ上に鎖線で示した閾値 Th2, Th3, Th4を定め ることによって、いずれの条件式においても、 3点の法線方向が等しいか否かの判別 を 90%以上の精度で実現できることが分かる。
[0163] なお、ここでは、行列 Aの行要素ベクトル a , a , aを用いる方法について説明した
1 2 3
力 もちろん、下のような列要素ベクトル b , b , bを用いてもかまわない。
1 2 3
[数 14]
«I I «13
A a2\ a22 a23 [b, b2 b3 ]
ai \ ai2 "33 ただし、 b, =
Figure imgf000037_0001
(i = 1,2,3)
[0164] このような法線方向検出を利用した線形化係数組の算出方法について、図 26のフ ローチャートを用いて説明する。図 26は図 6と基本的な処理の流れは同様であり、共 通するステップには同一の符号を付しており、ここではその詳細な説明を省略する。
[0165] 図 26に示すように、まず、初期化処理としてカウンタ kに 4 (ステップ S 11)、カウンタ iteに 1、 Num maxに 0、そして cに初期値 cを代入する(ステップ S61)。ここで初期
― 0
値 Cには、線形化係数組として存在しない値を設定することが望ましい。例えば、 C 0 0
= [000] Tなどとすればよい。
[0166] 次に、入力画像 kの画像内から 3点をランダムに選択する (ステップ S13)。ここで、 選択された 3点を (X , y ) , (x , y ) , (x , y )とする。この 3点を利用して、上述したよ
1 1 2 2 3 3
うな 3点の法線方向が等しいか否かの判別を行う(ステップ S62)。 3点の法線方向が 異なっているときは(S62で Yes)、選択された 3点を利用して線形化画像を作成し、 拡散反射領域の画素数 Num—dを評価指標として用いて、線形化係数組を評価す る(S14— S18)。一方、 3点の法線方向が等しいときは(S62で No)、線形ィ匕画像の 作成を行わないで、ステップ S 19に進む。
[0167] このようにして所定回数 (ite—th回)ランダムサンプリングを行った後(S19で Yes) 、 cに初期値 c以外の値が入っている力否かを調べる(ステップ S63)。もし初期値 c
0 0 のままのときは(S63で Yes)、入力画像 kのこの小領域については解が求まらないと 判断して処理を終了する(ステップ S64)。そして、他の入力画像の処理を行う(S22 , S23)。解が求まらないのは、この小領域内の法線方向がほとんど等しい場合、また は、この小領域では影や鏡面反射が支配的である場合である。解が求まらないと判 断された領域の処理については、後述する。
[0168] 一方、 cに初期値 c以外の値が入っているときは(S63で No)、入力画像 kの線形化
0
係数組 cとして cを選択し (ステップ S21)、入力画像 kの処理を終了する。そして、他 k
の入力画像の処理を行う(S22, S23)。
[0169] なお、ステップ S64において解が求まらないと判断された小領域については、画像 補間部 107によって、上述したような補間処理を行えばよい。
[0170] また、解が求まらないと判断された小領域については、再度、画像領域分割部 105 において小領域のサイズを大きくし、再度、処理を行うようにしてもよい。これは、処理 領域が広いほど、 3点の法線方向が等しくなる可能性が低くなるからである。ところが 、処理領域をあまり広くし過ぎてしまうと、平行光源仮定が成り立たなくなってしまう。 このため、処理領域の拡大は平行光源仮定が成り立つ範囲で行うようにすることが望 ましい。例えば、光源と対象物の距離を基準にして、(式 6)で示された
Ls = 2 - Dtan ( Θ /2)
Th
t ヽぅサイズの処理領域の大きさをまず設定し、もしその小領域にっ ヽて解が求まら ないとき、領域を拡大するようにすればよい。また、逆に、適当なサイズの処理領域を 設定し、解が求まるときはそのサイズを縮小していき、解が求まる最小のサイズの領 域を最適な処理領域として設定するようにしてもカゝまわない。この場合、光源と対象 物の距離は未知であってもよ!/、。 [0171] また、(1)線形化係数組の算出処理時に解が求まらないと判断されたとき、基底元 画像 I , 1 , 1を別の入力画像 I , 1 , 1に変更するようにしてもよい。この際、基底元画 像の選択のときと同様に、鏡面反射や影領域の少な ヽ画像を新し ヽ基底元画像とし て選択することが望ましい。
[0172] ただし、一部の c c c小二 領域のみについて基底元画像を変更してしまうと、上述の(式 13 )の関係式が成り立たなくなる。そこで、領域 , n)において、変更後の基底元画像
I , 1 , 1 を基にして生 基底画像 I , I , I ϋを、変更前の基底 、 -成した
元画像 I , 1 , 1
、 、 を基にして生成した基底画像 I I I
、 に変更する ことが望ましい。この処理について、説明する。
[0173] 基底画像は、線形化画像であることに着目すると、次の関係式が成り立つ。
[数 15]
Figure imgf000039_0002
(式 23) ここで、行列 C は未知であるが、これを求めることができれば、基底画像 I , I
B, I Bから基底画像 I B, I B, I Bを作成することができる。
、 、
[0174] 一方、領域 (m, n)の近傍領域 (m', η' )においては、変更前の基底元画像 I , , ,
Km ,)
I , I を基にして生成した基底画像 I I I が求まっているため
、次の関係式が成り立つている c
[数 16]
I )
I ', ) ) c
Figure imgf000039_0001
(式 24) ここで、行列 c と異なり、行列 c は既知である。また、上述したように、 形化係数組には相関があることに着目し、次のような仮定を導入する。
C =C (式 25) ここで、
[数 17]
Figure imgf000040_0004
(式 26) であることに着目すると、(式 23)、(式 25)、(式 26)から、行列 C は次のように求 まる。
[数 18]
c 一
, 一 Γ ,
Figure imgf000040_0001
(式 27)
(式 23)、(式 27)から、基底画像 I
Figure imgf000040_0002
から次の関係式によって求まる。
[数 19]
Figure imgf000040_0003
(式 28) ここで、近傍領域 (m n,)は、上述のように、 nearest neighborや 2次補間、重み付け 処理等によって最適なものを選べばよい。
[0175] なお、解が求まらな 、領域を検出するためには、法線方向を調べる手法だけでなく 、例えば、作成された基底画像や線形化画像の領域内でのエッジを調べる方法によ つても可能である。一般に、画像は近傍領域で滑らかに変化するという性質がある。 そこで、このエッジ情報を利用して、解が求まらない領域を検出する。
[0176] 図 27は上述した方法によって生成した基底画像の一例である。図 27において、領 域 81は解が求まり正確な基底画像が生成された領域、領域 82は正確な解が求まら ず、正確な基底画像が求まらな力つた領域である。
[0177] ところで、画像上のエッジは、次の 3つの要因によって生成されると考えられる。
1)テクスチャによるエッジ
2)複数個の物体間の境界や、奥行きが急激に変化する境界に生じるエッジ
3)影や鏡面反射とそれ以外の領域との境界によるエッジ
ここで、カメラと対象物は固定したまま光源環境を変更しつつ撮影したとき、画像上の エッジのうちその位置が変化するのは、 3)のエッジのみである。一方、基底画像や線 形化画像ではその性質上、 3)のエッジは存在しない。以上のことから、入力画像に は 1)、 2)、 3)のエッジが存在するが、基底画像や線形化画像には 1)と 2)のエッジし か存在しないことが分かる。すなわち、もし、基底画像や線形化画像が正しく求まって いる場合、次の関係式を満たす。
[数 20]
Edge{I H) Tj Edge(lk ) (式 33)
k ただし、 Edge (l)は画像 I力もエッジを抽出した結果を示す。
[0178] 図 28において、(a)は図 27の領域 81を拡大した図、(b)は各入力画像における領 域 81に対応する領域を示す図である。図 28から分力るように、領域 81については( 式 33)を満たしている。一方、図 29において、(a)は図 27の領域 82を拡大した図、( b)は各入力画像における領域 82に対応する領域を示す図である。図 29から分かる ように、領域 83のエッジは、いずれの入力画像(図 29 (b) )にも含まれておらず、した 力 Sつて領域 82は(式 33)を満たさない。これは、領域 82では解が求まらなかったから である。
[0179] このように、(式 33)を解が求まる力否かの判別式として利用することができる。すな わち、この(式 33)を満たす領域については正確な基底画像が求まっている力 満た さな 、領域にっ 、ては、正確な基底画像が求まって ヽな 、と判断すればよ!、。
[0180] また上述したように、解が求まらない小領域について、そのサイズを拡大して再度、 処理を行うようにしてもよいが、分割する小領域の変更は、その大きさだけに限られる ものではなぐ例えば、領域分割を行う位置を変更するようにしてもよい。 [0181] 図 30は 4個の球が置かれた状態を撮影した画像である。このとき、実線のように領 域分割を行うと、図 31 (a)に示すように、領域内に 1平面しか存在しないため線形ィ匕 画像を生成できない平面領域 84が生じる。一方、図 30を図 31 (b)のように領域分割 すると、いずれの領域も複数の法線方向を持っため、全ての領域において線形化画 像を生成することができる。したがって、解が求まらない小領域が存在するとき、領域 を分割する位置を変更するようにしてもょ 、。
[0182] また、図 15のように、小領域の設定を、領域同士に重なりがあるように行ってもかま わない。領域の大きさが一様でなぐまた、領域間に重なりがある場合でも、上述した ような補間処理によって線形化係数組を補間することができる。これは例えば、注目 領域の重心位置と近傍領域との距離、およびその近傍領域の拡散反射画素率など の信頼性などを利用して、重み付け補間を行うことによって実現できる。
[0183] もちろん、解が求まらないと判断された小領域は、領域分割から処理をやり直すの ではなぐ補間処理を行うようにしても力まわな 、。
[0184] また、小領域の分割方法を変更しながら複数の基底画像を作成し、作成した基底 画像を組み合わせることによって、最適な基底画像を作成するようにしてもかまわな い。この処理について詳述する。
[0185] 図 46 (a)は平面上におかれた 2個の球状物体 461、 462を撮影した画像を示して いる。このような状況において、光源位置を変えて、 K枚の画像を撮影し、これらの画 像を入力画像として線形化画像を作成する。
[0186] ここで、図 46 (b) , (c)に示したように、画面領域分割の切り出し位置を変更し、処 理を別々に行うことを考える。この図において、直線で区切られた領域が分割された 小領域を示している。
[0187] まず、領域 467について考える。図 46 (b)のように領域分割を行った場合、領域 46 7は切り出し領域 469に含まれる。この切り出し領域 469は図 46 (b)から明らかなよう に、球状物体 462が支配的であるため、基底画像が正しく求まっていると考えられる 。一方、図 46 (c)のように領域分割を行った場合、領域 467は切り出し領域 470に含 まれる。この切り出し領域 470は図 46 (c)から明らかなように、平面が支配的であるた め、前述のように基底画像が正しく求まらな ヽと考えられる。 [0188] 一方、領域 468について考える。図 46 (b)のように領域分割を行った場合、領域 4 67は切り出し領域 471に含まれる。この切り出し領域 471は図 46 (b)から明らかなよ うに、平面が支配的であるため、基底画像が正しく求まらないと考えられる。一方、図 46 (c)のように領域分割を行った場合、領域 467は切り出し領域 472に含まれる。こ の切り出し領域 472は図 46 (c)から明らかなように、球状物体 461が支配的であるた め、前述のように基底画像が正しく求まって ヽると考えられる。
[0189] このように、同じ入力画像を利用しても、領域分割の切り出し位置によって、基底画 像が正しく求まる領域と求まらない境域が変化する。そこで、切り出し位置を変更しな がら基底画像を作成する処理を複数回行い、さらに、こうして求まった複数の基底画 像から、正しく基底画像が求まっている領域のみを組み合わせることによって、正確 な基底画像を作成することができる。
[0190] このとき、正しく基底画像が求まっているかどうかを判断する評価関数が必要である ο 1
力 これは、例えば、定性的 3値表現 (例えば、「山ロ修、福井和広 "定性的 3値表 現に基づく画像マッチング",電子情報通信学会技術研究報告 PRMU2002 - 34, pp. 23-30, 2002」参照)を利用すればよい。定性的 3値表現とは、近傍画素との輝 度値の大小関係、同値関係を表現したものであり、光源変動に強い特徴量であること が知られている。ここで、図 47のような 8近傍における定性的 3値表現は、以下のよう に表現される。
[数 21]
- 1 if f,.K -fu > Th ≥Th
0 if|ん—ん, |≤7¾ 」≤ "
1 ifん -./ ≥7¾ Th ただし、 f は (i, j)における輝度値を示している。
[0191] 以下、処理の流れについて説明する。
[0192] まず、上述のように、領域分割の切り出し位置 Sを変更しながら基底画像を作成す る処理を複数回行い、複数の基底画像を作成する。ここで、切り出 Lf立置 Sで求めた 基底画像を [I B I B I B]とする。 [0193] こうして求まった複数の基底画像を図 48のように再度、小領域に分割し、領域ごと に定性的 3値表現を求める。この図において、直線で区切られた領域が分割された 小領域を示している。さらに、 K枚の入力画像 I , I の対応領域においても同様
1 2 K
に定性的 3値表現を求める。(X, y)における画像 Iの定性値 3値表現を QTR(I (x, y ) )と表現すると、領域 mの基底画像 [I B (m) I B (m) I B (m)]は以下のように表現さ
1 2 3
れる。
[数 22]
S二 arg maxl ∑∑∑ (ズ, , IJ(X,y) )
1 if QTR(W = QTR(I2 )
0 if QTR(I )≠QTR(I2 )
[0194] ここで、定性的 3値表現は 8近傍を利用したが、本手法はもちろんこれに限定される ものではない。例えば、水平方向、垂直方向のみの定性的 3値表現を用いてもかま わない。もちろん、評価関数として必ず定性的 3値表現を使う必要はなぐ例えば、前 述のエッジ情報や空間輝度勾配、増分符号相関 (例えば、「村瀬一朗、金子俊一、 五十嵐悟 "増分符号相関によるロバスト画像照合",電子情報通信学会論文誌, vo 1. J83-D-II, No. 5, pp. 1323— 1331, 2000」参照)などであっても力、まわな!/ヽ。
[0195] 図 51— 53はこの処理により基底画像を生成した様子を示している。図 51の入力画 像に対し、切り出し位置 Sを 16通り変えながら作成した基底画像を図 52に示す。この 図において、実線は分割された領域を示している。図 53は、こうして求めた 16枚の 基底画像から、定性値 3値表現を利用して合成した、基底画像を示している。このよう に、領域分割の切り出し位置を変更し、それぞれの切り出し位置で求まった基底画 像を組み合わせることで、正確な基底画像が作成できることがわかる。
[0196] (第 2の実施形態)
図 32は本発明の第 2の実施形態に係る画像処理方法を実行する画像処理装置の 構成を示す図である。図 32において、図 1と共通の構成要素には同一の符号を付し ており、ここではその詳細な説明を省略する。 [0197] 図 32の構成を図 1と対比すると、光源制御部 101の代わりに、撮像環境において 光源環境の変化を検出する光源環境変化検出部 109が設けられている。本実施形 態では、光源環境変化検出部 109によって光源環境の変化が検出されたとき、画像 入力部 102が撮像を行い、これによつて複数の画像を取得する。すなわち、本実施 形態では、光源を自ら制御するのではなぐ光源環境が変化したときに撮像を行うこ とによって、光源環境の異なる複数の画像を取得する。取得した画像は画像保持部 104に保持され、第 1の実施形態と同様の手法によって処理が行われる。
[0198] 光源環境変化検出部 109は例えば、照度計を有し、この照度計による計測値が変 化したとき、光源環境が変化したと判断する構成であればよい。照度計は撮影領域 の一部に 1個だけ取り付けてもよいし、複数個取り付けても力まわない。
[0199] あるいは、画面上の輝度値や RGB値などを測定し、この測定値が変化したとき、光 源環境が変化したと判断する構成であってもよい。このとき、画面上の一部または複 数部に測定対象領域を設定し、その領域の変化のみを調べるようにしても力まわな い。なお、このような測定対象領域は、変化が分力りやすいように、白色の領域に設 定することが望ましい。また、撮影領域に、例えば完全拡散反射を起し、鏡面反射を 生じな 、硫酸バリウムゃスぺクトラロンのような測定用対象物を設置し、その領域の輝 度値は RGB値の変化を検出するようにしてもょ 、。
[0200] また、光源環境は経時的に変化すると考えられるので、光源環境変化検出部 109 は、所定時間経過ごとに光学環境が変化したと判断するような構成としても力まわな い。この構成は、例えば窓力 太陽光が入り込んでいる環境において、特に有効で ある。
[0201] また、光源状態を実際に観察し、その変化を検出するようにしてもよい。上述したよ うに、光源状態の観察は、鏡面球を用いて光源状態を撮像したり、広角カメラを天井 方向に向けて光源を撮影したりすることによって実現できる。
[0202] また、撮像領域内において最も輝度が高い画素の位置を認識し、その位置が変化 したとき、光源環境が変化したと判断するようにしてもよい。これは、最も輝度が高い 画素は鏡面反射を起しているはずなので、この位置が動いたときは、光源位置が変 化したものと考えられる力もである。 [0203] あるいは、対象物に生じる影の位置が変化したとき、光源環境が変化したものとして 検出するようにしてもよい。
[0204] 以上のように本実施形態によると、光源を能動的に変化させなくても、第 1の実施形 態と同様に、線形ィ匕画像を生成することができる。
[0205] (第 3の実施形態)
図 33は本発明の第 3の実施形態に係る画像処理方法を実行する画像処理装置の 構成を示す図である。図 33において、図 1と共通の構成要素には同一の符号を付し ており、ここではその詳細な説明を省略する。
[0206] 図 33の構成を図 1と対比すると、光源制御部 101が省かれている。本実施形態で は、上述の方法によって基底画像が既に作成され、画像保持部 104に保持されてお り、画像入力部 102によって入力された画像の線形ィ匕画像を生成する。このため、基 底画像の生成を行う必要がな 、ので、高速に処理することができる。
[0207] 画像入力部 102によって入力された画像は、画像保持部 104に保持される。一方 、画像保持部 104には、既に基底画像が保持されている。このとき、入力画像と保持 されている基底画像とは、視点位置が同じであるものとする。これらの画像に対し、画 像領域分割部 105は上述の手法によって画像を小領域に分割する。そして、小領域 合成画像生成部 106は画像領域分割部 105によって分割された各小領域において 、第 1の実施形態で説明した「(3)入力画像の線形化」の手法によって、入力画像を 線形化する。さらに、解が求まらない領域については、画像補間部 107により、補間 処理を行い、線形化画像を生成する。この際、上述したように画像領域分割部 105 によって領域分割の方法を変更し、再度、処理を行うようにしても力まわない。
[0208] このように本実施形態では、既に作成された基底画像を画像保持部 104に保持す ることによって、入力画像に対する線形化画像を、より高速に生成することができる。
[0209] また本実施形態では、第 1の実施形態のように光源環境を変化させたり、第 2の実 施形態のように光源環境の変化を検出したりしないため、画像保持部 104に保持さ れた複数の入力画像について、光源環境が異なっている力否かは不明である。ただ し、もし、光源環境が等しい入力画像を検出することができれば、これを廃棄し、光源 環境が異なる複数の入力画像のみを準備することができる。 [0210] ここで、行列の縮退を調べることによって、 3点の法線方向が等しいか否かを判断で きることをすでに説明したが、光源環境が等しい場合も、同様に行列が縮退する。す なわち、同様の手法によって、光源環境が等しい画像を検出することができる。そこ で、光源環境が異なる画像のみを用いることが可能になり、したがって、光源環境を 能動的に変化させたり、光源環境の変化を検出したりしなくても、線形化画像を生成 することができる。
[0211] なお、上述した処理では、ランダムサンプリングにおいて 3点を選択し、 RANSAC を利用して、線形化係数組や基底画素値、さらには線形ィ匕画像を求めるものとしたが 、もちろん、他の方法を用いても力まわない。例えば、 4点以上の点をランダムサンプ リングし、それらの点から最小自乗法によって、最適な解を求めてもかまわない。また 、 RANSACの手法の代わりに、例えば、「向川康博,宫木一,三橋貞彦,尺長健 " Photometric Image-Based Renderingによる仮想照明画像の生成",情報処理学会論 文誌,コンピュータビジョンとイメージメディア, vol.41, no. SIG10 (CVIM1), pp.19- 30, 2000」に記載されたランダムサンプリングを利用した手法を用いてもかまわな!、。
[0212] なお、これまでの説明では、光源は単一光源とした力 複数光源であっても力まわ ない。このことについて説明する。
[0213] 図 34 (a)は 2個の光源 22A, 22Bが存在する環境において、対象物をカメラ 23に よって撮影している状況を示す模式図である。 2個の光源 22A, 22Bは色ベクトルが 等しい、すなわち同じ光源である。また、カメラ 23の焦点距離やゲイン、ホワイトバラ ンスは固定であるとする。
[0214] 図 34 (a)の状況において撮像される画像 I は、図 34 (b)のように光源 22Aのみが
A+B
存在するときの画像 Iと、図 34 (c)のように光源 22Bのみが存在するときの画像 Iとの
A B
和によって表される。すなわち、
I =1 +1 (式 29)
A+B A B
このとき、光源 22A, 22Bは同じ光源であるため、(式 2)より、 I , Iは次のように同じ
A B
基底ベクトルで表現される。
I =c 'ΐ +c 2I +c 3I (式 30)
A A 1 A 2 A 3
I =c 'i +c 2I +c 3I (式 31) (式 30) (式 31)を (式 29)に代入すると、次の関係式が導かれる。
I =1 +1
A+B A B
= (c + c 2I + c 3I ) + (c + c 2I + c 3i )
A 1 A 2 A 3 B 1 B 2 B 3
= (c i + c J) I + (c 2 + c 2) I + (c 3 + c 3) I
A B 1 A B 2 A B 3
c 'i + c ¾ + c 3I (式 32)
A+B 1 A+B 2 A+B 3
(式 32)より、光源が複数であっても色ベクトルが同じであれば、同様に処理可能であ ることがゎカゝる。
[0215] また、これまでの説明では、光源制御部 101が制御できる光源のみが存在する場 合を説明してきたが、太陽光や屋内照明のような外光が存在しても構わない。このこ とについて説明する。
[0216] 外光が存在する場合、実際に撮像される画像 Iは、次の式で表される。
1 =1 +1
[0217] ここで、 Iは光源制御部 101により制御される光源 13のみが照射されたときに撮像 される画像、 Iはそれ以外の外光のみによって照らされたときに撮像される画像を示 している。
[0218] 通常、このような外光は、光源制御部 101が光源を変化させるような短い時間にお いてはほとんど変化しないと考えられる。そこで、光源制御部 101が制御する光源 13 を消灯させた状態で画像 Iの撮像を行う。さらに、次の式に従い、すべての入力画像 Iからこの画像 Iの差分をとつた差分画像を、新しい入力画像 Γとする。
I ' =I =1-1
[0219] このような画像 Γを入力画像として利用することによって、外光が存在している環境 においても、上述の方法によって処理可能である。
[0220] また、光源の色ベクトルが異なる場合にっ 、ても、画素の輝度値を基準に考えると
、光源による輝度値の変化は線形に変化する。このため、色ベクトルが同じ場合と同 様に、上述の方法によって処理可能である。
[0221] また、上述の各実施形態では、 Shashuaの画像線形ィ匕を基にしたため、 3枚の基 底画像を用いる場合について説明したが、もちろん、本発明はこれに限られるもので はない。例えば、点光源が遠方に存在する場合、球面調和関数を利用することによ つて、画像を 9枚の基底画像の線形和によって表されることが知られている(例えば、 「Ronen Basn, Davia Jacoos, Photometric stereo with general, unknown lignting , IEEE Conference on Computer Vision and Pattern Recognition pp.11-374-381, 2001 」)。ところが、実際には、光源環境が一様でない場合や点光源仮定にならない環境 光などが存在する。この場合、画像領域を小領域に分割すると光源環境を一様にす ることができるため、やはり本発明は有効である。
[0222] また、基底画像の枚数は、光源状態によって切り替えるようにしても力まわない。例 えば、光源は単一で位置も固定、ただし放射輝度のみが異なる場合、基底画像は 1 枚でよぐ放射輝度の変化はゲインのみの変化によって表現される。また、光源が 2 個あるが、位置は固定、放射輝度のみが変化する場合、基底画像は 2枚でよい。これ は上述のように、 2個の光源に照らされた状態で撮像される画像は、各光源のみにお V、て撮像された画像の線形和に等 、ことから明らかである。
[0223] このような状況は、例えば家庭内の照明器具を光源として利用する場合などに有効 である。家庭内に設置された照明器具は通常、複数個あるが、その位置は固定され ている。また、インバータ照明であれば放射輝度は変化する。また放射輝度は、照明 のちらつきなどにより変化する。
[0224] 以上説明したような画像処理方法を実現する装置を、図 2のような家庭内作業ロボ ットに設けることによって、家庭内のような一般環境においても、作業を正確に行うこと ができる。光源環境を固定できる工場などと違い、家庭内では光源環境が大きく変化 するため、鏡面反射や影による画像処理精度の劣化が著しい。これは、例えばロボッ トが対象物を把持する際にその位置姿勢をステレオカメラ等によって計測するときに 、計測ミスを招く大きな要因となる。ロボットの例えば腕などのような可動部に光源を 設置し、その光源を動力ゝしながら画像を撮像することによって、本発明に係る画像処 理を行うことができる。このとき、鏡面反射などの影響が除去された線形化画像が生 成されるので、この線形ィ匕画像において対象物の位置計測を行うことによって、正確 な位置姿勢計測ができる。
[0225] なお、上述の説明では、対象物は固定であり、光源環境が変化することを前提にし ていたが、もちろん、本発明はこれに限られるものではない。例えば、光源が固定で あるが、対象物の位置姿勢が変化する場合であってもカゝまわない。この場合、対象物 の位置姿勢が変化した画像において特徴点抽出を行い、さら各画像間でその対応 点を求めることによって、画像間の対応関係を求めるようにすればよい。特徴点の抽 出や対応点検索は例えば、「J. Shi and C. Tomasi, "Good Features to Track," IEEE Conference on Computer Vision and Pattern Recognition ,1994, pp. 593—600, 1994 」のような手法を用いればょ 、。
[0226] なお、特許文献 4には、任意の照明を照らして撮影された物体の画像を合成する手 法が開示されているが、この手法は第 3の従来例と同様に平行光を前提としているた め、一般環境にそのまま適用することは極めて困難である。ところが、上述した本発 明の手法を適用することによって、一般環境である点光源においても実施できる。も ちろん、光源と対象物の両方を移動させてもカゝまわない。
[0227] また、上記の処理を利用して、突起物や窪みのように、光源からの距離が、周囲と 比べて極端に異なる領域を推定することも可能である。すなわち、画像処理によって 、対象物の突起物や窪みの位置を推定することができる。この処理について説明す る。
[0228] 図 49のように、対象物 21に、光源力もの距離が周囲に比べ、極端に異なる突起物 26が存在する場合を考える。ここで、対象物が拡散物体であると仮定し、カメラは図 4 9の光源 22の近傍に設置されているとする。このとき撮像される画像と、その画像を 利用して画像の線形化を行ない、光学特性に基づき分類した結果を示した模式図を 図 50 (a)、(b)に示す。図 50 (b)において、黒色領域 27が拡散反射領域と分類され た領域を、また、白色領域 28が未定義領域または鏡面反射領域と分類された領域を 示している。本来、影領域が存在するが、ここでは説明を簡単にするために省略して いる。この図から、光源力もの距離がほぼ等しい対象物は正確に拡散反射領域と分 類されて!ヽるが、拡散物体である突起物 26はその分類に失敗して ヽることがゎカゝる。
[0229] これは以下の理由による。画像の線形ィ匕は前述のように RANS ACを利用して行な つているため、撮像範囲内で拡散反射領域と分類された画素数 Num—dが最大とな る線形化画像が作成される。また、前述のように、画像の線形化が正確に動作するた めには、光源からの距離がほぼ等しい領域のみで処理を行なう必要がある。ここで、 図 6のフローチャートで示した線形化係数組の算出処理におけるステップ SI 3の 3点 の選択処理を考える。ここで、突起物から 3点が選択された場合、その 3点における 光源との距離 Dとほぼ等しい光源との距離をもつ領域のみが拡散反射領域と分類さ れる。そのため、拡散反射領域と分類される画素数 Num—dは非常に小さくなる。一 方、突起物ではない対象物から 3点が選択された場合、拡散反射領域と分類される 領域は、その 3点における、光源との距離 Dとほぼ等しい光源との距離をもつ領域と なるが、この領域は対象物において支配的である。そのため、拡散反射領域と分類さ れる画素数 Num—dは非常に大きくなる。そのため、図 50 (b)のように、光源からの 距離がほぼ等しい対象物は正確に拡散反射領域と分類されるが、拡散物体であるは ずの突起物 26はその分類に失敗してしまう。
[0230] 以上のことから、突起物や窪みのように、光源力もの距離が、周囲と比べ極端に異 なる被写体領域を推定することが可能である。つまり、対象物が鏡面反射を起こさな いことが既知の場合、鏡面反射領域または未定義領域に分類される領域は、周囲と 比べ極端に異なる領域であると判断する。
[0231] 鏡面反射や影の影響の除去は、前述のように対象物の位置 ·姿勢検出といった 3 次元計測に利用されることがある。上記の手法により、突起物や窪みの位置を推定 することは、 3次元計測を直接行なっているため、非常に有効である。
[0232] もちろん、このように画像の線形ィ匕処理が正確に求まらな 、領域を作らな 、ために 、画像領域分割部 105による小領域分割を、光源力ゝらの距離がほぼ等しい領域ごと に行うようにしてもかまわな!/、。
[0233] また、本発明に係る画像処理は、バイオメトリック認証などで特に有効である。顔認 証や虹彩認証において、鏡面反射による映り込みは画像のノイズとなり、認証精度の 劣化を招いてしまう。これに対して本発明では、拡散反射のみの画像である線形ィ匕 画像を生成できるため、鏡面反射による認証精度の劣化を防ぐことができる。
[0234] 例えば、顔認証を行う場合、光源環境を変更した画像を複数枚撮影し、それらの画 像から固定照明環境の線形化画像を作成し、その線形化画像を利用して認証処理 を行えばよい。これは、車内での人物認証などに特に有効である。本発明では、対象 の位置は固定であることが望ましいが、車内では人物はシート上にしか存在しないた め、認証対象は固定されていると仮定することが可能である。
[0235] また、携帯端末を用いた認証に本発明を適用してもよい。図 35はある人物 91が携 帯端末 92を利用して顔認証を行っている図である。携帯端末 92はカメラと複数の L ED光源を有しており(図示は省略)、第 1の実施形態に係る画像処理を実行可能に 構成されている。そして、生成した線形化画像を利用して、従来の方法によって顔認 証を行う。
[0236] 画像入力部 102としてのカメラが撮影を行う際、携帯端末 92内の光源制御部 101 は複数の LED光源を順に点灯させる。これにより、光源環境が異なる複数の画像を 撮像することができる。この際、手ブレなどによりカメラ位置がずれてしまう可能性が 高いため、ジャイロなど、手ブレ補正処理を導入することが望ましい。
[0237] ここで、光源となりうるものとして、携帯端末 92に設けられた複数の LED光源の他 に、環境光源 93が存在している。図 36 (a)は図 35の状況で撮影した画像の一例で ある。図 36 (a)から分力るように、認証を行う人物領域 94とその背景領域 95とでは光 源環境が全く異なる。これは、背景が空などの場合に特に顕著である。人物領域 94 では、携帯端末 92に十分近いため、その光源の影響を強く受ける。一方、背景領域 95では、携帯端末 92からは相当遠いため、その光源の影響はほとんど受けず、した 力 て環境光源 93が支配的になる。このため、光源環境が全く異なる領域が一枚の 画像上に共存することになり、第 3の従来例では、線形化係数を推定することが難し ぐ信頼性の低い線形ィヒ画像を作成してしまい、この結果、認証精度を劣化させる。
[0238] 一方、本発明では、図 36 (b)に示すように、画像を小領域 96に分割して処理を行う ため、人物領域 94における各小領域では、背景領域 95との境界を含む小領域を除 き、光源環境は等しくなる。このため、信頼性の高い線形化画像を生成することがで き、この結果、認証精度を向上させることができる。
[0239] また、本発明に係る画像処理は、画像を提示する際に適用してもよ ヽ。これは、例 えばカットされた宝石や金属のように、鏡面反射が非常に強 、対象物にぉ 、て特に 有効である。このような対象物は鏡面反射が強すぎるため、その形状を黙視で確か めることが難しい。ところが、本発明を適用することによって、鏡面反射が生じていな V、画像を生成できるので、形状を確認するのに適した画像を提示することができる。 [0240] また、基底画像を線形結合することによって任意光源の画像を生成することができ るので、光源環境が異なった画像を容易に生成することができる。これにより、ある対 象物について、様々な光源環境における見え方を前もって確かめることが可能にな る。これは例えば、家庭内のインテリアを検討するときに有効である。例えば、椅子を 購入する際、その椅子を家のリビングに置いたときどのように見えるのかは、光源環 境に大きく依存する。朝と夕方とで印象が全く異なることも多々ある。このため、その 椅子の画像を、光源環境を変えて提示することによって、購入者は、様々な光源環 境における実際の見え方を前もって確かめることができる。
[0241] なお、本発明に係る画像処理方法は、そのステップの全部または一部を、専用の ハードウェアを用いて実現しても力まわないし、または、コンピュータのプログラムによ つてソフトウェア的に実現しても力まわない。例えば、本発明の各実施形態に係る画 像処理方法は、当該方法を実現するためのプログラムを、コンピュータに実行させる こと〖こよって、実現することができる
産業上の利用可能性
[0242] 本発明に係る画像処理は、光源環境が複雑な状況下でも、非常に簡易な構成によ つて、鏡面反射が生じな!/、理想状態での画像である線形化画像を生成することがで き、鏡面反射や影の影響を除去できるので、例えば、家庭内用ロボットや自動車など の画像処理装置、または、認証装置や画像提示装置等に有用である。

Claims

請求の範囲
[1] 同一の対象物を撮影した複数の入力画像を取得する第 1ステップと、
取得した各入力画像を、共通に、複数の小領域に分割する第 2ステップと、 分割した各小領域にっ ヽて、各入力画像から基底画像を生成する第 3ステップと、 基底画像が生成不能であった小領域にっ 、て、その近傍小領域における基底画 像生成に係る演算値を用いた補間処理によって、基底画像を生成する第 4ステップ とを備え、
生成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化 画像を、生成する
ことを特徴とする画像処理方法。
[2] 請求項 1において、
生成された線形化画像を用いて、画像処理を行うステップを備えた
ことを特徴とする画像処理方法。
[3] 請求項 2において、
前記画像処理は、対象物の光学特性に基づいた領域分離、対象物識別、対象物 3次元位置 ·形状推定のうちの少なくとも 1つの処理を、含む
ことを特徴とする画像処理方法。
[4] 請求項 1において、
前記対象物を、光源環境を変化させつつ、撮影し、前記複数の画像を取得する ことを特徴とする画像処理方法。
[5] 請求項 4において、
前記複数の画像において、前記対象物に生じる影の位置が異なるように、光源を 制御する
ことを特徴とする画像処理方法。
[6] 請求項 1において、
前記対象物を、光源環境の変化を検出したとき、撮影し、前記複数の画像を取得 する
ことを特徴とする画像処理方法。
[7] 請求項 6において、
前記対象物に生じる影の位置が変化したとき、光源環境が変化したものと検出する ことを特徴とする画像処理方法。
[8] 請求項 1において、
前記第 3ステップは、
K枚の入力画像から、 N (Nは正の整数: N< K)枚の基底元画像を選択するステツ プと、
残り(K N)枚の入力画像について、前記 N枚の基底元画像を用いて、線形化係 数組をそれぞれ決定するステップと、
決定した線形化係数組を用いて前記 N枚の基底元画像を線形化し、 N枚の基底画 像を生成するステップとを備えた
ことを特徴とする画像処理方法。
[9] 請求項 8において、
Nは 3である
ことを特徴とする画像処理方法。
[10] 請求項 8において、
前記線形化係数組決定ステップにお 、て、
当該入力画像カゝら所定数の点をランダムに選択し、この所定数の点から、線形ィ匕 係数組候補を求めるともに、その確からしさを示す評価指標の値を求める候補算出 処理を、繰り返し実行し、
前記評価指標の値が最も確から 、線形化係数組候補を、当該入力画像の線形 化係数組として決定する
ことを特徴とする画像処理方法。
[11] 請求項 10において、
前記候補算出処理は、前記所定数の点の法線方向が互いに異なっている力否か を判断するステップを含み、
繰り返し毎に選択した前記所定数の点が、いずれも、その法線方向が互いに等し いと判断したとき、当該小領域は、基底画像が生成不能と判断する ことを特徴とする画像処理方法。
[12] 請求項 8において、
前記第 4ステップは、
当該小領域の線形化係数組を、その近傍小領域について求められた線形化係数 組を用いて、補間するものである
ことを特徴とする画像処理方法。
[13] 請求項 12において、
補間の際に、各近傍小領域の線形化係数組に係る前記評価指標の値を、加味す る
ことを特徴とする画像処理方法。
[14] 請求項 8において、
前記第 3ステップは、
前記 N枚の基底画像を用いて、前記入力画像の少なくともいずれか 1つと光源環 境が共通する線形化画像を生成するステップを含む
ことを特徴とする画像処理方法。
[15] 請求項 1において、
前記第 2ステップは、
平行光源とみなせる光の広がりの上限値、光源と対象物との距離、カメラと対象物と の距離、およびカメラパラメータに基づいて、小領域のサイズを決定する
ことを特徴とする画像処理方法。
[16] 請求項 1において、
基底画像が生成不能の小領域にっ 、て、前記第 4ステップにおける補間処理に代 えて、そのサイズを変更し、再度、前記第 3ステップを実行する
ことを特徴とする画像処理方法。
[17] 請求項 1において、
基底画像が生成不能の小領域にっ 、て、前記第 4ステップにおける補間処理に代 えて、前記小領域の切り出し位置を変更し、再度、前記第 3ステップを実行する ことを特徴とする画像処理方法。
[18] 請求項 1において、
前記複数の入力画像は、光源が複数存在する環境において、撮影されたものであ る
ことを特徴とする画像処理方法。
[19] 請求項 1において、
前記複数の入力画像は、家庭内で、撮影されたものである
ことを特徴とする画像処理方法。
[20] 請求項 1において、
家庭内で作業を行うロボットにお 、て、実行される
ことを特徴とする画像処理方法。
[21] 請求項 1において、
前記対象物は、人の顔である
ことを特徴とする画像処理方法。
[22] 請求項 1において、
バイオメトリタス認証に利用される
ことを特徴とする画像処理方法。
[23] 請求項 2において、
前記画像処理は、前記対象物が有する突起物または窪みの位置を推定する処理 である
ことを特徴とする画像処理方法。
[24] 同一の対象物を撮影した複数の入力画像を取得する画像入力部と、
前記画像入力部によって取得された各入力画像を、共通に、複数の小領域に分割 する画像領域分割部と、
前記画像領域分割部によって分割された各小領域について、各入力画像から基 底画像を生成する小領域合成画像生成部と、
前記小領域合成画像生成部にぉ 、て基底画像が生成不能であった小領域にっ ヽ て、その近傍小領域における基底画像生成に係る演算値を用いた補間処理によつ て、基底画像を生成する画像補間部とを備え、 生成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化 画像を、生成する
ことを特徴とする画像処理装置。
コンピュータに、画像処理を実行させるプログラムであって、
同一の対象物を撮影した複数の入力画像を、共通に、複数の小領域に分割するス テツプと、
分割した各小領域にっ ヽて、各入力画像から基底画像を生成するステップと、 基底画像が生成不能であった小領域にっ 、て、その近傍小領域における基底画 像生成に係る演算値を用いた補間処理によって、基底画像を生成するステップと、 生成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化 画像を、生成するステップと
をコンピュータに実行させる画像処理プログラム。
PCT/JP2005/003453 2004-07-26 2005-03-02 画像処理方法、画像処理装置および画像処理プログラム Ceased WO2006011261A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006528350A JP3935499B2 (ja) 2004-07-26 2005-03-02 画像処理方法、画像処理装置および画像処理プログラム
US11/141,308 US7203362B2 (en) 2004-07-26 2005-05-31 Image processing method, image processing apparatus, and image processing program
US11/591,778 US7236630B2 (en) 2004-07-26 2006-11-02 Image processing method, image processing apparatus, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004217864 2004-07-26
JP2004-217864 2004-07-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/141,308 Continuation US7203362B2 (en) 2004-07-26 2005-05-31 Image processing method, image processing apparatus, and image processing program

Publications (1)

Publication Number Publication Date
WO2006011261A1 true WO2006011261A1 (ja) 2006-02-02

Family

ID=35657190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/003453 Ceased WO2006011261A1 (ja) 2004-07-26 2005-03-02 画像処理方法、画像処理装置および画像処理プログラム

Country Status (3)

Country Link
US (2) US7203362B2 (ja)
JP (1) JP3935499B2 (ja)
WO (1) WO2006011261A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008298703A (ja) * 2007-06-04 2008-12-11 Toyohashi Univ Of Technology 表面欠陥自動検査装置および検査方法
WO2009019887A1 (ja) * 2007-08-07 2009-02-12 Panasonic Corporation 画像処理装置および画像処理方法
JP2009524885A (ja) * 2006-01-27 2009-07-02 タンデント ビジョン サイエンス インコーポレーティッド 画像処理用の二光源二色性反射モデル
JPWO2020105679A1 (ja) * 2018-11-21 2021-10-07 ソニーグループ株式会社 ワーク判別システム、ワーク判別装置及びワーク判別方法

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3971783B2 (ja) * 2004-07-28 2007-09-05 松下電器産業株式会社 パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム
CN1910623B (zh) * 2005-01-19 2011-04-20 松下电器产业株式会社 图像变换方法、纹理映射方法、图像变换装置和服务器客户机系统
US9092458B1 (en) 2005-03-08 2015-07-28 Irobot Corporation System and method for managing search results including graphics
KR100624387B1 (ko) * 2005-04-25 2006-09-20 엘지전자 주식회사 주행영역 지정이 가능한 로봇 시스템
US9002511B1 (en) * 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
JP4201207B2 (ja) * 2005-11-21 2008-12-24 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
JP4566120B2 (ja) * 2005-11-21 2010-10-20 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
US8976173B2 (en) * 2006-01-27 2015-03-10 Tandent Vision Science, Inc. Bi-illuminant dichromatic reflection model for image manipulation
US7995058B2 (en) * 2006-01-27 2011-08-09 Tandent Vision Science, Inc. Method and system for identifying illumination fields in an image
KR100801087B1 (ko) * 2006-07-05 2008-02-11 삼성전자주식회사 스트럭처드 라이트를 이용한 이동체 감지 시스템 및 방법,상기 시스템을 포함하는 이동 로봇
US7894662B2 (en) * 2006-10-11 2011-02-22 Tandent Vision Science, Inc. Method for using image depth information in identifying illumination fields
US8319821B2 (en) * 2007-06-05 2012-11-27 Tandent Vision Science, Inc. Polarization-based shadow detection
US7760912B2 (en) * 2007-08-01 2010-07-20 Tandent Vision Science, Inc. Image segregation system with method for handling textures
CN101542232B (zh) * 2007-08-07 2011-10-19 松下电器产业株式会社 法线信息生成装置以及法线信息生成方法
US7995854B2 (en) * 2008-03-28 2011-08-09 Tandent Vision Science, Inc. System and method for identifying complex tokens in an image
US20100142846A1 (en) * 2008-12-05 2010-06-10 Tandent Vision Science, Inc. Solver for image segregation
US8260050B2 (en) * 2008-12-05 2012-09-04 Tandent Vision Science, Inc. Test bed for optimizing an image segregation
US8139850B2 (en) * 2008-12-05 2012-03-20 Tandent Vision Science, Inc. Constraint generation for use in image segregation
US8139867B2 (en) 2008-12-05 2012-03-20 Tandent Vision Science, Inc. Image segregation system architecture
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法
JP5357902B2 (ja) * 2009-01-06 2013-12-04 パナソニック株式会社 撮像装置向き検出装置および当該装置を備える移動体
JP5517685B2 (ja) * 2009-04-14 2014-06-11 キヤノン株式会社 画像処理装置および方法
US8391634B1 (en) * 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US8194975B2 (en) * 2009-06-29 2012-06-05 Tandent Vision Science, Inc. Use of an intrinsic image in face recognition
AU2010291852B2 (en) 2009-09-03 2015-01-22 Commonwealth Scientific And Industrial Research Organisation Illumination spectrum recovery
AU2015202072B2 (en) * 2009-09-03 2017-05-25 Commonwealth Scientific And Industrial Research Organisation Illumination spectrum recovery
WO2011027190A1 (en) * 2009-09-04 2011-03-10 Tannhäuser, Gunter Mobile wide-angle video recording system
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
US8639038B2 (en) * 2010-06-18 2014-01-28 National Ict Australia Limited Descriptor of a hyperspectral or multispectral image
DE102010034987A1 (de) * 2010-08-20 2012-03-01 Steinbichler Optotechnik Gmbh Verfahren zur 3D-Digitalisierung eines Objekts mit veränderlicher Oberfläche
US20120062719A1 (en) * 2010-09-09 2012-03-15 University Of Southern California Head-Mounted Photometric Facial Performance Capture
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
JP5744510B2 (ja) * 2010-12-28 2015-07-08 キヤノン株式会社 画像処理方法
JP5780053B2 (ja) * 2011-08-22 2015-09-16 富士通株式会社 生体認証装置、生体認証方法、及びプログラム
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
GB201117804D0 (en) 2011-10-14 2011-11-30 Siemens Medical Solutions Automatic local contrast quantification tool
EP2669845A3 (en) * 2012-06-01 2014-11-19 Ricoh Company, Ltd. Target recognition system, target recognition method executed by the target recognition system, target recognition program executed on the target recognition system, and recording medium storing the target recognition program
US8610976B1 (en) * 2012-06-27 2013-12-17 3M Innovative Properties Company Image enhancement methods
US20140002722A1 (en) * 2012-06-27 2014-01-02 3M Innovative Properties Company Image enhancement methods
US9912847B1 (en) * 2012-09-25 2018-03-06 Amazon Technologies, Inc. Image capture guidance to reduce specular reflection effects
US8670621B1 (en) * 2012-11-06 2014-03-11 Alex Simon Blaivas Using invariants of spherical harmonics to rotational and translational transformations for image recognition in industrial and security applications
US9857470B2 (en) * 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9044863B2 (en) * 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
JP2014174132A (ja) * 2013-03-13 2014-09-22 Ricoh Co Ltd 光学センサ及び画像形成装置
JP5841587B2 (ja) * 2013-12-25 2016-01-13 株式会社Pfu 撮像システム
WO2016002258A1 (ja) * 2014-06-30 2016-01-07 富士フイルム株式会社 光音響画像生成装置、信号処理装置、及び光音響画像生成方法
US9727945B1 (en) 2016-08-30 2017-08-08 Alex Simon Blaivas Construction and evolution of invariants to rotational and translational transformations for electronic visual image recognition
US9858638B1 (en) 2016-08-30 2018-01-02 Alex Simon Blaivas Construction and evolution of invariants to rotational and translational transformations for electronic visual image recognition
US10559095B2 (en) * 2016-08-31 2020-02-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and medium
WO2018097677A1 (en) * 2016-11-28 2018-05-31 Samsung Electronics Co., Ltd. Image processing apparatus, image processing method, and computer-readable recording medium thereof
CN107943067B (zh) * 2017-10-17 2020-05-15 哈尔滨工业大学(威海) 一种基于集群控制的无人机编队方法、装置及系统
US10401563B2 (en) * 2017-12-14 2019-09-03 Ofs Fitel, Llc Optical fibers for simultaneous measurement of temperature and strain
KR102770795B1 (ko) * 2019-09-09 2025-02-21 삼성전자주식회사 3d 렌더링 방법 및 장치
US20230009925A1 (en) * 2019-12-09 2023-01-12 Konica Minolta, Inc. Object detection method and object detection device
CN111696067B (zh) * 2020-06-16 2023-04-07 桂林电子科技大学 一种基于图像融合系统的宝石图像融合方法
WO2022202775A1 (en) * 2021-03-23 2022-09-29 Ricoh Company, Ltd. Imaging device, imaging method, and information processing device
US20230034076A1 (en) * 2021-07-30 2023-02-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US20240265624A1 (en) * 2023-02-06 2024-08-08 Nec Corporation Of America Controlled illumination for improved 3d model reconstruction

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118074A (ja) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd 3次元画像作成方法、3次元画像作成装置及びプログラム記録媒体
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0538688A (ja) 1991-07-30 1993-02-19 Nok Corp 産業用ロボツトシステムの座標系較正方法
US6205259B1 (en) * 1992-04-09 2001-03-20 Olympus Optical Co., Ltd. Image processing apparatus
DE69734747T2 (de) * 1996-03-22 2006-07-27 Canon K.K. Verfahren und Gerät zur Bildverarbeitung
JP3580670B2 (ja) * 1997-06-10 2004-10-27 富士通株式会社 入力画像を基準画像に対応付ける方法、そのための装置、及びその方法を実現するプログラムを記憶した記憶媒体
US6088470A (en) 1998-01-27 2000-07-11 Sensar, Inc. Method and apparatus for removal of bright or dark spots by the fusion of multiple images
JP2961264B1 (ja) 1998-09-21 1999-10-12 工業技術院長 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000115539A (ja) * 1998-09-30 2000-04-21 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置及び記録媒体
JP2001014454A (ja) * 1999-06-29 2001-01-19 Sharp Corp 画像処理装置
JP4207336B2 (ja) * 1999-10-29 2009-01-14 ソニー株式会社 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造
JP3459981B2 (ja) 2000-07-12 2003-10-27 独立行政法人産業技術総合研究所 拡散および鏡面反射成分の分離方法
JP3529709B2 (ja) 2000-07-26 2004-05-24 晃 赤岡 手摺りの取付構造
JP4756148B2 (ja) 2001-09-06 2011-08-24 独立行政法人情報通信研究機構 光沢・色再現システム、光沢・色再現プログラム
JP3940690B2 (ja) 2002-03-25 2007-07-04 株式会社東芝 画像処理装置及びその方法
JP2004054947A (ja) 2002-07-16 2004-02-19 Nec Corp 物体照合システム、物体照合方法および物体照合プログラム
WO2004049242A2 (en) * 2002-11-26 2004-06-10 Digimarc Id Systems Systems and methods for managing and detecting fraud in image databases used with identification documents

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118074A (ja) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd 3次元画像作成方法、3次元画像作成装置及びプログラム記録媒体
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ISHII T. ET AL: "Kogaku Gensho no Bunrui ni Motoduku Gazo no Senkeika", TRANSACTIONS OF INFORMATION PROCESSING SOCIETY OF JAPAN COMPUTER VISION TO IMAGE MEDIA, INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 44, no. SIG5(VIM 6), 15 April 2003 (2003-04-15), pages 11 - 21, XP002996501 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009524885A (ja) * 2006-01-27 2009-07-02 タンデント ビジョン サイエンス インコーポレーティッド 画像処理用の二光源二色性反射モデル
JP2008298703A (ja) * 2007-06-04 2008-12-11 Toyohashi Univ Of Technology 表面欠陥自動検査装置および検査方法
WO2009019887A1 (ja) * 2007-08-07 2009-02-12 Panasonic Corporation 画像処理装置および画像処理方法
US7936944B2 (en) 2007-08-07 2011-05-03 Panasonic Corporation Image processing device and image processing method
CN101542233B (zh) * 2007-08-07 2011-12-28 松下电器产业株式会社 图像处理装置以及图像处理方法
JPWO2020105679A1 (ja) * 2018-11-21 2021-10-07 ソニーグループ株式会社 ワーク判別システム、ワーク判別装置及びワーク判別方法
JP7435464B2 (ja) 2018-11-21 2024-02-21 ソニーグループ株式会社 ワーク判別システム、ワーク判別装置及びワーク判別方法

Also Published As

Publication number Publication date
US7236630B2 (en) 2007-06-26
JP3935499B2 (ja) 2007-06-20
US20070092132A1 (en) 2007-04-26
US7203362B2 (en) 2007-04-10
JPWO2006011261A1 (ja) 2008-05-01
US20060018539A1 (en) 2006-01-26

Similar Documents

Publication Publication Date Title
WO2006011261A1 (ja) 画像処理方法、画像処理装置および画像処理プログラム
JP6248208B2 (ja) 視線方向を決定するための3d画像分析装置
US9437035B2 (en) Light source detection from synthesized objects
RU2658874C1 (ru) Устройство удаления тумана и способ формирования изображений
WO2015070723A1 (zh) 眼部图像处理方法和装置
WO2012039139A1 (ja) 瞳孔検出装置及び瞳孔検出方法
US20070047773A1 (en) Digital processing of an iris image
US11721063B1 (en) Systems and methods for dynamic image rendering using a depth map
US20160093028A1 (en) Image processing method, image processing apparatus and electronic device
EP4327547B1 (en) Selective image signal processing
JP2004310475A (ja) 画像処理装置、画像処理を行う携帯電話、および画像処理プログラム
WO2023215371A1 (en) System and method for perceptually optimized image denoising and restoration
CN117274383A (zh) 视点预测方法及装置、电子设备和存储介质
KR20150032764A (ko) 인위적으로 디포커스된 블러 이미지를 생성하는 방법 및 이미지 캡쳐링 디바이스
JP6232933B2 (ja) 放射歪み補正装置、道路環境認識装置、放射歪み補正方法およびプログラム
EP2817959B1 (en) Vision system comprising an image sensor and means for analysis and reducing loss of illumination towards periphery of the field of view using multiple frames
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
JPWO2018011928A1 (ja) 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム
Fathy et al. Benchmarking of pre-processing methods employed in facial image analysis
KR101444207B1 (ko) 요철형 패턴 영상 획득 장치 및 방법
JP2020004389A (ja) ビデオシーケンスにおいて動きを検出するための方法
KR101276792B1 (ko) 눈 검출 장치 및 방법
JP4171354B2 (ja) カラー画像処理装置及び方法
KR20150109901A (ko) 객체 검출 방법
JP6686890B2 (ja) 情報処理装置、情報処理方法、及び、プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 11141308

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 11141308

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006528350

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase