JP2019159433A - Image recognition system - Google Patents
Image recognition system Download PDFInfo
- Publication number
- JP2019159433A JP2019159433A JP2018041332A JP2018041332A JP2019159433A JP 2019159433 A JP2019159433 A JP 2019159433A JP 2018041332 A JP2018041332 A JP 2018041332A JP 2018041332 A JP2018041332 A JP 2018041332A JP 2019159433 A JP2019159433 A JP 2019159433A
- Authority
- JP
- Japan
- Prior art keywords
- image information
- information
- product
- identification information
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 283
- 230000010365 information processing Effects 0.000 claims abstract description 45
- 238000000034 method Methods 0.000 claims description 132
- 230000008569 process Effects 0.000 claims description 110
- 238000010606 normalization Methods 0.000 claims description 38
- 238000003384 imaging method Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims 5
- 238000012937 correction Methods 0.000 description 50
- 238000010586 diagram Methods 0.000 description 16
- 238000005286 illumination Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 235000013405 beer Nutrition 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 229910052738 indium Inorganic materials 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は,画像情報に写っている商品などの対象物の識別情報の特定を精度よく行うための画像認識システムに関する。 The present invention relates to an image recognition system for accurately identifying identification information of an object such as a product shown in image information.
小売業界においては,商品の陳列状況が商品の販売に影響することが知られている。そのため,商品の製造会社,販売会社としては,自社または他社のどのような商品が店舗に陳列されているのかを把握することで,自社商品の開発戦略,販売戦略につなげることができる。 In the retail industry, it is known that the display status of products affects the sales of products. For this reason, as a product manufacturer and sales company, it is possible to connect to the development strategy and sales strategy of their own products by grasping what products of their own or other companies are displayed in the store.
一方,その実現のためには,店頭に陳列されている商品の正確な特定が重要である。そこで,店舗の陳列棚を撮影し,その画像情報から陳列されている商品を,人間が手作業で特定をすることが考えられる。この場合,ほぼ正確に商品を特定することができる。しかし,商品の陳列状況を継続的に把握するためには,一定期間ごとにその陳列状況を把握しなければならないが,店舗の陳列棚を撮影した画像情報から毎回,人間が商品を特定するのは負担が大きく,また非効率である。 On the other hand, in order to achieve this, it is important to accurately identify the products displayed in stores. Therefore, it is conceivable that a store display shelf is photographed, and a product displayed on the basis of the image information is manually specified by a human. In this case, the product can be specified almost accurately. However, in order to keep track of the display status of products, it is necessary to monitor the display status at regular intervals. Humans specify products every time from image information of store shelves. Is burdensome and inefficient.
そこで店舗の陳列棚を撮影した画像情報から,そこに陳列されている商品を自動的に特定し,商品の陳列状況を把握することが求められる。たとえば商品ごとの標本画像をもとに,店舗の陳列棚を撮影した画像に対して画像認識技術を用いる方法がある。これらの従来技術として,たとえば,下記特許文献1乃至特許文献3に示すような技術を用いて,商品の陳列状況を管理するシステムが存在する。 Therefore, it is required to automatically identify the products displayed on the display information of the store shelves and grasp the display status of the products. For example, there is a method of using an image recognition technique for an image obtained by photographing a display shelf of a store based on a sample image for each product. As these conventional techniques, for example, there is a system that manages the display status of products using techniques as shown in Patent Documents 1 to 3 below.
また小売業界以外においても,何らかの対象物を撮影し,撮影した画像情報に写っている対象物を特定することが求められる場合もある。 Also, outside the retail industry, it may be required to take an image of some object and specify the object shown in the captured image information.
特許文献1の発明は,商品をどの陳列棚に陳列すべきかが知識のない者にもできるように支援するシステムである。そのため,実際に陳列されている商品を把握することはできない。また特許文献2は,商品の陳列を支援する棚割支援システムにおいて,商品画像の入力を支援するシステムである。しかし特許文献2のシステムでは,棚割支援システムを利用する際の商品画像の入力を支援するのみであって,このシステムを用いたとしても,実際に陳列されている商品を把握することはできない。 The invention of Patent Document 1 is a system that supports a person who has no knowledge on which display shelf a product should be displayed. For this reason, it is impossible to grasp the products that are actually displayed. Patent Document 2 is a system that supports the input of product images in a shelf allocation support system that supports the display of products. However, the system of Patent Document 2 only supports the input of product images when using the shelf allocation support system, and even if this system is used, the products actually displayed cannot be grasped. .
特許文献3は,陳列棚に空き空間がある場合に,その空き空間に陳列すべき商品を特定したり,陳列棚に陳列すべき商品を置き間違えた場合にそれを通知する発明である。この発明でも,商品と,陳列棚に陳列されている商品との画像マッチング処理を行って,陳列棚に陳列されている商品を特定しているが,認識精度が低いのが実情である。 Patent Document 3 is an invention that, when there is a vacant space in a display shelf, specifies a product to be displayed in the vacant space, or notifies the user when a product to be displayed in the display shelf is misplaced. Even in this invention, the image matching process between the product and the product displayed on the display shelf is performed to identify the product displayed on the display shelf, but the reality is that the recognition accuracy is low.
陳列棚を撮影した画像に対して,商品の標本画像をもとに画像認識技術を用いる場合,標本画像と,陳列棚を撮影した画像における商品の陳列部分の部分画像との画像特徴量同士の類似性を利用して商品を認識する。一方,陳列棚を撮影した画像または標本画像においては,商品パッケージの表面が光を反射する場合,店舗内の照明や外光,撮影者や撮影装置などの不要な物体が,撮影装置との位置関係によって商品の表面に写り込む場合がある。このようなことは,本来の画像特徴量を得られないため,画像認識の精度低下に影響を及ぼす要因となる。 When using image recognition technology based on a sample image of a product for an image of a display shelf, the image features between the sample image and the partial image of the display part of the product in the image of the display shelf Recognize products using similarity. On the other hand, in the image or specimen image obtained by photographing the display shelf, if the surface of the product package reflects light, unnecessary objects such as lighting in the store, outside light, photographer, and photographing device are not positioned with the photographing device. Depending on the relationship, it may be reflected on the surface of the product. This is a factor affecting the accuracy of image recognition because the original image feature quantity cannot be obtained.
また陳列棚に陳列されている商品の特定に限らず,同様の問題は,一般的な対象物を撮影した画像情報から,その対象物を特定する場合にも該当する。そして,上述の各特許文献を用いたとしても,光の写り込み等による課題を解決することはできない。 Further, the same problem is not limited to the identification of products displayed on the display shelf, and the same problem also applies to the case where the object is identified from image information obtained by photographing a general object. And even if it uses each above-mentioned patent document, the subject by reflection of light etc. cannot be solved.
本発明者は上記課題に鑑み,光等が画像に写り込んでいる場合でも,従来よりも精度よく商品などの対象物の識別情報の特定が行える画像認識システムを発明した。 In view of the above problems, the present inventor has invented an image recognition system capable of specifying identification information of an object such as a product with higher accuracy than in the past even when light or the like is reflected in an image.
請求項1に記載の発明は,商品を陳列した陳列棚を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている商品の商品識別情報の候補を特定する画像情報処理部と,対応する画像情報における,前記特定した商品識別情報の候補を比較することで,前記画像情報に写っている商品の商品識別情報を特定する識別情報比較処理部と,を有する画像認識システムである。 The invention according to claim 1 is an image information processing unit for identifying candidates for product identification information of products shown in the image information for each piece of image information obtained by photographing a display shelf displaying products from a plurality of angles. And an identification information comparison processing unit that identifies product identification information of a product shown in the image information by comparing the identified candidate product identification information in the corresponding image information. .
本発明のように構成することで,陳列棚を撮影した画像情報に,光等の写り込みがあったとしても,従来よりも精度よく商品の認識を行うことができる。 With the configuration of the present invention, even if there is a reflection of light or the like in the image information obtained by photographing the display shelf, the product can be recognized more accurately than in the past.
上述の発明において,前記識別情報比較処理部は,前記複数の画像情報における商品識別情報の候補の有無または尤度に基づいて,前記画像情報に写っている商品の商品識別情報を特定する,画像認識システムのように構成することができる。 In the above-mentioned invention, the identification information comparison processing unit specifies the product identification information of the product shown in the image information based on the presence or the likelihood or the likelihood of the product identification information in the plurality of image information. It can be configured like a recognition system.
各画像情報における商品識別情報の候補から,商品識別情報を特定する場合,本発明のように特定することが好ましい。すなわち,商品識別情報の候補が特定されている場合と,特定されていない場合があれば,特定されている商品識別情報の候補を商品識別情報として特定する。また,それぞれに商品識別情報の候補がある場合,もっとも尤度が高い商品識別情報を特定することができる。また候補が尤度に応じて複数ある場合には,尤度に基づく値より商品識別情報を特定することができる。 When specifying product identification information from candidates for product identification information in each image information, it is preferable to specify as in the present invention. That is, if the product identification information candidate is specified or not specified, the specified product identification information candidate is specified as the product identification information. Further, when there is a candidate for product identification information for each, the product identification information with the highest likelihood can be specified. When there are a plurality of candidates according to the likelihood, the product identification information can be specified from the value based on the likelihood.
上述の発明において,前記画像情報処理部は,前記陳列棚を撮影した撮影画像情報に対して正値化処理を実行して正置画像情報を生成する撮影画像情報正置化処理部と,前記正置画像情報に写っている前記陳列棚における一部の領域の画像情報と,商品の標本情報とを比較することで,前記領域に写っている商品の商品識別情報の候補を特定する識別情報特定処理部と,を有する画像認識システムのように構成することができる。 In the above-described invention, the image information processing unit includes a captured image information normalization processing unit that performs normalization processing on captured image information obtained by capturing the display shelf and generates correct image information; Identification information for identifying candidate product identification information of the product in the area by comparing the image information of a part of the display shelf in the display image information with the sample information of the product And an image recognition system having a specific processing unit.
陳列棚を撮影した画像情報は,ゆがみ等が発生しているので,正値化処理を実行した上で処理を行うと認識精度が高くなる。また,陳列棚には複数の商品が陳列されていることが多いので,たとえば商品ごとの領域について標本情報と比較処理を実行することで,商品識別情報の候補を特定することが好ましい。 Since the image information obtained by photographing the display shelf is distorted and the like, if the processing is performed after the positive value processing is performed, the recognition accuracy becomes high. In addition, since a plurality of products are often displayed on the display shelf, it is preferable to identify candidates for product identification information by executing, for example, sample information and comparison processing for the region for each product.
上述の発明において,前記識別情報特定処理部は,前記領域に写っている商品の商品識別情報の候補を特定できなかった場合には,商品識別情報の入力を受け付け,少なくとも前記商品識別情報の入力を受け付けた領域について,前記識別情報比較処理部における処理を実行せずに,前記受け付けた商品識別情報を,その領域の商品識別情報として特定する,画像認識システムのように構成することができる。 In the above-described invention, the identification information specifying processing unit accepts input of product identification information and cannot input at least the input of the product identification information when the product identification information candidate of the product in the area cannot be specified. It is possible to configure the image recognition system such that the received product identification information is specified as the product identification information of the region without executing the processing in the identification information comparison processing unit.
商品識別情報の候補を特定できなかった場合には,その入力を受け付けてもよい。その場合,入力される商品識別情報は,確度が高いと考えられるので,比較処理を実行せずに,そのまま特定した(確定した)商品識別情報とすると,処理時間の軽減等につなげられる。 If the candidate for the product identification information cannot be specified, the input may be accepted. In this case, since the input product identification information is considered to have high accuracy, if the product identification information is identified (determined) as it is without executing the comparison process, the processing time can be reduced.
上述の発明において,前記画像情報処理部は,前記正置画像情報に写っている前記陳列棚において,フェイスの領域を特定するフェイス特定処理部,を有しており,前記識別情報特定処理部は,処理対象となる正置画像情報におけるフェイス領域の画像情報と,その正置画像情報に対応するほかの正置画像情報における,前記フェイス領域から所定範囲のフェイス領域の画像情報とを比較することで,処理対象となる正置画像情報におけるフェイス領域に写っている商品の商品識別情報の候補を特定する,画像認識システムのように構成することができる。 In the above-described invention, the image information processing unit includes a face specifying processing unit that specifies a face area in the display shelf reflected in the in-place image information, and the identification information specifying processing unit includes: Comparing the image information of the face area in the in-place image information to be processed with the image information of the face area in a predetermined range from the face area in the other in-place image information corresponding to the in-place image information. Thus, it can be configured like an image recognition system that identifies candidates for product identification information of products in the face area in the in-place image information to be processed.
標本情報との画像マッチング処理などで商品識別情報を特定するのは,処理負荷が大きい。そこで,商品が陳列されている領域であるフェイスが特定されているのであれば,そのフェイス同士を比較することで,画像マッチング処理の回数を減らすことができ,全体の処理負荷を軽減することができる。 Specifying product identification information by image matching processing with sample information has a large processing load. Therefore, if the faces that are the areas where the products are displayed are specified, comparing the faces can reduce the number of times of image matching processing and reduce the overall processing load. it can.
請求項6に記載の発明は,同一の陳列棚を異なる角度から撮影した複数の画像情報に基づいて,一つの画像情報を生成する画像情報加工処理部と,前記生成した画像情報に基づいて,その画像情報に写っている商品の商品識別情報を特定する識別情報特定処理部と,を有する画像認識システムである。 The invention according to claim 6 is based on an image information processing unit that generates one image information based on a plurality of pieces of image information obtained by photographing the same display shelf from different angles, and on the basis of the generated image information, An image recognition system having an identification information specifying processing unit for specifying product identification information of a product shown in the image information.
本発明のように構成した場合であっても,請求項1に記載の発明と同様の技術的効果を得ることができる。すなわち,陳列棚を撮影した画像情報に,光等の写り込みがあったとしても,従来よりも精度よく商品の認識を行うことができる。 Even when configured as in the present invention, the same technical effect as that of the invention described in claim 1 can be obtained. That is, even if there is a reflection of light or the like in the image information obtained by photographing the display shelf, the product can be recognized more accurately than in the past.
上述の発明において,前記画像情報加工処理部は,前記複数の画像情報について,対応する基準単位の領域ごとに,明度に基づく指標値を比較することで,その領域の画像情報を特定し,特定した各領域の画像情報を合成することで,前記一つの画像情報を生成する,画像認識システムのように構成することができる。 In the above-described invention, the image information processing unit identifies image information of a plurality of pieces of image information by comparing index values based on brightness for each corresponding reference unit region. By combining the image information of each area, the image information can be configured as an image recognition system that generates the one piece of image information.
上述の発明において,前記画像情報加工処理部は,前記複数の画像情報のそれぞれについて,基準単位ごとにメッシュに区切り,そのメッシュの領域における明度に基づく指標値を算出し,前記複数の画像情報について,対応するメッシュの領域における前記指標値を比較することで,そのメッシュの領域の画像情報を特定し,特定した各メッシュの領域の画像情報を合成することで,前記一つの画像情報を生成する,画像認識システムのように構成することができる。 In the above invention, the image information processing unit divides each of the plurality of pieces of image information into meshes for each reference unit, calculates an index value based on lightness in the region of the mesh, and By comparing the index values in the corresponding mesh areas, the image information of the mesh areas is identified, and the image information of each identified mesh area is synthesized to generate the one image information , It can be configured like an image recognition system.
光が写り込む場合には,その画像情報の明度は高くなる。そのため,これらの発明のように構成することで,光の写り込みを除去した画像情報を生成することができ,光の写り込みによる認識精度の低下の抑止につながる。 When light is reflected, the brightness of the image information becomes high. Therefore, by configuring as in these inventions, it is possible to generate image information from which the reflection of light is removed, which leads to suppression of a decrease in recognition accuracy due to the reflection of light.
請求項9に記載の発明は,商品を陳列した陳列棚が写っている画像情報の一部または全部と,商品と撮影装置との相対位置を変更せずに商品と光源との相対位置を変更して撮影した複数の画像情報に基づく商品の標本情報とを比較することで,前記陳列棚が写っている画像情報における商品の商品識別情報を特定する識別情報特定処理部,を有する画像認識システムである。 The invention according to claim 9 changes the relative position between the product and the light source without changing the relative position between the product and the photographing device, and a part or all of the image information in which the display shelf displaying the product is shown. An image recognition system comprising: an identification information specifying processing unit for specifying product identification information of a product in image information showing the display shelf by comparing with sample information of the product based on a plurality of pieces of image information photographed It is.
比較処理において用いる商品の標本情報は,光等の写り込みがないものを利用することが精度向上につながる。そこで,商品と撮影装置との相対位置を変更せずに光源との相対位置を変更して撮影した複数の画像情報に基づいた商品の標本情報を用いることで,比較処理における精度の向上につなげることができる。 It is possible to improve accuracy by using sample information of products used in the comparison process that does not include light or the like. Therefore, it is possible to improve accuracy in comparison processing by using product sample information based on multiple pieces of image information taken by changing the relative position with the light source without changing the relative position between the product and the imaging device. be able to.
請求項10に記載の発明は,商品と撮影装置との相対位置を変更せずに商品と光源との相対位置を変更して撮影した撮影した複数の画像情報の入力を受け付け,入力を受け付けた前記画像情報の一部を切り出して一つの画像情報に合成することで,前記商品の標本情報を生成する,画像認識システムである。 The invention described in claim 10 accepts input of a plurality of image information taken by changing the relative position between the product and the light source without changing the relative position between the product and the photographing device. In the image recognition system, the sample information of the product is generated by cutting out a part of the image information and combining it into one piece of image information.
比較処理において用いる商品の標本情報は,光等の写り込みがないものを利用することが精度向上につながる。そこで,商品の標本情報は,本発明のように生成することが好ましい。 It is possible to improve accuracy by using sample information of products used in the comparison process that does not include light or the like. Therefore, it is preferable to generate the sample information of the product as in the present invention.
請求項11に記載の発明は,撮影対象物を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている特定対象物の識別情報の候補を特定する第1の処理部と,対応する画像情報における,前記特定した識別情報の候補を比較することで,前記画像情報に写っている特定対象物の識別情報を特定する第2の処理部と,を有する画像認識システムのように構成することができる。 The invention according to claim 11 is a first processing unit for identifying candidates for identification information of a specific object reflected in the image information for each of image information obtained by photographing the object to be photographed from a plurality of angles, A second processing unit that identifies identification information of a specific object in the image information by comparing the identified identification information candidates in corresponding image information, Can be configured.
請求項1に記載の発明では,陳列棚に陳列されている商品の識別情報を特定する画像認識システムであったが,それに限定するものではなく,撮影対象物を複数の角度から撮影した画像情報において,その画像情報に写っている特定対象物の識別情報を特定する場合であっても適用することができる。すなわち,請求項1に記載の発明と同様に,撮影した画像情報に,光等の写り込みがあったとしても,従来よりも精度よく特定対象物の識別情報の認識を行うことができる。 In the first aspect of the present invention, the image recognition system identifies the identification information of the products displayed on the display shelf. However, the present invention is not limited to this, and image information obtained by photographing the object to be photographed from a plurality of angles. However, the present invention can be applied even when the identification information of the specific object shown in the image information is specified. That is, as in the first aspect of the invention, even if there is a reflection of light or the like in the captured image information, the identification information of the specific object can be recognized more accurately than in the past.
請求項12に記載の発明は,撮影対象物を異なる角度から撮影した複数の画像情報に基づいて,一つの画像情報を生成する第1の処理部と,前記生成した画像情報に基づいて,その画像情報に写っている特定対象物の識別情報を特定する第2の処理部と,を有する画像認識システムである。 The invention according to claim 12 is a first processing unit that generates one piece of image information based on a plurality of pieces of image information obtained by photographing a subject to be photographed from different angles, and based on the generated image information, And a second processing unit that identifies identification information of a specific object reflected in the image information.
請求項6に記載の発明では,陳列棚に陳列されている商品の識別情報を特定する画像認識システムであったが,それに限定するものではなく,撮影対象物を複数の角度から撮影した画像情報において,その画像情報に写っている特定対象物の識別情報を特定する場合であっても適用することができる。すなわち,請求項6に記載の発明と同様に,撮影した画像情報に,光等の写り込みがあったとしても,従来よりも精度よく特定対象物の識別情報の認識を行うことができる。 In the invention described in claim 6, although the image recognition system identifies the identification information of the commodity displayed on the display shelf, the present invention is not limited to this, and image information obtained by photographing the object to be photographed from a plurality of angles. However, the present invention can be applied even when the identification information of the specific object shown in the image information is specified. That is, as in the sixth aspect of the invention, even when there is a reflection of light or the like in the captured image information, the identification information of the specific object can be recognized more accurately than in the past.
請求項13に記載の発明は,対象物と撮影装置との相対位置を変更せずに対象物と光源との相対位置を変更して撮影した複数の画像情報の入力を受け付け,入力を受け付けた前記画像情報の一部を切り出して一つの画像情報に合成することで,前記対象物の標本情報を生成する,画像認識システムである。 The invention described in claim 13 accepts input of a plurality of pieces of image information taken by changing the relative position between the object and the light source without changing the relative position between the object and the photographing device. In the image recognition system, a part of the image information is cut out and synthesized into one piece of image information, thereby generating sample information of the object.
請求項9に記載の発明は,陳列棚に陳列されている商品の識別情報を特定する画像認識システムであったが,それに限定するものではなく,撮影対象物を複数の角度から撮影した画像情報において,その画像情報に写っている特定対象物の識別情報を特定する場合であっても適用することができる。すなわち,比較処理において用いる商品の標本情報は,光等の写り込みがないものを利用することが精度向上につながるので,商品と撮影装置との相対位置を変更せずに撮影した複数の画像情報に基づいた対象物の標本情報を用いることで,比較処理における精度の向上につなげることができる。 The invention according to claim 9 is an image recognition system for identifying identification information of commodities displayed on a display shelf, but is not limited thereto, and image information obtained by photographing an object to be photographed from a plurality of angles. However, the present invention can be applied even when the identification information of the specific object shown in the image information is specified. In other words, since the sample information of the product used in the comparison process uses information that does not include light or the like, which improves accuracy, a plurality of pieces of image information captured without changing the relative position between the product and the imaging device. By using the sample information of the object based on the above, it is possible to improve the accuracy in the comparison process.
請求項14に記載の発明は,対象物と撮影装置との相対位置を変更せずに対象物と光源との相対位置を変更して,その対象物の複数の画像情報を撮影し,前記撮影した画像情報における写り込みがない領域を切り出して,一つの画像情報に合成することで,対象物の標本情報を生成する,対象物の標本情報の生成方法である。 In the invention described in claim 14, the relative position between the object and the light source is changed without changing the relative position between the object and the photographing device, and a plurality of pieces of image information of the object are photographed. In this method, the sample information of the target is generated by cutting out a region in the image information where there is no reflection and combining it into one piece of image information.
画像認識処理を行う場合,写り込みがない標本情報を用いることが,認識精度の向上の要因となる。そこで,本発明の方法で標本情報を生成することで,写り込みがない標本情報を生成することができる。 When performing image recognition processing, the use of sample information without reflection is a factor in improving recognition accuracy. Therefore, by generating sample information by the method of the present invention, sample information without reflection can be generated.
請求項1に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,商品を陳列した陳列棚を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている商品の商品識別情報の候補を特定する画像情報処理部,対応する画像情報における,前記特定した商品識別情報の候補を比較することで,前記画像情報に写っている商品の商品識別情報を特定する識別情報比較処理部,として機能させる画像認識プログラムのように構成することができる。 The invention described in claim 1 can be realized by reading the program of the present invention into a computer and executing it. That is, for each piece of image information obtained by photographing a display shelf displaying a product from a plurality of angles, the image information processing unit for identifying candidates for product identification information of the product shown in the image information, corresponding image information In the image recognition program that functions as an identification information comparison processing unit that identifies the product identification information of the product shown in the image information by comparing the identified product identification information candidates. it can.
請求項6に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,同一の陳列棚を異なる角度から撮影した複数の画像情報に基づいて,一つの画像情報を生成する画像情報加工処理部,前記生成した画像情報に基づいて,その画像情報に写っている商品の商品識別情報を特定する識別情報特定処理部,として機能させる画像認識プログラムのように構成することができる。 The invention described in claim 6 can be realized by reading the program of the present invention into a computer and executing it. That is, the computer displays an image information processing unit that generates one piece of image information based on a plurality of pieces of image information obtained by photographing the same display shelf from different angles, and the image information is displayed based on the generated image information. It can be configured like an image recognition program that functions as an identification information specifying processing unit that specifies the product identification information of a product being sold.
請求項9に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,商品を陳列した陳列棚が写っている画像情報の一部または全部と,商品と撮影装置との相対位置を変更せずに商品と光源との相対位置を変更して撮影した複数の画像情報に基づく商品の標本情報とを比較することで,前記陳列棚が写っている画像情報における商品の商品識別情報を特定する識別情報特定処理部,として機能させる画像認識プログラムのように構成することができる。 The invention according to claim 9 can be realized by reading the program of the present invention into a computer and executing it. In other words, the computer was photographed by changing the relative position between the product and the light source without changing the relative position between the product and the imaging device, and a part or all of the image information showing the display shelf displaying the product. Like an image recognition program that functions as an identification information identification processing unit that identifies product identification information of products in image information in which the display shelf is reflected by comparing with sample information of products based on a plurality of image information Can be configured.
請求項10に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータにおいて,商品と撮影装置との相対位置を変更せずに商品と光源との相対位置を変更して撮影した複数の画像情報の入力を受け付けるステップと,入力を受け付けた前記画像情報の一部を切り出して一つの画像情報に合成することで,前記商品の標本情報を生成するステップと,を実行させる画像認識プログラムのように構成することができる。 The invention described in claim 10 can be realized by reading the program of the present invention into a computer and executing it. That is, in the computer, the step of receiving a plurality of pieces of image information captured by changing the relative position between the product and the light source without changing the relative position between the product and the imaging device; By cutting out a part and synthesizing it into one piece of image information, it can be configured as an image recognition program that executes the step of generating sample information of the product.
請求項11に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,撮影対象物を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている特定対象物の識別情報の候補を特定する第1の処理部,対応する画像情報における,前記特定した識別情報の候補を比較することで,前記画像情報に写っている特定対象物の識別情報を特定する第2の処理部,として機能させる画像認識プログラムのように構成することができる。 The invention described in claim 11 can be realized by reading the program of the present invention into a computer and executing it. That is, for each piece of image information obtained by photographing a subject to be photographed from a plurality of angles, a first processing unit for identifying candidates for identification information of a particular subject in the image information, By comparing the identified identification information candidates, it can be configured as an image recognition program that functions as a second processing unit that identifies identification information of a specific object shown in the image information. .
請求項12に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,撮影対象物を異なる角度から撮影した複数の画像情報に基づいて,一つの画像情報を生成する第1の処理部,前記生成した画像情報に基づいて,その画像情報に写っている特定対象物の識別情報を特定する第2の処理部,として機能させる画像認識プログラムのように構成することができる。 The invention according to claim 12 can be realized by reading the program of the present invention into a computer and executing it. In other words, the computer captures a first processing unit that generates one piece of image information based on a plurality of pieces of image information obtained by photographing a subject to be photographed from different angles, and shows the image information based on the generated image information. The image recognition program can be configured to function as a second processing unit that identifies identification information of a specific target object.
請求項13に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータにおいて,対象物と撮影装置との相対位置を変更せずに対象物と光源との相対位置を変更して撮影した複数の画像情報の入力を受け付けるステップと,入力を受け付けた前記画像情報の一部を切り出して一つの画像情報に合成することで,前記対象物の標本情報を生成するステップと,を実行させる画像認識プログラムのように構成することができる。 The invention described in claim 13 can be realized by reading the program of the present invention into a computer and executing it. In other words, in the computer, the step of receiving input of a plurality of pieces of image information obtained by changing the relative position of the object and the light source without changing the relative position of the object and the imaging device, and the image having received the input A part of the information is cut out and synthesized into one piece of image information, so that it can be configured as an image recognition program that executes the step of generating the sample information of the object.
本発明の画像認識システムを用いることによって,光等が画像情報に写り込んでいる場合でも,従来よりも精度よく,商品などの対象物の特定が行える。 By using the image recognition system of the present invention, even when light or the like is reflected in image information, it is possible to specify an object such as a product with higher accuracy than before.
本発明の画像認識システム1のシステム構成の一例を図1に示す。画像認識システム1は,管理端末2と撮影画像情報入力端末3とを用いる。 An example of the system configuration of the image recognition system 1 of the present invention is shown in FIG. The image recognition system 1 uses a management terminal 2 and a captured image information input terminal 3.
管理端末2は,画像認識システム1を運営する企業等の組織が利用するコンピュータである。また,撮影画像情報入力端末3は,店舗の陳列棚を撮影した画像情報の入力を行う端末である。 The management terminal 2 is a computer used by an organization such as a company that operates the image recognition system 1. The photographed image information input terminal 3 is a terminal for inputting image information obtained by photographing a display shelf in a store.
画像認識システム1における管理端末2,撮影画像情報入力端末3は,コンピュータを用いて実現される。図3にコンピュータのハードウェア構成の一例を模式的に示す。コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,情報を表示するディスプレイなどの表示装置72と,情報の入力が可能なキーボードやマウスなどの入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置74とを有している。 The management terminal 2 and the captured image information input terminal 3 in the image recognition system 1 are realized using a computer. FIG. 3 schematically shows an example of the hardware configuration of the computer. The computer is capable of inputting information, such as an arithmetic device 70 such as a CPU for executing arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk for storing information, a display device 72 such as a display for displaying information, and the like. It has an input device 73 such as a keyboard and a mouse, and a communication device 74 that transmits and receives processing results of the arithmetic device 70 and information stored in the storage device 71 via a network such as the Internet or a LAN.
コンピュータがタッチパネルディスプレイを備えている場合には,表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 When the computer includes a touch panel display, the display device 72 and the input device 73 may be configured integrally. The touch panel display is often used in, for example, a portable communication terminal such as a tablet computer or a smartphone, but is not limited thereto.
タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is an apparatus in which the functions of the display device 72 and the input device 73 are integrated in that input can be performed directly on the display using a predetermined input device (such as a touch panel pen) or a finger.
撮影画像情報入力端末3は,上記の各装置のほか,カメラなどの撮影装置を備えていてもよい。撮影画像情報入力端末3として,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末を用いることもできる。 The photographed image information input terminal 3 may include a photographing device such as a camera in addition to the above devices. As the photographed image information input terminal 3, a portable communication terminal such as a mobile phone, a smartphone, or a tablet computer can be used.
本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。本発明の各手段における処理は,その処理順序を適宜変更することもできる。また,処理の一部を省略してもよい。たとえば後述する正置化処理を省略することもできる。その場合,正置化処理をしていない画像情報に対する処理を実行することができる。 Each means in the present invention is only logically distinguished in function, and may be physically or virtually the same area. The processing order of each means of the present invention can be changed as appropriate. Further, a part of the processing may be omitted. For example, it is possible to omit the normalization processing described later. In this case, it is possible to execute processing for image information that has not been subjected to normalization processing.
画像認識システム1は,撮影画像情報記憶部20と標本情報記憶部21と識別情報候補記憶部22と識別情報記憶部23と画像情報処理部24と識別情報比較処理部25とを有する。 The image recognition system 1 includes a captured image information storage unit 20, a sample information storage unit 21, an identification information candidate storage unit 22, an identification information storage unit 23, an image information processing unit 24, and an identification information comparison processing unit 25.
撮影画像情報記憶部20は,撮影画像情報入力端末3から受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報などを対応づけて記憶する。撮影画像情報とは,台形補正処理を実行する対象となる画像情報であればよく,一つの陳列棚を複数枚で撮影した場合に,それが一つの画像情報として合成された画像情報も含まれる。また,歪み補正処理が実行された後の画像情報も撮影画像情報に含まれる。 The photographed image information storage unit 20 stores the photographed image information received from the photographed image information input terminal 3, the photographing date and time, the store identification information, the image information identification information, and the like in association with each other. The captured image information only needs to be image information to be subjected to trapezoidal correction processing, and includes image information that is synthesized as a single image information when a single display shelf is captured in multiple sheets. . Also, the image information after the distortion correction processing is executed is included in the captured image information.
標本情報記憶部21は,正置画像情報に写っている陳列棚の棚段における各フェイスの商品がどの商品であるかを識別するための標本情報を記憶する。標本情報は,陳列棚に陳列される可能性のある商品を,上下,左右,斜めなど複数の角度から撮影をした画像情報である。図7に標本情報記憶部21に記憶される標本情報の一例を示す。図7では,標本情報として,缶ビールをさまざまな角度から撮影をした場合を示しているが,缶ビールに限られない。標本情報記憶部21は,標本情報と,商品識別情報とを対応付けて記憶する。 The sample information storage unit 21 stores sample information for identifying which product is the product of each face on the shelf of the display shelf shown in the in-place image information. Specimen information is image information obtained by photographing products that may be displayed on display shelves from a plurality of angles such as up, down, left, and right. FIG. 7 shows an example of sample information stored in the sample information storage unit 21. In FIG. 7, the sample information shows a case where canned beer is taken from various angles, but is not limited to canned beer. The sample information storage unit 21 stores sample information and product identification information in association with each other.
なお,標本情報記憶部21には,標本情報とともに,または標本情報に代えて,標本情報から抽出された,類似性の算出に必要となる情報,たとえば画像特徴量とその位置のペアの情報を記憶していてもよい。標本情報には,類似性の算出に必要となる情報も含むとする。この場合,識別情報特定処理部246は,フェイスの領域の画像情報と,標本情報とのマッチング処理を行う際に,標本情報について毎回,画像特徴量を算出せずともよくなり,計算時間を短縮することができる。 The specimen information storage unit 21 stores information necessary for calculation of similarity extracted from the specimen information together with the specimen information or in place of the specimen information, for example, information on a pair of image feature quantity and its position. You may remember. It is assumed that the sample information includes information necessary for calculating similarity. In this case, the identification information specifying processing unit 246 does not have to calculate the image feature amount every time the sample information is matched with the image information of the face area and the sample information, thereby reducing the calculation time. can do.
識別情報候補記憶部22は,撮影画像情報ごとに,陳列棚の棚段の各フェイスに表示されている商品の商品識別情報の候補を記憶する。たとえば,商品識別情報の候補に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。ここで記憶する商品識別情報の候補は,撮影画像情報ごとに記憶している。そのため,同一の陳列棚について複数の撮影画像情報があるので,同一の陳列棚の棚段の対応するフェイスには,撮影画像情報ごとに特定した商品識別情報の候補が記憶されていることとなる。 The identification information candidate storage unit 22 stores, for each photographed image information, merchandise identification information candidates of merchandise displayed on each face of the shelf of the display shelf. For example, in association with candidates for product identification information, it is associated with shooting date / time information, store information, image information identification information of captured image information, image identification information of in-place image information, and face identification information for identifying a face. The identification information candidate storage unit 22 stores the identification information. The candidate product identification information stored here is stored for each photographed image information. For this reason, since there are a plurality of pieces of photographed image information for the same display shelf, candidate product identification information specified for each piece of photographed image information is stored in the corresponding face of the same display shelf shelf. .
識別情報記憶部23は,陳列棚の棚段の各フェイスに表示されている商品の特定(確定)した商品識別情報を記憶する。たとえば,商品識別情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報記憶部23に記憶する。 The identification information storage unit 23 stores product identification information in which the products displayed on each face of the shelf of the display shelf are specified (confirmed). For example, identification information associated with product identification information is associated with shooting date / time information, store information, image information identification information of captured image information, image identification information of in-place image information, and face identification information for identifying a face. Store in the storage unit 23.
画像情報処理部24は,撮影画像情報入力端末3から受け付けた撮影画像情報において,その撮影画像情報に写っている陳列棚における棚段に陳列されている商品の商品識別情報の候補を特定する処理を実行する。 The image information processing unit 24 is a process of identifying candidate product identification information of products displayed on the shelf in the display shelf shown in the captured image information in the captured image information received from the captured image information input terminal 3 Execute.
画像情報処理部24は,撮影画像情報入力受付処理部241と撮影画像情報正置化処理部242と棚段位置特定処理部243と棚段領域切出処理部244とフェイス特定処理部245と識別情報特定処理部246と棚段画像マッチング処理部247とを有する。 The image information processing unit 24 identifies the captured image information input reception processing unit 241, the captured image information normalization processing unit 242, the shelf position specifying processing unit 243, the shelf area extraction processing unit 244, and the face specifying processing unit 245. An information identification processing unit 246 and a shelf image matching processing unit 247 are included.
撮影画像情報入力受付処理部241は,撮影画像情報入力端末3で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,撮影画像情報記憶部20に記憶させる。撮影画像情報入力端末3からは,撮影画像情報のほか,撮影日時,店舗名などの店舗識別情報,画像情報を識別する画像情報識別情報などをあわせて入力を受け付けるとよい。図8,図9に撮影画像情報の一例を示す。図8,図9では,陳列棚に3段の棚段があり,そこに商品が陳列されている撮影画像情報である。 The photographed image information input acceptance processing unit 241 accepts input of image information (photographed image information) of a store display shelf photographed by the photographed image information input terminal 3 and stores it in the photographed image information storage unit 20. From the photographed image information input terminal 3, it is preferable to accept input together with photographed image information, store identification information such as photographing date and time, store name, and image information identification information for identifying image information. 8 and 9 show examples of photographed image information. In FIG. 8 and FIG. 9, there is photographed image information in which a display shelf has three shelves and products are displayed there.
撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶した撮影画像情報に対して台形補正処理を実行して正置化した,正置画像情報を生成する。台形補正処理は,撮影画像情報に写っている陳列棚の棚段が水平に,そこに陳列されている商品に対する商品タグが垂直になるように行う補正処理である。正置化とは,撮影装置のレンズの光軸を撮影対象である平面の垂線方向に沿って,十分に遠方から撮影した場合と同じになるように画像情報を変形させることであり,たとえば台形補正処理がある。 The photographed image information normalization processing unit 242 generates a regular image information obtained by performing a trapezoidal correction process on the photographed image information stored in the photographed image information storage unit 20 and performing the normalization. The trapezoidal correction process is a correction process performed so that the shelf of the display shelf shown in the photographed image information is horizontal and the product tag for the product displayed there is vertical. In-place positioning means that the image information is deformed so that the optical axis of the lens of the photographing apparatus is sufficiently the same as when photographing from a far distance along the perpendicular direction of the plane to be photographed. There is a correction process.
撮影画像情報正置化処理部242が実行する台形補正処理は,撮影画像情報において4頂点の指定の入力を受け付け,その各頂点を用いて台形補正処理を実行する。指定を受け付ける4頂点としては,陳列棚の棚段の4頂点であってもよいし,陳列棚の棚位置の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。4頂点としては任意の4点を指定できる。図10および図11に正置化処理がされた撮影画像情報(正置画像情報)の一例を示す。 The trapezoid correction processing executed by the captured image information normalization processing unit 242 receives input of designation of four vertices in the captured image information, and executes the trapezoid correction processing using each vertex. The four vertices that accept the designation may be the four vertices of the shelf of the display shelf or the four vertices of the shelf position of the display shelf. Further, it may be the four vertices of a group of two or three shelves. Any four points can be designated as the four vertices. FIG. 10 and FIG. 11 show an example of photographed image information (orientated image information) subjected to the in-place processing.
棚段位置特定処理部243は,撮影画像情報または正置画像情報から棚段の領域(棚段領域)を特定する。すなわち,撮影画像情報および正置画像情報に写っている陳列棚には,商品が陳列される棚段領域と,そこに陳列される商品に対する商品タグが取り付けられている商品タグ配置領域とがある。そのため,正置画像情報から棚段領域を特定する。棚段領域の特定としては,管理端末2の操作者が手動で棚段領域を指定し,それを棚段位置特定処理部243が受け付けてもよいし,初回に手動で入力を受け付けた棚段領域の情報に基づいて,二回目以降は自動で棚段領域を特定してもよい。図12,図13に棚段領域が特定された状態を示す。 The shelf position identification processing unit 243 identifies a shelf area (shelf area) from the captured image information or the in-place image information. In other words, the display shelves shown in the photographed image information and the in-place image information include a shelf area in which products are displayed and a product tag placement area in which product tags for the products to be displayed are attached. . Therefore, the shelf area is specified from the in-place image information. As the specification of the shelf area, the operator of the management terminal 2 may manually specify the shelf area, and the shelf position specifying processing unit 243 may accept it, or the shelf that has been manually input for the first time. On the basis of the area information, the shelf area may be specified automatically after the second time. 12 and 13 show a state where the shelf area is specified.
棚段領域切出処理部244は,棚段位置特定処理部243で特定した棚段の領域の画像情報を棚段領域画像情報として切り出す。棚段領域切出処理部244は,実際に,画像情報として切り出してもよいし,実際には画像情報としては切り出さずに,棚段領域を構成する座標を特定することで,仮想的に切り出すのでもよい。なお,陳列棚に棚段が複数ある場合には,それぞれが棚段領域画像情報として切り出される。また棚段の領域を示す座標としては,その領域を特定するために必要な頂点の座標であり,正置画像情報におけるたとえば4点,右上と左下,左上と右下の2点の座標などでよい。また,正置画像情報における陳列棚など,画像情報における所定箇所(たとえば陳列棚の左上の頂点)を基準とした相対座標である。 The shelf area extraction processing unit 244 extracts the image information of the shelf area specified by the shelf position specification processing unit 243 as the shelf area image information. The shelf area cutout processing unit 244 may actually cut out as image information, or actually cuts out by specifying coordinates constituting the shelf area without cutting out as image information. It's okay. When there are a plurality of shelves on the display shelf, each is cut out as shelf area image information. In addition, the coordinates indicating the shelf area are the coordinates of the vertices necessary for specifying the area. For example, the coordinates of the four points in the in-place image information, the coordinates of the upper right and lower left, the upper left and lower right, etc. Good. Further, the relative coordinates are based on a predetermined location in the image information (for example, the top left vertex of the display shelf) such as a display shelf in the in-place image information.
フェイス特定処理部245は,正置画像情報における棚段領域における棚段ごとに,商品が置かれているフェイス(商品が置かれている領域)を特定する。フェイス特定処理部245は,初回のフェイスの特定処理と,二回目以降のフェイスの特定処理とに分かれる。 The face identification processing unit 245 identifies the face on which the product is placed (the region on which the product is placed) for each shelf in the shelf area in the in-place image information. The face identification processing unit 245 is divided into an initial face identification process and a second and subsequent face identification process.
フェイス特定処理部245における初回のフェイスの特定処理は,棚段位置特定処理部243で特定した棚段の座標で構成される領域(好ましくは矩形領域)の範囲内において,商品が置かれている領域(フェイス)を特定する。具体的には,商品と商品との間に生じる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスの領域を特定する。フェイスの特定処理としては,商品のカテゴリや商品の形態によって,任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイスに対して,担当者による修正入力を受け付けてもよい。さらに,担当者からフェイスの位置の入力を受け付けるのでもよい。特定したフェイスを構成する領域の座標は,正置画像情報におけるフェイスの領域の座標に,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報とを対応づけて管理する。またフェイスの領域を示す座標としては,矩形領域を特定するために必要な頂点の座標であり,正置画像情報におけるたとえば4点,右上と左下,左上と右下の2点の座標などでよい。また,正置画像情報における陳列棚など,画像情報における所定箇所(たとえば陳列棚の左上の頂点)を基準とした相対座標である。 In the face identification processing unit 245 for the first time, products are placed within a range (preferably a rectangular region) constituted by the coordinates of the shelf specified by the shelf position specification processing unit 243. Specify the area (face). Specifically, the narrow and narrow shadows that occur between products are specified, the image repeat pattern is specified, the top edge of the package is specified, the product width is the same, and so on. The face area is specified by specifying the position. As the face identification processing, any method can be adopted depending on the product category and the product form, and the method is not limited to the above. Moreover, you may receive the correction input by a person in charge with respect to the face identified automatically. Furthermore, an input of the face position from the person in charge may be accepted. The coordinates of the area constituting the identified face are the shooting area information, the store information, the image information identification information of the captured image information, the image identification information of the in-place image information, the face, and the coordinates of the face area in the in-place image information. The face identification information for identification is associated and managed. The coordinates indicating the face area are the coordinates of the vertices necessary for specifying the rectangular area, and may be, for example, the coordinates of the four points in the in-place image information, the coordinates of the upper right and lower left, the upper left and lower right, etc. . Further, the relative coordinates are based on a predetermined location in the image information (for example, the top left vertex of the display shelf) such as a display shelf in the in-place image information.
フェイス特定処理部245における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とするようにしてもよい。 In the face identification processing for the second and subsequent times in the face identification processing unit 245, the coordinates of the face area identified by the previous (N-1th) in-place image information for the same shelf of the same display shelf are the current ( The coordinates of the face area specified by the (Nth) position image information may be used.
識別情報特定処理部246は,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報の候補を特定する。商品識別情報としては,商品名のほか,その商品に対して割り当てられているJANコードなどがあるが,それに限定されない。商品を識別することができる情報であればいかなるものでもよい。 The identification information specification processing unit 246 specifies candidates for the product identification information of the products displayed on the face for each shelf of the display shelf. The product identification information includes, in addition to the product name, a JAN code assigned to the product, but is not limited thereto. Any information can be used as long as it can identify the product.
識別情報特定処理部246は,以下のような処理を実行する。すなわち,フェイスごとに,フェイスの画像情報と,標本情報記憶部21に記憶する商品の標本情報とマッチングすることで,そのフェイスに表示されている商品の商品識別情報の候補を特定する。具体的には,まず,処理対象となるフェイスの座標で構成される領域の画像情報と,標本情報記憶部21に記憶する標本情報との類似性を判定し,その類似性がもっとも高い標本情報に対応する商品識別情報を特定し,上記座標で構成されるフェイスに表示されている商品の商品識別情報の候補として特定をする。 The identification information specifying processing unit 246 executes the following processing. That is, for each face, by matching the image information of the face with the sample information of the product stored in the sample information storage unit 21, the product identification information candidates of the product displayed on the face are specified. Specifically, first, the similarity between the image information of the region formed by the coordinates of the face to be processed and the sample information stored in the sample information storage unit 21 is determined, and the sample information having the highest similarity is determined. Is identified as a candidate for product identification information of the product displayed on the face composed of the above coordinates.
ここでフェイスの画像情報と標本情報との類似性を判定するには,以下のような処理を行う。まず,識別情報特定処理部246における商品識別情報の候補の特定処理の前までの処理において,正置画像情報の棚段におけるフェイスの領域の画像情報と,標本情報との方向が同じ(横転や倒立していない)となっており,また,それぞれの画像情報の大きさが概略同じとなっている(所定範囲以上で画像情報の大きさが異なる場合には,類似性の判定の前にそれぞれの画像情報の大きさが所定範囲内となるようにサイズ合わせをしておく)。 Here, in order to determine the similarity between the face image information and the sample information, the following processing is performed. First, in the process before the identification process for identifying the product identification information in the identification information identification processing unit 246, the image information of the face area in the shelf of the in-place image information and the sample information have the same direction (the rollover or And the size of each image information is approximately the same (if the size of the image information is different within a predetermined range, before each similarity determination, The image information is adjusted so that the size of the image information is within a predetermined range).
識別情報特定処理部246は,フェイスの画像情報と,標本情報との類似性を判定するため,フェイスの画像情報の画像特徴量(たとえば局所特徴量)に基づく特徴点と,標本情報との画像特徴量(たとえば局所特徴量)に基づく特徴点を,それぞれ抽出する。そして,フェイスの画像情報の特徴点と,標本情報の特徴点とでもっとも類似性が高いペアを検出し,それぞれで対応する点の座標の差を求める。そして,差の平均値を求める。差の平均値は,フェイスの画像情報と,標本情報との全体の平均移動量を示している。そして,すべての特徴点のペアの座標差を平均の座標差と比較し,外れ度合いの大きなペアを除外する。そして,残った対応点の数で類似性を順位付ける。 The identification information specifying processing unit 246 determines the similarity between the face image information and the sample information, and the feature point based on the image feature amount (for example, local feature amount) of the face image information and the image of the sample information Feature points based on feature quantities (for example, local feature quantities) are extracted. Then, a pair having the highest similarity between the feature point of the face image information and the feature point of the sample information is detected, and the difference between the coordinates of the corresponding points is obtained. Then, the average value of the differences is obtained. The average value of the difference indicates the total average movement amount between the face image information and the sample information. Then, the coordinate differences of all feature point pairs are compared with the average coordinate difference, and pairs with a large degree of deviation are excluded. Then, the similarity is ranked by the number of remaining corresponding points.
以上のような方法でフェイスの画像情報と,標本情報との類似性を算出できる。また,その精度を向上させるため,さらに,色ヒストグラム同士のEMD(Earth Movers Distance)を求め,類似性の尺度としてもよい。これによって,撮影された画像情報の明度情報等の環境変化に比較的強い類似性の比較を行うことができ,高精度で特定をすることができる。 The similarity between the face image information and the sample information can be calculated by the above method. Further, in order to improve the accuracy, an EMD (Earth Moves Distance) between color histograms may be obtained and used as a measure of similarity. As a result, it is possible to compare comparatively strong similarities to environmental changes such as brightness information of photographed image information, and to specify with high accuracy.
類似性の判定としては,ほかにも,各フェイスの領域の画像情報のシグネチャ(画像特徴量と重みの集合)同士のEMDを求め,類似性の尺度としてもよい。シグネチャの画像特徴量としては,たとえばフェイス領域の画像情報のHSV色空間内の頻度分布を求め,色相と彩度に関してグルーピングを行って,特徴の個数とHSV色空間内の領域による画像特徴量とすることができる。色相と彩度についてグルーピングを行うのは,撮影条件に大きく左右されないように,明度への依存度を下げるためである。 As another determination of similarity, EMD between image information signatures (a set of image feature amounts and weights) in each face area may be obtained and used as a measure of similarity. As the image feature quantity of the signature, for example, the frequency distribution in the HSV color space of the image information of the face area is obtained, the hue and the saturation are grouped, and the number of the features and the image feature quantity by the area in the HSV color space are determined. can do. The reason for grouping hue and saturation is to reduce the dependence on lightness so that it is not greatly affected by shooting conditions.
また,処理の高速化のため,シグネチャとEMDの代わりに,適宜の色空間内での画像情報の色コリログラムや色ヒストグラムなどの画像特徴量間のL2距離等の類似性を用いることもできる。 Further, in order to speed up the processing, similarities such as L2 distance between image feature quantities such as color correlograms and color histograms of image information in an appropriate color space can be used instead of the signature and EMD.
類似性の判定は,上述に限定をするものではない。特定した商品識別情報の候補は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。なお,ここで特定した商品識別情報の候補は,ある撮影画像情報に基づく正置画像情報におけるフェイスに写っている商品の商品識別情報の候補であるので,確定した商品識別情報ではない。 The determination of similarity is not limited to the above. The identified product identification information candidates are identification information candidates in association with shooting date / time information, store information, image information identification information of captured image information, image identification information of in-place image information, and face identification information for identifying a face. Store in the storage unit 22. Note that the candidate product identification information specified here is not the confirmed product identification information because it is a candidate for the product identification information of the product shown on the face in the in-place image information based on certain photographed image information.
以上のようにして特定した商品識別情報の候補は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。 The candidate product identification information identified as described above corresponds to shooting date / time information, store information, image information identification information of the photographed image information, image identification information of the in-place image information, and face identification information for identifying the face. Then, it is stored in the identification information candidate storage unit 22.
棚段画像マッチング処理部247は,前回(N−1回目)の正置画像情報における棚段の領域の画像情報と,今回(N回目)の正置画像情報における棚段の領域の画像情報とに基づいて,その類似性が高ければその棚段における各フェイスの商品識別情報の候補は同一と判定する。この類似性の判定処理は,上述のように,前回(N−1回目)の正置画像情報における棚段の領域の画像情報の画像特徴量と,今回(N回目)の正置画像情報における棚段の領域の画像情報とに基づく類似性の判定でもよいし,色ヒストグラム同士のEMDを用いたものであってもよい。また,それらに限定するものではない。そして,識別情報特定処理部246におけるフェイス単位ごとの特定処理ではなく,識別情報特定処理部246に,N回目の正置画像情報におけるその棚段における各フェイスの商品識別情報の候補を,N−1回目の同一の棚段における各フェイスの商品識別情報の候補と同一として,識別情報候補記憶部22に記憶させる。これによって,あまり商品の動きがない棚段や逆にきわめて短いサイクルで管理される棚段など,変化がほとんど生じない棚段についての処理を省略することができる。なお,棚段画像マッチング処理部247による処理は設けなくてもよい。 The shelf image matching processing unit 247 includes image information on the shelf area in the previous (N-1) th in-place image information and image information on the shelf area in the current (Nth) in-place image information. If the similarity is high, the candidates for the product identification information of each face on the shelf are determined to be the same. As described above, this similarity determination processing is performed in the image feature amount of the image information of the shelf area in the previous (N-1) th in-place image information and the current (Nth) in-place image information. Similarity determination based on image information of a shelf area may be used, or EMD between color histograms may be used. Moreover, it is not limited to them. Then, instead of the identification processing for each face unit in the identification information identification processing unit 246, the identification information identification processing unit 246 sends the N-th in-place image information candidates for the product identification information of each face on the shelf to N− The product is stored in the identification information candidate storage unit 22 as being the same as the product identification information candidate for each face on the same first shelf. As a result, it is possible to omit processing for a shelf that hardly changes, such as a shelf that does not move much or a shelf that is managed in a very short cycle. Note that the processing by the shelf image matching processing unit 247 may not be provided.
棚段画像マッチング処理部247における処理は,N回目とN−1回目の比較の際に用いるほか,N回目に同一の陳列棚を異なる角度で撮影した正置画像情報の比較の処理の際に用いてもよい。 The processing in the shelf-level image matching processing unit 247 is used for the N-th comparison and the (N-1) -th comparison, and for the N-th comparison of the in-place image information obtained by photographing the same display shelf at different angles. It may be used.
識別情報比較処理部25は,識別情報特定処理部246で特定した商品識別情報の候補に基づいて,同一の陳列棚を同一の機会に異なる角度で撮影した撮影画像情報(正置画像情報)において,対応するフェイス同士の商品識別情報の候補を比較し,そのフェイスに写っている商品の商品識別情報を特定(確定)する処理を実行する。識別情報比較処理部25の処理のイメージ図を図14に示す。 Based on the candidate product identification information specified by the identification information specification processing unit 246, the identification information comparison processing unit 25 uses the captured image information (orientated image information) obtained by photographing the same display shelf at the same opportunity at different angles. , The product identification information candidates of the corresponding faces are compared, and the product identification information of the product shown on the face is specified (confirmed). An image diagram of the processing of the identification information comparison processing unit 25 is shown in FIG.
識別情報比較処理部25は,同一の陳列棚を同一の機会,たとえば同一日に撮影した異なる撮影画像情報に基づく正置画像情報において,画像情報処理部24で特定したフェイスごとの商品識別情報の候補を,それぞれ識別情報候補記憶部22から特定する。たとえば同一のフェイス識別情報に対応する商品識別情報の候補を,それぞれ特定する。そして,それぞれの商品識別情報の候補について,所定の条件と比較し,当該フェイスに対応する商品識別情報を特定(確定)する。たとえば,図14に示すように,同一の陳列棚を同一の機会に撮影した,角度が異なる2つの撮影画像情報(撮影画像情報1,撮影画像情報2)があるとする。このとき,撮影画像情報1を正置化した正置画像情報1におけるフェイスAには商品識別情報の候補として商品識別情報1が対応づけられており,撮影画像情報2を正置化した正置画像情報2におけるフェイスAには商品識別情報の候補が存在していない(正置画像情報2に基づいてはフェイスAの商品識別情報が特定できなかった)場合とする。この場合には,正置画像情報1に基づく商品識別情報1をフェイスAの商品識別情報として特定する。また,別の例として,撮影画像情報1を正置化した正置画像情報1におけるフェイスAには商品識別情報の候補として商品識別情報1が尤度40%で対応づけられており,撮影画像情報2を正置化した正置画像情報2におけるフェイスAには商品識別情報の候補として商品識別情報2が尤度90%で対応づけられていた場合には,尤度がもっとも高い商品識別情報2をフェイスAの商品識別情報として特定する。 The identification information comparison processing unit 25 stores the product identification information for each face specified by the image information processing unit 24 in the in-place image information based on different photographed image information photographed on the same display shelf at the same opportunity, for example, on the same day. Each candidate is specified from the identification information candidate storage unit 22. For example, candidate product identification information corresponding to the same face identification information is specified. Then, each product identification information candidate is compared with a predetermined condition, and the product identification information corresponding to the face is specified (determined). For example, as shown in FIG. 14, it is assumed that there are two pieces of photographed image information (photographed image information 1, photographed image information 2) obtained by photographing the same display shelf at the same opportunity and having different angles. At this time, the product identification information 1 is associated as a candidate for product identification information with the face A in the normal image information 1 in which the captured image information 1 is aligned, and the captured image information 2 is aligned. It is assumed that the product identification information candidate does not exist on face A in image information 2 (the product identification information on face A could not be specified based on the in-place image information 2). In this case, the product identification information 1 based on the in-place image information 1 is specified as the product identification information of the face A. As another example, product identification information 1 is associated with 40% likelihood as a candidate for product identification information to face A in the in-place image information 1 obtained by arranging the captured image information 1. When the product identification information 2 is associated with the face A in the normal image information 2 obtained by arranging the information 2 as a candidate for product identification information with a likelihood of 90%, the product identification information with the highest likelihood is used. 2 is specified as product identification information of face A.
このように識別情報比較処理部25は,同一の陳列棚を同一の機会に撮影した異なる角度の画像情報において,それぞれ特定した商品識別情報の候補を,商品識別情報の候補の有無,商品識別情報の候補の尤度に基づいて,当該フェイスに対応する商品識別情報として特定をする。なお,一つの画像情報における一つのフェイスに,尤度に応じた複数の商品識別情報の候補がある場合,尤度をそれぞれ演算してもよい。たとえば撮影画像情報1を正置化した正置画像情報1におけるフェイスAには商品識別情報の候補として商品識別情報1が尤度65%,商品識別情報2が尤度30%で対応づけられており,撮影画像情報2を正置化した正置画像情報2におけるフェイスAには商品識別情報の候補として商品識別情報2が尤度70%,商品識別情報1が尤度25%で対応づけられていた場合,同一の商品識別情報については,尤度に基づく値同士を加算,乗算等の演算をして値を算出し,その値に基づいていずれか一つの商品識別情報に特定をしてもよい。たとえば上述の場合,商品識別情報1を90,商品識別情報2を100として比較して,商品識別情報2に特定してもよい。このように,識別情報比較処理部25は,同一の撮影対象物である陳列棚を同一の機会に撮影した異なる角度による複数の画像情報から特定した商品識別情報の候補を,所定条件で比較し,当該フェイスに対応する商品識別情報を特定する。なお,フェイス単位で処理を実行すると精度が向上するが,それに限定するものではなく,商品識別情報の候補を比較さえすればよい。 In this way, the identification information comparison processing unit 25 determines the identified product identification information candidates, the presence / absence of the product identification information candidates, and the product identification information in the image information at different angles obtained by photographing the same display shelf at the same opportunity. Based on the likelihood of the candidate, the product identification information corresponding to the face is specified. When there are a plurality of product identification information candidates corresponding to the likelihood in one face in one image information, the likelihood may be calculated respectively. For example, product identification information 1 is associated with a likelihood of 65% and product identification information 2 with a likelihood of 30% as a candidate for the product identification information to face A in the regular image information 1 obtained by arranging the photographed image information 1 in a regular manner. The face A in the normal image information 2 obtained by arranging the photographed image information 2 is associated with the product identification information 2 as a candidate for product identification information with a likelihood of 70% and the product identification information 1 with a likelihood of 25%. In the case of the same product identification information, the values based on the likelihood are calculated by adding, multiplying, etc., and specifying one of the product identification information based on the value. Also good. For example, in the above-described case, the product identification information 1 may be specified as 90 and the product identification information 2 may be set as 100 and may be specified as the product identification information 2. In this way, the identification information comparison processing unit 25 compares the product identification information candidates identified from a plurality of pieces of image information at different angles obtained by photographing the display shelves that are the same object to be photographed at the same opportunity under a predetermined condition. , Product identification information corresponding to the face is specified. Although the accuracy is improved by executing the processing in units of faces, the present invention is not limited to this, and it is only necessary to compare the product identification information candidates.
なお,本明細書における画像認識システム1は,陳列棚に陳列した商品を撮影した画像情報から,そこに写っている商品の商品識別情報を特定する処理に適用することができるが,それに限定するものではなく,何らかの対象物が写っている画像情報から,その対象物の識別情報を特定する場合にも適用することができる。 Note that the image recognition system 1 in the present specification can be applied to a process of identifying the product identification information of the product shown in the image information obtained by photographing the product displayed on the display shelf, but is not limited thereto. The present invention can also be applied to the case where identification information of an object is specified from image information in which some object is reflected.
本発明の画像認識システム1を用いた処理プロセスを,図1および図2のブロック図,図4乃至図6のフローチャートを用いて説明する。なお,以下の説明では,同一の陳列棚について,2方向から撮影した2枚の撮影画像情報を用いる場合を説明するが,3枚以上であっても,同様に処理が実行できる。 A processing process using the image recognition system 1 of the present invention will be described with reference to the block diagrams of FIGS. 1 and 2 and the flowcharts of FIGS. In the following description, a case where two pieces of photographed image information photographed from two directions are used for the same display shelf will be described. However, even when there are three or more pieces, the same processing can be executed.
店舗の陳列棚の撮影担当者は,同一の陳列棚について,同一の機会に,光等の写り込みが重ならないように,複数の角度から撮影を行う。そして店舗の陳列棚について,同一の機会に異なる角度から撮影された撮影画像情報(図8,図9)は,撮影画像情報入力端末3から入力され,管理端末2の画像情報処理部24における撮影画像情報入力受付処理部241でその入力を受け付ける(S100,S110)。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部241は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部20に記憶させる。 The person in charge of photographing the display shelf of the store performs photographing from a plurality of angles so that the reflection of light or the like does not overlap on the same display shelf at the same opportunity. And about the display shelf of a store, the picked-up image information (FIG. 8, FIG. 9) image | photographed from the different angle at the same opportunity is input from the picked-up image information input terminal 3, and is image | photographed in the image information processing part 24 of the management terminal 2. The image information input reception processing unit 241 receives the input (S100, S110). Also, input of image information identification information such as shooting date / time, store identification information, and shooting image information is accepted. Then, the photographed image information input acceptance processing unit 241 stores the photographed image information, the photographing date and time, the store identification information, and the image information identification information of the photographed image information, which are accepted, in the photographed image information storage unit 20 in association with each other.
管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,台形補正処理を実行する(S120)。このようにして台形補正処理が実行された撮影画像情報(正置画像情報)の一例が,図10,図11である。 When the management terminal 2 accepts a predetermined operation input, the photographed image information normalization processing unit 242 extracts the photographed image information stored in the photographed image information storage unit 20 and performs a shelf that is a vertex for performing trapezoid correction processing. The input of the four points of the position (the position of the display shelf) is received, and the keystone correction process is executed (S120). FIGS. 10 and 11 show examples of photographed image information (rectified image information) that has been subjected to the trapezoidal correction process in this way.
そして,正置画像情報に対して,管理端末2において所定の操作入力を受け付けることで,棚段位置特定処理部243は,棚段領域を特定する(S130)。すなわち,正置画像情報における棚段領域の入力を受け付ける。図12および図13が,棚段領域が特定された状態を示す図である。 Then, the shelf position identification processing unit 243 identifies the shelf area by receiving a predetermined operation input in the management terminal 2 for the in-place image information (S130). That is, the input of the shelf area in the in-place image information is accepted. 12 and 13 are diagrams showing a state where the shelf region is specified.
以上のようにして,棚段領域を特定すると,棚段領域切出処理部244は,S130で入力を受け付けた棚段の領域に基づいて,正置画像情報から棚段領域の画像情報を切り出す(S140)。そして,棚段領域画像情報における棚段ごとに,フェイスを特定する処理を実行する(S150)。具体的には,棚段領域における棚段について,4点の座標で構成される矩形領域の範囲内において,商品と商品との間に生ずる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスを特定する。特定したフェイスには,フェイスを識別するためのフェイス識別情報を付す。このフェイス識別情報は,同一の陳列棚を撮影した画像情報については,異なる画像情報であっても,対応するフェイスであることを識別可能とするため,同一のフェイス識別情報とするか,あるいはフェイス識別情報の対応関係を記憶しておく。 When the shelf area is specified as described above, the shelf area extraction processing unit 244 extracts the image information of the shelf area from the in-place image information based on the shelf area received in S130. (S140). Then, a process for specifying a face is executed for each shelf in the shelf area image information (S150). Specifically, for the shelves in the shelf area, identify the narrow and narrow shadow that occurs between the products within the rectangular area consisting of the coordinates of the four points. The face is specified by specifying a step on the upper side of the package, specifying a separation position based on constraints such as the same product width, and the like. Face identification information for identifying the face is attached to the specified face. The face identification information may be the same face identification information for image information obtained by photographing the same display shelf in order to identify the corresponding face even if the image information is different. The correspondence of identification information is stored.
そして,特定した各フェイスの座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイスを識別するためのフェイス識別情報と対応付けて記憶させる。なお,フェイスの座標は4点を記憶せずとも,矩形領域を特定可能な2点であってもよい。 The coordinates of each identified face are stored in association with the shooting date and time, the store identification information, the image information identification information of the photographed image information, the image information identification information of the in-place image information, and the face identification information for identifying the face. Let The coordinates of the face may be two points that can specify a rectangular area without storing four points.
以上のように正置画像情報の棚段領域画像情報における各棚段の各フェイスを特定すると,識別情報特定処理部246は,フェイスごとに,標本情報記憶部21に記憶する標本情報とマッチング処理を実行し,類似性が最も高い標本情報に対応する商品識別情報を特定する。そして,そのフェイスに表示されている商品の商品識別情報の候補として特定する(S160)。すなわち,ある棚段のフェイスの矩形領域(この領域のフェイスのフェイス識別情報をXとする)における画像情報と,標本情報記憶部21に記憶する各標本情報とから,それぞれの画像特徴量を算出し,特徴点のペアを求めることで,類似性を判定する。そして,もっとも類似性の高い標本情報を特定し,そのときの類似性があらかじめ定められた閾値以上であれば,その標本情報に対応する商品識別情報を標本情報記憶部21に基づいて特定する。そして,特定した商品識別情報を,そのフェイス識別情報Xのフェイスに表示されている商品の商品識別情報の候補とする。そして識別情報特定処理部246は,特定した商品識別情報の候補を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて識別情報候補記憶部22に記憶する(S170)。 As described above, when each face of each shelf in the shelf area image information of the in-place image information is specified, the identification information specifying processing unit 246 performs the sample information and matching processing stored in the sample information storage unit 21 for each face. To identify the product identification information corresponding to the sample information having the highest similarity. And it specifies as a candidate of the merchandise identification information of the merchandise displayed on the face (S160). That is, each image feature amount is calculated from the image information in the rectangular area of the face of a certain shelf (the face identification information of the face of this area is X) and each sample information stored in the sample information storage unit 21. Then, similarity is determined by obtaining a pair of feature points. Then, the sample information with the highest similarity is specified, and if the similarity at that time is equal to or greater than a predetermined threshold, the product identification information corresponding to the sample information is specified based on the sample information storage unit 21. Then, the specified product identification information is set as a candidate for product identification information of the product displayed on the face of the face identification information X. Then, the identification information identification processing unit 246 associates the identified candidate product identification information with the shooting date and time, the store identification information, the image information identification information of the photographed image information, the image information identification information of the in-place image information, and the face identification information. And stored in the identification information candidate storage unit 22 (S170).
なお,すべてのフェイスの商品識別情報を特定できるとは限らない。そこで,特定できていないフェイス(もっとも高い類似性が所定の閾値未満のフェイスなど)については,商品識別情報の入力を受け付け,入力を受け付けた商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて,商品識別情報の候補として識別情報候補記憶部22に記憶してもよい。また,特定した商品識別情報の候補の修正処理についても同様に,入力を受け付けてもよい。なお,このようなフェイスについては,もともと確実性が高いので,後述の識別情報比較処理部25の処理を実行せずに,商品識別情報として確定し,識別情報候補記憶部22,識別情報記憶部23に記憶させてもよい。このとき,識別情報候補記憶部22には,手入力を受け付けたことを示すフラグを付し,そのフラグがある場合には識別情報比較処理部25の処理をスキップするなどができる。 In addition, the product identification information of all faces cannot be specified. Therefore, for a face that has not been identified (such as a face having the highest similarity less than a predetermined threshold), the product identification information is input, and the received product identification information includes the shooting date / time, the store identification information, and the captured image. The image information identification information of the information, the image information identification information of the in-place image information, and the face identification information may be stored in the identification information candidate storage unit 22 as product identification information candidates. Similarly, an input may be accepted for the correction process for the identified candidate product identification information. Since such a face is originally highly reliable, it is determined as product identification information without executing the processing of the identification information comparison processing unit 25 described later, and the identification information candidate storage unit 22, the identification information storage unit 23 may be stored. At this time, a flag indicating that manual input has been accepted is attached to the identification information candidate storage unit 22, and if the flag is present, the processing of the identification information comparison processing unit 25 can be skipped.
以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報の候補を特定することができる。 By performing the processing as described above, candidates for product identification information of products displayed on the shelf of the display shelf shown in the captured image information can be specified.
そして各撮影画像情報に基づく正置画像情報におけるフェイスについて,商品識別情報の候補が特定できると,識別情報比較処理部25は,対応するフェイス同士の商品識別情報の候補を識別情報候補記憶部22から特定し,それらを所定条件に基づいて比較することで,当該フェイスにおける商品識別情報として特定する(S200)。 When the product identification information candidate can be specified for the face in the in-place image information based on each captured image information, the identification information comparison processing unit 25 selects the product identification information candidate between the corresponding faces as the identification information candidate storage unit 22. Are identified as product identification information in the face by comparing them based on predetermined conditions (S200).
具体的には,まず識別情報比較処理部25は,同一の陳列棚を同一の機会に撮影した角度の異なる複数の正置画像情報において,対応するフェイスを特定する(S210)。対応するフェイスの特定では,同一のフェイス識別情報に基づいて特定する,フェイスとして対応づけられているフェイスを特定するなどの方法がある。 Specifically, first, the identification information comparison processing unit 25 specifies corresponding faces in a plurality of pieces of in-place image information at different angles obtained by photographing the same display shelf at the same opportunity (S210). In identifying the corresponding face, there are methods such as specifying based on the same face identification information and specifying a face associated as a face.
そして特定したフェイスについての商品識別情報の候補を,識別情報候補記憶部22から抽出し,対応するフェイス同士の商品識別情報の候補について,所定の条件を充足するか比較し(S220),当該フェイスについての商品識別情報として特定する(S230)。そして,特定した商品識別情報を,識別情報記憶部23に記憶させる(S240)。 And the candidate of the product identification information about the specified face is extracted from the identification information candidate storage unit 22, and the candidate of the product identification information of the corresponding faces is compared if a predetermined condition is satisfied (S220). (S230). Then, the identified product identification information is stored in the identification information storage unit 23 (S240).
以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報を特定することができる。また,複数の角度で撮影した撮影画像情報に基づいて特定しているので,光などの写り込みの影響を排除しやすくなり,商品の特定の精度を向上させることができる。 By performing the processing as described above, it is possible to specify the product identification information of the products displayed on the shelf of the display shelf shown in the captured image information. Moreover, since it identifies based on the picked-up image information image | photographed from several angles, it becomes easy to eliminate the influence of reflections, such as light, and can improve the specific precision of goods.
また,2回目または2枚目以降の処理においては,適宜,棚段画像マッチング処理部247における処理を実行することができる。 In the second or second and subsequent processes, the process in the shelf image matching processing unit 247 can be executed as appropriate.
上述した実施例1では,4点を指定することで台形補正処理を実行することとしたが,その基準となる頂点を毎回,指定して入力することは負担が大きい。そこで,台形補正処理の基準となる頂点を自動的に特定するように構成してもよい。この場合の処理を説明する。 In the first embodiment described above, the trapezoidal correction process is executed by designating four points. However, it is burdensome to designate and input a vertex as a reference every time. Therefore, a configuration may be adopted in which a vertex serving as a reference for trapezoid correction processing is automatically specified. Processing in this case will be described.
この場合の撮影画像情報正置化処理部242は,初回の台形補正処理と,二回目以降の台形補正処理とに分かれる。なお,初回とは一回目のほか,頂点を自動的に特定する際のずれを修正するため,任意のタイミングで手動で行う場合も含まれる。二回目以降とは初回以外である。また,本発明では,同一の陳列棚について同一の機会に,複数の角度から撮影を行う。そのため,最初の一枚(N−1回目)について頂点を指定することで台形補正処理を実行し,二枚目以降(N回目)については,台形補正処理の基準となる頂点を自動的に特定するようにしてもよい。 In this case, the captured image information normalization processing unit 242 is divided into an initial trapezoid correction process and a second and subsequent trapezoid correction processes. In addition to the first time, the first time includes a case where it is manually performed at an arbitrary timing in order to correct a deviation when automatically specifying the vertex. The second and subsequent times are other than the first time. In the present invention, the same display shelf is photographed from a plurality of angles at the same opportunity. Therefore, the trapezoid correction process is executed by specifying the vertex for the first sheet (N-1), and the vertex that is the standard for the trapezoid correction process is automatically specified for the second and subsequent sheets (Nth). You may make it do.
撮影画像情報正置化処理部242における初回の台形補正処理は,実施例1と同様に,陳列棚の長方形の領域の4頂点の指定の入力を受け付ける。陳列棚の長方形の領域の4頂点としては,陳列棚の棚位置の4頂点であってもよいし,棚段の4頂点や商品タグを取り付ける領域の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。ここで指定を受け付けた4頂点は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて記憶させる。そして撮影画像情報正置化処理部242は,指定を受け付けた4頂点の座標に基づいて,撮影画像情報に対して台形補正処理を実行し,正置画像情報とする。 The first trapezoid correction process in the captured image information normalization processing unit 242 accepts input of designation of the four vertices of the rectangular area of the display shelf, as in the first embodiment. The four vertices of the rectangular area of the display shelf may be the four vertices of the shelf position of the display shelf, the four vertices of the shelf stage, or the four vertices of the area to which the product tag is attached. Further, it may be the four vertices of a group of two or three shelves. The four vertices that have received the designation are stored in association with the image information identification information of the shooting date / time information, the store information, and the shot image information. Then, the captured image information normalization processing unit 242 performs trapezoidal correction processing on the captured image information based on the coordinates of the four vertices that have received the designation, and obtains in-place image information.
撮影画像情報正置化処理部242は,二回目以降の台形補正処理を以下のように実行をする。 The captured image information normalization processing unit 242 executes the second and subsequent trapezoidal correction processes as follows.
まず,撮影画像情報正置化処理部242は,N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標を,前回の処理の際に記憶した情報から特定する。N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標は,撮影画像情報に対応する店舗識別情報,画像識別情報,撮影日時情報などに基づいて特定をする。そして,N−1回目の撮影画像情報に対して,特定をした4頂点の頂点座標を含む所定の大きさの矩形領域,たとえば棚段の幅の1/5程度の正方形を特徴量採取領域2420として設定をする。N−1回目の撮影画像情報に対して,特徴量採取領域2420を設定した状態の一例を図15に示す。特徴量採取領域2420は,頂点座標を含む矩形領域であればよい。一方,陳列棚の背景同士がマッチングをしてしまうと,撮影位置が少しずれるだけで背景が大きくずれてしまう。そこで,特徴量採取領域2420は,なるべく陳列棚の内側を多く含む位置に設定することが好ましい。つまり,頂点座標は,特徴量採取領域2420において,特徴量採取領域2420の中心点よりも陳列棚の外側方向に位置していることが好ましい。 First, the captured image information normalization processing unit 242 uses the vertex coordinates of the (N−1) th captured image information obtained by capturing the same (substantially the same) area corresponding to the Nth captured image information in the previous processing. Specify from the stored information. The vertex coordinates of the (N-1) th imaged image information obtained by imaging the same (substantially the same) area corresponding to the Nth imaged image information are stored in store identification information, image identification information, imaged date / time information, etc. corresponding to the imaged image information. Identify based on. Then, with respect to the (N-1) th captured image information, a rectangular region having a predetermined size including the identified vertex coordinates of the four vertices, for example, a square having a width of about 1/5 of the shelf width is selected as the feature amount collection region 2420. Set as. FIG. 15 shows an example of a state in which the feature amount collection area 2420 is set for the (N-1) th captured image information. The feature amount collection area 2420 may be a rectangular area including vertex coordinates. On the other hand, if the backgrounds of the display shelves match each other, the background will be greatly displaced by only a slight shift in the shooting position. Therefore, it is preferable to set the feature amount collection region 2420 at a position including as much inside the display shelf as possible. That is, it is preferable that the vertex coordinates are located in the outward direction of the display shelf in the feature amount collection region 2420 from the center point of the feature amount collection region 2420.
たとえば,頂点座標の4点は左上,右上,左下,右下に位置する。そして,特徴量採取領域2420の矩形領域を縦横の中心でそれぞれ2分割した合計4領域に分割すると,左上の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち左上の領域に位置するように特徴量採取領域2420を設定する。同様に,右上の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち右上の領域に位置するように特徴量採取領域2420を設定し,左下の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち左下の領域に位置するように特徴量採取領域2420を設定し,右下の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち右下の領域に位置するように特徴量採取領域2420を設定する。これによって,頂点座標は,特徴量採取領域2420において,特徴量採取領域2420の中心点よりも陳列棚の外側方向に位置することとなる。 For example, the four vertex coordinates are located at the upper left, upper right, lower left, and lower right. Then, when the rectangular area of the feature quantity collection area 2420 is divided into a total of 4 areas each divided into two at the vertical and horizontal centers, in the feature quantity collection area 2420 including the upper left vertex coordinates, the vertex coordinates are the upper left areas of the rectangular areas. The feature amount collection region 2420 is set to be located at Similarly, in the feature quantity collection area 2420 including the upper right vertex coordinates, the feature quantity collection area 2420 is set so that the vertex coordinates are located in the upper right area of the rectangular area, and the feature quantity collection including the lower left vertex coordinates is performed. In the area 2420, the feature quantity collection area 2420 is set so that the vertex coordinates are located in the lower left area of the rectangular area. In the feature quantity collection area 2420 including the lower right vertex coordinates, the vertex coordinates of the rectangular area are The feature amount collection region 2420 is set so as to be located in the lower right region. As a result, the vertex coordinates are located in the feature amount collection region 2420 in the outer direction of the display shelf with respect to the center point of the feature amount collection region 2420.
つぎに,撮影画像情報正置化処理部242は,N回目の撮影画像情報において,N−1回目の撮影画像情報に設定した特徴量採取領域2420を内包し,N−1回目の撮影画像情報の特徴量採取領域2420以上の大きさの特徴量採取領域2421を設定する。N回目の撮影画像情報に設定する特徴量採取領域2421は,短辺の1/2の大きさは超えない。さらに,撮影画像情報よりも外側に出る場合には,その範囲をトリミングする。N回目の撮影画像情報に対して特徴量採取領域2421を設定した状態の一例を図16に示す。 Next, the captured image information normalization processing unit 242 includes a feature amount collection area 2420 set in the N−1th captured image information in the Nth captured image information, and the N−1th captured image information. The feature amount collection region 2421 having a size larger than the feature amount collection region 2420 is set. The feature amount collection area 2421 set in the Nth captured image information does not exceed half the short side. Further, if the image information is outside the captured image information, the range is trimmed. FIG. 16 shows an example of a state in which the feature amount collection area 2421 is set for the Nth captured image information.
そして撮影画像情報正置化処理部242は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域2420において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域2421において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。 Then, the captured image information normalization processing unit 242 collects local feature amounts in each feature amount collection region 2420 set for the (N-1) th captured image information, and extracts feature points and their coordinates based on the local feature amounts. Memorize the set. In addition, in each feature amount collection area 2421 set for the Nth captured image information, a local feature amount is collected, and a feature point based on the local feature amount and a set of coordinates thereof are stored.
撮影画像情報正置化処理部242は,N−1回目の撮影画像情報の特徴量採取領域2420における特徴点の局所特徴量と,N−1回目の撮影画像情報の特徴量採取領域2420に対応する位置にあるN回目の撮影画像情報の特徴量採取領域2421における特徴点の局所特徴量とを比較する。そして,N−1回目の撮影画像情報の各特徴点の各局所特徴量にもっとも近い,N回目の撮影画像情報の各局所特徴量の特徴点を特定する。そしてもっとも近い局所特徴量同士の特徴点をペアとし,ペアとなる局所特徴量による特徴点の座標を対応づける。なお,この際に,局所特徴量同士の近さ(類似性)があらかじめ定められた閾値未満のペアは除外をする。これによって,N−1回目の特徴量採取領域2420における局所特徴量の特徴点と,N回目の特徴量採取領域2421におけるもっとも近い局所特徴量の特徴点同士のペアを特定できる。N−1回目の特徴量採取領域2420の局所特徴量の特徴点と,N回目の特徴量採取領域2421の局所特徴量の特徴点とのペアの関係を図17に示す。図17では,N−1回目の特徴量採取領域2420における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域2421における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をCで示している。 The captured image information normalization processing unit 242 corresponds to the local feature amount of the feature point in the feature amount collection region 2420 of the N-1th captured image information and the feature amount collection region 2420 of the N-1th captured image information. The local feature amount of the feature point in the feature amount collection region 2421 of the Nth captured image information at the position to be compared is compared. Then, the feature point of each local feature amount of the N-th captured image information that is closest to each local feature amount of each feature point of the N-1th captured image information is specified. Then, the feature points of the nearest local feature values are paired, and the feature point coordinates by the paired local feature values are associated. At this time, pairs whose local feature quantities are close (similarity) less than a predetermined threshold are excluded. As a result, it is possible to identify a pair of feature points of the local feature amount in the (N-1) th feature amount collection region 2420 and a feature point of the closest local feature amount in the Nth feature amount collection region 2421. FIG. 17 shows a pair relationship between the feature points of the local feature amount of the N-1th feature amount collection region 2420 and the feature points of the local feature amount of the Nth feature amount collection region 2421. In FIG. 17, a point group of feature points based on local feature amounts in the N-1th feature amount collection region 2420 is A, and a point group of feature points based on local feature amounts in the Nth feature amount collection region 2421 is B, N−. The vertex used for the first trapezoid correction process is indicated by C.
N−1回目の特徴量採取領域2420における局所特徴量による特徴点の点群Aの座標と,点群Aに対応するN回目の特徴量採取領域2421における局所特徴量による特徴点の点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(透視変換・ホモグラフィー)を求める。関数Fは,サンプリング推定を反復する,ロバスト推定の一種であるOpenCVのRANSACを利用するなどの方法があるが,それらに限定しない。なお,射影の関係にある関係線からずれが大きいペアは処理対象から除外をする。 The coordinates of the point group A of the feature points based on the local feature amounts in the N-1th feature amount collection region 2420 and the point group B of the feature points based on the local feature amounts in the Nth feature amount collection region 2421 corresponding to the point group A And a function F (perspective transformation / homography) for projecting the point group A to the point group B is obtained. The function F includes, but is not limited to, a method of repeating sampling estimation and using Ransac of OpenCV which is a kind of robust estimation. It should be noted that a pair having a large deviation from the relationship line in the projection relationship is excluded from the processing target.
撮影画像情報正置化処理部242において関数Fを求めたのち,撮影画像情報正置化処理部242は,N−1回目の台形補正処理で用いた頂点Cの座標を,関数Fに基づいてN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する。これを模式的に示すのが図18である。 After obtaining the function F in the captured image information normalization processing unit 242, the captured image information normalization processing unit 242 determines the coordinates of the vertex C used in the N−1th trapezoidal correction process based on the function F. The image information is projected onto the Nth captured image information and specified as the coordinates of the vertex D for the Nth trapezoidal correction process. This is schematically shown in FIG.
以上の処理を各特徴量採取領域2420,2421に対して行うことで,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定する。そして,撮影画像情報正置化処理部242は,特定した4頂点に基づいて,N回目の撮影画像情報に対する台形補正処理を実行して正置化し,正置画像情報を生成し,記憶する。この際に,撮影画像情報正置化処理部242は,正置画像情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報と対応づけて記憶をさせる。特定したN回目の撮影画像情報に対応する頂点の座標は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて記憶させる。 By performing the above processing on the feature amount collection areas 2420 and 2421, the four vertices of the shelf position for the trapezoidal correction process in the Nth captured image information are specified. Then, the captured image information normalization processing unit 242 executes trapezoidal correction processing for the Nth captured image information based on the identified four vertices to generate the correct image information and store it. At this time, the captured image information corrective processing unit 242 associates with the correct image information, and corresponds to the image date / time information, the store information, the image information identification information of the captured image information, and the image identification information of the correct image information. Let me remember. The coordinates of the vertex corresponding to the specified Nth captured image information are stored in association with the image information identification information of the captured date / time information, the store information, and the captured image information.
なお,撮影画像情報正置化処理部242における台形補正処理で用いる頂点の特定処理は,本発明のように陳列棚を撮影した画像情報から商品を特定する場合に限らず,同一の撮影対象物を撮影した複数の画像情報を正置化し,正置画像情報を生成する画像認識システム1にも適用することができる。これによって,同一の撮影対象物を撮影した複数の画像情報について,それぞれ正置化して,その撮影対象物の正置画像情報を生成することができる。 Note that the vertex specifying process used in the trapezoidal correction process in the captured image information normalization processing unit 242 is not limited to the case of specifying a product from the image information obtained by capturing the display shelf as in the present invention, but the same object to be captured. The present invention can also be applied to the image recognition system 1 that corrects a plurality of pieces of image information obtained by photographing the image and generates the in-place image information. As a result, a plurality of pieces of image information obtained by photographing the same object to be photographed can be arranged in order to generate in-place image information of the object to be photographed.
また,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定するため,上述では,N−1回目の撮影画像情報における特徴量採取領域2420での局所特徴量による特徴点の点群Aと,N回目の撮影画像情報における特徴量採取領域2421での局所特徴量による特徴点の点群Bとを用いて関数Fを求め,N−1回目の台形補正処理で用いた頂点Cの座標を,関数FによりN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する処理を説明した。しかし,かかる処理では,N−1回目の撮影画像情報と,N回目の撮影画像情報とにおいて,類似する画像情報の対応点の座標(位置)を見つければよいので,上記の方法にするものではなく,画像情報内の箇所を特定するタイプの特徴量であればいかなるものであってもよい。たとえば,画像情報内における尖った箇所,ハイライトのポイントなどがある。本明細書では,局所特徴量などの,画像情報内の箇所を特定する特徴量を画像特徴量(位置特定型画像特徴量)という。なお,本明細書の説明では,画像特徴量として,上述のように局所特徴量を用いる場合を説明する。 In addition, in order to specify the four vertices of the shelf position for the trapezoidal correction process in the Nth captured image information, in the above description, the feature points based on the local feature amounts in the feature amount collection area 2420 in the N−1th captured image information. The function F is obtained using the point group A and the point group B of the feature points based on the local feature amounts in the feature amount collection area 2421 in the N-th captured image information, and used in the N-1th trapezoid correction process. The process of projecting the coordinates of the vertex C onto the Nth captured image information by the function F and specifying the coordinates as the vertex D for the Nth trapezoid correction process has been described. However, in this process, it is only necessary to find the coordinates (positions) of corresponding points of similar image information in the (N-1) th captured image information and the Nth captured image information. However, any type of feature amount that identifies a location in the image information may be used. For example, there are sharp points in image information, highlight points, and the like. In this specification, a feature quantity that identifies a location in image information, such as a local feature quantity, is referred to as an image feature quantity (position-specific image feature quantity). In the description of the present specification, a case where the local feature amount is used as the image feature amount as described above will be described.
つぎに,実施例2における台形補正処理を行うための頂点の特定処理を説明する。この場合,任意の陳列棚を撮影した撮影画像情報において台形補正処理を行うための頂点がすでに特定されており,同一の陳列棚について,同一の機会に異なる角度で撮影した撮影画像情報について行う場合を説明する。 Next, a vertex specifying process for performing the trapezoidal correction process in the second embodiment will be described. In this case, the vertex for performing the trapezoidal correction process has already been specified in the captured image information obtained by photographing an arbitrary display shelf, and the captured image information obtained at the same opportunity and at different angles is used for the same display shelf. Will be explained.
店舗の陳列棚が撮影された撮影画像情報は,撮影画像情報入力端末3から入力され,管理端末2の撮影画像情報入力受付処理部241でその入力を受け付ける。図19に,撮影画像情報の一例を示す。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部241は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報を対応づけて撮影画像情報記憶部20に記憶させる。 The photographed image information obtained by photographing the display shelf of the store is input from the photographed image information input terminal 3, and the photographed image information input reception processing unit 241 of the management terminal 2 receives the input. FIG. 19 shows an example of photographed image information. Also, input of image information identification information such as shooting date / time, store identification information, and shooting image information is accepted. Then, the photographed image information input acceptance processing unit 241 stores the photographed image information, the photographing date / time, the store identification information, and the image information identification information that have received the input in the photographed image information storage unit 20 in association with each other.
管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部242は撮影画像情報記憶部20に記憶する撮影画像情報を抽出し,台形補正処理を実行するための,棚位置の頂点D(D1乃至D4)を特定する処理を実行する。 When the management terminal 2 accepts a predetermined operation input, the photographed image information normalization processing unit 242 extracts the photographed image information stored in the photographed image information storage unit 20 and changes the shelf position for executing the trapezoid correction process. A process of specifying the vertex D (D1 to D4) is executed.
今回(N回目)の撮影画像情報(図19)に対応する同じまたはほぼ同じ領域を撮影した前回(N−1回目)の撮影画像情報(図20)の頂点座標(たとえば頂点座標C1乃至C4とする)を特定する。前回の撮影画像情報の頂点座標は,撮影日時,店舗識別情報,撮影画像情報の画像識別情報などに基づいて特定をすればよい。 Vertex coordinates (for example, vertex coordinates C1 to C4) of the previous (N-1) th imaged image information (FIG. 20) in which the same or substantially the same area corresponding to the current (Nth) imaged image information (FIG. 19) is imaged. Identify). The vertex coordinates of the previous photographed image information may be specified based on the photographing date / time, the store identification information, the image identification information of the photographed image information, and the like.
撮影画像情報正置化処理部242は,撮影画像情報記憶部20からN−1回目の撮影画像情報を抽出し,それぞれの頂点C1乃至C4について,頂点を一つずつ含む所定の大きさの矩形領域を特徴量採取領域2420として,N−1回目の撮影画像情報に設定する。N−1回目の撮影画像情報に特徴量採取領域2420を設定した状態を図20に示す。 The captured image information normalization processing unit 242 extracts the (N-1) th captured image information from the captured image information storage unit 20, and for each vertex C1 to C4, a rectangle having a predetermined size including one vertex. The area is set as the feature amount collection area 2420 and is set to the (N-1) th captured image information. FIG. 20 shows a state where the feature amount collection area 2420 is set in the (N-1) th captured image information.
また,撮影画像情報正置化処理部242は,撮影画像情報記憶部20からN回目の撮影画像情報(図19)を抽出し,N−1回目の特徴量採取領域2420よりも広い範囲の特徴量採取領域2421を,N回目の撮影画像情報に設定する。N回目の撮影画像情報に特徴量採取領域2421を設定した状態を図21に示す。N回目の撮影画像情報におけるそれぞれの特徴量採取領域2421は,N−1回目の特徴量採取領域2420を一つずつ含む。図21では,N回目の特徴量採取領域2421に,N−1回目の特徴量採取領域2420を示すことで,その包含関係を示している。 Also, the captured image information normalization processing unit 242 extracts the N-th captured image information (FIG. 19) from the captured image information storage unit 20, and has a wider range of features than the N-1th feature amount collection region 2420. The quantity collection area 2421 is set to the Nth captured image information. FIG. 21 shows a state in which the feature amount collection area 2421 is set in the Nth captured image information. Each feature amount collection region 2421 in the Nth captured image information includes one N−1th feature amount collection region 2420 one by one. In FIG. 21, the inclusion relationship is shown by indicating the (N−1) th feature value collection region 2420 in the Nth feature value collection region 2421.
そして撮影画像情報正置化処理部242は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域2420において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域2421において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。 The captured image information normalization processing unit 242 collects local feature amounts in each feature amount collection region 2420 set for the (N-1) th captured image information, and sets feature points and coordinates based on the local feature amounts. Remember. In addition, local feature amounts are collected in each feature amount collection region 2421 set for the Nth captured image information, and feature points and coordinate sets based on the local feature amounts are stored.
撮影画像情報正置化処理部242は,N−1回目の撮影画像情報の特徴量採取領域2420での各特徴点の各局所特徴量にもっとも近いN回目の撮影画像情報の特徴量採取領域2421での局所特徴量の特徴点を特定し,それらをペアとなる局所特徴量の特徴点として,それぞれの座標を対応付ける。図17に示すのがN−1回目のN−1回目の特徴量採取領域2420と,N回目の特徴量採取領域2421とのペアの関係である。 The captured image information normalization processing unit 242 includes the feature amount collection region 2421 of the Nth captured image information closest to each local feature amount of each feature point in the feature amount collection region 2420 of the N−1th captured image information. The feature points of the local feature quantity in are identified, and the coordinates are associated with them as the feature points of the local feature quantity as a pair. FIG. 17 shows a pair relationship between the (N−1) th (N−1) th feature amount collection region 2420 and the Nth feature amount collection region 2421.
そして,N−1回目の特徴量採取領域2420における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域2421における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をC(C1乃至C4)とすると,撮影画像情報正置化処理部242は,点群Aと点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(透視変換・ホモグラフィー)を求める。 A point group of feature points based on local feature amounts in the N-1th feature amount collection region 2420 is A, and a point group of feature points based on local feature amounts in the Nth feature amount collection region 2421 is B, N−1th time. If the vertex used in the trapezoidal correction processing of C is C (C1 to C4), the captured image information normalization processing unit 242 converts the point group A to the point group B based on the coordinates of the point group A and the point group B. A function F (perspective transformation / homography) to be projected onto is obtained.
そして撮影画像情報正置化処理部242は,N−1回目の台形補正処理で用いた頂点C(C1乃至C4)の座標を,求めた関数Fに基づいて射影し,N回目の台形補正処理のための頂点D(D1乃至D4)の座標として特定する。 Then, the captured image information normalization processing unit 242 projects the coordinates of the vertex C (C1 to C4) used in the (N-1) th trapezoid correction process based on the obtained function F, and the Nth trapezoid correction process. Is specified as the coordinates of the vertex D (D1 to D4).
以上の処理を各特徴量採取領域2420,2421に対して行うことで,N回目の台形補正処理のための4頂点D(D1乃至D4)が自動的に特定できる。特定したN回目の頂点D(D1乃至D4)の座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報に対応づけて記憶させる。特定された頂点D1乃至D4を示すのが図22である。 By performing the above processing on the feature amount collection areas 2420 and 2421, the four vertices D (D1 to D4) for the Nth trapezoid correction process can be automatically specified. The coordinates of the identified Nth vertex D (D1 to D4) are stored in association with the image information identification information of the shooting date / time, the store identification information, and the captured image information. FIG. 22 shows the identified vertices D1 to D4.
以上のようにして,N回目の撮影画像情報に対する台形補正処理のための棚位置の頂点D(D1乃至D4)を特定すると,撮影画像情報正置化処理部24222は,頂点D(D1乃至D4)に基づいて,N回目の撮影画像情報に対して台形補正処理を実行する。 As described above, when the vertex D (D1 to D4) of the shelf position for the trapezoidal correction process for the Nth captured image information is specified, the captured image information alignment processing unit 24222 performs the vertex D (D1 to D4). ) To perform trapezoidal correction processing on the Nth captured image information.
以上のような処理を実行することで,二回目以降の台形補正処理について,台形補正処理で用いる4頂点を指定せずとも,対応する頂点を自動的に特定することができるようになり,担当者の負担を軽減することができる。 By executing the above process, the corresponding vertices can be automatically identified without specifying the four vertices used in the trapezoid correction process for the second and subsequent trapezoid correction processes. The burden on the user can be reduced.
さらに実施例1のフェイス特定処理部245におけるフェイスの特定処理の変形例を説明する。本実施例では,実施例1のフェイスの特定処理を初回の処理として,二回目以降のフェイスの特定処理として,自動的にフェイスを特定する処理を行うようにしてもよい。この場合の処理を説明する。 Furthermore, a modification of the face specifying process in the face specifying processor 245 of the first embodiment will be described. In the present embodiment, the face specifying process of the first embodiment may be performed as the first process, and the face specifying process may be automatically performed as the second and subsequent face specifying processes. Processing in this case will be described.
なお,初回とは一回目のほか,自動的に特定する際のずれを修正するため,任意のタイミングで実施例1の処理を行う場合も含まれる。二回目以降とは初回以外である。また,二回目以降には,同一の陳列棚を同一の機会に撮影した撮影画像情報,正置画像情報について,異なる角度で撮影した撮影画像情報,正置画像情報に対する処理を行う場合も含まれる。 In addition to the first time, the first time includes a case where the processing of the first embodiment is performed at an arbitrary timing in order to correct a shift when automatically specifying. The second and subsequent times are other than the first time. In addition, the second and subsequent times include processing of captured image information and in-place image information photographed at different angles with respect to captured image information and in-place image information captured on the same display shelf at the same opportunity. .
フェイス特定処理部245は,実施例1の処理と同様の処理を初回のフェイスの特定処理として実行する。そして,フェイス特定処理部245における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を抽出し,その座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とする。 The face identification processing unit 245 executes the same process as that of the first embodiment as the first face identification process. Then, the face identification processing for the second and subsequent times in the face identification processing unit 245 is performed by determining the coordinates of the area of the face specified by the previous (N-1th) in-place image information for the same shelf of the same display shelf. The extracted coordinates are used as the coordinates of the face area specified by the current (Nth) in-place image information.
フェイスの領域の座標は,棚段の位置の座標と同様に,正置画像情報における,陳列棚内での所定箇所(たとえば陳列棚の左上の頂点C1)を基準とした相対座標である。 The coordinates of the face area are relative coordinates based on a predetermined position (for example, the vertex C1 at the upper left of the display shelf) in the display shelf in the in-place image information, similarly to the coordinates of the position of the shelf.
さらに実施例1の変形例として,識別情報特定処理部246における,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報を特定する処理として,実施例1の処理を初回の商品識別情報の特定処理とし,二回目以降の商品識別情報の特定処理として,以下のような処理を実行する。 Further, as a modification of the first embodiment, the process of the first embodiment is performed as the first process in the identification information specifying processing unit 246 for specifying the product identification information of the product displayed on the face for each shelf of the display shelf. The following process is executed as the product identification information specifying process and the product identification information specifying process for the second and subsequent times.
識別情報特定処理部246は,N回目の正置画像情報におけるフェイスの商品識別情報の特定処理は,まず処理対象となるフェイスのフェイス識別情報を特定する。特定したフェイス識別情報をXとする。そして,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,フェイス識別情報Xに対応する位置にあるN−1回目の正置画像情報における領域の画像情報とを比較する。類似性の判定については,上述の実施例1乃至実施例3の処理のほか,各フェイスの領域の画像情報のシグネチャ(画像特徴量と重みの集合)同士のEMDを求め,類似性の尺度とすることができる。シグネチャの画像特徴量としては,たとえばフェイス領域の画像情報のHSV色空間内の頻度分布を求め,色相と彩度に関してグルーピングを行って,特徴の個数とHSV色空間内の領域による画像特徴量とすることができる。色相と彩度についてグルーピングを行うのは,撮影条件に大きく左右されないように,明度への依存度を下げるためである。 The identification information identification processing unit 246 first identifies the face identification information of the face to be processed in the identification processing of the product identification information of the face in the N-th in-place image information. Let X denote the identified face identification information. Then, the image information of the area of the face identification information X in the Nth position image information is compared with the image information of the area in the (N−1) th position image information at a position corresponding to the face identification information X. For the similarity determination, in addition to the processing in the first to third embodiments described above, EMD between image information signatures (a set of image feature values and weights) of each face area is obtained, can do. As the image feature quantity of the signature, for example, the frequency distribution in the HSV color space of the image information of the face area is obtained, the hue and the saturation are grouped, and the number of the features and the image feature quantity by the area in the HSV color space are determined. can do. The reason for grouping hue and saturation is to reduce the dependence on lightness so that it is not greatly affected by shooting conditions.
また,処理の高速化のため,シグネチャとEMDの代わりに,適宜の色空間内での画像情報の色コリログラムや色ヒストグラムなどの画像特徴量間のL2距離等の類似性を用いることもできる。 Further, in order to speed up the processing, similarities such as L2 distance between image feature quantities such as color correlograms and color histograms of image information in an appropriate color space can be used instead of the signature and EMD.
フェイス領域の画像情報の類似性が一定の閾値以上であれば,N−1回目の正置画像情報におけるその領域のフェイスに対応する商品識別情報の候補を識別情報候補記憶部22から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報の候補とする。これによって,処理対象となるN回目の正置画像情報におけるフェイス識別情報Xの商品識別情報の候補を特定できる。もし類似性が一定の閾値未満であれば,初回の場合と同様に,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本情報記憶部21に記憶する標本情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報の候補として特定をする。 If the similarity of the image information in the face area is equal to or greater than a certain threshold, the product identification information candidate corresponding to the face in that area in the N-1th in-place image information is extracted from the identification information candidate storage unit 22; The product identification information candidate of the face identification information X in the N-th in-place image information is used. Thereby, the candidate of the product identification information of the face identification information X in the Nth position image information to be processed can be specified. If the similarity is less than a certain threshold value, the image information of the area of the face identification information X in the Nth in-place image information and the sample information stored in the sample information storage unit 21 are obtained as in the first case. In comparison, the product identification information having similarity that is equal to or higher than a predetermined threshold and the highest similarity is specified as a candidate for product identification information of the face of the face identification information X in the N-th in-place image information.
なお,N−1回目の正置画像情報におけるフェイスの領域の画像情報との比較において,対応するフェイスの位置との比較のみならず,所定範囲のフェイスを比較対象として含めてもよい。たとえばN回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と比較する場合,比較対象としては,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,その領域から所定範囲にあるフェイスの領域,たとえばその左右方向に一または複数離隔している位置にあるフェイス,上下の棚段に位置するフェイスの領域も含めてもよい。さらに,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,フェイス識別情報X−2,X−1,X,X+1,X+2のように,複数の隣接するフェイスの領域を含めてもよい。 In comparison with the face area image information in the (N-1) th in-place image information, not only a comparison with the corresponding face position but also a face within a predetermined range may be included as a comparison target. For example, when comparing with the image information of the area of face identification information X in the N-th position image information, the comparison object includes the area of face identification information X in the N−1-th position image information and the area. An area of a face within a predetermined range, for example, a face located at a position spaced one or more in the left-right direction, and an area of a face located on upper and lower shelves may be included. Further, in addition to the area of face identification information X in the N-1th in-place image information, a plurality of adjacent face areas such as face identification information X-2, X-1, X, X + 1, and X + 2 are included. May be.
この場合,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,N−1回目の正置画像情報における,比較対象となる範囲のフェイスの範囲の領域のそれぞれの画像情報とを比較し,もっとも類似性が高いN−1回目の正置画像情報のフェイス識別情報を特定する。なお,類似性は一定の閾値以上であることを条件としてもよい。そして特定したN−1回目の正置画像情報のフェイス識別情報に対応する商品識別情報の候補を識別情報候補記憶部22から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報の候補とする。この処理を模式的に示すのが図23である。図23(a)は前回(N−1回目)の正置画像情報であり,図23(b)は今回(N回目)の正置画像情報である。そして,N回目の正置画像情報の棚段1の各フェイスの領域の画像情報と,N−1回目の正置画像情報の棚段1の各フェイスの領域の画像情報とをそれぞれ比較することで類似性を判定し,もっとも類似性が高いN−1回目の正置画像情報の棚段1のフェイスの商品識別情報の候補を,N回目の正置画像情報の棚段1のフェイスの商品識別情報の候補として特定をすることを示す。図23では,N回目の正置画像情報のフェイスに対応する位置にあるN−1回目の正置画像情報のフェイスに加え,その左右2つずつのフェイスとの比較を行う場合を示している。なお同一棚段のみならず,上下の棚段のフェイス位置の画像情報との比較を行ってもよい。たとえば図23の場合,N回目の正置画像情報の棚段2の中心のフェイス位置の商品識別情報の候補を特定する際に,N−1回目の正置画像情報の棚段2の中心およびその左右2つずつのフェイスの領域の画像情報と比較するのみならず,N−1回目の正置画像情報の棚段1の中心およびその左右2つずつのフェイスの領域の画像情報,N−1回目の正置画像情報の棚段3の中心およびその左右2つずつのフェイスの領域の画像情報と類似性の比較を行ってもよい。 In this case, the image information of the area of the face identification information X in the Nth position image information, and the image information of the area of the face range of the range to be compared in the N−1th position image information, And the face identification information of the N-1th in-place image information with the highest similarity is specified. Note that the similarity may be a condition that it is equal to or greater than a certain threshold. And the candidate of the product identification information corresponding to the face identification information of the specified N-1th in-place image information is extracted from the identification information candidate storage unit 22, and the product identification of the face identification information X in the N-th in-place image information Candidate for information. This process is schematically shown in FIG. FIG. 23A shows the previous (N-1th) in-place image information, and FIG. 23B shows the current (N-th) in-place image information. Then, the image information of each face area of the shelf 1 of the N-th position image information is compared with the image information of each face area of the shelf 1 of the N-1th position image information, respectively. The similarity is determined in step N, and the product identification information candidate for the face of shelf 1 in the N-1st in-place image information having the highest similarity is used as the product in the face of shelf 1 in the N-th place image information. Indicates that identification is made as a candidate for identification information. FIG. 23 shows a case in which comparison is made between the left and right faces in addition to the N-1th face image information face at the position corresponding to the Nth face image information face. . In addition, you may compare with the image information of the face position of not only the same shelf but an upper and lower shelf. For example, in the case of FIG. 23, when specifying the product identification information candidate of the face position at the center of the shelf 2 of the Nth position image information, the center of the shelf 2 of the N−1th position image information and In addition to comparison with the image information of the left and right face areas, the image information of the center of the shelf 1 of the N-1th in-place image information and the left and right face areas, N− Similarity may be compared with the image information of the center of the shelf 3 of the first position image information and the two face areas on the left and right sides thereof.
N−1回目の正置画像情報のフェイスの画像情報との比較の結果,類似性が閾値を充足しないなどによって商品識別情報の候補を特定できなかった場合には,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本情報記憶部21に記憶する標本情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報の候補として特定をする。この場合の類似性の判定処理は,初回の商品識別情報の特定処理と同様に行える。 As a result of the comparison of the N-1th in-place image information with the face image information, if the product identification information candidate cannot be specified because the similarity does not satisfy the threshold, the N-th in-place image information The image information in the area of the face identification information X in the sample information and the sample information stored in the sample information storage unit 21 are compared, and the product identification information having the highest similarity that is equal to or higher than a predetermined threshold is represented by N The face is identified as a candidate for product identification information of the face of the face identification information X in the in-place image information. The similarity determination process in this case can be performed in the same manner as the initial product identification information specifying process.
以上のようにして特定した商品識別情報の候補は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。 The candidate product identification information identified as described above corresponds to shooting date / time information, store information, image information identification information of the photographed image information, image identification information of the in-place image information, and face identification information for identifying the face. Then, it is stored in the identification information candidate storage unit 22.
実施例1乃至実施例4では,同一の陳列棚を同一の機会に異なる角度で撮影した画像情報のそれぞれにおいて,フェイスにおける商品識別情報の候補を特定し,対応するフェイス同士を比較することで,当該フェイスにおける商品識別情報を確定した。本実施例では,異なる角度で撮影した画像情報のそれぞれについてフェイスにおける商品識別情報の候補を特定するのではなく,異なる角度で撮影した画像情報を先に合成して光等の写り込み部分を消し込んだ上で得られた一枚の画像情報に対して,フェイスにおける商品識別情報の特定処理を実行する場合を説明する。この場合の画像認識システム1のシステム構成のブロック図の一例を図24および図25に示す。 In Example 1 to Example 4, in each piece of image information obtained by photographing the same display shelf at different angles at the same opportunity, by specifying candidates for product identification information in the face and comparing the corresponding faces, The merchandise identification information in the face is confirmed. In this embodiment, instead of specifying candidates for product identification information on the face for each piece of image information taken at different angles, the image information taken at different angles is first synthesized to eliminate the reflected portion of light or the like. A case will be described in which product identification information specifying processing in the face is executed on one piece of image information obtained after the insertion. An example of a block diagram of the system configuration of the image recognition system 1 in this case is shown in FIGS.
本実施例の画像認識システム1においては,撮影画像情報記憶部20と標本情報記憶部21と識別情報記憶部23と画像情報処理部24とを有する。撮影画像情報記憶部20,標本情報記憶部21,識別情報記憶部23は,実施例1乃至実施例4と同様の構成である。 The image recognition system 1 of the present embodiment includes a photographed image information storage unit 20, a specimen information storage unit 21, an identification information storage unit 23, and an image information processing unit 24. The captured image information storage unit 20, the sample information storage unit 21, and the identification information storage unit 23 have the same configuration as in the first to fourth embodiments.
画像情報処理部24は,撮影画像情報入力受付処理部241と撮影画像情報正値化処理部と棚段位置特定処理部243と棚段領域切出処理部244とフェイス特定処理部245と識別情報特定処理部246と棚段画像マッチング処理部247と画像情報加工処理部248とを有する。 The image information processing unit 24 includes a captured image information input acceptance processing unit 241, a captured image information positive value processing unit, a shelf position specifying processing unit 243, a shelf area extraction processing unit 244, a face specifying processing unit 245, and identification information. A specific processing unit 246, a shelf image matching processing unit 247, and an image information processing unit 248 are included.
撮影画像情報入力受付処理部241と撮影画像情報正値化処理部とは実施例1乃至実施例4と同様の処理を実行する。すなわち,撮影画像情報入力受付処理部241は,撮影画像情報入力端末3で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,撮影画像情報記憶部20に記憶させる。また,撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶した撮影画像情報に対して台形補正処理を実行して正置化した,正置画像情報を生成する。 The photographed image information input acceptance processing unit 241 and the photographed image information positive value processing unit execute the same processing as in the first to fourth embodiments. That is, the photographed image information input acceptance processing unit 241 accepts input of image information (photographed image information) of a store display shelf photographed by the photographed image information input terminal 3 and stores it in the photographed image information storage unit 20. In addition, the captured image information normalization processing unit 242 generates correct image information obtained by performing trapezoidal correction processing on the captured image information stored in the captured image information storage unit 20 and performing normalization.
画像情報加工処理部248は,撮影画像情報に基づいて正値化処理を実行した正置画像情報の一部または全部の範囲について,それぞれ一つの画像情報に合成する処理を実行する。すなわち,同一の陳列棚を同一の機会に異なる角度で撮影した各正置画像情報の一部または全部の範囲について,所定の基準単位,たとえば10ピクセルから100ピクセル程度を基準単位としてメッシュで区切る。そして,各メッシュの領域の画像情報の明度の平均値を算出する。この明度の平均値を,異なる角度で撮影した各正置画像情報で対応するメッシュごとに比較し,明度の平均値がもっとも小さい画像情報のメッシュを特定する。この処理をすべてのメッシュについて行う。特定したメッシュの領域の画像情報を一枚の画像情報(加工済正置画像情報)として縦または横方向に並べて合成すれば,光の写り込みによる影響を低減した画像情報を生成することができる。なお,メッシュ領域の画像情報については,明度の平均値に限らず,明度についてのほかの評価基準による指標値を用いて,合成するメッシュを特定すればよい。また,画像情報加工処理部248で処理対象とする画像情報は,それらの画像情報間で,シャッター速度,絞り値等の撮影条件が同一または同等となるように補正されていることが好ましい。撮影条件が相違するまたは同等に補正されていない画像情報間で上述の明度を用いた処理を実行した場合,写り込みがない部分については,明度に基づく指標値が低い(暗い)画像情報が選ばれることとなる。この場合であっても写り込み自体は除去できるが,生成する画像情報全体のコントラスト,明度が低くなる,あるいは荒れが目立つなどの問題が生じやすくなり,認識精度に影響を与える可能性があるからである。 The image information processing unit 248 executes a process of combining a part or all of the in-position image information that has been subjected to the positive value processing based on the captured image information into one piece of image information. That is, a part or the whole range of each of the in-place image information obtained by photographing the same display shelf at the same opportunity at different angles is divided by a mesh using a predetermined reference unit, for example, about 10 to 100 pixels as a reference unit. And the average value of the brightness of the image information of each mesh area is calculated. The average value of brightness is compared for each mesh corresponding to each of the in-place image information photographed at different angles, and the mesh of the image information having the smallest average value of brightness is specified. This process is performed for all meshes. Image information with reduced influence of light reflection can be generated by combining the image information of the specified mesh area side by side in the vertical or horizontal direction as single image information (processed in-place image information). . In addition, about the image information of a mesh area | region, what is necessary is just to identify the mesh to synthesize | combine using not only the average value of lightness but the index value by the other evaluation criteria about lightness. The image information to be processed by the image information processing unit 248 is preferably corrected so that shooting conditions such as shutter speed and aperture value are the same or equivalent between the pieces of image information. When the above-described process using brightness is performed between image information with different shooting conditions or not corrected equally, image information with a low index value (darkness) based on brightness is selected for the part where there is no reflection. Will be. Even in this case, the reflection itself can be removed, but problems such as low contrast or brightness of the entire image information to be generated, or conspicuous roughness may occur, which may affect recognition accuracy. It is.
フェイス特定処理部245と識別情報特定処理部246と棚段画像マッチング処理部247における各処理は,実施例1乃至実施例4と同様であるが,その処理対象は正置画像情報の棚段領域ではなく,画像情報加工処理部248で生成した加工済正置画像情報に対して行う。また,識別情報特定処理部246は,実施例1乃至実施例4ではフェイス領域における商品の商品識別情報の候補を特定し,識別情報候補記憶部22に記憶させていたが,本実施例では,フェイス領域における商品の商品識別情報を特定し,識別情報記憶部23に特定した情報を記憶させる。 Each processing in the face identification processing unit 245, the identification information identification processing unit 246, and the shelf image matching processing unit 247 is the same as that in the first to fourth embodiments, but the processing target is the shelf area of the in-place image information. Instead, it is performed on the processed in-place image information generated by the image information processing unit 248. In addition, in the first to fourth embodiments, the identification information specification processing unit 246 specifies the product identification information candidates for the products in the face area and stores them in the identification information candidate storage unit 22, but in this embodiment, The product identification information of the product in the face area is specified, and the specified information is stored in the identification information storage unit 23.
このように加工済正置画像情報に対して処理を実行することで,実施例1乃至実施例4のように,フェイスにおける商品識別情報の候補を特定せずとも,棚段領域の範囲の画像情報について,画像情報加工処理部248による合成処理が実行されるので,棚段領域について光の写り込みによる影響を低減することができる。そのため,精度よく,フェイスにおける商品識別情報を直接特定することができる。 By executing the processing on the processed in-place image information in this way, as in the first to fourth embodiments, the image of the range of the shelf area can be obtained without specifying the product identification information candidates in the face. Since the information is processed by the image information processing unit 248, the influence of light reflection on the shelf area can be reduced. Therefore, the product identification information on the face can be directly specified with high accuracy.
画像情報加工処理部248における正置画像情報に対する処理は,棚段位置特定処理部243で特定した棚段位置の領域の画像情報,棚段領域切出処理部244で切り出した棚段領域の画像情報に対して実行することが好ましいが,それに限定されず,撮影画像情報正値化処理部で生成した正置画像情報の一部または全体の範囲に対して実行してもよい。 The image information processing processing unit 248 performs processing on the in-place image information. The image information of the shelf position area specified by the shelf position specification processing unit 243 and the image of the shelf area cut out by the shelf area extraction processing unit 244 are as follows. However, the present invention is not limited to this. However, the present invention is not limited to this, and the information may be executed on a part or the whole range of the in-place image information generated by the captured image information positive value processing unit.
つぎに本実施例における処理プロセスの一例を図26および図27のフローチャートを用いて説明する。 Next, an example of the processing process in the present embodiment will be described with reference to the flowcharts of FIGS.
店舗の陳列棚の撮影担当者は,同一の陳列棚について,光等の写り込みが重ならないように,複数の角度から撮影を行う。そして店舗の陳列棚について,同一の機会に異なる角度から撮影された撮影画像情報(図8,図9)は,撮影画像情報入力端末3から入力され,管理端末2の画像情報処理部24における撮影画像情報入力受付処理部241でその入力を受け付ける(S300)。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部241は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部20に記憶させる。 The person in charge of photographing the display shelf of the store photographs the same display shelf from a plurality of angles so that the reflection of light or the like does not overlap. And about the display shelf of a store, the picked-up image information (FIG. 8, FIG. 9) image | photographed from the different angle at the same opportunity is input from the picked-up image information input terminal 3, and is image | photographed in the image information processing part 24 of the management terminal 2. The image information input reception processing unit 241 receives the input (S300). Also, input of image information identification information such as shooting date / time, store identification information, and shooting image information is accepted. Then, the photographed image information input acceptance processing unit 241 stores the photographed image information, the photographing date and time, the store identification information, and the image information identification information of the photographed image information, which are accepted, in the photographed image information storage unit 20 in association with each other.
管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,台形補正処理を実行する(S310)。このようにして台形補正処理が実行された撮影画像情報(正置画像情報)の一例が,図10,図11である。 When the management terminal 2 accepts a predetermined operation input, the photographed image information normalization processing unit 242 extracts the photographed image information stored in the photographed image information storage unit 20 and performs a shelf that is a vertex for performing trapezoid correction processing. The input of 4 points of the position (the position of the display shelf) is received, and the keystone correction process is executed (S310). FIGS. 10 and 11 show examples of photographed image information (rectified image information) that has been subjected to the trapezoidal correction process in this way.
そして,正置画像情報に対して,管理端末2において所定の操作入力を受け付けることで,棚段位置特定処理部243は,棚段領域を特定する(S320)。すなわち,正置画像情報における棚段領域の入力を受け付ける。図12および図13が,棚段領域が特定された状態を示す図である。 Then, by receiving a predetermined operation input in the management terminal 2 for the in-place image information, the shelf position specification processing unit 243 specifies the shelf area (S320). That is, the input of the shelf area in the in-place image information is accepted. 12 and 13 are diagrams showing a state where the shelf region is specified.
以上のようにして,棚段領域を特定すると,棚段領域切出処理部244は,S320で入力を受け付けた棚段の領域に基づいて,正置画像情報から棚段領域の画像情報を切り出す(S330)。 When the shelf area is specified as described above, the shelf area extraction processing unit 244 extracts the image information of the shelf area from the normal image information based on the shelf area received in S320. (S330).
画像情報加工処理部248は,S330で棚段領域切出処理部244が切り出した棚段領域の画像情報について,加工済正置画像情報生成処理を実行する(S340)。 The image information processing unit 248 executes a processed in-place image information generation process for the image information of the shelf area cut out by the shelf area extraction processing unit 244 in S330 (S340).
まず画像情報加工処理部248は,切り出した棚段領域の正置画像情報に対して,対応する棚段領域ごとに縦,横のサイズが一致または略一致するように,倍率を変更するなどしてサイズをそろえておく。そして,切り出した棚段領域の正置画像情報に対して,所定の基準単位,たとえば10ピクセルごとにメッシュで区切る(S400)。この状態を模式的に示すのが図28である。図28(a)が図12,図28(b)が図13の正置画像情報の棚段領域に対してメッシュ化した状態を示している。 First, the image information processing unit 248 changes the magnification so that the vertical and horizontal sizes match or substantially match each corresponding shelf area with respect to the in-place image information of the extracted shelf area. Keep the size the same. Then, the in-place image information of the cut shelf area is divided by a predetermined reference unit, for example, every 10 pixels (S400). FIG. 28 schematically shows this state. FIG. 28A shows a state where FIG. 12 and FIG. 28B are meshed with respect to the shelf area of the in-place image information of FIG.
そして画像情報加工処理部248は,各メッシュについて,メッシュの領域の画像情報ごとの明度の平均値を算出する(S410)。なお平均値としては単純平均でもよいし,加重平均などでもよく,またメッシュの領域の画像情報ごとの明度に基づく基準値であれば,平均以外の演算による値であってもよい。 Then, the image information processing unit 248 calculates, for each mesh, an average value of brightness for each image information of the mesh area (S410). The average value may be a simple average, a weighted average, or the like, or may be a value obtained by a calculation other than the average as long as it is a reference value based on the lightness of each image information in the mesh area.
そして,画像情報加工処理部248は,対応するメッシュごとに,明度の平均値(基準値)を比較し(S420),比較したうち,もっとも明度の小さいメッシュの画像情報を特定する(S430)。図28であれば,図28(a),図28(b)の各正置画像情報において,それぞれの正置画像情報の棚段領域における各メッシュについて,メッシュの領域の画像情報ごとの明度の平均値を算出する。そして,メッシュA1(図28(a))とメッシュA2(図28(b))とが対応するので,メッシュA1の明度の平均値とメッシュA2の明度の平均値とを比較する。たとえばメッシュA1の明度の平均値が小さければ,メッシュA1を特定する。また,メッシュB1(図28(a))とメッシュB2(図28(b))とが対応するので,メッシュB1の明度の平均値とメッシュB2の明度の平均値とを比較する。たとえばメッシュB2の明度の平均値が小さければ,メッシュB2を特定する。このように,対応するメッシュについての明度の比較,特定処理をすべてのメッシュについて行う。 Then, the image information processing unit 248 compares the average value (reference value) of the brightness for each corresponding mesh (S420), and specifies the image information of the mesh with the lowest brightness among the comparisons (S430). In the case of FIG. 28, in each of the in-place image information in FIG. 28 (a) and FIG. 28 (b), for each mesh in the shelf area of each in-place image information, the brightness of each mesh area image information. The average value is calculated. Since the mesh A1 (FIG. 28A) and the mesh A2 (FIG. 28B) correspond to each other, the average brightness value of the mesh A1 is compared with the average brightness value of the mesh A2. For example, if the average value of lightness of the mesh A1 is small, the mesh A1 is specified. Further, since mesh B1 (FIG. 28A) and mesh B2 (FIG. 28B) correspond, the average brightness value of mesh B1 is compared with the average brightness value of mesh B2. For example, if the average value of the brightness of the mesh B2 is small, the mesh B2 is specified. In this way, the lightness comparison and specific processing for the corresponding mesh are performed for all meshes.
そして特定したメッシュを縦,横に並べて配置することで,一つの画像情報(加工済正置画像情報)を生成する(S440)。上述の例では,メッシュA1,メッシュB2などが特定されているので,メッシュA1,メッシュB2など,S430の処理で特定したメッシュを縦,横に並べて配置することで,当該棚段領域における一つの画像情報として合成し,生成する。この処理を模式的に示すのが図29である。なお,図29では,わかりやすさのため,図28の棚段領域のうち,最上位の棚段領域に対する処理を一例として示している。 Then, by arranging the specified meshes side by side vertically and horizontally, one piece of image information (processed in-place image information) is generated (S440). In the above example, since mesh A1, mesh B2, etc. are specified, meshes specified in S430 such as mesh A1, mesh B2, etc. are arranged side by side in the vertical and horizontal directions, so It is synthesized and generated as image information. This process is schematically shown in FIG. In FIG. 29, for the sake of easy understanding, the processing for the highest shelf area in the shelf area of FIG. 28 is shown as an example.
以上のような処理を実行することで,棚段領域について光の写り込みを減らした画像情報を生成できる。 By executing the processing as described above, it is possible to generate image information with reduced reflection of light for the shelf region.
このように加工済正置画像情報に対して,実施例1乃至実施例4と同様に,フェイス特定処理部245がフェイスの特定処理,識別情報特定処理部246がフェイス単位での商品識別情報の特定処理を実行する(S350,S360)。すなわち,フェイス特定処理部245が,加工済正置画像情報においてフェイスの領域を特定し,識別情報特定処理部246が,標本情報記憶部21に記憶する標本情報と,フェイスの領域における画像情報との画像マッチング処理による商品識別情報の特定処理を実行することで,当該フェイスの領域における商品の商品識別情報を特定する。そして,特定した商品識別情報を,実施例1乃至実施例4と同様に,識別情報記憶部23に記憶させる(S370)。 In this way, for the processed in-place image information, as in the first to fourth embodiments, the face identification processing unit 245 performs face identification processing, and the identification information identification processing unit 246 performs product identification information for each face. Specific processing is executed (S350, S360). That is, the face identification processing unit 245 identifies the face area in the processed in-place image information, and the identification information identification processing unit 246 stores the sample information stored in the specimen information storage unit 21 and the image information in the face area. The product identification information of the product in the face area is specified by executing the product identification information specifying process by the image matching process. Then, the identified product identification information is stored in the identification information storage unit 23 as in the first to fourth embodiments (S370).
なお,本実施例による処理を用いたとしても,すべてのフェイスの商品識別情報を特定できるとは限らない。そこで,特定できていないフェイスについては,商品識別情報の入力を受け付け,入力を受け付けた商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて,商品識別情報の候補として識別情報候補記憶部22に記憶してもよい。また,特定した商品識別情報の候補の修正処理についても同様に,入力を受け付けてもよい。 Even if the processing according to the present embodiment is used, the product identification information of all the faces cannot be specified. Therefore, for a face that has not been specified, input of product identification information is accepted, and the product identification information for which input has been accepted is taken as shooting date / time, store identification information, image information identification information of captured image information, and image information of in-place image information. The identification information may be stored in the identification information candidate storage unit 22 as a candidate for product identification information in association with the identification information and face identification information. Similarly, an input may be accepted for the correction process for the identified candidate product identification information.
以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報を特定することができる。 By performing the processing as described above, it is possible to specify the product identification information of the products displayed on the shelf of the display shelf shown in the captured image information.
なお本実施例においても,実施例1乃至実施例4における各処理部の変形処理を用いることができる。 Also in this embodiment, the deformation process of each processing unit in the first to fourth embodiments can be used.
標本情報記憶部21に記憶する標本情報に,光や周囲の色の写り込みなどがあるとその商品の外観(たとえばパッケージや包装)の画像的特徴(画像特徴量)に影響があるので,画像マッチング処理の精度に影響を与える。そのため,標本情報として用いる画像情報には,光や周囲の色の写り込みによって,商品の本来の色が損なわれないように撮影した画像情報を用いることが好ましい。しかし,商品の外観の形状や素材などによっては,光の反射によって,写り込みが避けがたい場合がある。たとえば,金属製の缶の場合,反射率が高いので照明の光の反射が写真に写り込むことが避けられない。 If the sample information stored in the sample information storage unit 21 includes reflection of light or surrounding colors, it affects the image characteristics (image feature amount) of the appearance of the product (for example, package or wrapping). Affects the accuracy of the matching process. For this reason, it is preferable to use image information photographed so that the original color of the product is not impaired by the reflection of light and surrounding colors as the image information used as the sample information. However, depending on the shape and material of the appearance of the product, reflection may be unavoidable due to light reflection. For example, in the case of a metal can, since the reflectance is high, it is inevitable that the reflected light from the illumination is reflected in the photograph.
商品の標本情報を撮影するときの写り込み等の外乱を与える要素としては,商品の撮影環境と,商品の外観の形状がある。撮影環境には,照明装置などの光源に加え,商品の背景や商品を載置する面の状態などがある。また商品の外観の形状は,商品の外観を構成する面の方向によって,撮影装置や,照明装置などの光の写り込みを生じる。 Elements that give disturbances such as reflection when photographing sample information of a product include the shooting environment of the product and the appearance of the product. In addition to light sources such as lighting devices, the shooting environment includes the background of the product and the state of the surface on which the product is placed. In addition, the appearance of the product may reflect light from a photographing device, a lighting device, or the like depending on the direction of the surface constituting the appearance of the product.
そこで,本実施例では,写り込みのない標本情報を得るための処理を説明する。本実施例における処理は,実施例1乃至実施例5の標本情報に対しても適用可能である。 Therefore, in this embodiment, a process for obtaining sample information without reflection will be described. The processing in the present embodiment can also be applied to the sample information in the first to fifth embodiments.
撮影環境による写り込みに対する方法としては,以下の撮影方法を適用できる。 The following photographing methods can be applied as a method for reflection according to the photographing environment.
標本情報のゆがみを防止するため,撮影装置での撮影は,商品の水平方向の正対方向から行う。この場合,反射などにより商品の外観に写り込みが生じることは避けがたい場合もあることから,写り込むものが白色や灰色などの特定の色相を持たない平板なものを写り込ませる。具体的には,特定の色相を持たない白色や灰色を背景とし,標本情報とする商品の撮影をする。商品の背景としては,白色や灰色の紙,布などを用いることがよい。そして背景とした白色や灰色の紙,布などは,商品を載置する面にも折り目なく,写り込みの結果が平板になる程度まで,商品の前面にまで広げておく。これによって,撮影環境による写り込みによる影響を軽減できる。 In order to prevent distortion of the specimen information, the photographing with the photographing device is performed from the opposite direction of the product in the horizontal direction. In this case, since it may be unavoidable that the appearance of the product is reflected due to reflection or the like, the reflected image is a flat plate having no specific hue such as white or gray. Specifically, the product is photographed as sample information with white or gray having no specific hue as the background. White or gray paper or cloth may be used as the background of the product. The white or gray paper, cloth, etc. used as the background should be spread out to the front of the product until there is no crease on the surface on which the product is placed and the result of the reflection is a flat plate. This can reduce the effect of reflection due to the shooting environment.
商品の外観の形状による写り込みに対する方法としては,以下の撮影方法を適用できる。 The following photographing methods can be applied as a method for reflection according to the appearance of the product.
標本情報の撮影対象となる商品について,商品と撮影装置との相対的な位置(たとえば撮影装置で撮影される商品の面と,撮影装置との相対的位置)を変更せずに,商品と照明などの光源との相対的位置(たとえば光源により光が照射される商品の面と,光源との相対的位置)を変更して,商品を複数回撮影する。換言すれば,商品と撮影装置との相対的位置を変更せず,撮影装置と光源との相対的位置を変更して,商品を複数回撮影する。つまり撮影した画像情報において同じ位置,同じ大きさ(サイズ),同じ角度で商品が写るようにし,照明などの光源からの光が商品に異なる角度から照射されるようにして,複数回,撮影を行い,画像認識システム1はその入力を受け付ける。図30に商品を撮影する状態を上方からみた場合の一例を示す。図30(a)は商品の左側から照明を当てて撮影する状態の一例を示す図であり,図30(b)は商品の右側から照明を当てて撮影する状態の一例を示す図である。図30では,撮影装置を挟んで左右2カ所から撮影する場合を示しているが,3カ所以上から撮影をしてもよい。図30では,光源のもっとも撮影装置寄りから出射した光によって,商品の中心軸にもっとも近い箇所に生じる写り込みの光路を破線矢印で示している。この場合,入射光の角度(入射角)と反射光の角度(反射角)とは,商品の面に対する垂線を対称軸として同一となる。 For products that are subject to sample information shooting, the product and lighting are not changed without changing the relative position between the product and the imaging device (for example, the relative position between the product surface captured by the imaging device and the imaging device). The product is photographed a plurality of times by changing the relative position with the light source (for example, the surface of the product irradiated with light from the light source and the relative position with the light source). In other words, the product is photographed a plurality of times by changing the relative position between the photographing device and the light source without changing the relative position between the product and the photographing device. In other words, the product is captured at the same position, the same size (size), and the same angle in the captured image information, and light is emitted from a light source such as an illumination to the product from different angles. The image recognition system 1 accepts the input. FIG. 30 shows an example of a state where a product is photographed as viewed from above. FIG. 30A is a diagram illustrating an example of a state in which illumination is performed from the left side of the product, and FIG. 30B is a diagram illustrating an example of a state in which illumination is performed from the right side of the product. FIG. 30 shows a case where the image is taken from two places on the left and right sides with the photographing apparatus interposed therebetween, but the image may be taken from three or more places. In FIG. 30, a light path of a reflection that is generated at a position closest to the center axis of the product due to light emitted from the light source closest to the photographing device is indicated by a broken line arrow. In this case, the angle of incident light (incident angle) and the angle of reflected light (reflective angle) are the same with the perpendicular to the surface of the product as the axis of symmetry.
そして,画像認識システム1は,入力を受け付けた複数の画像情報において,写り込みが生じていない部分を切り出して互いに合成することで,適切な標本情報を得る。適切な標本情報は,標本情報記憶部21に記憶される。図31にこの処理を模式的に示す。図31(a)は図30(a)の状態で撮影した画像情報であり,図31(b)は図30(b)の状態で撮影した画像情報であり,図31(c)は,図31(a),(b)の画像情報を合成した適切な標本情報である。すなわち,図30(a)は右側から光を当てて商品を撮影しているので,商品の右側に光の写り込みが発生しやすい。また,図30(b)は左側から光を当てて商品を撮影しているので,商品の左側に光の写り込みが発生しやすい。換言すれば,図31(a)では商品の左側(A)には光の写り込みがなく,図31(b)では商品の右側(B)には光の写り込みがない。そのため,図31(a)の商品の左側(A)の領域の画像情報と,図31(b)の商品の右側(B)の領域の画像情報とをそれぞれ切り出し,一つの画像情報に合成をする(図31(c))。これによって,光の写り込みがない適切な標本情報を合成することができる。 Then, the image recognition system 1 obtains appropriate sample information by cutting out portions where no reflection has occurred in a plurality of pieces of image information that have received inputs and synthesizing them. Appropriate sample information is stored in the sample information storage unit 21. FIG. 31 schematically shows this processing. FIG. 31A shows image information taken in the state of FIG. 30A, FIG. 31B shows image information taken in the state of FIG. 30B, and FIG. 31 (a) and 31 (b) are appropriate sample information obtained by synthesizing the image information. That is, in FIG. 30A, since the product is photographed by applying light from the right side, the reflection of light tends to occur on the right side of the product. Further, in FIG. 30B, since the product is photographed by applying light from the left side, the reflection of light tends to occur on the left side of the product. In other words, in FIG. 31A, there is no reflection of light on the left side (A) of the product, and in FIG. 31B, there is no reflection of light on the right side (B) of the product. Therefore, the image information on the left side (A) of the product in FIG. 31A and the image information on the right side (B) of the product in FIG. 31B are cut out and combined into one piece of image information. (FIG. 31 (c)). As a result, it is possible to synthesize appropriate sample information that does not reflect light.
なお,図30(a),(b)において,入射角と反射角の和α,βは,同一または略同一となることが好ましい。それによって,撮影した画像情報において,商品が画像情報の横方向の中心付近に写るようになっていれば,撮影した画像情報における写り込みが発生していない左半分または右半分同士をそれぞれ切り出して合成すればよいので画像の合成処理が簡単となる。入射角と反射角の和α,βは,同一または略同一の場合,画像情報の合成処理の精度を向上させることができるが,角度α,βは同一または略同一でなくてもよい。 In FIGS. 30A and 30B, the sum α and β of the incident angle and the reflection angle are preferably the same or substantially the same. As a result, in the photographed image information, if the product appears in the vicinity of the center in the horizontal direction of the image information, the left half or the right half where the photographed image information does not appear are cut out from each other. Since it is only necessary to combine the images, the image combining process is simplified. When the sums α and β of the incident angle and the reflection angle are the same or substantially the same, the accuracy of the image information combining process can be improved, but the angles α and β may not be the same or substantially the same.
図30および図31の処理をより具体的に説明すると,以下のようになる。撮影対象となる商品の外観の形状は,一般的には,商品の水平断面図が凸状または略凸状であることから,概略,図32に示す3種類に大別できる。すなわち,箱に入った商品のように,直方体または略直方体の場合(正面が平面)(図32(a)),飲料缶のように,円柱状等であり,側面が垂直である場合(図32(b)),ワインの瓶のように,上部に球面等の曲面があるなど,側面の一部が垂直ではない場合(図32(c))である。便宜的に,図32(a)を第1ケース,図32(b)を第2ケース,図32(c)を第3ケースとする。 The processing of FIGS. 30 and 31 will be described more specifically as follows. In general, the shape of the appearance of a product to be photographed can be roughly divided into three types as shown in FIG. 32 because the horizontal sectional view of the product is convex or substantially convex. That is, in the case of a rectangular parallelepiped or a substantially rectangular parallelepiped (a front surface is a plane) (FIG. 32 (a)), like a product in a box, a columnar shape, etc., and a side surface is vertical (a figure). 32 (b)), when a part of the side surface is not vertical, such as a wine bottle, such as a curved surface such as a spherical surface (FIG. 32 (c)). For convenience, FIG. 32A is referred to as a first case, FIG. 32B as a second case, and FIG. 32C as a third case.
図33は,第1のケースを撮影装置で撮影する場合を示す図である。図33(a)は商品を撮影する場合の上方からの図,図33(b)は商品を撮影する場合の側方からの図である。第1のケースの場合,撮影装置を商品に対して正対させ,商品を照らす光が一方向から来るように,照明などの光源は,たとえば1灯とする。そして,照明装置などの光源から出射した光は,商品における撮影装置に正対している面(一点鎖線で示される範囲の反射面)に反射し,撮影装置の焦点に入射する。 FIG. 33 is a diagram illustrating a case where the first case is photographed by the photographing apparatus. FIG. 33 (a) is a view from above when photographing a product, and FIG. 33 (b) is a view from the side when photographing a product. In the case of the first case, for example, one light source such as an illumination is used so that the photographing apparatus faces the product and the light that illuminates the product comes from one direction. Light emitted from a light source such as an illuminating device is reflected on a surface (reflecting surface in a range indicated by a one-dot chain line) facing the image capturing device in the product and is incident on the focus of the image capturing device.
そうすると,撮影装置の焦点と商品の反射面の右辺または左辺とを結ぶ直線を,商品の反射面から撮影装置に対する垂線を対称軸として直線を想定した場合,その直線の外側(撮影装置とは反対側)の領域(領域X,領域Y)のいずれかの位置に光源を設置すれば,商品に写り込みは生じない。ここで,撮影装置の焦点と商品の反射面の右辺または左辺とを結ぶ直線と当該垂線とから構成される角度と,領域X,Yの境界線となる線と当該垂線との角度は,入射角と反射角との関係から,ともに角度aである。したがって,領域X,領域Yのいずれか一カ所から撮影をすればよい(合成はしなくてもよい)。あるいは,図33(b)のように,商品の頂部からの水平線と撮影装置から商品の頂部に対する角度bと同一の角度bである直線(水平線を対称軸とした線)よりも上方の領域を領域Zとし,その領域Zに光源を設置して撮影を行う。第1のケースの場合,図33(a)または図33(b)のように撮影をすれば,商品への光源の写り込みはなくなる。 Then, if a straight line connecting the focal point of the imaging device and the right or left side of the reflection surface of the product is assumed to be a straight line with the perpendicular to the imaging device from the reflection surface of the product as the axis of symmetry, If the light source is installed at any position in the side area (area X, area Y), the product will not be reflected. Here, an angle formed by a straight line connecting the focal point of the photographing apparatus and the right side or the left side of the reflection surface of the product and the perpendicular line, and an angle between the line serving as a boundary line between the regions X and Y and the perpendicular line are incident. From the relationship between the angle and the reflection angle, both are angle a. Therefore, it is only necessary to take a picture from either one of the area X and the area Y (composition is not necessary). Alternatively, as shown in FIG. 33 (b), a region above the horizontal line from the top of the product and a straight line (the line with the horizontal line as the axis of symmetry) having the same angle b as the angle b from the imaging device to the top of the product. A region Z is set, and a light source is installed in the region Z to perform shooting. In the case of the first case, if the photographing is performed as shown in FIG. 33 (a) or FIG. 33 (b), the light source is not reflected on the product.
図34は,第2のケースを撮影装置で撮影する場合を示す図である。第2のケースにおいては,図34(a)のように,図33(b)の場合と同様に,商品の頂部からの水平線と撮影装置から商品の頂部に対する角度bと同一の角度bである直線(水平線を対称軸とした線)よりも上方の領域を領域Zとし,その領域Zに光源を設置して撮影を行う。そして図34(a)のように撮影できない場合,図34(b)のように撮影を行う。図34(b)は,商品を撮影する場合の上方からの図である。図34(b)では,図30と同様に,商品と撮影装置との相対的な位置(たとえば撮影装置で撮影される商品の面と,撮影装置との相対的位置)を変更せずに,商品と照明などの光源との相対的位置(たとえば光源により光が照射される商品の面と,光源との相対的位置)を変更して,商品を複数回撮影する。そして,それぞれの位置で撮影した画像情報を,それぞれ写り込みのない部分を合成して,標本画像情報とする。 FIG. 34 is a diagram illustrating a case where the second case is photographed by the photographing apparatus. In the second case, as shown in FIG. 34 (a), as in FIG. 33 (b), the horizontal line from the top of the product is the same angle b as the angle b from the photographing device to the top of the product. An area above the straight line (a line with the horizontal line as the axis of symmetry) is defined as an area Z, and a light source is installed in the area Z to perform photographing. If the image cannot be captured as shown in FIG. 34 (a), the image is captured as shown in FIG. 34 (b). FIG. 34 (b) is a view from above when photographing a product. In FIG. 34 (b), as in FIG. 30, the relative position between the product and the photographing device (for example, the relative position between the product surface photographed by the photographing device and the photographing device) is not changed. The product is photographed a plurality of times by changing the relative position between the product and a light source such as illumination (for example, the surface of the product illuminated by the light source and the relative position between the light source). Then, the image information photographed at each position is combined with a portion where there is no reflection to obtain sample image information.
すなわち,照明から出射した光は,商品の反射面で反射し,それが撮影装置の焦点に入射する。そのため,商品の左側の領域(領域X)に照明を設置した場合,その照明から出射した光は商品の左側に写り込みを生じさせ,商品の右側の領域(領域Y)に照明を設置した場合,その照明から出射した光は商品の右側に写り込みを生じさせる。そのため,商品の左側に光源を位置させた場合の画像情報ではその右側を,商品の右側に光源を位置させた場合の画像情報ではその左側を,それぞれ特定し,一つの画像情報に合成して標本情報とする。 That is, the light emitted from the illumination is reflected by the reflection surface of the product, and enters the focus of the photographing apparatus. Therefore, when illumination is installed in the left area (area X) of the product, light emitted from the illumination causes reflection on the left side of the product, and illumination is installed in the right area (area Y) of the product. , The light emitted from the illumination causes reflection on the right side of the product. Therefore, the right side is specified in the image information when the light source is positioned on the left side of the product, and the left side is specified in the image information when the light source is positioned on the right side of the product, and combined into one image information. Specimen information.
図35は,第3のケースを撮影装置で撮影する場合を示す図である。図35は,図30および図34(b)と同様に,商品と撮影装置との相対的な位置(たとえば撮影装置で撮影される商品の面と,撮影装置との相対的位置)を変更せずに,商品と照明などの光源との相対的位置(たとえば光源により光が照射される商品の面と,光源との相対的位置)を変更して,商品を複数回撮影する。そして,それぞれの位置で撮影した画像情報を,それぞれ写り込みのない部分を合成して,標本画像情報とする。 FIG. 35 is a diagram illustrating a case where the third case is photographed by the photographing apparatus. In FIG. 35, as in FIGS. 30 and 34 (b), the relative position between the product and the photographing device (for example, the relative position between the product surface photographed by the photographing device and the photographing device) is changed. Instead, the product is photographed a plurality of times by changing the relative position between the product and the light source such as lighting (for example, the relative position between the light source and the light source and the light source). Then, the image information photographed at each position is combined with a portion where there is no reflection to obtain sample image information.
以上のように,商品の標本情報を撮影する場合には,その商品の外観の形状に応じて,第1のケース乃至第3のケースに対応する撮影方法を適用すればよい。しかし,一般的に商品の外観の形状はさまざまであるから,3つのケースに分類するのではなく,第3のケース(つまり上述の図30,図34(b),図35と同様の撮影方法)を用いることで,汎用的に適用することができる。 As described above, when photographing sample information of a product, a photographing method corresponding to the first to third cases may be applied in accordance with the shape of the appearance of the product. However, in general, since the appearance of the product has various shapes, it is not classified into three cases, but the third case (that is, the same photographing method as that in FIGS. 30, 34B, and 35 described above). ) Can be used for general purposes.
以上のような撮影方法により商品の標本情報を撮影することで,撮影条件および商品の外観の形状の双方による外乱を軽減した標本情報を得ることができる。 By photographing the sample information of the product by the above-described photographing method, it is possible to obtain sample information in which disturbance due to both the photographing conditions and the shape of the appearance of the product is reduced.
実施例6の変形例として,実施例5の処理を用いてもよい。すなわち,適切な標本情報を生成するために,商品と撮影装置との相対的位置関係を変更せずに,光源の位置を変更して撮影をした複数の画像情報について,実施例5と同様の処理を実行する。具体的には,実施例5のように商品を撮影した複数の画像情報のうち,画像情報の全部または一部(商品を含む領域)をメッシュに区切り,そのメッシュにおける明度の平均値を算出する。そして対応するメッシュごとに,明度の平均値を算出して,もっとも値が小さいメッシュの画像情報を特定する。このように特定したメッシュの画像情報を縦,横に並べて配置することで,適切な標本情報とする。 As a modification of the sixth embodiment, the process of the fifth embodiment may be used. That is, in order to generate appropriate specimen information, the same information as in the fifth embodiment is used for a plurality of pieces of image information obtained by changing the position of the light source without changing the relative positional relationship between the product and the imaging device. Execute the process. Specifically, among a plurality of pieces of image information obtained by photographing a product as in the fifth embodiment, all or part of the image information (region including the product) is divided into meshes, and an average value of brightness in the mesh is calculated. . Then, an average value of brightness is calculated for each corresponding mesh, and image information of the mesh having the smallest value is specified. Appropriate specimen information is obtained by arranging the image information of the mesh specified in this way side by side.
本実施例における処理を用いて生成した標本情報は,実施例1乃至実施例5と同様の処理を実行することで,画像情報に写っている商品の商品識別情報を特定するほか,撮影画像情報または正置画像情報と,標本情報とを単純に画像マッチング処理を実行することで,商品識別情報を特定する処理を実行する画像認識システム1のように構成してもよい。 The sample information generated by using the processing in the present embodiment performs processing similar to that in the first to fifth embodiments, thereby specifying the product identification information of the product shown in the image information, as well as the captured image information. Or you may comprise like the image recognition system 1 which performs the process which specifies merchandise identification information by performing an image matching process simply with an in-place image information and sample information.
上述の実施例1乃至実施例6では,店舗などの陳列棚に陳列されている商品の商品識別情報を,陳列棚を撮影した画像情報から特定する場合を説明したが,商品の識別情報の特定処理に限らず,画像情報から特定対象物の識別情報を特定する場合にも用いることができる。すなわち,撮影対象物(たとえば特定対象物を複数配置等する物)または特定対象物(識別情報の特定対象となる物)を,同一の機会に複数の角度から撮影した画像情報と,標本情報との類似性を比較することで,画像情報に写っている特定対象物の識別情報を特定する画像認識システム1に適用することができる。その場合の具体的な処理として実施例1乃至実施例6の処理を適用することができる。この場合,陳列棚に対する処理は撮影対象物に対する処理,商品に対する処理は特定対象物に対する処理として読み替えればよい。 In the first to sixth embodiments described above, the case where the product identification information of the product displayed on the display shelf such as a store is specified from the image information obtained by photographing the display shelf has been described. Not only processing but also identification information of a specific object can be specified from image information. That is, image information obtained by photographing a photographing object (for example, an object having a plurality of specific objects arranged) or a specific object (an object for which identification information is specified) from a plurality of angles at the same opportunity, Can be applied to the image recognition system 1 that identifies the identification information of the specific object shown in the image information. As specific processing in that case, the processing of the first to sixth embodiments can be applied. In this case, the process for the display shelf may be read as the process for the photographing object, and the process for the product may be read as the process for the specific object.
本発明の画像認識システム1を用いることによって,光等が画像情報に写り込んでいる場合でも,従来よりも精度よく,商品などの対象物の特定が行える。 By using the image recognition system 1 of the present invention, even when light or the like is reflected in image information, an object such as a product can be specified with higher accuracy than in the past.
1:画像認識システム
2:管理端末
3:撮影画像情報入力端末
20:撮影画像情報記憶部
21:標本情報記憶部
22:識別情報候補記憶部
23:識別情報記憶部
24:画像情報処理部
25:識別情報比較処理部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
241:撮影画像情報入力受付処理部
242:撮影画像情報正置化処理部
243:棚段位置特定処理部
244:棚段領域切出処理部
245:フェイス特定処理部
246:識別情報特定処理部
247:棚段画像マッチング処理部
248:画像情報加工処理部
2420:N−1回目の画像情報における特徴量採取領域
2421:N回目の画像情報における特徴量採取領域
1: Image recognition system 2: Management terminal 3: Captured image information input terminal 20: Captured image information storage unit 21: Sample information storage unit 22: Identification information candidate storage unit 23: Identification information storage unit 24: Image information processing unit 25: Identification information comparison processing unit 70: arithmetic device 71: storage device 72: display device 73: input device 74: communication device 241: photographed image information input reception processing unit 242: photographed image information normalization processing unit 243: shelf position specification Processing unit 244: Shelf-level region extraction processing unit 245: Face identification processing unit 246: Identification information identification processing unit 247: Shelf-level image matching processing unit 248: Image information processing unit 2420: Features in the N-1th image information Quantity collection area 2421: Feature quantity collection area in the Nth image information
請求項1に記載の発明は,商品を陳列した陳列棚を撮影した撮影画像情報について,正置化処理を実行して正置画像情報を生成する撮影画像情報正置化処理部と,前記正置画像情報に写っている前記陳列棚において,フェイスの領域を特定するフェイス特定処理部と,処理対象となる正置画像情報におけるフェイスの領域の画像情報と,その正置画像情報に対応するほかの正置画像情報における,前記フェイスの領域から所定範囲のフェイスの領域の画像情報とを比較することで,処理対象となる正置画像情報におけるフェイスの領域に写っている商品の商品識別情報の候補を特定する識別情報特定処理部と,前記撮影画像情報に基づく前記正置画像情報と,その撮影画像情報とは異なる角度で撮影した撮影画像情報に基づく正置画像情報とにおいて,対応するフェイス同士で前記特定した商品識別情報の候補を比較することで,前記撮影画像情報に写っている商品の商品識別情報を特定する識別情報比較処理部と,を有する画像認識システムである。
The invention according to claim 1, for the captured image information obtained by photographing a display shelf that commodities are displayed, and the photographed image information positive置化processing unit running a positive置化process produces a positive location image information, the positive In the display shelf shown in the image information, a face identification processing unit that identifies the face area, image information of the face area in the normal image information to be processed, and other information corresponding to the normal image information By comparing the image information of the face area within the predetermined range from the face area in the in-place image information, the product identification information of the product in the face area in the in-place image information to be processed An identification information specifying processing unit for specifying a candidate, the in-place image information based on the captured image information, and the in-place image information based on captured image information captured at an angle different from the captured image information; Oite, by at corresponding face each other to compare the candidate of the specified product identification information, the image recognition system having an identification information comparing unit for identifying the merchandise identification information item that is reflected in the photographed image information It is.
本発明のように構成することで,陳列棚を撮影した画像情報に,光等の写り込みがあったとしても,従来よりも精度よく商品の認識を行うことができる。
陳列棚を撮影した画像情報は,ゆがみ等が発生しているので,正置化処理を実行した上で処理を行うと認識精度が高くなる。また,陳列棚には複数の商品が陳列されていることが多いので,たとえば商品ごとの領域について標本情報と比較処理を実行することで,商品識別情報の候補を特定することが好ましい。
標本情報との画像マッチング処理などで商品識別情報を特定するのは,処理負荷が大きい。そこで,商品が陳列されている領域であるフェイスが特定されているのであれば,そのフェイス同士を比較することで,画像マッチング処理の回数を減らすことができ,全体の処理負荷を軽減することができる。
With the configuration of the present invention, even if there is a reflection of light or the like in the image information obtained by photographing the display shelf, the product can be recognized more accurately than in the past.
Since the image information obtained by photographing the display shelf is distorted or the like, the recognition accuracy increases if the processing is performed after performing the normalization processing. In addition, since a plurality of products are often displayed on the display shelf, it is preferable to identify candidates for product identification information by executing, for example, sample information and comparison processing for the region for each product.
Specifying product identification information by image matching processing with sample information has a large processing load. Therefore, if the faces that are the areas where the products are displayed are specified, comparing the faces can reduce the number of times of image matching processing and reduce the overall processing load. it can.
上述の発明において,前記識別情報比較処理部は,前記撮影画像情報に基づく前記正置画像情報と,その撮影画像情報とは異なる角度で撮影した撮影画像情報に基づく正置画像情報とにおいて,対応するフェイス同士で前記特定した商品識別情報の候補の有無または尤度に基づいて,前記撮影画像情報に写っている商品の商品識別情報を特定する,画像認識システムのように構成することができる。
In the above-described invention, the identification information comparison processing unit corresponds to the in- place image information based on the captured image information and the in-place image information based on the captured image information captured at an angle different from the captured image information. It can be configured as an image recognition system that specifies the product identification information of the product shown in the photographed image information based on the presence or the likelihood of the specified product identification information between the faces to be identified.
上述の発明において,前記識別情報特定処理部は,前記フェイスの領域に写っている商品の商品識別情報の候補を特定できなかった場合には,商品識別情報の入力を受け付け,少なくとも前記商品識別情報の入力を受け付けた領域について,前記識別情報比較処理部における処理を実行せずに,前記受け付けた商品識別情報を,その領域の商品識別情報として特定する,画像認識システムのように構成することができる。
In the above-described invention, the identification information specifying processing unit accepts input of product identification information when the product identification information candidate of the product shown in the area of the face cannot be specified, and at least the product identification information For an area that has received the input, the image identification system is configured to identify the received product identification information as the product identification information of the area without executing the processing in the identification information comparison processing unit. it can.
上述の発明において,前記識別情報特定処理部は,前記フェイスの領域の画像情報と,商品の標本情報とを比較することで,前記フェイスの領域に写っている商品の商品識別情報の候補を特定する,画像認識システムのように構成することができる。
In the invention described above, the identification information identifying processor includes specific image information of the area of the face, by comparing the sample information of the product, the candidate of the merchandise identification information item that is reflected in the region of the face It can be configured like an image recognition system.
請求項1に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,商品を陳列した陳列棚を撮影した撮影画像情報について,正置化処理を実行して正置画像情報を生成する撮影画像情報正置化処理部,前記正置画像情報に写っている前記陳列棚において,フェイスの領域を特定するフェイス特定処理部,処理対象となる正置画像情報におけるフェイスの領域の画像情報と,その正置画像情報に対応するほかの正置画像情報における,前記フェイスの領域から所定範囲のフェイスの領域の画像情報とを比較することで,処理対象となる正置画像情報におけるフェイスの領域に写っている商品の商品識別情報の候補を特定する識別情報特定処理部,前記撮影画像情報に基づく前記正置画像情報と,その撮影画像情報とは異なる角度で撮影した撮影画像情報に基づく正置画像情報とにおいて,対応するフェイス同士で前記特定した商品識別情報の候補を比較することで,前記撮影画像情報に写っている商品の商品識別情報を特定する識別情報比較処理部,として機能させる画像認識プログラムのように構成することができる。
The invention described in claim 1 can be realized by reading the program of the present invention into a computer and executing it. In other words, the captured image information obtained by photographing the display shelf on which the product is displayed is subjected to the normalization process to generate the correct image information. In the display shelf, the face identification processing unit for identifying the face area, the image information of the face area in the normal image information to be processed, and other normal image information corresponding to the normal image information Identification information that identifies candidates for product identification information of products appearing in the face area in the in-place image information to be processed by comparing image information of the face area within a predetermined range from the face area The specific processing unit includes the normal image information based on the captured image information and the normal image information based on the captured image information captured at an angle different from the captured image information. Te, In with the corresponding face each other to compare the candidate of the specified product identification information, the image recognition program to function as an identification information comparing unit, for identifying the merchandise identification information item that is reflected in the photographed image information It can be constituted as follows.
画像情報処理部24は,撮影画像情報入力受付処理部241と撮影画像情報正置化処理部242と棚段位置特定処理部243と棚段領域切出処理部244とフェイス特定処理部245と識別情報特定処理部246と棚段画像マッチング処理部247と画像情報加工処理部248とを有する。
The image information processing unit 24 identifies the captured image information input reception processing unit 241, the captured image information normalization processing unit 242 , the shelf position specifying processing unit 243, the shelf area extraction processing unit 244, and the face specifying processing unit 245. An information identification processing unit 246, a shelf image matching processing unit 247, and an image information processing unit 248 are included.
撮影画像情報入力受付処理部241と撮影画像情報正置化処理部242とは実施例1乃至実施例4と同様の処理を実行する。すなわち,撮影画像情報入力受付処理部241は,撮影画像情報入力端末3で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,撮影画像情報記憶部20に記憶させる。また,撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶した撮影画像情報に対して台形補正処理を実行して正置化した,正置画像情報を生成する。
The photographed image information input acceptance processing unit 241 and the photographed image information regularization processing unit 242 perform the same processing as in the first to fourth embodiments. That is, the photographed image information input acceptance processing unit 241 accepts input of image information (photographed image information) of a store display shelf photographed by the photographed image information input terminal 3 and stores it in the photographed image information storage unit 20. In addition, the captured image information normalization processing unit 242 generates correct image information obtained by performing trapezoidal correction processing on the captured image information stored in the captured image information storage unit 20 and performing normalization.
画像情報加工処理部248は,撮影画像情報に基づいて正置化処理を実行した正置画像情報の一部または全部の範囲について,それぞれ一つの画像情報に合成する処理を実行する。すなわち,同一の陳列棚を同一の機会に異なる角度で撮影した各正置画像情報の一部または全部の範囲について,所定の基準単位,たとえば10ピクセルから100ピクセル程度を基準単位としてメッシュで区切る。そして,各メッシュの領域の画像情報の明度の平均値を算出する。この明度の平均値を,異なる角度で撮影した各正置画像情報で対応するメッシュごとに比較し,明度の平均値がもっとも小さい画像情報のメッシュを特定する。この処理をすべてのメッシュについて行う。特定したメッシュの領域の画像情報を一枚の画像情報(加工済正置画像情報)として縦または横方向に並べて合成すれば,光の写り込みによる影響を低減した画像情報を生成することができる。なお,メッシュ領域の画像情報については,明度の平均値に限らず,明度についてのほかの評価基準による指標値を用いて,合成するメッシュを特定すればよい。また,画像情報加工処理部248で処理対象とする画像情報は,それらの画像情報間で,シャッター速度,絞り値等の撮影条件が同一または同等となるように補正されていることが好ましい。撮影条件が相違するまたは同等に補正されていない画像情報間で上述の明度を用いた処理を実行した場合,写り込みがない部分については,明度に基づく指標値が低い(暗い)画像情報が選ばれることとなる。この場合であっても写り込み自体は除去できるが,生成する画像情報全体のコントラスト,明度が低くなる,あるいは荒れが目立つなどの問題が生じやすくなり,認識精度に影響を与える可能性があるからである。
The image information processing section 248, the scope of some or all of the Sei置image information running Sei置 process, a process for synthesizing a single image information, respectively, based on the captured image information. That is, a part or the whole range of each of the in-place image information obtained by photographing the same display shelf at the same opportunity at different angles is divided by a mesh using a predetermined reference unit, for example, about 10 to 100 pixels as a reference unit. And the average value of the brightness of the image information of each mesh area is calculated. The average value of brightness is compared for each mesh corresponding to each of the in-place image information photographed at different angles, and the mesh of the image information having the smallest average value of brightness is specified. This process is performed for all meshes. Image information with reduced influence of light reflection can be generated by combining the image information of the specified mesh area side by side in the vertical or horizontal direction as single image information (processed in-place image information). . In addition, about the image information of a mesh area | region, what is necessary is just to identify the mesh to synthesize | combine using not only the average value of lightness but the index value by the other evaluation criteria about lightness. The image information to be processed by the image information processing unit 248 is preferably corrected so that shooting conditions such as shutter speed and aperture value are the same or equivalent between the pieces of image information. When the above-described process using brightness is performed between image information with different shooting conditions or not corrected equally, image information with a low index value (darkness) based on brightness is selected for the part where there is no reflection. Will be. Even in this case, the reflection itself can be removed, but problems such as low contrast or brightness of the entire image information to be generated, or conspicuous roughness may occur, which may affect recognition accuracy. It is.
画像情報加工処理部248における正置画像情報に対する処理は,棚段位置特定処理部243で特定した棚段位置の領域の画像情報,棚段領域切出処理部244で切り出した棚段領域の画像情報に対して実行することが好ましいが,それに限定されず,撮影画像情報正置化処理部242で生成した正置画像情報の一部または全体の範囲に対して実行してもよい。 The image information processing processing unit 248 performs processing on the in-place image information. The image information of the shelf position area specified by the shelf position specification processing unit 243 and the image of the shelf area cut out by the shelf area extraction processing unit 244 are as follows. However, the present invention is not limited to this. However, the present invention is not limited to this, and the information may be executed on a part or the entire range of the in-place image information generated by the captured image information in-place processing unit 242 .
Claims (21)
対応する画像情報における,前記特定した商品識別情報の候補を比較することで,前記画像情報に写っている商品の商品識別情報を特定する識別情報比較処理部と,
を有することを特徴とする画像認識システム。 An image information processing unit for identifying product identification information candidates of products shown in the image information for each piece of image information obtained by photographing a display shelf displaying products from a plurality of angles;
An identification information comparison processing unit for identifying product identification information of a product shown in the image information by comparing the identified product identification information candidates in corresponding image information;
An image recognition system comprising:
前記複数の画像情報における商品識別情報の候補の有無または尤度に基づいて,前記画像情報に写っている商品の商品識別情報を特定する,
ことを特徴とする請求項1に記載の画像認識システム。 The identification information comparison processing unit
Identifying the product identification information of the product in the image information based on the presence or likelihood of the product identification information candidates in the plurality of image information,
The image recognition system according to claim 1.
前記陳列棚を撮影した撮影画像情報に対して正値化処理を実行して正置画像情報を生成する撮影画像情報正置化処理部と,
前記正置画像情報に写っている前記陳列棚における一部の領域の画像情報と,商品の標本情報とを比較することで,前記領域に写っている商品の商品識別情報の候補を特定する識別情報特定処理部と,
を有することを特徴とする請求項1または請求項2に記載の画像認識システム。 The image information processing unit
A photographed image information normalization processing unit that executes positive value processing on the photographed image information obtained by photographing the display shelf and generates correct image information;
Identification for identifying candidate product identification information of products in the area by comparing the image information of a part of the display shelf in the display image information with the sample information of the product An information identification processing unit;
The image recognition system according to claim 1, further comprising:
前記領域に写っている商品の商品識別情報の候補を特定できなかった場合には,商品識別情報の入力を受け付け,
少なくとも前記商品識別情報の入力を受け付けた領域について,前記識別情報比較処理部における処理を実行せずに,前記受け付けた商品識別情報を,その領域の商品識別情報として特定する,
ことを特徴とする請求項3に記載の画像認識システム。 The identification information specifying processing unit
If the product identification information candidate of the product shown in the area cannot be specified, accept the input of the product identification information,
Identifying the received product identification information as the product identification information of the region without executing the process in the identification information comparison processing unit for at least the region of receiving the input of the product identification information;
The image recognition system according to claim 3.
前記正置画像情報に写っている前記陳列棚において,フェイスの領域を特定するフェイス特定処理部,を有しており,
前記識別情報特定処理部は,
処理対象となる正置画像情報におけるフェイス領域の画像情報と,その正置画像情報に対応するほかの正置画像情報における,前記フェイス領域から所定範囲のフェイス領域の画像情報とを比較することで,処理対象となる正置画像情報におけるフェイス領域に写っている商品の商品識別情報の候補を特定する,
ことを特徴とする請求項3または請求項4に記載の画像認識システム。 The image information processing unit
The display shelf shown in the in-place image information has a face identification processing unit for identifying a face area;
The identification information specifying processing unit
By comparing the image information of the face area in the in-place image information to be processed with the image information of the face area in a predetermined range from the face area in other in-place image information corresponding to the in-place image information. , Identify candidate product identification information for products in the face area of the in-place image information to be processed,
The image recognition system according to claim 3 or 4, characterized by the above.
前記生成した画像情報に基づいて,その画像情報に写っている商品の商品識別情報を特定する識別情報特定処理部と,
を有することを特徴とする画像認識システム。 An image information processing unit for generating one piece of image information based on a plurality of pieces of image information obtained by photographing the same display shelf from different angles;
Based on the generated image information, an identification information specifying processing unit for specifying product identification information of a product shown in the image information;
An image recognition system comprising:
前記複数の画像情報について,対応する基準単位の領域ごとに,明度に基づく指標値を比較することで,その領域の画像情報を特定し,
特定した各領域の画像情報を合成することで,前記一つの画像情報を生成する,
ことを特徴とする請求項6に記載の画像認識システム。 The image information processing unit
For each of the plurality of image information, by comparing the index value based on lightness for each corresponding reference unit area, the image information of that area is identified,
By combining the image information of each identified area, the one image information is generated.
The image recognition system according to claim 6.
前記複数の画像情報のそれぞれについて,基準単位ごとにメッシュに区切り,そのメッシュの領域における明度に基づく指標値を算出し,
前記複数の画像情報について,対応するメッシュの領域における前記指標値を比較することで,そのメッシュの領域の画像情報を特定し,
特定した各メッシュの領域の画像情報を合成することで,前記一つの画像情報を生成する,
ことを特徴とする請求項6に記載の画像認識システム。 The image information processing unit
For each of the plurality of image information, a reference unit is divided into meshes, and an index value based on the lightness in the mesh area is calculated,
For the plurality of image information, by comparing the index values in the corresponding mesh region, the image information of the mesh region is specified,
By combining the image information of each identified mesh area, the one image information is generated.
The image recognition system according to claim 6.
を有することを特徴とする画像認識システム。 A part or all of the image information showing the display shelf on which the product is displayed and a plurality of pieces of image information taken by changing the relative position between the product and the light source without changing the relative position between the product and the photographing device. An identification information specifying processing unit for specifying the product identification information of the product in the image information showing the display shelf by comparing with the sample information of the product based on
An image recognition system comprising:
入力を受け付けた前記画像情報の一部を切り出して一つの画像情報に合成することで,前記商品の標本情報を生成する,
ことを特徴とする画像認識システム。 Accepts input of multiple image information taken by changing the relative position of the product and the light source without changing the relative position of the product and the imaging device,
The sample information of the product is generated by cutting out a part of the image information that has received the input and combining it into one image information.
An image recognition system characterized by that.
対応する画像情報における,前記特定した識別情報の候補を比較することで,前記画像情報に写っている特定対象物の識別情報を特定する第2の処理部と,
を有することを特徴とする画像認識システム。 A first processing unit for identifying candidates for identification information of specific objects shown in the image information for each piece of image information obtained by photographing the imaging object from a plurality of angles;
A second processing unit for identifying identification information of a specific object in the image information by comparing the identified identification information candidates in corresponding image information;
An image recognition system comprising:
前記生成した画像情報に基づいて,その画像情報に写っている特定対象物の識別情報を特定する第2の処理部と,
を有することを特徴とする画像認識システム。 A first processing unit that generates one piece of image information based on a plurality of pieces of image information obtained by photographing a subject to be photographed from different angles;
Based on the generated image information, a second processing unit for identifying identification information of a specific object reflected in the image information;
An image recognition system comprising:
入力を受け付けた前記画像情報の一部を切り出して一つの画像情報に合成することで,前記対象物の標本情報を生成する,
ことを特徴とする画像認識システム。 Accepts input of multiple image information taken by changing the relative position of the object and the light source without changing the relative position of the object and the imaging device,
The sample information of the object is generated by cutting out a part of the image information that has received the input and combining it into one image information.
An image recognition system characterized by that.
前記撮影した画像情報における写り込みがない領域を切り出して,一つの画像情報に合成することで,対象物の標本情報を生成する,
ことを特徴とする対象物の標本情報の生成方法。 Change the relative position between the object and the light source without changing the relative position between the object and the imaging device, and capture multiple image information of the object,
The sample information of the object is generated by cutting out a region where there is no reflection in the captured image information and combining it into one image information.
A method for generating specimen information of an object characterized by the above.
商品を陳列した陳列棚を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている商品の商品識別情報の候補を特定する画像情報処理部,
対応する画像情報における,前記特定した商品識別情報の候補を比較することで,前記画像情報に写っている商品の商品識別情報を特定する識別情報比較処理部,
として機能させることを特徴とする画像認識プログラム。 Computer
An image information processing unit that identifies candidates for product identification information of the product shown in the image information for each of the image information obtained by photographing the display shelf displaying the product from a plurality of angles;
An identification information comparison processing unit that identifies the product identification information of the product shown in the image information by comparing the identified product identification information candidates in the corresponding image information;
An image recognition program characterized in that it functions as a computer program.
同一の陳列棚を異なる角度から撮影した複数の画像情報に基づいて,一つの画像情報を生成する画像情報加工処理部,
前記生成した画像情報に基づいて,その画像情報に写っている商品の商品識別情報を特定する識別情報特定処理部,
として機能させることを特徴とする画像認識プログラム。 Computer
An image information processing unit for generating one piece of image information based on a plurality of pieces of image information obtained by photographing the same display shelf from different angles;
Based on the generated image information, an identification information specifying processing unit for specifying product identification information of a product shown in the image information;
An image recognition program characterized in that it functions as a computer program.
商品を陳列した陳列棚が写っている画像情報の一部または全部と,商品と撮影装置との相対位置を変更せずに商品と光源との相対位置を変更して撮影した複数の画像情報に基づく商品の標本情報とを比較することで,前記陳列棚が写っている画像情報における商品の商品識別情報を特定する識別情報特定処理部,
として機能させることを特徴とする画像認識プログラム。 Computer
A part or all of the image information showing the display shelf on which the product is displayed and a plurality of pieces of image information taken by changing the relative position between the product and the light source without changing the relative position between the product and the photographing device. An identification information specifying processing unit for specifying the product identification information of the product in the image information showing the display shelf by comparing with the sample information of the product based on
An image recognition program characterized in that it functions as a computer program.
商品と撮影装置との相対位置を変更せずに商品と光源との相対位置を変更して撮影した複数の画像情報の入力を受け付けるステップと,
入力を受け付けた前記画像情報の一部を切り出して一つの画像情報に合成することで,前記商品の標本情報を生成するステップと,
を実行させることを特徴とする画像認識プログラム。 In the computer
Receiving a plurality of pieces of image information captured by changing the relative position between the product and the light source without changing the relative position between the product and the photographing device;
Generating a piece of sample information of the product by cutting out a part of the image information that has received an input and combining it into one image information;
An image recognition program characterized in that
撮影対象物を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている特定対象物の識別情報の候補を特定する第1の処理部,
対応する画像情報における,前記特定した識別情報の候補を比較することで,前記画像情報に写っている特定対象物の識別情報を特定する第2の処理部,
として機能させることを特徴とする画像認識プログラム。 Computer
A first processing unit for identifying candidates for identification information of specific objects shown in the image information for each piece of image information obtained by photographing the imaging object from a plurality of angles;
A second processing unit for identifying identification information of a specific object shown in the image information by comparing the identified identification information candidates in corresponding image information;
An image recognition program characterized in that it functions as a computer program.
撮影対象物を異なる角度から撮影した複数の画像情報に基づいて,一つの画像情報を生成する第1の処理部,
前記生成した画像情報に基づいて,その画像情報に写っている特定対象物の識別情報を特定する第2の処理部,
として機能させることを特徴とする画像認識プログラム。 Computer
A first processing unit that generates one piece of image information based on a plurality of pieces of image information obtained by photographing a subject to be photographed from different angles;
A second processing unit for identifying identification information of a specific object in the image information based on the generated image information;
An image recognition program characterized in that it functions as a computer program.
対象物と撮影装置との相対位置を変更せずに対象物と光源との相対位置を変更して撮影した複数の画像情報の入力を受け付けるステップと,
入力を受け付けた前記画像情報の一部を切り出して一つの画像情報に合成することで,前記対象物の標本情報を生成するステップと,
を実行させることを特徴とする画像認識プログラム。 In the computer
Receiving a plurality of pieces of image information captured by changing the relative position between the object and the light source without changing the relative position between the object and the imaging device;
Generating sample information of the object by cutting out a portion of the image information that has received an input and combining it into one image information;
An image recognition program characterized in that
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018041332A JP6536707B1 (en) | 2018-03-07 | 2018-03-07 | Image recognition system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018041332A JP6536707B1 (en) | 2018-03-07 | 2018-03-07 | Image recognition system |
Related Child Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019078183A Division JP6664675B2 (en) | 2019-04-16 | 2019-04-16 | Image recognition system |
| JP2019078184A Division JP6746123B2 (en) | 2019-04-16 | 2019-04-16 | Image recognition system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP6536707B1 JP6536707B1 (en) | 2019-07-03 |
| JP2019159433A true JP2019159433A (en) | 2019-09-19 |
Family
ID=67144657
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018041332A Active JP6536707B1 (en) | 2018-03-07 | 2018-03-07 | Image recognition system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6536707B1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021085467A1 (en) * | 2019-10-31 | 2021-05-06 |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6936529B1 (en) * | 2020-05-21 | 2021-09-15 | 株式会社マーケットヴィジョン | Verification system |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011175600A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Recognition apparatus and method thereof, and computer program |
| JP2013054673A (en) * | 2011-09-06 | 2013-03-21 | Toshiba Tec Corp | Information processor and program |
| JP2014191423A (en) * | 2013-03-26 | 2014-10-06 | Nec Corp | Selling commercial article recognition device and selling commercial article recognition method of automatic vending machine and computer program |
| JP2016185845A (en) * | 2015-03-27 | 2016-10-27 | 日本電気株式会社 | Inspection processing apparatus, inspection processing method and program |
-
2018
- 2018-03-07 JP JP2018041332A patent/JP6536707B1/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011175600A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Recognition apparatus and method thereof, and computer program |
| JP2013054673A (en) * | 2011-09-06 | 2013-03-21 | Toshiba Tec Corp | Information processor and program |
| JP2014191423A (en) * | 2013-03-26 | 2014-10-06 | Nec Corp | Selling commercial article recognition device and selling commercial article recognition method of automatic vending machine and computer program |
| JP2016185845A (en) * | 2015-03-27 | 2016-10-27 | 日本電気株式会社 | Inspection processing apparatus, inspection processing method and program |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021085467A1 (en) * | 2019-10-31 | 2021-05-06 | ||
| WO2021085467A1 (en) * | 2019-10-31 | 2021-05-06 | 日本電気株式会社 | Store monitoring system, store monitoring device, store monitoring method, and recording medium |
| JP7509151B2 (en) | 2019-10-31 | 2024-07-02 | 日本電気株式会社 | Store monitoring system, store monitoring device, store monitoring method, and recording medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6536707B1 (en) | 2019-07-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2019160328A (en) | Image recognition system | |
| RU2680765C1 (en) | Automated determination and cutting of non-singular contour of a picture on an image | |
| US10083522B2 (en) | Image based measurement system | |
| US10713515B2 (en) | Using multiple cameras to perform optical character recognition | |
| CN106203225B (en) | Pictorial element based on depth is deleted | |
| JP6458239B1 (en) | Image recognition system | |
| JP6831951B2 (en) | Image recognition system | |
| JP2001283224A (en) | Face collating method, recording medium stored with the collating method and face collator | |
| JP6440043B1 (en) | Product identification system | |
| JP6651169B2 (en) | Display status judgment system | |
| JP7231165B2 (en) | Verification system | |
| JP6885563B2 (en) | Display status judgment system | |
| JP6941331B2 (en) | Image recognition system | |
| JP2019159433A (en) | Image recognition system | |
| Martinel et al. | Robust painting recognition and registration for mobile augmented reality | |
| JP6664675B2 (en) | Image recognition system | |
| JP6244960B2 (en) | Object recognition apparatus, object recognition method, and object recognition program | |
| TW202211157A (en) | Individual identification system, individual identification program, and recording medium | |
| Servi et al. | Integration of artificial intelligence and augmented reality for assisted detection of textile defects | |
| JP6890849B2 (en) | Information processing system | |
| JP2019008804A (en) | Commodity specifying system | |
| JP2019179488A (en) | Information processing device, information processing system, control method, and program | |
| JP6861421B2 (en) | Image processing system | |
| JP7339630B1 (en) | Information processing system | |
| JP6979653B2 (en) | Product identification system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180312 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190222 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190305 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190416 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190514 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190520 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6536707 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |