[go: up one dir, main page]

JP2006221525A - Object retrieval system and method - Google Patents

Object retrieval system and method Download PDF

Info

Publication number
JP2006221525A
JP2006221525A JP2005036100A JP2005036100A JP2006221525A JP 2006221525 A JP2006221525 A JP 2006221525A JP 2005036100 A JP2005036100 A JP 2005036100A JP 2005036100 A JP2005036100 A JP 2005036100A JP 2006221525 A JP2006221525 A JP 2006221525A
Authority
JP
Japan
Prior art keywords
color
feature amount
extracted
region
extraction unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005036100A
Other languages
Japanese (ja)
Inventor
Hideki Kobayashi
秀樹 小林
Atsuo Yoshitaka
淳夫 吉高
Terumasa Hyodo
輝将 兵頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chuden Engineering Consultants Co Ltd
Original Assignee
Chuden Engineering Consultants Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chuden Engineering Consultants Co Ltd filed Critical Chuden Engineering Consultants Co Ltd
Priority to JP2005036100A priority Critical patent/JP2006221525A/en
Publication of JP2006221525A publication Critical patent/JP2006221525A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object retrieval system and method suitable for retrieving the identical and homogenous object whose feature values change. <P>SOLUTION: This object retrieval system 10 is provided with a first object candidate region extracting part 16 for gradually narrowing down a first object candidate region by using the feature values of each cluster related with colors stored in a feature value storage device 23 for an input image including an object, a second object candidate region extracting part 17 for gradually narrowing down a second object candidate region by using the feature values of each cluster related with shapes stored in the feature value storage device 23 for the first object candidate region and an object region deciding part 18 for deciding an object region from the second object candidate region, and for searching the object included in the input image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、オブジェクト検索システムおよび方法に関し、特に、工事写真に含まれる黒板を探し出すのに好適なオブジェクト検索システムおよび方法に関する。   The present invention relates to an object search system and method, and more particularly to an object search system and method suitable for searching for a blackboard included in a construction photo.

公共事業では成果品を最後に必ず納品することになっており、工事の場合には、工事写真を納品する必要がある。工事写真には必ずといっていいほど黒板が写されている。この黒板には工事名称や工事の内容など重要な情報が記載されており、工事写真においては黒板の情報が極めて重要である。
そのため、納品する工事写真帳では、わざわざ黒板のみを切り取り、拡大して表示することがしばしば行われている。しかし、工事写真は通常では数百枚から数千枚と非常に多く、手作業で黒板を抽出する作業には大変な労力がかかる。
そこで、工事写真を画像化し、画像化した工事写真から黒板画像を自動的に抽出するシステムが要請されている。
In public works, deliverables must be delivered at the end, and in the case of construction, it is necessary to deliver construction photographs. The blackboard is shown in the construction photos. This blackboard contains important information such as the construction name and construction details, and the blackboard information is extremely important in construction photographs.
For this reason, in construction photo books to be delivered, it is often the case that only the blackboard is purposely cut out and displayed in an enlarged manner. However, there are usually hundreds to thousands of construction photographs, and it takes a lot of labor to manually extract the blackboard.
Therefore, there is a demand for a system that images a construction photo and automatically extracts a blackboard image from the imaged construction photo.

しかしながら、工事現場における黒板のように、撮影された角度や照明などの撮影環境が異なるオブジェクト、および色や形状などの特徴量が異なる同種のオブジェクト(他の例では、赤い車と青い車)については、ユーザからすれば同じオブジェクトといえても、特徴量が変化してしまう。
そこで、検索対象である同一および同種のオブジェクトが含まれた多数の例示画像を入力として与え、抽出した色に関する特徴量、形状に関する特徴量をクラスタリングすることにより、そのオブジェクトが取り得る色および形状の特徴量を獲得し、その特徴量を利用して特徴量が変化する同一および同種のオブジェクトの検索を行うことが考えられる。
However, like blackboards at construction sites, objects with different shooting environments such as shooting angles and lighting, and similar objects with different features such as color and shape (in other examples, red cars and blue cars) Even if it is the same object for the user, the feature amount changes.
Therefore, by giving a large number of example images containing the same and similar objects to be searched as input, and clustering the extracted feature quantities related to the color and the feature quantities related to the shape, the colors and shapes that can be taken by the object are clustered. It is conceivable to acquire a feature amount and use the feature amount to search for the same and similar objects whose feature amount changes.

なお、多数の例示画像を用いてオブジェクトを検索する手法としては、下記の非特許文献1および非特許文献2に開示されているものがある。
非特許文献1では、例示画像群から抽出した特徴量から、ユーザが意図する距離関数と問合せ位置を推定することで、一般化された楕円距離による問合せを実現している。
非特許文献2では、例示画像群から抽出した特徴量から画像のクラスタリングを行い、各画像クラスタについて標準偏差法による特徴量毎の重み付けを行い、検索時には、重み付きのユークリッド距離による類似度計算を行っている。
Yoshiharu Ishikawa, Ravishankar Subramanya, Christos Faloutsos, “MindReader: Querying database through multiple examples”, Proceeding of the 24th VLDB Conference New York, USA, 1998 Roberto Brunelli, Ornella Mich, “Image Retrieval by Examples”, IEEE Trans. on Multimedia, Vol.2, No.3, pp.164-171, Sep. 2000
Note that methods for searching for an object using a large number of example images include those disclosed in Non-Patent Document 1 and Non-Patent Document 2 below.
In Non-Patent Document 1, a query based on a generalized elliptical distance is realized by estimating a distance function intended by a user and a query position from a feature amount extracted from an example image group.
In Non-Patent Document 2, clustering of images is performed from the feature amounts extracted from the exemplary image group, weighting is performed for each feature amount by the standard deviation method for each image cluster, and similarity is calculated by weighted Euclidean distance at the time of retrieval. Is going.
Yoshiharu Ishikawa, Ravishankar Subramanya, Christos Faloutsos, “MindReader: Querying database through multiple examples”, Proceeding of the 24th VLDB Conference New York, USA, 1998 Roberto Brunelli, Ornella Mich, “Image Retrieval by Examples”, IEEE Trans. On Multimedia, Vol.2, No.3, pp.164-171, Sep. 2000

しかしながら、非特許文献1および非特許文献2に開示されている手法では、多次元からなる特徴量の中で、ユーザが類似性の観点として着目している特徴量または特徴量間の相関を推定し、ユーザの意図に則した問合せを行っており、これらの手法における複数の例示画像を用いることの目的は、ユーザの注目している特徴量を自動的に推測することにある。したがって、これらの手法は、特徴量が変化する同一および同種のオブジェクトの検索には必ずしも適しているとはいえない。   However, the methods disclosed in Non-Patent Document 1 and Non-Patent Document 2 estimate the feature quantity or the correlation between feature quantities that the user is paying attention to from the viewpoint of similarity among multi-dimensional feature quantities. However, inquiries are made according to the user's intention, and the purpose of using a plurality of example images in these methods is to automatically estimate the feature quantity that the user is paying attention to. Therefore, it cannot be said that these methods are necessarily suitable for searching for the same and the same kind of objects whose feature values change.

本発明の目的は、特徴量が変化する同一および同種のオブジェクトを検索するのに適したオブジェクト検索システムおよび方法を提供することにある。   An object of the present invention is to provide an object search system and method suitable for searching for the same and the same kind of objects whose feature values vary.

本発明のオブジェクト検索システムは、例示画像に含まれるオブジェクト領域を抽出するオブジェクト領域抽出部(11)と、該オブジェクト領域抽出部によって抽出された前記オブジェクト領域を構成している代表色を求め、該求めた代表色の色特徴量を抽出する色特徴量抽出部(12)と、該色特徴量抽出部によって抽出された前記色特徴量のクラスタリングを行ったのち、色に関する各クラスタが持つ特徴量を抽出する色特徴量クラスタリング部(13)と、前記オブジェクト領域抽出部によって抽出された前記オブジェクト領域の大まかな形状特徴量および詳細な形状特徴量を抽出する形状特徴量抽出部(14)と、該形状特徴量抽出部によって抽出された前記詳細な形状特徴量のクラスタリングを行ったのち、各クラスタの詳細な形状特徴量を抽出する形状特徴量クラスタリング部(15)と、前記色特徴量クラスタリング部によって抽出された前記色に関する各クラスタが持つ特徴量が格納されるとともに、前記形状特徴量抽出部によって抽出された前記大まかな形状特徴量と前記形状特徴量クラスタリング部によって抽出された前記各クラスタの詳細な形状特徴量とを含む形状に関する各クラスタが持つ特徴量が格納される特徴量記憶装置(23)と、オブジェクトを含む入力画像に対して、前記特徴量記憶装置に格納されている前記色に関する各クラスタが持つ特徴量を用いて、段階的に第1のオブジェクト候補領域の絞込みを行う第1のオブジェクト候補領域抽出部(16)と、該第1のオブジェクト候補領域抽出部により抽出された第1のオブジェクト候補領域に対して、前記特徴量記憶装置に格納されている前記形状に関する各クラスタが持つ特徴量を用いて、段階的に第2のオブジェクト候補領域の絞込みを行う第2のオブジェクト候補領域抽出部(17)と、該第2のオブジェクト候補領域抽出部により抽出された第2のオブジェクト候補領域から前記オブジェクト領域を決定して、前記入力画像に含まれている前記オブジェクトを求めるオブジェクト領域決定部(18)とを具備することを特徴とする。
ここで、前記第1のオブジェクト候補領域抽出部が、前記入力画像に対して、前記色に関する各クラスタが持つ特徴量に基づいて、該色に関する各クラスタが持つ各構成色の色相,彩度および輝度それぞれの範囲に収まる画素を抽出し、一つながりとなる領域をラベリングすることにより、色特徴量による第1の絞込みを行い、前記ラベリングされた各領域に対して、前記入力画像全体に対する面積の割合が閾値以下の領域を除去することにより、色特徴量による第2の絞込みを行い、クラスタの構成色が複数存在した場合には、そのすべての構成色を含む領域のみを抽出することにより、色特徴量による第3の絞込みを行い、該色特徴量による第3の絞込みにより抽出した各領域から空間関係および面積の特徴量を抽出したのち、該抽出した空間関係および面積の特徴量と前記色に関する各クラスタが持つ空間関係および面積の特徴量との類似度を計算し、該2つの類似度が所定の値以上となる領域のみを抽出することにより、色特徴量による第4の絞込みを行ってもよい。
前記第2のオブジェクト候補領域抽出部が、前記第1のオブジェクト候補領域抽出部によって抽出された前記第1のオブジェクト候補領域から大まかな形状特徴量を抽出したのち、前記形状に関する各クラスタが持つ特徴量に基づいて、該形状に関する各クラスタが持つ大まかな形状特徴量と前記抽出した大まかな形状特徴量との類似度を計算し、該計算した類似度が所定の範囲の値となる領域のみを抽出することにより、形状特徴量による第1の絞込みを行い、該形状特徴量による第1の絞込みにより抽出した領域から詳細な形状特徴量を抽出したのち、前記形状に関する各クラスタが持つ特徴量に基づいて、該形状に関する各クラスタが持つ詳細な形状特徴量と前記抽出した詳細な形状特徴量との類似度を計算し、該計算した類似度が所定の値以上となる領域のみを抽出することにより、形状特徴量による第2の絞込みを行ってもよい。
An object search system according to the present invention obtains an object area extraction unit (11) for extracting an object area included in an example image, a representative color constituting the object area extracted by the object area extraction unit, A color feature quantity extraction unit (12) for extracting the color feature quantity of the obtained representative color, and after clustering the color feature quantity extracted by the color feature quantity extraction section, the feature quantity possessed by each cluster relating to color A color feature amount clustering unit (13) that extracts a shape feature amount, and a shape feature amount extraction unit (14) that extracts a rough shape feature amount and a detailed shape feature amount of the object region extracted by the object region extraction unit, After performing clustering of the detailed shape feature values extracted by the shape feature value extraction unit, detailed information on each cluster is obtained. A shape feature quantity clustering unit (15) for extracting a shape feature quantity and a feature quantity of each cluster relating to the color extracted by the color feature quantity clustering unit are stored and extracted by the shape feature quantity extraction unit. A feature quantity storage device (23) for storing the feature quantity of each cluster related to the shape including the rough shape feature quantity and the detailed shape feature quantity of each cluster extracted by the shape feature quantity clustering unit; A first object that narrows down first object candidate regions in a stepwise manner using feature amounts of each cluster relating to the color stored in the feature amount storage device for an input image including objects A candidate area extraction unit (16) and a first object candidate area extracted by the first object candidate area extraction unit On the other hand, a second object candidate region extraction unit (17) that narrows down the second object candidate regions step by step using the feature amount of each cluster related to the shape stored in the feature amount storage device. ) And an object region determination unit (18) for determining the object region from the second object candidate region extracted by the second object candidate region extraction unit and obtaining the object included in the input image It is characterized by comprising.
Here, the first object candidate region extraction unit, for the input image, based on the feature amount of each cluster related to the color, the hue, saturation, and color of each component color included in each cluster related to the color By extracting pixels that fall within the respective luminance ranges and labeling connected regions, a first narrowing down is performed based on color feature amounts, and the area of the entire input image is determined for each of the labeled regions. By removing the area where the ratio is equal to or less than the threshold value, the second narrowing down by the color feature amount is performed, and when a plurality of constituent colors of the cluster exist, by extracting only the area including all the constituent colors, After performing the third narrowing by the color feature amount and extracting the spatial relationship and area feature amount from each region extracted by the third narrowing by the color feature amount, the extraction is performed. By calculating the similarity between the spatial relationship and area feature amount and the spatial relationship and area feature amount of each cluster related to the color, and extracting only regions where the two similarities are greater than or equal to a predetermined value, You may perform the 4th narrowing-down by a color feature-value.
The second object candidate region extraction unit extracts a rough shape feature amount from the first object candidate region extracted by the first object candidate region extraction unit, and then each cluster related to the shape has a feature Based on the amount, the similarity between the rough shape feature amount of each cluster related to the shape and the extracted rough shape feature amount is calculated, and only the region where the calculated similarity is within a predetermined range is calculated. By extracting, the first narrowing by the shape feature amount is performed, and after extracting the detailed shape feature amount from the region extracted by the first narrowing by the shape feature amount, the feature amount of each cluster related to the shape is obtained. Based on this, the similarity between the detailed shape feature amount of each cluster related to the shape and the extracted detailed shape feature amount is calculated, and the calculated similarity is calculated. Of by extracting only the above and a region value may be performed to narrow down due to the shape characteristic of the second.

本発明のオブジェクト検索方法は、例示画像に含まれるオブジェクト領域が黒線で囲まれた例示画像データをオブジェクト検索抽出システム(10)に入力する第1のステップと(S11)、前記オブジェクト検索抽出システムにおいて、前記例示画像から前記オブジェクト領域を抽出し、該抽出したオブジェクト領域の画像に基づいて、色に関する各クラスタが持つ特徴量と形状に関する各クラスタが持つ特徴量とを抽出する第2のステップ(S12〜S17)と、オブジェクトを含む入力画像を前記オブジェクト検索システムに入力する第3のステップと(S21)、第1のオブジェクト候補領域抽出部(16)が、前記入力画像に対して、前記色に関する各クラスタが持つ特徴量を用いて、段階的に第1のオブジェクト候補領域の絞込みを行う第4のステップ(S22〜S25)と、第2のオブジェクト候補領域抽出部(17)が、前記第1のオブジェクト候補領域抽出部から入力される前記第1のオブジェクト候補領域に対して、前記形状に関する各クラスタが持つ特徴量を用いて、段階的に第2のオブジェクト候補領域の絞込みを行う第5のステップ(S27,S28)と、オブジェクト領域決定部(18)が、前記第2のオブジェクト候補領域抽出部から入力される前記第2のオブジェクト候補領域から前記オブジェクト領域を決定して、前記入力画像に含まれている前記オブジェクトを求める第6のステップ(S30)とを具備することを特徴とする。
ここで、前記第2のステップが、オブジェクト領域抽出部(11)が、前記例示画像データについて水平方向に画素を走査して黒画素を検出することにより、前記オブジェクト領域を抽出するステップ(S12)と、色特徴量抽出部(12)が、前記オブジェクト領域抽出部によって抽出された前記オブジェクト領域を構成している代表色を求め、該求めた代表色の色相,彩度および輝度の値の範囲を色特徴量として抽出するステップ(S13)と、形状特徴量抽出部(14)が、前記オブジェクト領域抽出部によって抽出された前記オブジェクト領域を含む最小矩形領域の横幅に対する縦幅の割合を算出して大まかな形状特徴量を抽出するステップ(S14)と、前記形状特徴量抽出部が、前記オブジェクト領域の輪郭となる全画素について接線角度を計算し、所定の角度毎に接線角度の頻度を求めた角度ヒストグラムを生成して、該生成した角度ヒストグラムを前記詳細な形状特徴量として抽出するステップ(S15)と、色特徴量クラスタリング部(13)が、前記色特徴量抽出部によって抽出された前記色相の値の範囲の特徴量についてクラスタリングを行ったのち、前記色に関する各クラスタが持つ特徴量を抽出するステップ(S16)と、形状特徴量クラスタリング部(15)が、前記形状特徴量抽出部によって抽出された前記詳細な形状特徴量のクラスタリングを行ったのち、各クラスタの詳細な形状特徴量を抽出するステップ(S17)とを備えてもよい。
The object search method of the present invention includes a first step (S11) of inputting example image data in which an object area included in an example image is surrounded by a black line to the object search and extraction system (10), and the object search and extraction system. In the second step (2), the object region is extracted from the example image, and based on the extracted image of the object region, a feature amount of each cluster related to color and a feature amount of each cluster related to shape are extracted ( S12 to S17), a third step of inputting an input image including an object to the object search system (S21), and a first object candidate region extraction unit (16) Narrowing down the first object candidate area step by step using the features of each cluster The fourth step (S22 to S25) for performing the above, and the second object candidate area extraction unit (17) for the first object candidate area input from the first object candidate area extraction unit, A fifth step (S27, S28) for narrowing down the second object candidate area step by step using the feature quantity of each cluster related to the shape, and an object area determination unit (18), And a sixth step (S30) of determining the object area from the second object candidate area input from the object candidate area extraction unit and obtaining the object included in the input image. Features.
Here, in the second step, the object region extracting unit (11) extracts the object region by scanning the pixels in the horizontal direction with respect to the exemplary image data to detect black pixels (S12). And a color feature amount extraction unit (12) obtains representative colors constituting the object region extracted by the object region extraction unit, and ranges of hue, saturation, and luminance values of the obtained representative colors And a shape feature quantity extraction unit (14) calculates the ratio of the vertical width to the horizontal width of the minimum rectangular area including the object area extracted by the object area extraction section. Extracting a rough shape feature amount (S14), and the shape feature amount extraction unit applies all the pixels that form the contour of the object region. Calculating a tangent angle, generating an angle histogram for the frequency of the tangent angle for each predetermined angle, extracting the generated angle histogram as the detailed shape feature amount (S15), and color feature amount clustering A step (S16) of performing a clustering on the feature value in the range of the hue value extracted by the color feature value extraction unit, and then extracting a feature value of each cluster relating to the color (S16); A step (S17) of extracting a detailed shape feature amount of each cluster after the shape feature amount clustering unit (15) performs clustering of the detailed shape feature amount extracted by the shape feature amount extraction unit; You may prepare.

本発明のオブジェクト検索システムおよび方法は、たとえば、画像化した工事写真に含まれる黒板画像を正確に抽出することができる。   The object search system and method of the present invention can accurately extract, for example, a blackboard image included in an imaged construction photograph.

特徴量が変化する同一および同種のオブジェクトを検索するという目的を、多数の例示画像を用いて色に関する各クラスタが持つ特徴量と形状に関する各クラスタが持つ特徴量とを抽出しておき、入力画像に対して、色に関する各クラスタが持つ特徴量を用いて、段階的に第1のオブジェクト候補領域の絞込みを行い、この第1のオブジェクト候補領域に対して、形状に関する各クラスタが持つ特徴量を用いて、段階的に第2のオブジェクト候補領域の絞込みを行ったのち、第2のオブジェクト候補領域からオブジェクト領域を決定して、入力画像に含まれているオブジェクトを求めることにより実現した。   For the purpose of searching for the same and the same kind of objects whose feature quantity changes, the feature quantity of each cluster related to color and the feature quantity of each cluster related to shape are extracted using a number of example images, and the input image On the other hand, the first object candidate area is narrowed down step by step using the feature quantity of each cluster relating to the color, and the feature quantity of each cluster relating to the shape is determined for this first object candidate area. The second object candidate area is narrowed down step by step, and then the object area is determined from the second object candidate area and the object included in the input image is obtained.

以下、本発明のオブジェクト検索システムおよび方法の実施例について図面を参照して説明する。なお、以下では、入力画像である工事写真画像(以下、「データベース画像」と称する。)に含まれる黒板画像をオブジェクトとして抽出する場合を例として説明する。
図1は、本発明の一実施例によるオブジェクト検索システムを説明するための概略ブロック図である。本実施例によるオブジェクト検索システム10は、オブジェクト領域抽出部11と、色特徴量抽出部12と、色特徴量クラスタリング部13と、形状特徴量抽出部14と、形状特徴量クラスタリング部15と、第1のオブジェクト候補領域抽出部16と、第2のオブジェクト候補領域抽出部17と、オブジェクト領域決定部18とを備えている。
Embodiments of an object search system and method according to the present invention will be described below with reference to the drawings. In the following, a case where a blackboard image included in a construction photograph image (hereinafter referred to as “database image”) that is an input image is extracted as an object will be described as an example.
FIG. 1 is a schematic block diagram for explaining an object search system according to an embodiment of the present invention. The object search system 10 according to the present embodiment includes an object region extraction unit 11, a color feature quantity extraction unit 12, a color feature quantity clustering unit 13, a shape feature quantity extraction unit 14, a shape feature quantity clustering unit 15, 1 object candidate region extraction unit 16, second object candidate region extraction unit 17, and object region determination unit 18.

ここで、オブジェクト領域抽出部11および第1のオブジェクト候補領域抽出部16は、外部の画像入力装置20に接続されている。色特徴量クラスタリング部13,形状特徴量クラスタリング部15,第1のオブジェクト候補領域抽出部16および第2のオブジェクト候補領域抽出部17は、外部の特徴量記憶装置23に接続されている。オブジェクト領域決定部18は、外部のオブジェクト記憶装置24に接続されている。   Here, the object region extraction unit 11 and the first object candidate region extraction unit 16 are connected to an external image input device 20. The color feature quantity clustering unit 13, the shape feature quantity clustering unit 15, the first object candidate area extracting unit 16, and the second object candidate area extracting unit 17 are connected to an external feature quantity storage device 23. The object area determination unit 18 is connected to an external object storage device 24.

画像入力装置20は、多数(複数)の例示画像データが格納された例示画像記憶装置21から例示画像データを1つずつ読み出してオブジェクト検索システム10に入力するとともに、データベース画像(黒板を含む工事写真を画像化した工事写真画像)を表すデータベース画像データが格納された画像記憶装置22からデータベース画像データを読み出してオブジェクト検索システム10に入力する。   The image input device 20 reads out the example image data one by one from the example image storage device 21 in which a large number (a plurality of) of example image data is stored and inputs it to the object search system 10, as well as database images (construction photographs including blackboard The database image data is read from the image storage device 22 in which the database image data representing the construction photograph image obtained by imaging the image is stored and input to the object search system 10.

図2は、工事写真画像、およびこの工事写真画像から抜き取った例示画像の一例を示す図である。図2の左側に示す工事写真画像は、黒板が含まれている工事写真を画像化したものであり、図2の右側に示す例示画像は、黒板を含む領域を工事写真画像から抜き取ったものである。オブジェクト検索システム10は、例示画像記憶装置21に格納されている複数の例示画像各々に含まれている黒板領域を抽出して、抽出した黒板領域の色特徴量および形状特徴量をそれぞれ個別に抽出したのち、抽出した色特徴量および形状特徴量をそれぞれクラスタリングして、各クラスタ内のデータを代表する特徴量(以下、「色に関する各クラスタが持つ特徴量」および「形状に関する各クラスタが持つ特徴量」と称する。)を求める。そして、求めた色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量を表す特徴量データを特徴量記憶装置23に格納する。   FIG. 2 is a diagram illustrating an example of a construction photographic image and an exemplary image extracted from the construction photographic image. The construction photo image shown on the left side of FIG. 2 is an image of the construction photo including the blackboard, and the example image shown on the right side of FIG. 2 is an area extracted from the construction photo image including the blackboard. is there. The object search system 10 extracts a blackboard area included in each of a plurality of exemplary images stored in the exemplary image storage device 21, and individually extracts color feature values and shape feature values of the extracted blackboard areas. After that, the extracted color feature values and shape feature values are clustered, and feature values that represent the data in each cluster (hereinafter referred to as “features that each cluster related to color” and “features that each cluster related to shape have” Called "quantity"). Then, the feature quantity data representing the feature quantity of each cluster relating to the obtained color and the feature quantity possessed by each cluster relating to the shape are stored in the feature quantity storage device 23.

なお、黒板を含む例示画像から黒板領域の抽出を行うために、黒板領域を黒線で囲む処理をしたのちに、例示画像データは例示画像記憶装置21に格納されている。これにより、オブジェクト領域抽出部11は、画像入力装置20から入力される例示画像を表す例示画像データから、黒画素(R=0,G=0,B=0)で囲まれた領域を抽出することにより、オブジェクト領域、すなわち黒板領域を抽出することができる。   In order to extract the blackboard area from the exemplary image including the blackboard, the exemplary image data is stored in the exemplary image storage device 21 after a process of surrounding the blackboard area with a black line. As a result, the object region extraction unit 11 extracts a region surrounded by black pixels (R = 0, G = 0, B = 0) from the exemplary image data representing the exemplary image input from the image input device 20. Thus, the object area, that is, the blackboard area can be extracted.

色特徴量抽出部12は、オブジェクト領域抽出部11によって抽出された黒板領域を構成している代表色を求め、求めた代表色の色特徴量を抽出する。
色特徴量クラスタリング部13は、複数の例示画像について色特徴量抽出部12によって抽出された色特徴量のクラスタリングを行ったのち、色に関する各クラスタが持つ特徴量を抽出する。
The color feature quantity extraction unit 12 obtains a representative color constituting the blackboard area extracted by the object area extraction unit 11, and extracts a color feature quantity of the obtained representative color.
The color feature amount clustering unit 13 performs clustering of the color feature amounts extracted by the color feature amount extraction unit 12 for a plurality of exemplary images, and then extracts the feature amounts of each cluster relating to colors.

形状特徴量抽出部14は、オブジェクト領域抽出部11によって抽出された黒板領域の大まかな形状特徴量および詳細な形状特徴量を抽出する。
形状特徴量クラスタリング部15は、複数の例示画像について形状特徴量抽出部14によって抽出された詳細な形状特徴量のクラスタリングを行ったのち、各クラスタの詳細な形状特徴量を抽出する。
なお、形状に関する各クラスタが持つ特徴量は、形状特徴量抽出部14により抽出された大まかな形状特徴量と、形状特徴量クラスタリング部15により抽出された各クラスタの詳細な形状特徴量とを含む。
The shape feature amount extraction unit 14 extracts a rough shape feature amount and a detailed shape feature amount of the blackboard region extracted by the object region extraction unit 11.
The shape feature amount clustering unit 15 performs clustering of the detailed shape feature amounts extracted by the shape feature amount extraction unit 14 for a plurality of exemplary images, and then extracts detailed shape feature amounts of each cluster.
Note that the feature amount of each cluster related to the shape includes the rough shape feature amount extracted by the shape feature amount extraction unit 14 and the detailed shape feature amount of each cluster extracted by the shape feature amount clustering unit 15. .

第1のオブジェクト候補領域抽出部16は、画像入力装置20から入力されるデータベース画像データによって表されるデータベース画像(工事写真画像)に対して、色に関する各クラスタが持つ特徴量を用いて段階的にオブジェクト候補領域の絞込みを行う。
第2のオブジェクト候補領域抽出部17は、第1のオブジェクト候補領域抽出部16により抽出された第1のオブジェクト候補領域に対して、形状に関する各クラスタが持つ特徴量を用いて段階的にオブジェクト候補領域の絞込みを行う。
オブジェクト領域決定部18は、第2のオブジェクト候補領域抽出部17により抽出された第2のオブジェクト候補領域からオブジェクト領域を決定し、決定したオブジェクト領域を黒板画像(オブジェクト)として、この黒板画像を表すオブジェクト領域データ(黒板画像データ)をオブジェクト記憶装置24に格納する。
The first object candidate region extraction unit 16 performs stepwise processing on the database image (construction photo image) represented by the database image data input from the image input device 20 by using the feature amount of each cluster relating to color. The object candidate area is narrowed down.
The second object candidate area extraction unit 17 applies object candidates step by step to the first object candidate area extracted by the first object candidate area extraction unit 16 using the feature amount of each cluster related to the shape. Narrow down the area.
The object region determination unit 18 determines an object region from the second object candidate region extracted by the second object candidate region extraction unit 17, and represents the blackboard image with the determined object region as a blackboard image (object). Object area data (blackboard image data) is stored in the object storage device 24.

次に、オブジェクト検索システム10の動作(本発明の一実施例によるオブジェクト検索方法)について説明する。
まず、複数の例示画像から色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量を抽出するときのオブジェクト検索システム10の動作について、図3に示すフローチャートを参照して説明する。
Next, the operation of the object search system 10 (object search method according to an embodiment of the present invention) will be described.
First, the operation of the object search system 10 when extracting the feature quantity of each cluster relating to color and the feature quantity of each cluster relating to the shape from a plurality of example images will be described with reference to the flowchart shown in FIG.

担当者は、画像入力装置20を用いて、例示画像記憶装置21に格納されている複数の例示画像データを1つずつ読み出したのち、読み出した例示画像データをオブジェクト検索システム10に入力する(ステップS11)。   The person in charge reads a plurality of exemplary image data stored in the exemplary image storage device 21 one by one using the image input device 20, and then inputs the read exemplary image data to the object search system 10 (step). S11).

画像入力装置20から入力されてきた例示画像データによって表される例示画像においては、黒板領域は黒線で囲まれる処理がなされているため、オブジェクト検索システム10のオブジェクト領域抽出部11は、図4に示すように、この例示画像について水平方向に画素を走査して黒画素を検出していく。オブジェクト領域抽出部11は、黒画素を検出すると、検出した黒画素の水平方向のライン上で、次に黒画素を検出するまでの画素を黒板領域の画素とすることにより、黒線で囲まれた黒板領域を抽出する(以上、ステップS12)。
オブジェクト領域抽出部11は、抽出した黒板領域を表す黒板領域データを色特徴量抽出部12および形状特徴量抽出部14に出力する。
In the exemplary image represented by the exemplary image data input from the image input device 20, the blackboard region is processed to be surrounded by a black line, and therefore the object region extraction unit 11 of the object search system 10 performs FIG. As shown in FIG. 4, the pixels are scanned in the horizontal direction for this exemplary image to detect black pixels. When the object area extraction unit 11 detects a black pixel, the pixel area until the next black pixel is detected on the horizontal line of the detected black pixel is set as a pixel in the blackboard area so that it is surrounded by a black line. The blackboard area is extracted (step S12).
The object region extraction unit 11 outputs the blackboard region data representing the extracted blackboard region to the color feature amount extraction unit 12 and the shape feature amount extraction unit 14.

色特徴量抽出部12は、オブジェクト領域抽出部11から黒板領域データが入力されると、以下のようにして、黒板領域を構成している代表色を求め、求めた代表色の色相(H),彩度(S)および輝度(V)の値の範囲を色特徴量として抽出する(ステップS13)。
色特徴量抽出部12は、オブジェクト領域抽出部11から入力された黒板領域データをたとえばメディアンフィルタにより平滑化し、黒板領域の全画素について、色相(H),彩度(S)および輝度(V)の各次元について値を「72」,「32」および「32」に等分割したHSVヒストグラムを生成する。
続いて、色特徴量抽出部12は、連続する5×5×5要素(計72×28×28通り)の頻度の和をすべて計算し、頻度の和が最大となる5×5×5要素の範囲を検出したのち、検出した範囲の中で頻度が最大となる要素を検出して、検出した要素の色相(H),彩度(S)および輝度(V)の各次元の座標(s,t,u)を求める。
When the blackboard region data is input from the object region extraction unit 11, the color feature amount extraction unit 12 obtains a representative color constituting the blackboard region as described below, and the hue (H) of the obtained representative color. , Saturation (S) and luminance (V) value ranges are extracted as color feature values (step S13).
The color feature quantity extraction unit 12 smoothes the blackboard area data input from the object area extraction unit 11 with, for example, a median filter, and the hue (H), saturation (S), and luminance (V) for all pixels in the blackboard area. An HSV histogram is generated in which the values for each dimension are equally divided into “72”, “32”, and “32”.
Subsequently, the color feature quantity extraction unit 12 calculates all the sums of frequencies of consecutive 5 × 5 × 5 elements (total 72 × 28 × 28), and 5 × 5 × 5 elements that maximize the sum of frequencies. After detecting the range, the element having the highest frequency in the detected range is detected, and the coordinates (s) of each dimension of the hue (H), saturation (S), and luminance (V) of the detected element are detected. , T, u).

続いて、色特徴量抽出部12は、72等分割の色相(H)ヒストグラムと32等分割の彩度(S)ヒストグラムと32等分割の輝度(V)ヒストグラムとを生成したのち、各ヒストグラムについて、上記求めた座標(s,t,u)の各座標値s,t,uを基準に、ヒストグラムの隣接する階級について(1)式に示す条件を満たすまで順に検索していき、検索した範囲を代表色が取る色相,彩度および輝度それぞれの範囲とする。なお、(1)式は、ヒストグラムのある階級iにおける度数f(i)が閾値Thcolorよりも小さくなったときに、その階級がヒストグラムの分割点であることを表している。ただし、その階級の度数だけでなく、その左右2つまでの階級の度数の和を計算することで、より適切な評価をするようにしている。
f(i-2)+f(i-1)+f(i)+f(i+1)+f(i+2)<Thcolor (1)
ここで、Thcolor=(オブジェクト領域の全画素数)/40
Subsequently, the color feature quantity extraction unit 12 generates a 72-segmented hue (H) histogram, a 32-segmented saturation (S) histogram, and a 32-segmented luminance (V) histogram, and then, for each histogram. Based on the coordinate values s, t, u of the obtained coordinates (s, t, u), the adjacent classes of the histogram are searched in order until the condition shown in the expression (1) is satisfied, and the searched range Are the hue, saturation, and luminance ranges of the representative color. Equation (1) indicates that when the frequency f (i) in a certain class i of the histogram becomes smaller than the threshold Th color , the class is a division point of the histogram. However, more appropriate evaluation is performed by calculating not only the frequency of the class but also the sum of the frequencies of the two classes on the left and right.
f (i-2) + f (i-1) + f (i) + f (i + 1) + f (i + 2) <Th color (1)
Here, Th color = (total number of pixels in the object area) / 40

続いて、色特徴量抽出部12は、検出した値の範囲は量子化したヒストグラム上での範囲であり実際の色相(H),彩度(S)および輝度(V)の値の範囲ではないため、(2)式により、検出した値の範囲を実際の色相(H),彩度(S)および輝度(V)の値の範囲に変換する。
minH=minHhist×5, MaxH=MaxHhist×5+4
minS=minShist×8, MaxS=MaxShist×8+7 (2)
minV=minVhist×8, MaxV=MaxVhist×8+7
ここで、minHhistからMaxHhistが色相ヒストグラム上の色相の値の範囲(一端から一端)であり、minShistからMaxShistが彩度ヒストグラム上の彩度の値の範囲(下限から上限)であり、minVhistからMaxVhistが輝度ヒストグラム上の輝度の値の範囲(最小から最大)であり、minHからMaxHが実際の色相の値の範囲(一端から一端)であり、minSからMaxSが実際の彩度の値の範囲(下限から上限)であり、minVからMaxVが輝度の値の範囲(最小から最大)である。
Subsequently, the color feature amount extraction unit 12 detects the range of values on the quantized histogram, not the actual range of hue (H), saturation (S), and luminance (V) values. Therefore, the range of the detected value is converted into the range of the actual hue (H), saturation (S), and luminance (V) values by the equation (2).
minH = minH hist × 5, MaxH = MaxH hist × 5 + 4
minS = minS hist × 8, MaxS = MaxS hist × 8 + 7 (2)
minV = minV hist × 8, MaxV = MaxV hist × 8 + 7
Here, minH hist to MaxH hist are the range of hue values (one end to one end) on the hue histogram, and minS hist to MaxS hist are the range of saturation values on the saturation histogram (lower limit to upper limit). , MinV hist to MaxV hist are ranges of luminance values (from minimum to maximum) on the luminance histogram, minH to MaxH are ranges of actual hue values (from one end to one end), and minS to MaxS are actual colors. It is a range of degree values (lower limit to upper limit), and minV to MaxV is a range of luminance values (minimum to maximum).

また、色特徴量抽出部12は、0≦t≦4の場合は、その代表色を無彩色と判断する。無彩色を表現する際には、色相の値は無関係となるので、色相範囲を0°〜359°とすることで、色相の制限を排除する。   Further, the color feature amount extraction unit 12 determines that the representative color is an achromatic color when 0 ≦ t ≦ 4. When expressing an achromatic color, the value of the hue becomes irrelevant, and thus the hue limitation is eliminated by setting the hue range to 0 ° to 359 °.

色特徴量抽出部12は、この一連の処理を、一定数の代表色を抽出するまで、未探索な要素について繰り返す。図5に、2色まで代表色を抽出した結果の一例を示す。この例では、色相の値の範囲が0〜359であり、彩度の値の範囲が0〜39であり、かつ輝度の値の範囲が240〜255である第1の代表色と、色相の値の範囲が119〜213であり、彩度の値の範囲が0〜119であり、かつ輝度の値の範囲が240〜255である第2の代表色とが抽出されている。   The color feature amount extraction unit 12 repeats this series of processing for unsearched elements until a certain number of representative colors are extracted. FIG. 5 shows an example of the result of extracting representative colors up to two colors. In this example, the hue value range is 0 to 359, the saturation value range is 0 to 39, and the luminance value range is 240 to 255. A second representative color having a value range of 119 to 213, a saturation value range of 0 to 119, and a luminance value range of 240 to 255 is extracted.

色特徴量抽出部12は、以上のようにして抽出した代表色に対応する領域の画素数が黒板領域の全画素数に対して0.05以下である場合には、抽出した代表色は黒板領域を特徴付ける代表色ではないと判断して、除去する。   When the number of pixels in the area corresponding to the representative color extracted as described above is 0.05 or less with respect to the total number of pixels in the blackboard area, the color feature amount extraction unit 12 It is determined that it is not the representative color that characterizes the region, and is removed.

また、色特徴量抽出部12は、抽出した代表色が複数存在した場合には、各代表色が黒板領域に対して占める割合を獲得するために、各代表色に該当する画素数の黒板領域の全画素数に対する割合を求めて、各代表色の面積の特徴量を抽出する。図5に示す例では、第1の代表色の面積=0.09であり、第2の代表色の面積=0.91である。なお、面積の特徴量の次元の数は、代表色の次元の数と等しくなる。   In addition, when there are a plurality of extracted representative colors, the color feature amount extraction unit 12 obtains the ratio of each representative color to the blackboard area to obtain the blackboard area having the number of pixels corresponding to each representative color. Is obtained with respect to the total number of pixels, and the feature amount of the area of each representative color is extracted. In the example shown in FIG. 5, the area of the first representative color = 0.09 and the area of the second representative color = 0.91. Note that the number of dimensions of the feature amount of the area is equal to the number of dimensions of the representative color.

さらに、色特徴量抽出部12は、抽出した代表色が複数存在した場合には、複数の代表色がどのような位置関係を持っているかという情報を獲得するために、代表色同士の空間関係の特徴量を抽出する。
具体的には、色特徴量抽出部12は、まず、面積が最大となる代表色領域の重心と、黒板領域を含む最小矩形領域とを算出する。そして、色特徴量抽出部12は、その重心を中心とする最小矩形領域の縦横1/2の矩形領域と、この矩形領域を除く上下左右方向それぞれに存在するその他の代表色領域の画素数とを算出し、上下左右方向それぞれに存在するその他の代表色領域の画素数の、上下左右方向それぞれに存在するその他の代表色領域の全画素数に対する割合を算出して、代表色同士の空間関係の特徴量とする。図6に、求めた代表色同士の空間関係の特徴量の一例を示す。この例では、第1および第2の代表色同士の空間関係は、中・上・左・下および右方向の割合がそれぞれ、0.30,0.66,0.01,0.01および0.02となるものである。この特徴量の次元数は、{(構成色数−1)×5}となる。
この特徴量により、面積が最大となる代表色領域を基準としたその他の代表色領域それぞれの空間関係を表現することができる。
Further, when there are a plurality of extracted representative colors, the color feature quantity extraction unit 12 obtains information about the positional relationship between the representative colors, and the spatial relationship between the representative colors. Extract feature values.
Specifically, the color feature quantity extraction unit 12 first calculates the center of gravity of the representative color area having the largest area and the minimum rectangular area including the blackboard area. Then, the color feature quantity extraction unit 12 has a rectangular area that is ½ in the vertical and horizontal directions of the minimum rectangular area centered on the center of gravity, and the number of pixels of other representative color areas that exist in the vertical and horizontal directions excluding the rectangular area. And calculate the ratio of the number of pixels in the other representative color areas that exist in the vertical and horizontal directions to the total number of pixels in the other representative color areas in the vertical and horizontal directions, and the spatial relationship between the representative colors Feature amount. FIG. 6 shows an example of the feature amount of the spatial relationship between the obtained representative colors. In this example, the spatial relationship between the first and second representative colors is such that the ratios in the middle, upper, left, lower, and right directions are 0.30, 0.66, 0.01, 0.01, and 0, respectively. .02. The number of dimensions of this feature amount is {(number of constituent colors−1) × 5}.
With this feature amount, it is possible to express the spatial relationship of each of the other representative color regions based on the representative color region having the maximum area.

形状特徴量抽出部14は、黒板領域データがオブジェクト領域抽出部11から入力されると、以下のようにして、黒板領域の形状特徴量を抽出する(ステップS14)。
まず、形状特徴量抽出部14は、実際に工事写真画像から黒板画像を抽出する際の形状特徴量による絞込みに要する処理時間を短縮するために、黒板領域の大まかな形状として黒板領域の縦横比を計算する。そして、形状特徴量抽出部14は、黒板領域を含む最小矩形領域の横幅に対する縦幅の割合を算出し、この算出した割合を大まかな形状特徴量として抽出する。図7に、抽出した大まかな形状特徴量の一例を示す。この例では、大まかな形状特徴量=1.2である。大まかな形状特徴量の次元数は1次元である。
When the blackboard region data is input from the object region extraction unit 11, the shape feature amount extraction unit 14 extracts the shape feature amount of the blackboard region as follows (step S14).
First, the shape feature amount extraction unit 14 sets the aspect ratio of the blackboard region as a rough shape of the blackboard region in order to shorten the processing time required for narrowing down by the shape feature amount when actually extracting the blackboard image from the construction photo image. Calculate Then, the shape feature quantity extraction unit 14 calculates the ratio of the vertical width to the horizontal width of the minimum rectangular area including the blackboard area, and extracts the calculated ratio as a rough shape feature quantity. FIG. 7 shows an example of the extracted rough shape feature amount. In this example, the rough feature amount = 1.2. The number of dimensions of the rough shape feature amount is one dimension.

続いて、形状特徴量抽出部14は、以下のようにして、黒板領域の詳細な形状特徴量を抽出する(ステップS15)。
形状特徴量抽出部14は、図8に示すように、黒板領域の重心位置から下方向に下ろした線とオブジェクト領域の輪郭との交点を探索開始点として、黒板領域の輪郭となる画素を反時計回りに検索していく。形状特徴量抽出部14は、黒板領域の輪郭となる全画素について接線角度を計算し、黒板領域の重心から見て10°毎に接線角度の頻度を求めた36分割の角度ヒストグラムを生成する。このとき、接線角度は、たとえば、ある輪郭上の画素からその4画素先に引いた直線の水平方向に対する角度として求める。形状特徴量抽出部14は、この生成した角度ヒストグラムを詳細な形状特徴量とする。なお、詳細な形状の特徴量の次元数は36次元である。
Subsequently, the shape feature quantity extraction unit 14 extracts a detailed shape feature quantity of the blackboard region as follows (step S15).
As shown in FIG. 8, the shape feature amount extraction unit 14 uses the intersection of the line drawn downward from the center of gravity of the blackboard area and the outline of the object area as a search start point, and the pixel that is the outline of the blackboard area is reflected. Search clockwise. The shape feature quantity extraction unit 14 calculates a tangent angle for all the pixels that form the outline of the blackboard area, and generates a 36-division angle histogram in which the frequency of the tangential angle is obtained every 10 ° as viewed from the center of gravity of the blackboard area. At this time, the tangent angle is obtained, for example, as an angle with respect to the horizontal direction of a straight line drawn four pixels ahead from a pixel on a certain contour. The shape feature quantity extraction unit 14 uses the generated angle histogram as a detailed shape feature quantity. Note that the number of dimensions of the feature amount of the detailed shape is 36 dimensions.

色特徴量クラスタリング部13は、複数の例示画像について色特徴量抽出部12によって抽出された色特徴量の中で、主観的に見た色の変動に最も則している特徴量は色相の特徴量であると考え、2×(代表色数)次元の色相(H)の値の範囲の特徴量について、以下の手順に従って色特徴量のクラスタリングを行う(ステップS16)。
手順1:図9に示すように、すべての色相(H)の値の範囲のデータを同じクラスタに所属させる。
手順2:図10に示すように、分割後のクラスタ数を「2」とするとともに、クラスタの重心座標をクラスタに属するデータの各次元の最小値および最大値として、k−平均法によりクラスタリングする。
手順3:図11に示すように、分割後の各クラスタの分散を計算し、その値が閾値Thvar(=40)以上のクラスタを検出する。なお、閾値Thvarは、たとえば、多数の例示画像を色に基づいて主観によりクラスタリングした際の全クラスタの中での最大の分散値とする。
手順4:図12に示すように、手順3で検出したクラスタについて、再び手順2および手順3の処理を行う。
手順5:図13に示すように、すべてのクラスタの分散が閾値Thvar未満となった場合にクラスタリングを終了し、各クラスタについて、所属するデータの各色特徴量(代表色,空間関係および面積の特徴量)の平均値を、そのクラスタが持つ色特徴量とする。
The color feature amount clustering unit 13 is the feature of the hue that most closely matches the subjectively observed color variation among the color feature amounts extracted by the color feature amount extraction unit 12 for a plurality of exemplary images. For the feature amount in the range of 2 × (representative color number) dimensional hue (H), color feature amount clustering is performed according to the following procedure (step S16).
Procedure 1: As shown in FIG. 9, data in a range of all hue (H) values belong to the same cluster.
Procedure 2: As shown in FIG. 10, the number of clusters after division is set to “2”, and clustering is performed by the k-means method with the barycentric coordinates of the clusters as the minimum and maximum values of each dimension of the data belonging to the clusters. .
Procedure 3: As shown in FIG. 11, the variance of each cluster after division is calculated, and a cluster whose value is equal to or greater than a threshold Th var (= 40) is detected. Note that the threshold value Th var is, for example, the maximum variance value among all the clusters when subjecting a large number of example images to subjectivity clustering based on colors.
Procedure 4: As shown in FIG. 12, the processing in Procedure 2 and Procedure 3 is performed again for the cluster detected in Procedure 3.
Step 5: As shown in FIG. 13, when the variance of all the clusters is less than the threshold Th var , the clustering is terminated, and for each cluster, each color feature amount of the data to which it belongs (representative color, spatial relationship and area The average value of the feature amount is set as the color feature amount of the cluster.

ただし、例示画像によって代表色が異なる場合には、同じ代表色となる例示画像の集合毎にクラスタリングを行う。
また、k−平均法は、初めにクラスタ数を決定しなければならないが、与える例示画像群によって、適切なクラスタ数が異なる。そこで、前述した処理により、クラスタ内の分散値を考慮し、その値が大きいクラスタをさらに分割していくことにより、適切なクラスタ数を決定することが可能となる。
However, when the representative colors differ depending on the exemplary images, clustering is performed for each set of exemplary images having the same representative color.
In the k-means method, the number of clusters must be determined first, but the appropriate number of clusters differs depending on the given image group. Therefore, by the above-described processing, it is possible to determine an appropriate number of clusters by further dividing a cluster having a large value in consideration of the dispersion value in the cluster.

k−平均法の処理手順を以下に示す。
手順1:ランダムに選択したk個の点を初期クラスタの重心とする。
手順2:すべてのデータに対して、クラスタの重心との距離を計算し、最も近いクラスタに属させる。
手順3:各クラスタに属するデータの各座標の平均値を新しいクラスタの重心座標とする。
手順4:クラスタの重心座標が収束するまで手順1から手順3の処理を繰り返す。たとえば、各データのクラスタリングの結果が変化しなくなった時点で収束したとする。
The procedure of the k-average method is shown below.
Procedure 1: k points selected at random are set as the center of gravity of the initial cluster.
Procedure 2: The distance from the center of gravity of the cluster is calculated for all data, and it belongs to the nearest cluster.
Procedure 3: The average value of each coordinate of the data belonging to each cluster is set as the barycentric coordinate of the new cluster.
Procedure 4: Repeat the process from Procedure 1 to Procedure 3 until the barycentric coordinates of the cluster converge. For example, it is assumed that convergence has occurred when the result of clustering of each data no longer changes.

形状特徴量クラスタリング部15は、複数の例示画像について形状特徴量抽出部14によって抽出された詳細な形状特徴量について、上述した色特徴量のクラスタリングの手順1から手順5に沿ってクラスタリングを行うことにより、各クラスタの詳細な形状特徴量を抽出する(ステップS17)。このときに用いる閾値Thvarは、色特徴量のクラスタリングの際と同様に、たとえば、複数の例示画像を形状に基づいて主観によりクラスタリングした際の全クラスタの中での最大の分散値である0.001とする。
ここで、詳細な形状特徴量のクラスタリングに用いる閾値Thvar(=0.001)を色特徴量のクラスタリングに用いる閾値Thvar(=40)と異なる値とする理由は、クラスタリングに用いる特徴量の次元数と、取る値の範囲とが異なるためである。
The shape feature amount clustering unit 15 performs clustering on the detailed shape feature amounts extracted by the shape feature amount extraction unit 14 for a plurality of exemplary images according to the above-described color feature amount clustering procedures 1 to 5. Thus, a detailed shape feature amount of each cluster is extracted (step S17). The threshold Th var used at this time is 0, which is the maximum variance value among all the clusters when subjecting a plurality of example images to subjective clustering based on the shape, for example, as in the case of clustering of color feature values. .001.
Here, the reason why the threshold Th var (= 0.001) used for detailed shape feature quantity clustering is different from the threshold Th var (= 40) used for color feature quantity clustering is that the feature quantity used for clustering This is because the number of dimensions and the range of values to be taken are different.

色特徴量クラスタリング部13は、抽出した色に関する各クラスタが持つ特徴量を特徴量記憶装置23に格納し、形状特徴量クラスタリング部15は、抽出した形状に関する各クラスタが持つ特徴量を特徴量記憶装置23に格納する(ステップS18)。これにより、この例示画像における各クラスタ内のデータを代表する特徴量である色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量を表す特徴量データが、特徴量記憶装置23に格納される。   The color feature amount clustering unit 13 stores the feature amount of each cluster relating to the extracted color in the feature amount storage device 23, and the shape feature amount clustering unit 15 stores the feature amount of each cluster relating to the extracted shape. The data is stored in the device 23 (step S18). As a result, the feature quantity data representing the feature quantity of each cluster relating to the color, which is the feature quantity representing the data in each cluster in this example image, and the feature quantity of each cluster relating to the shape are stored in the feature quantity storage device 23. Is done.

以下、図14の最下段に示す3つのデータベース画像に含まれている黒板画像を抽出するときのオブジェクト検索システム10の動作について、図15に示すフローチャートを参照して説明する。
担当者は、画像入力装置20を用いて、画像記憶装置22に格納されている多数のデータベース画像データ(工事写真画像データ)のうちの図14に示す3つのデータベース画像データを1つずつ読み出したのち、読み出したデータベース画像データをオブジェクト検索システム10に入力する(ステップS21)。
Hereinafter, the operation of the object search system 10 when extracting the blackboard images included in the three database images shown at the bottom of FIG. 14 will be described with reference to the flowchart shown in FIG.
The person in charge uses the image input device 20 to read three database image data shown in FIG. 14 out of a large number of database image data (construction photo image data) stored in the image storage device 22 one by one. After that, the read database image data is input to the object search system 10 (step S21).

オブジェクト検索システム10の第1のオブジェクト候補領域抽出部16は、画像入力装置20からのデータベース画像データによって表されるデータベース画像(工事写真画像)に対して、特徴量記憶装置23に格納されている色に関する各クラスタが持つ特徴量に基づいて、色に関する各クラスタが持つ各構成色の色相(H),彩度(S)および輝度(V)それぞれの範囲に収まる画素を抽出し、一つながりとなる領域をラベリングすることにより、色特徴量による第1の絞込みを行う(ステップS22)。図16に、色特徴量による第1の絞込みの結果の一例を示す。   The first object candidate area extraction unit 16 of the object search system 10 stores a database image (construction photograph image) represented by database image data from the image input device 20 in the feature amount storage device 23. Based on the feature quantity of each cluster relating to color, pixels that fall within the respective ranges of hue (H), saturation (S) and luminance (V) of each constituent color of each cluster relating to color are extracted, and By labeling the region, the first narrowing down by the color feature amount is performed (step S22). FIG. 16 shows an example of the result of the first narrowing down based on the color feature amount.

続いて、第1のオブジェクト候補領域抽出部16は、ラベリングされた各領域に対して、データベース画像全体に対する面積の割合が閾値Tharea(=(データベース画像全体の面積)/200)以下の領域については、オブジェクト候補領域ではなくノイズ領域と判断して除去することにより、色特徴量による第2の絞込みを行う(ステップS23)。図17に、色特徴量による第2の絞込みの結果の一例を示す。 Subsequently, the first object candidate region extraction unit 16 performs the ratio of the area with respect to the entire database image with respect to each labeled region with respect to the threshold Th area (= ( area of the entire database image) / 200) or less. Is determined to be a noise area instead of an object candidate area, and second narrowing is performed based on the color feature amount (step S23). FIG. 17 shows an example of the result of the second narrowing by the color feature amount.

続いて、第1のオブジェクト候補領域抽出部16は、クラスタの構成色が複数存在した場合には、そのすべての構成色を含む領域のみを抽出し、それ以外の領域は除去することにより、色特徴量による第3の絞込みを行う(ステップS24)。図18に、色特徴量による第3の絞込みの結果の一例を示す。   Subsequently, when there are a plurality of cluster configuration colors, the first object candidate region extraction unit 16 extracts only the region including all of the configuration colors, and removes the other regions to obtain the color. The third narrowing down based on the feature amount is performed (step S24). FIG. 18 shows an example of the result of the third narrowing by the color feature amount.

また、第1のオブジェクト候補領域抽出部16は、抽出した各領域から前述したようにして空間関係および面積の特徴量を抽出したのち、抽出した空間関係および面積の特徴量と色に関する各クラスタが持つ空間関係および面積の特徴量との類似度を(3)式により計算し、共に0.6以上となる領域のみを抽出し、それ以外の領域は除去することにより、色特徴量による第4の絞込みを行う(ステップS25)。図19に、色特徴量による第4の絞込みの結果の一例を示す。

Figure 2006221525
In addition, the first object candidate region extraction unit 16 extracts the spatial relationship and area feature amount from each extracted region as described above, and then extracts each cluster related to the extracted spatial relationship and area feature amount and color. The similarity between the spatial relationship and the area feature amount is calculated by the expression (3), and only the region where both are 0.6 or more are extracted, and the other regions are removed, so that the fourth feature based on the color feature amount is obtained. Is narrowed down (step S25). FIG. 19 shows an example of the result of the fourth narrowing by the color feature amount.
Figure 2006221525

(3)式において、mは、空間関係(または面積)の特徴量の次元数であり、colorc(i)は、色に関するクラスタが持つ空間関係(または面積)のi番目の特徴量であり、colord(i)は、領域から抽出した空間関係(または面積)のi番目の特徴量であり、Simcolorは、0から1までの値を取り、1に近づくほど両者間の類似度が高くなる。 In Equation (3), m is the number of dimensions of the spatial relationship (or area) feature amount, and color c (i) is the i-th feature amount of the spatial relationship (or area) of the cluster relating to color. , Color d (i) is the i-th feature quantity of the spatial relationship (or area) extracted from the region, and Sim color takes a value from 0 to 1, and the closer to 1, the more similar between them. Get higher.

以上のようにして抽出された領域(第1のオブジェクト候補領域)を表す第1のオブジェクト候補領域データは、第1のオブジェクト候補領域抽出部16から第2のオブジェクト候補領域抽出部17に出力される(ステップS26)。   The first object candidate area data representing the area (first object candidate area) extracted as described above is output from the first object candidate area extracting unit 16 to the second object candidate area extracting unit 17. (Step S26).

第2のオブジェクト候補領域抽出部17は、第1のオブジェクト候補領域抽出部16から入力される第1のオブジェクト候補領域データによって表される第1のオブジェクト候補領域に対して、以下のようにして、形状に関する各クラスタが持つ特徴量を用いて、オブジェクト候補領域の絞込みを更に行う。   The second object candidate area extraction unit 17 applies the following to the first object candidate area represented by the first object candidate area data input from the first object candidate area extraction unit 16: Further, the object candidate areas are further narrowed down by using the feature amount of each cluster relating to the shape.

まず、第2のオブジェクト候補領域抽出部17は、第1のオブジェクト候補領域から大まかな形状特徴量ratiod(縦横比)を抽出したのち、特徴量記憶装置23に格納されている形状に関する各クラスタが持つ特徴量に基づいて、形状に関する各クラスタが持つ大まかな形状特徴量ratiocと、抽出した大まかな形状特徴量ratiodとの類似度Simratioを(4)式により計算する。その後、第2のオブジェクト候補領域抽出部17は、類似度Simratioが0.75以上1.5以下となる領域のみを抽出し、それ以外の領域を除去することにより、形状特徴量による第1の絞込みを行う(ステップS27)。図20に、形状特徴量による第1の絞込みの結果の一例を示す。なお、(4)式においては、類似度Simratioは、1に近づくほど両者の類似度が高くなるような値となる。

Figure 2006221525
First, the second object candidate region extraction unit 17, after extracting the rough shape feature ratio d (aspect ratio) from the first object candidate region, each cluster about the shape stored in the feature storage unit 23 Based on the feature quantity possessed by, the similarity Sim ratio between the rough shape feature quantity ratio c possessed by each cluster relating to the shape and the extracted rough shape feature quantity ratio d is calculated by equation (4). Thereafter, the second object candidate region extraction unit 17 extracts only the region where the similarity Sim ratio is not less than 0.75 and not more than 1.5, and removes the other regions, whereby the first object based on the shape feature amount. Is narrowed down (step S27). FIG. 20 shows an example of the result of the first narrowing down by the shape feature amount. Note that in Equation (4), the similarity Sim ratio is a value such that the similarity between the two increases as it approaches 1.
Figure 2006221525

続いて、第2のオブジェクト候補領域抽出部17は、形状特徴量による第1の絞込みにより抽出した領域から詳細な形状特徴量を抽出したのち、特徴量記憶装置23に格納されている形状に関する各クラスタが持つ特徴量に基づいて、形状に関する各クラスタが持つ詳細な形状特徴量と、抽出した詳細な形状特徴量との類似度を、以下に示す(5)〜(7)式により計算する。その後、第2のオブジェクト候補領域抽出部17は、類似度が0.6以上となる領域のみを抽出し、それ以外の領域を除去することにより、形状特徴量による第2の絞込みを行う(ステップS28)。

Figure 2006221525
Subsequently, the second object candidate region extraction unit 17 extracts the detailed shape feature amount from the region extracted by the first narrowing down based on the shape feature amount, and then relates each shape related to the shape stored in the feature amount storage device 23. Based on the feature quantity possessed by the cluster, the similarity between the detailed shape feature quantity of each cluster related to the shape and the extracted detailed shape feature quantity is calculated by the following equations (5) to (7). Thereafter, the second object candidate area extraction unit 17 extracts only areas where the degree of similarity is 0.6 or more, and removes the other areas, thereby performing the second narrowing by the shape feature amount (step) S28).
Figure 2006221525

なお、(5)式において、nは、詳細な形状特徴量の次元数であり、formc(i)は、形状に関するクラスタが持つ詳細な形状のi番目の特徴量であり、formd(k)は、抽出した詳細な形状のk((7)式により算出)番目の特徴量である。なお、この類似度計算は、形状に関するクラスタが持つ詳細な形状のi番目の特徴量と、形状特徴量による第1の絞込みにより抽出した領域の対応する特徴量との値の差の絶対値を計算することを基本的な考え方としているが、i番目同士の特徴量の差を取るだけでは、わずかな角度のずれが生じただけで類似していないと判断されてしまうため、(6)式のような計算を行うことにより、わずかな角度のずれを考慮して類似度を計算する。
ここで、(6)式では、形状に関するクラスタが持つ詳細な形状のi番目の特徴量と、形状特徴量による第1の絞込みにより抽出した領域のi番目、またその前後2つまでのk番目の特徴量との差を、iとの差の大きさによって重みを変えた上で計算する。そして、その中の最小値を、詳細な形状のi番目の特徴量に関する類似度としている。
In equation (5), n is the number of dimensions of the detailed shape feature value, form c (i) is the i-th feature value of the detailed shape of the cluster related to the shape, and form d (k ) Is the k-th feature amount (calculated by equation (7)) of the extracted detailed shape. This similarity calculation is performed by calculating the absolute value of the difference between the i-th feature amount of the detailed shape of the cluster related to the shape and the corresponding feature amount of the region extracted by the first narrowing down by the shape feature amount. Although the basic idea is to calculate, since it is determined that the difference between the i-th feature amounts is not similar because only a slight angle deviation occurs, equation (6) By calculating like this, the similarity is calculated in consideration of a slight angle shift.
Here, in the equation (6), the i-th feature amount of the detailed shape possessed by the cluster related to the shape, the i-th region of the region extracted by the first narrowing down by the shape feature amount, and the k-th up to two before and after that Is calculated after changing the weight according to the difference from i. And the minimum value in it is made into the similarity regarding the i-th feature-value of a detailed shape.

続いて、第2のオブジェクト候補領域抽出部17は、形状特徴量による第2の絞込みにより抽出された領域を第2のオブジェクト候補領域とし、第2のオブジェクト候補領域を表す第2のオブジェクト候補領域データと、第2のオブジェクト候補領域内の各領域の詳細な形状の特徴量を表す詳細な形状の特徴量データとをオブジェクト領域決定部18に出力する(ステップS29)。   Subsequently, the second object candidate area extraction unit 17 sets the area extracted by the second narrowing by the shape feature amount as the second object candidate area, and represents the second object candidate area. The data and the detailed shape feature amount data representing the detailed shape feature amount of each region in the second object candidate region are output to the object region determination unit 18 (step S29).

オブジェクト領域決定部18は、第2のオブジェクト候補領域抽出部17から入力される第2のオブジェクト候補領域データおよび詳細な形状の特徴量データに基づいて、第2のオブジェクト候補領域の中に1つの領域しかない場合には、その領域をオブジェクト領域と決定し、一方、第2のオブジェクト候補領域の中に複数の領域がある場合には、複数の領域の中で詳細な形状の特徴量が最も類似した領域をオブジェクト領域と決定したのち、決定したオブジェクト領域の画像を黒板画像として、この黒板画像を表すオブジェクト領域データをオブジェクト記憶装置24に格納する(ステップS30)。図21に、オブジェクト領域決定部18により決定された黒板画像の一例を示す。
図21に示すように、工事写真画像(データベース画像)に含まれている黒板画像(オブジェクト)を正確に抽出することができる。
Based on the second object candidate area data and the detailed feature amount data input from the second object candidate area extraction unit 17, the object area determination unit 18 selects one of the second object candidate areas. If there is only an area, that area is determined as an object area. On the other hand, if there are a plurality of areas in the second object candidate area, the feature amount of the detailed shape is the most among the plurality of areas. After determining the similar area as the object area, the image of the determined object area is set as a blackboard image, and object area data representing the blackboard image is stored in the object storage device 24 (step S30). FIG. 21 shows an example of the blackboard image determined by the object area determination unit 18.
As shown in FIG. 21, a blackboard image (object) included in a construction photo image (database image) can be accurately extracted.

以上の説明では、黒板領域を黒線で囲む処理がなされた例示画像データを例示画像記憶装置21に格納したが、黒板領域を黒線で囲む処理がなされていない例示画像データを例示画像記憶装置21に格納しておき、画像入力装置20によって例示画像データを例示画像記憶装置21から読み出したのちに、読み出した例示画像データによって表される例示画像を表示装置に表示させて、作業員が、表示された例示画像を見ながら、黒板領域を黒線で囲む処理を行ってもよい。この場合には、作業員によって黒線で囲む処理がなされた黒板領域を含む例示画像を表す例示画像データが、画像入力装置20からオブジェクト領域抽出部11に入力される。
また、k−平均法によりクラスタリングを行ったが、単一パス法,重心法およびメディアン法などによりクラスタリングを行ってもよい。
In the above description, the example image data that has been processed to enclose the blackboard area with the black line is stored in the example image storage device 21, but the example image data that has not been processed to enclose the blackboard area with the black line is stored in the example image storage device. 21, after the exemplary image data is read from the exemplary image storage device 21 by the image input device 20, the exemplary image represented by the read exemplary image data is displayed on the display device. You may perform the process which surrounds a blackboard area | region with a black line, seeing the displayed example image. In this case, exemplary image data representing an exemplary image including a blackboard region that has been processed to be surrounded by a black line by an operator is input from the image input device 20 to the object region extraction unit 11.
Further, although the clustering is performed by the k-average method, the clustering may be performed by a single pass method, a centroid method, a median method, or the like.

以上説明したように、本発明のオブジェクト検索システムおよび方法は、たとえば、工事写真画像から黒板画像を検索するのに利用することができる。   As described above, the object retrieval system and method of the present invention can be used to retrieve a blackboard image from a construction photo image, for example.

本発明の一実施例によるオブジェクト検索システムを説明するための概略ブロック図である。(実施例1)It is a schematic block diagram for demonstrating the object search system by one Example of this invention. Example 1 図2は、工事写真画像、およびこの工事写真画像から抜き取った例示画像の一例を示す図である。(実施例1)FIG. 2 is a diagram illustrating an example of a construction photographic image and an exemplary image extracted from the construction photographic image. Example 1 例示画像から色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量を抽出するときのオブジェクト検索システム10の動作を説明するためのフローチャートである。(実施例1)It is a flowchart for demonstrating the operation | movement of the object search system 10 when extracting the feature-value which each cluster regarding a color and each cluster regarding a shape have from the example image. Example 1 オブジェクト領域抽出部11の動作を説明するための図である。(実施例1)FIG. 6 is a diagram for explaining the operation of the object region extraction unit 11. Example 1 色特徴量抽出部12によって代表色を2色まで抽出した結果の一例を示す図である。(実施例1)It is a figure which shows an example of the result of having extracted the representative color to 2 colors by the color feature-value extraction part 12. FIG. Example 1 色特徴量抽出部12によって求められた代表色同士の空間関係の特徴量の一例を示す図である。(実施例1)It is a figure which shows an example of the feature-value of the spatial relationship between the representative colors calculated | required by the color feature-value extraction part. Example 1 形状特徴量抽出部14によって抽出された大まかな形状特徴量の一例を示す図である。(実施例1)It is a figure which shows an example of the rough shape feature-value extracted by the shape feature-value extraction part. Example 1 形状特徴量抽出部14による詳細な形状特徴量の抽出方法を説明するための図である。(実施例1)It is a figure for demonstrating the extraction method of the detailed shape feature-value by the shape feature-value extraction part 14. FIG. Example 1 色特徴量クラスタリング部13における色特徴量のクラスタリング処理の手順1を説明するための図である。(実施例1)FIG. 6 is a diagram for explaining a procedure 1 of color feature amount clustering processing in a color feature amount clustering unit 13; Example 1 色特徴量クラスタリング部13における色特徴量のクラスタリング処理の手順2を説明するための図である。(実施例1)FIG. 10 is a diagram for explaining a procedure 2 of color feature clustering processing in a color feature clustering unit 13; Example 1 色特徴量クラスタリング部13における色特徴量のクラスタリング処理の手順3を説明するための図である。(実施例1)FIG. 6 is a diagram for explaining a procedure 3 of color feature amount clustering processing in a color feature amount clustering unit 13; Example 1 色特徴量クラスタリング部13における色特徴量のクラスタリング処理の手順4を説明するための図である。(実施例1)FIG. 10 is a diagram for explaining a procedure 4 of color feature amount clustering processing in the color feature amount clustering unit 13; Example 1 色特徴量クラスタリング部13における色特徴量のクラスタリング処理の手順5を説明するための図である。(実施例1)FIG. 10 is a diagram for explaining a procedure 5 of color feature amount clustering processing in the color feature amount clustering unit 13; Example 1 3つの例示画像1〜3について色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量を抽出した例を示す図である。(実施例1)It is a figure which shows the example which extracted the feature-value which each cluster regarding a color and each cluster regarding a shape have extracted about the three example images 1-3. Example 1 図14の最下段に示す3つのデータベース画像に含まれている黒板画像を抽出するときのオブジェクト検索システム10の動作について説明するためのフローチャートである。(実施例1)It is a flowchart for demonstrating operation | movement of the object search system 10 when extracting the blackboard image contained in three database images shown at the bottom of FIG. Example 1 第1のオブジェクト候補領域抽出部16における色特徴量による第1の絞込みの結果の一例を示す図である。(実施例1)It is a figure which shows an example of the result of the 1st narrowing down by the color feature-value in the 1st object candidate area | region extraction part. Example 1 第1のオブジェクト候補領域抽出部16における色特徴量による第2の絞込みの結果の一例を示す図である。(実施例1)It is a figure which shows an example of the result of the 2nd narrowing-down by the color feature-value in the 1st object candidate area | region extraction part. Example 1 第1のオブジェクト候補領域抽出部16における色特徴量による第3の絞込みの結果の一例を示す図である。(実施例1)It is a figure which shows an example of the result of the 3rd narrowing-down by the color feature-value in the 1st object candidate area | region extraction part. Example 1 第1のオブジェクト候補領域抽出部16における色特徴量による第4の絞込みの結果の一例を示す図である。(実施例1)It is a figure which shows an example of the result of the 4th narrowing-down by the color feature-value in the 1st object candidate area | region extraction part. Example 1 第2のオブジェクト候補領域抽出部17における形状特徴量による第1の絞込みの結果の一例を示す図である。(実施例1)It is a figure which shows an example of the result of the 1st narrowing down by the shape feature-value in the 2nd object candidate area | region extraction part. Example 1 オブジェクト領域決定部18により求められた黒板画像の一例を示す図である。(実施例1)It is a figure which shows an example of the blackboard image calculated | required by the object area | region determination part. Example 1

符号の説明Explanation of symbols

10 オブジェクト検索システム
11 オブジェクト領域抽出部
12 色特徴量抽出部
13 色特徴量クラスタリング部
14 形状特徴量抽出部
15 形状特徴量クラスタリング部
16 第1のオブジェクト候補領域抽出部
17 第2のオブジェクト候補領域抽出部
18 オブジェクト領域決定部
20 画像入力装置
21 例示画像記憶装置
22 画像記憶装置
23 特徴量記憶装置
24 オブジェクト記憶装置
S11〜S18,S21〜S30 ステップ
DESCRIPTION OF SYMBOLS 10 Object search system 11 Object area extraction part 12 Color feature-value extraction part 13 Color feature-value clustering part 14 Shape feature-value extraction part 15 Shape feature-value clustering part 16 1st object candidate area extraction part 17 2nd object candidate area extraction Unit 18 Object region determination unit 20 Image input device 21 Exemplary image storage device 22 Image storage device 23 Feature amount storage device 24 Object storage device S11 to S18, S21 to S30 Steps

Claims (5)

例示画像に含まれるオブジェクト領域を抽出するオブジェクト領域抽出部(11)と、
該オブジェクト領域抽出部によって抽出された前記オブジェクト領域を構成している代表色を求め、該求めた代表色の色特徴量を抽出する色特徴量抽出部(12)と、
該色特徴量抽出部によって抽出された前記色特徴量のクラスタリングを行ったのち、色に関する各クラスタが持つ特徴量を抽出する色特徴量クラスタリング部(13)と、
前記オブジェクト領域抽出部によって抽出された前記オブジェクト領域の大まかな形状特徴量および詳細な形状特徴量を抽出する形状特徴量抽出部(14)と、
該形状特徴量抽出部によって抽出された前記詳細な形状特徴量のクラスタリングを行ったのち、各クラスタの詳細な形状特徴量を抽出する形状特徴量クラスタリング部(15)と、
前記色特徴量クラスタリング部によって抽出された前記色に関する各クラスタが持つ特徴量が格納されるとともに、前記形状特徴量抽出部によって抽出された前記大まかな形状特徴量と前記形状特徴量クラスタリング部によって抽出された前記各クラスタの詳細な形状特徴量とを含む形状に関する各クラスタが持つ特徴量が格納される特徴量記憶装置(23)と、
オブジェクトを含む入力画像に対して、前記特徴量記憶装置に格納されている前記色に関する各クラスタが持つ特徴量を用いて、段階的に第1のオブジェクト候補領域の絞込みを行う第1のオブジェクト候補領域抽出部(16)と、
該第1のオブジェクト候補領域抽出部により抽出された第1のオブジェクト候補領域に対して、前記特徴量記憶装置に格納されている前記形状に関する各クラスタが持つ特徴量を用いて、段階的に第2のオブジェクト候補領域の絞込みを行う第2のオブジェクト候補領域抽出部(17)と、
該第2のオブジェクト候補領域抽出部により抽出された第2のオブジェクト候補領域から前記オブジェクト領域を決定して、前記入力画像に含まれている前記オブジェクトを求めるオブジェクト領域決定部(18)と、
を具備することを特徴とする、オブジェクト検索システム。
An object area extraction unit (11) for extracting an object area included in the exemplary image;
A color feature quantity extraction unit (12) for obtaining a representative color constituting the object area extracted by the object area extraction unit, and extracting a color feature quantity of the obtained representative color;
A color feature quantity clustering unit (13) for extracting the feature quantity of each cluster relating to color after clustering the color feature quantity extracted by the color feature quantity extraction unit;
A shape feature amount extraction unit (14) for extracting a rough shape feature amount and a detailed shape feature amount of the object region extracted by the object region extraction unit;
After performing clustering of the detailed shape feature values extracted by the shape feature value extraction unit, a shape feature value clustering unit (15) for extracting detailed shape feature values of each cluster;
The feature amount of each cluster relating to the color extracted by the color feature amount clustering unit is stored, and the rough shape feature amount extracted by the shape feature amount extraction unit and the shape feature amount clustering unit are extracted. A feature quantity storage device (23) for storing the feature quantity of each cluster relating to the shape including the detailed shape feature quantity of each of the clusters,
A first object candidate that narrows down the first object candidate region step by step using the feature quantity of each cluster relating to the color stored in the feature quantity storage device for an input image including an object A region extraction unit (16);
For the first object candidate area extracted by the first object candidate area extraction unit, the feature quantity of each cluster relating to the shape stored in the feature quantity storage device is used in stages. A second object candidate area extraction unit (17) for narrowing down two object candidate areas;
An object region determining unit (18) for determining the object region from the second object candidate region extracted by the second object candidate region extracting unit and obtaining the object included in the input image;
An object search system comprising:
前記第1のオブジェクト候補領域抽出部が、
前記入力画像に対して、前記色に関する各クラスタが持つ特徴量に基づいて、該色に関する各クラスタが持つ各構成色の色相,彩度および輝度それぞれの範囲に収まる画素を抽出し、一つながりとなる領域をラベリングすることにより、色特徴量による第1の絞込みを行い、
前記ラベリングされた各領域に対して、前記入力画像全体に対する面積の割合が閾値以下の領域を除去することにより、色特徴量による第2の絞込みを行い、
クラスタの構成色が複数存在した場合には、そのすべての構成色を含む領域のみを抽出することにより、色特徴量による第3の絞込みを行い、
該色特徴量による第3の絞込みにより抽出した各領域から空間関係および面積の特徴量を抽出したのち、該抽出した空間関係および面積の特徴量と前記色に関する各クラスタが持つ空間関係および面積の特徴量との類似度を計算し、該2つの類似度が所定の値以上となる領域のみを抽出することにより、色特徴量による第4の絞込みを行う、
ことを特徴とする、請求項1記載のオブジェクト検索システム。
The first object candidate area extraction unit includes:
For the input image, based on the feature value of each cluster related to the color, pixels that fall within the range of the hue, saturation, and luminance of each constituent color that each cluster related to the color has are extracted, and By performing the first narrowing down by the color feature amount,
For each of the labeled regions, by removing a region whose area ratio to the entire input image is equal to or less than a threshold value, a second narrowing by color feature amount is performed,
When there are a plurality of cluster constituent colors, the third narrowing down by the color feature amount is performed by extracting only the region including all the constituent colors.
After extracting the spatial relation and area feature quantity from each region extracted by the third narrowing by the color feature quantity, the extracted spatial relation and area feature quantity and the spatial relation and area of each cluster related to the color Calculating the degree of similarity with the feature amount, and extracting only a region in which the two similarities are equal to or greater than a predetermined value, thereby performing a fourth narrowing by the color feature amount.
The object search system according to claim 1, wherein:
前記第2のオブジェクト候補領域抽出部が、
前記第1のオブジェクト候補領域抽出部によって抽出された前記第1のオブジェクト候補領域から大まかな形状特徴量を抽出したのち、前記形状に関する各クラスタが持つ特徴量に基づいて、該形状に関する各クラスタが持つ大まかな形状特徴量と前記抽出した大まかな形状特徴量との類似度を計算し、該計算した類似度が所定の範囲の値となる領域のみを抽出することにより、形状特徴量による第1の絞込みを行い、
該形状特徴量による第1の絞込みにより抽出した領域から詳細な形状特徴量を抽出したのち、前記形状に関する各クラスタが持つ特徴量に基づいて、該形状に関する各クラスタが持つ詳細な形状特徴量と前記抽出した詳細な形状特徴量との類似度を計算し、該計算した類似度が所定の値以上となる領域のみを抽出することにより、形状特徴量による第2の絞込みを行う、
ことを特徴とする、請求項1または2記載のオブジェクト検索システム。
The second object candidate area extraction unit
After extracting a rough shape feature amount from the first object candidate region extracted by the first object candidate region extraction unit, each cluster related to the shape is determined based on the feature amount of each cluster related to the shape. The degree of similarity between the approximate shape feature amount possessed and the extracted approximate shape feature amount is calculated, and only the region in which the calculated similarity value falls within a predetermined range is extracted. Narrow down,
After extracting a detailed shape feature value from the region extracted by the first narrowing down by the shape feature value, based on the feature value of each cluster related to the shape, the detailed shape feature value included in each cluster related to the shape Calculating the degree of similarity with the extracted detailed shape feature amount, and extracting only the region where the calculated degree of similarity is equal to or greater than a predetermined value, thereby performing second narrowing by the shape feature amount;
The object search system according to claim 1, wherein the object search system is an object search system.
例示画像に含まれるオブジェクト領域が黒線で囲まれた例示画像データをオブジェクト検索抽出システム(10)に入力する第1のステップと(S11)、
前記オブジェクト検索抽出システムにおいて、前記例示画像から前記オブジェクト領域を抽出し、該抽出したオブジェクト領域の画像に基づいて、色に関する各クラスタが持つ特徴量と形状に関する各クラスタが持つ特徴量とを抽出する第2のステップ(S12〜S17)と、
オブジェクトを含む入力画像を前記オブジェクト検索システムに入力する第3のステップと(S21)、
第1のオブジェクト候補領域抽出部(16)が、前記入力画像に対して、前記色に関する各クラスタが持つ特徴量を用いて、段階的に第1のオブジェクト候補領域の絞込みを行う第4のステップ(S22〜S25)と、
第2のオブジェクト候補領域抽出部(17)が、前記第1のオブジェクト候補領域抽出部から入力される前記第1のオブジェクト候補領域に対して、前記形状に関する各クラスタが持つ特徴量を用いて、段階的に第2のオブジェクト候補領域の絞込みを行う第5のステップ(S27,S28)と、
オブジェクト領域決定部(18)が、前記第2のオブジェクト候補領域抽出部から入力される前記第2のオブジェクト候補領域から前記オブジェクト領域を決定して、前記入力画像に含まれている前記オブジェクトを求める第6のステップ(S30)と、
を具備することを特徴とする、オブジェクト領域抽出方法。
A first step of inputting example image data in which an object region included in the example image is surrounded by a black line to the object search and extraction system (10) (S11);
In the object search and extraction system, the object region is extracted from the example image, and based on the extracted image of the object region, the feature amount of each cluster related to color and the feature amount of each cluster related to shape are extracted. A second step (S12 to S17);
A third step of inputting an input image including an object to the object search system (S21);
A fourth step in which the first object candidate area extraction unit (16) narrows down the first object candidate areas in a stepwise manner using the feature values of each cluster relating to the color with respect to the input image. (S22 to S25),
The second object candidate area extraction unit (17) uses the feature amount of each cluster related to the shape for the first object candidate area input from the first object candidate area extraction unit, A fifth step (S27, S28) for narrowing down the second object candidate area step by step;
An object region determination unit (18) determines the object region from the second object candidate region input from the second object candidate region extraction unit, and obtains the object included in the input image A sixth step (S30);
An object region extraction method comprising:
前記第2のステップが、
オブジェクト領域抽出部(11)が、前記例示画像データについて水平方向に画素を走査して黒画素を検出することにより、前記オブジェクト領域を抽出するステップ(S12)と、
色特徴量抽出部(12)が、前記オブジェクト領域抽出部によって抽出された前記オブジェクト領域を構成している代表色を求め、該求めた代表色の色相,彩度および輝度の値の範囲を色特徴量として抽出するステップ(S13)と、
形状特徴量抽出部(14)が、前記オブジェクト領域抽出部によって抽出された前記オブジェクト領域を含む最小矩形領域の横幅に対する縦幅の割合を算出して大まかな形状特徴量を抽出するステップ(S14)と、
前記形状特徴量抽出部が、前記オブジェクト領域の輪郭となる全画素について接線角度を計算し、所定の角度毎に接線角度の頻度を求めた角度ヒストグラムを生成して、該生成した角度ヒストグラムを前記詳細な形状特徴量として抽出するステップ(S15)と、
色特徴量クラスタリング部(13)が、前記色特徴量抽出部によって抽出された前記色相の値の範囲の特徴量についてクラスタリングを行ったのち、前記色に関する各クラスタが持つ特徴量を抽出するステップ(S16)と、
形状特徴量クラスタリング部(15)が、前記形状特徴量抽出部によって抽出された前記詳細な形状特徴量のクラスタリングを行ったのち、各クラスタの詳細な形状特徴量を抽出するステップ(S17)と、
を備えることを特徴とする、請求項4記載のオブジェクト検索方法。
The second step comprises:
A step (S12) of extracting the object region by detecting a black pixel by scanning a pixel in the horizontal direction with respect to the exemplary image data, the object region extracting unit (11);
A color feature amount extraction unit (12) obtains a representative color constituting the object area extracted by the object area extraction unit, and calculates a range of hue, saturation, and luminance values of the obtained representative color. Extracting as a feature quantity (S13);
The shape feature quantity extraction unit (14) calculates a ratio of the vertical width to the horizontal width of the minimum rectangular area including the object area extracted by the object area extraction unit to extract a rough shape feature quantity (S14). When,
The shape feature amount extraction unit calculates a tangent angle for all pixels serving as an outline of the object region, generates an angle histogram that calculates a frequency of the tangent angle for each predetermined angle, and generates the generated angle histogram. Extracting as a detailed shape feature quantity (S15);
A step of clustering the feature quantity in the range of the hue value extracted by the color feature quantity extraction section after the color feature quantity clustering section (13) extracts the feature quantity of each cluster relating to the color ( S16)
A step (S17) of extracting a detailed shape feature amount of each cluster after the shape feature amount clustering unit (15) performs clustering of the detailed shape feature amount extracted by the shape feature amount extraction unit;
The object search method according to claim 4, further comprising:
JP2005036100A 2005-02-14 2005-02-14 Object retrieval system and method Withdrawn JP2006221525A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005036100A JP2006221525A (en) 2005-02-14 2005-02-14 Object retrieval system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005036100A JP2006221525A (en) 2005-02-14 2005-02-14 Object retrieval system and method

Publications (1)

Publication Number Publication Date
JP2006221525A true JP2006221525A (en) 2006-08-24

Family

ID=36983811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005036100A Withdrawn JP2006221525A (en) 2005-02-14 2005-02-14 Object retrieval system and method

Country Status (1)

Country Link
JP (1) JP2006221525A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205429A (en) * 2008-02-27 2009-09-10 Sharp Corp Image processing method and image processor
JP2016505187A (en) * 2013-01-31 2016-02-18 ブルービーム ソフトウェア インコーポレイテッドBluebeam Software, Inc. Pre-filtering for searching visible objects in documents
JP2016191966A (en) * 2015-03-30 2016-11-10 株式会社メガチップス Clustering apparatus and machine learning apparatus
JPWO2020194792A1 (en) * 2019-03-26 2020-10-01
CN113868457A (en) * 2021-08-24 2021-12-31 浙江大华技术股份有限公司 Image processing method based on image gathering and related device
JP2024500555A (en) * 2021-01-07 2024-01-09 新▲東▼方教育科技集▲団▼有限公司 Image processing method, image processing device and non-temporary storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205429A (en) * 2008-02-27 2009-09-10 Sharp Corp Image processing method and image processor
JP2016505187A (en) * 2013-01-31 2016-02-18 ブルービーム ソフトウェア インコーポレイテッドBluebeam Software, Inc. Pre-filtering for searching visible objects in documents
JP2016191966A (en) * 2015-03-30 2016-11-10 株式会社メガチップス Clustering apparatus and machine learning apparatus
JPWO2020194792A1 (en) * 2019-03-26 2020-10-01
WO2020194792A1 (en) * 2019-03-26 2020-10-01 日本電信電話株式会社 Search device, learning device, search method, learning method, and program
JP7192966B2 (en) 2019-03-26 2022-12-20 日本電信電話株式会社 SEARCH DEVICE, LEARNING DEVICE, SEARCH METHOD, LEARNING METHOD AND PROGRAM
JP2024500555A (en) * 2021-01-07 2024-01-09 新▲東▼方教育科技集▲団▼有限公司 Image processing method, image processing device and non-temporary storage medium
US12073542B2 (en) 2021-01-07 2024-08-27 New Oriental Education & Technology Group Inc. Image processing method, image processing apparatus, and non-transitory storage medium
JP7564962B2 (en) 2021-01-07 2024-10-09 新▲東▼方教育科技集▲団▼有限公司 IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS AND NON-TRANSITORY STORAGE MEDIUM
CN113868457A (en) * 2021-08-24 2021-12-31 浙江大华技术股份有限公司 Image processing method based on image gathering and related device

Similar Documents

Publication Publication Date Title
JP4990383B2 (en) Image group expression method, image group search method, apparatus, computer-readable storage medium, and computer system
US7643686B2 (en) Multi-tiered image clustering by event
JP5229744B2 (en) Image classification device and image classification program
US7031555B2 (en) Perceptual similarity image retrieval
US7917518B2 (en) Compositional balance and color driven content retrieval
US8385646B2 (en) Image processing
CN100430935C (en) Method and device for representing and searching target by using shape
US20020168108A1 (en) Event clustering of images using foreground/background segmentation
US20140044361A1 (en) Device and method for analyzing the correlation between an image and another image or between an image and a video
JP5097280B2 (en) Method and apparatus for representing, comparing and retrieving images and image groups, program, and computer-readable storage medium
KR20140109463A (en) Method and system for comparing images
JP2007200275A (en) System and method for acquiring and identifying data
JP4098021B2 (en) Scene identification method, apparatus, and program
EP1815361A1 (en) Variance-based event clustering
CN109902198A (en) A method, device and application system for searching images by image
JP2006221525A (en) Object retrieval system and method
US7755646B2 (en) Image management through lexical representations
JP2004192555A (en) Information management method, device and program
JP2000082075A (en) Image retrieval apparatus, retrieval method, and program recording medium using straight line
JP2006221520A (en) Image feature value extraction system and method
JP4683238B2 (en) Object recognition device, object recognition method, and object recognition program
JP2006221523A (en) Object region extraction system and method
US7899255B2 (en) Method for recognizing and indexing digital media
JP2003331293A (en) Image analysis method and image search method
JPH05205056A (en) Image feature extracting device and image retrieving device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513