[go: up one dir, main page]

JP5963609B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5963609B2
JP5963609B2 JP2012184572A JP2012184572A JP5963609B2 JP 5963609 B2 JP5963609 B2 JP 5963609B2 JP 2012184572 A JP2012184572 A JP 2012184572A JP 2012184572 A JP2012184572 A JP 2012184572A JP 5963609 B2 JP5963609 B2 JP 5963609B2
Authority
JP
Japan
Prior art keywords
image
recognition
registered
database
query
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012184572A
Other languages
Japanese (ja)
Other versions
JP2014041560A (en
JP2014041560A5 (en
Inventor
椎山 弘隆
弘隆 椎山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012184572A priority Critical patent/JP5963609B2/en
Publication of JP2014041560A publication Critical patent/JP2014041560A/en
Publication of JP2014041560A5 publication Critical patent/JP2014041560A5/ja
Application granted granted Critical
Publication of JP5963609B2 publication Critical patent/JP5963609B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、局所特徴を用いたオブジェクト単位での画像検索のための画像処理技術に関するものである。   The present invention relates to an image processing technique for image retrieval in units of objects using local features.

画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する方法が提案されている。この方法では、まず、画像から特徴的な点(局所特徴点)を抽出する(非特許文献1)。そして、該局所特徴点とその周辺の画素群とに基づいて、該局所特徴点に対応する特徴量(局所特徴量)を計算する(非特許文献2)。画像の検索は、局所特徴量同士のマッチングによって行う。   There has been proposed a method of searching for a similar image using a local feature amount (local feature amount) of an image. In this method, first, characteristic points (local feature points) are extracted from an image (Non-Patent Document 1). And based on this local feature point and the surrounding pixel group, the feature-value (local feature-value) corresponding to this local feature point is calculated (nonpatent literature 2). Image retrieval is performed by matching local feature amounts.

従来の検索結果の表示方法は、多くの場合、クエリ画像と検索先画像(サンプル画像)との間の類似度を局所特徴量のマッチングにより算出し、類似度順にサムネール画像を表示する。   Conventional search result display methods often calculate the similarity between a query image and a search destination image (sample image) by matching local feature amounts, and display thumbnail images in order of similarity.

他方、局所特徴量を用いて機械学習を行う画像認識技術も提案されている(非特許文献3)。これは、複数の学習画像を用意して機械学習することにより、共通に存在するオブジェクトを検出する技術であり、デジタルスチルカメラ等における顔検出技術等で実用化されている。上記、局所特徴量を用いた画像検索に比べ、機械学習による効果により、誤って認識される割合が比較的少ないという特性を持つ。しかしながら、画像認識技術は前述の様に、予め機械学習を行う必要があり、万物に対応する事は非現実的である。   On the other hand, an image recognition technique that performs machine learning using local feature amounts has also been proposed (Non-Patent Document 3). This is a technique for detecting a common object by preparing a plurality of learning images and performing machine learning, and has been put into practical use by a face detection technique in a digital still camera or the like. Compared to the above-described image search using local features, there is a characteristic that the rate of erroneous recognition is relatively small due to the effect of machine learning. However, as described above, the image recognition technology needs to perform machine learning in advance, and it is unrealistic to deal with everything.

画像認識技術と画像特徴量検索を併用して認識精度の向上を行う提案もなされている(特許文献1)。これは、再生した画像データから顔画像を検出し、検出した顔画像から個人識別情報を抽出することを、通常の顔画像、サングラスをかけた顔画像、帽子を被った顔画像の夫々について行う。そして、それらが同一人物のものであるとしてそれらを相互に関連付けて記憶する。その後、撮像した画像から顔を検出し、顔画像の特徴点付近に動きがあった場合、動きのあった位置と、動きの方向とに基づいて個人識別情報を切り替える。そして、帽子やサングラスの部分を含めて個人の識別を行う。したがって、個人の識別精度や、顔の追従精度を高めることができる。   A proposal has been made to improve recognition accuracy by using both image recognition technology and image feature value search (Patent Document 1). In this method, a face image is detected from the reproduced image data, and personal identification information is extracted from the detected face image for each of a normal face image, a face image with sunglasses, and a face image with a hat. . Then, they are stored in association with each other, assuming that they belong to the same person. Thereafter, a face is detected from the captured image, and when there is a motion near the feature point of the face image, the personal identification information is switched based on the position where the motion has occurred and the direction of the motion. The person is identified including the hat and sunglasses. Therefore, it is possible to improve the individual identification accuracy and the face tracking accuracy.

C.Harris and M.J. Stephens,“A combined corner and edge detector," In Alvey Vision Conference,pages 147-152, 1988.C. Harris and M.J. Stephens, “A combined corner and edge detector,” In Alvey Vision Conference, pages 147-152, 1988. David G. Lowe, “Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, 60, 2 (2004), pp.91-110.David G. Lowe, “Distinctive Image Features from Scale-Invariant Keypoints,” International Journal of Computer Vision, 60, 2 (2004), pp.91-110. 柳井, “一般物体認識の現状と今後,” 情報処理学会論文誌:コンピュータビジョンとイメージメディア Nov.2007, Vol.48 No.SIG 16(CVIM 19)Yanai, “Current Status and Future of General Object Recognition,” IPSJ Transactions on Computer Vision and Image Media Nov.2007, Vol.48 No.SIG 16 (CVIM 19)

特開2011-76439号公報JP 2011-76439 A

特許文献1では、顔検出結果とその近傍の画像特徴を含めて同一のものであると判断しており、検索処理ではないものの、顔検出結果とその他の部分の画像特徴量を合わせてマッチングをしている。しかし、顔は器官検出ベースの特徴点特徴量、顔の近傍の帽子などは形状と色特徴でそれぞれ異なる特徴であり、顔検出に用いる特徴量と画像特徴量検索に用いる画像特徴量の共通化の概念は無く、画像認識と画像特徴量比較が独立した処理となっている。   In Patent Document 1, it is determined that the face detection result and the image features in the vicinity thereof are the same, and it is not a search process, but matching is performed by combining the face detection result and the image feature amount of other parts. doing. However, features of feature points based on organ detection and features such as hats near the face are different in shape and color features, and features used for face detection and image features used for image feature search are shared. There is no concept, and image recognition and image feature amount comparison are independent processes.

局所特徴量を用いた検索の対象となるオブジェクトを選ばない性質と、画像認識の対象画像オブジェクトが限られるが誤った検出が比較的少ないという性質を持ち合わせた、良好な検索結果をもたらす画像検索を実現できていない。画像から抽出した局所特徴量を画像認識に流用して効率化することも行っていない。   Image search that produces good search results with the property that the object to be searched using local features is not chosen and the property that the target image objects for image recognition are limited but there are relatively few false detections. It has not been realized. The local feature amount extracted from the image is not used for image recognition to improve efficiency.

画像認識技術は、ある認識ターゲットに対して多量の学習データを用いて機械学習を行う事で、画像特徴の検索に比べ精度の高い検索が期待できる。しかし、学習画像はアピアランスの異なるものを与える事が通常であり、認識尤度は即、クエリ画像との類似性を示すものでは無いので、画像認識の結果を用いた検索だけでは不十分である。   Image recognition technology can be expected to perform a search with higher accuracy than image feature search by performing machine learning on a certain recognition target using a large amount of learning data. However, it is usual to give learning images with different appearances, and since the recognition likelihood does not immediately show similarity to the query image, it is not sufficient to search using the image recognition result alone. .

更に、画像認識の対象は時間が経つとともに増加するので、過去に登録した画像に対して新しい画像認識結果を適応する場合には、通常、再登録処理を行う必要があり、又、当然画像データが参照できる環境で無ければならない。反対に、局所特徴量を用いた検索では、機械的に見て特徴量が類似している検索結果を出してしまうので、その検索結果を人間が見ると全く違うオブジェクトであることがある。   Furthermore, since the number of image recognition targets increases with time, when applying a new image recognition result to an image registered in the past, it is usually necessary to perform re-registration processing. Must be in an environment where can be referenced. On the other hand, in a search using local feature amounts, a search result with similar feature amounts is obtained mechanically, and therefore the search result may be a completely different object when a human sees the search result.

本発明は、上記の課題に鑑みてなされたものであり、局所特徴量を用いた検索の対象となるオブジェクトを選ばない性質と、画像認識の誤りが比較的少ない性質とを併せ持った画像検索を実現する技術を提供することを目的とする。   The present invention has been made in view of the above problems, and performs an image search that has both the property of not selecting an object to be searched using local features and the property of relatively few errors in image recognition. The purpose is to provide technology to realize.

本発明の目的を達成するために、例えば、本発明の画像処理装置は、それぞれの画像について、該画像に対する画像認識処理によって得られた該画像中の1以上のオブジェクトのそれぞれの属性及び認識尤度を、該画像と関連付けて登録しているデータベースにアクセス可能な画像処理装置であって、
クエリ画像に対して画像認識処理を行うことで該クエリ画像中のオブジェクトの属性を取得し、該取得した属性と関連付けて前記データベースに登録されている画像を特定する特定手段と、
前記特定手段が特定した画像と関連づけて前記データベースに登録されている認識尤度を、前記クエリ画像に対する該特定した画像の類似度とし、該特定した画像に関する情報と、該類似度と、を画像検索結果として出力する出力手段と
を備えることを特徴とする。
In order to achieve the object of the present invention, for example, the image processing apparatus of the present invention, for each image, each attribute and recognition likelihood of one or more objects in the image obtained by image recognition processing for the image. An image processing apparatus capable of accessing a database registered in association with the image,
An identification means for acquiring an attribute of an object in the query image by performing an image recognition process on the query image, and specifying an image registered in the database in association with the acquired attribute;
The recognition likelihood registered in the database in association with the image specified by the specifying unit is set as the similarity of the specified image with respect to the query image, and the information about the specified image and the similarity are defined as an image. Output means for outputting as a search result.

本発明の構成によれば、局所特徴量を用いた検索の対象となるオブジェクトを選ばない性質と、画像認識の誤りが比較的少ない性質とを併せ持った画像検索を実現することができる。   According to the configuration of the present invention, it is possible to realize an image search that has both the property of not selecting an object to be searched using local feature amounts and the property of relatively few image recognition errors.

画像処理装置のハードウェア構成例を示すブロック図。The block diagram which shows the hardware structural example of an image processing apparatus. 画像処理装置の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus. 画像特徴抽出・認識処理部202(202’)の機能構成例を示すブロック図。The block diagram which shows the function structural example of the image feature extraction and recognition process part 202 (202 '). 特徴点/局所特徴量算出部303が行う処理のフローチャート。The flowchart of the process which the feature point / local feature-value calculation part 303 performs. スケールスペースを説明する図。The figure explaining a scale space. 画像登録処理のフローチャート。The flowchart of an image registration process. DB204内のインデックススキーマを示す図。The figure which shows the index schema in DB204. 登録画像及びクエリ画像を示す図。The figure which shows a registration image and a query image. DB204に登録される各インデックスを示す図。The figure which shows each index registered into DB204. 画像検索処理のフローチャート。The flowchart of an image search process. 画像検索処理のフローチャート。The flowchart of an image search process. 画像検索処理のフローチャート。The flowchart of an image search process. DBインデックスを更新する処理のフローチャート。The flowchart of the process which updates DB index.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

<はじめに>
第1の実施形態の説明の前に、各実施形態で述べる概要を説明する。登録画像より特徴点を検出しその特徴点の局所特徴量を抽出し、更に画像認識処理し、画像中の認識対象のメタデータを抽出するとともに、これらを合わせて記憶する。予め、画像認識の準備として、認識対象を含んだ画像、含まない画像を学習用に準備し、機械学習を行っておく。
<Introduction>
Before describing the first embodiment, an outline described in each embodiment will be described. A feature point is detected from the registered image, a local feature amount of the feature point is extracted, further image recognition processing is performed, metadata for recognition in the image is extracted, and these are also stored together. As preparation for image recognition, an image including a recognition target and an image not including the recognition target are prepared for learning and machine learning is performed in advance.

そして、画像認識処理を行った結果の認識対象のメタデータには少なくとも認識対象の属性を含む。更にメタデータには、認識対象の領域情報と、認識尤度の少なくともいずれか1つを記憶しておく。尚、局所特徴には特徴点の位置情報を含む事とする。検索時は、クエリ画像を登録時と同様、画像認識処理し画像中の認識対象のメタデータを抽出する。   The metadata to be recognized as a result of performing the image recognition processing includes at least the attributes to be recognized. Furthermore, at least one of recognition target area information and recognition likelihood is stored in the metadata. Note that local features include position information of feature points. At the time of retrieval, as in the case of registering a query image, image recognition processing is performed to extract recognition target metadata in the image.

画像認識処理で用いる局所特徴量を、画像検索処理で用いる局所特徴量と共通化することにより、局所特徴量の類似度の比較結果と画像認識の結果が大きく異ならないようにする。例えば、局所特徴量が輝度情報から得られるもので、画像認識が色情報を用いたものであると、それぞれでヒットする画像の見かけが大きく異なるものとなってしまう。   By making the local feature amount used in the image recognition processing common with the local feature amount used in the image search processing, the comparison result of the similarity of the local feature amounts and the image recognition result are not greatly different. For example, if the local feature amount is obtained from the luminance information and the image recognition uses color information, the appearance of the hit image will be greatly different.

クエリ画像に対して画像認識処理を行い、認識対象のメタデータが得られた場合に、認識対象のメタデータ及び認識対象の領域の局所特徴量の少なくとも片方を用いてマッチングするが、認識対象が無かった場合に局所特徴のみを用いてマッチングする。これにより、画像認識の誤検出の少なさを生かしながらも、画像認識の対象が有限である影響を画像特徴量検索処理で緩和した画像検索処理が可能となる。   When image recognition processing is performed on the query image and the metadata to be recognized is obtained, matching is performed using at least one of the metadata to be recognized and the local feature amount of the region to be recognized. If there is no match, only local features are used for matching. As a result, it is possible to perform image search processing in which the influence of the fact that the object of image recognition is limited is reduced by the image feature amount search processing, while taking advantage of fewer false detections of image recognition.

また、クエリ画像に対して画像認識処理を行って認識対象のメタデータが得られた場合に、同じ認識対象の属性を持つ画像に絞り込み、認識対象の領域中の局所特徴比較を行い、認識対象が無かった場合に局所特徴を用いて画像特徴量比較処理する方法も有る。   In addition, when the recognition target metadata is obtained by performing image recognition processing on the query image, it narrows down to images with the same recognition target attribute, performs local feature comparison in the recognition target region, and There is also a method of performing image feature amount comparison processing using local features when there is no image.

このメリットとしては、登録画像とクエリ画像の認識領域中の局所特徴量を比較することにより、認識尤度だけでは解決できなかったクエリとの類似性を反映しつつ、認識結果を絞り込みに使用した効率の良い検索処理を行う事が可能になる。   As a merit of this, by comparing the local features in the recognition area of the registered image and the query image, the recognition result was used for narrowing down while reflecting the similarity with the query that could not be solved only by the recognition likelihood. Efficient search processing can be performed.

更に次のような方法もある。即ち、クエリ画像に対して画像認識処理を行い、認識対象のメタデータが得られた場合、認識対象の属性を用いてマッチングし、認識尤度を得て更に局所特徴を用いて画像特徴量比較を行って類似度を得て認識尤度と類似度の重み付け和で総合類似度を算出する。そして、認識対象が無かった場合に局所特徴を用いて画像特徴量検索処理する。これにより、処理コストは増えるものの、画像認識が失敗した時にも、検索漏れを減らす事が可能となる。   There are also the following methods. In other words, when image recognition processing is performed on the query image and the metadata of the recognition target is obtained, matching is performed using the attributes of the recognition target, recognition likelihood is obtained, and image feature amount comparison is further performed using local features. To obtain the similarity and calculate the total similarity by the weighted sum of the recognition likelihood and the similarity. Then, when there is no recognition target, an image feature amount search process is performed using local features. As a result, although the processing cost is increased, it is possible to reduce omissions even when image recognition fails.

なお、クエリ画像で認識率の低い認識対象が検出された場合には、認識尤度への重みを低くし、認識率が高い認識対象の場合には高い値の重みとすると良好な結果が得られる。更に、類似度の重みが零の場合には局所特徴を用いた画像特徴比較処理を行わないと、無駄な処理を防ぐ事が出来る。   When a recognition target with a low recognition rate is detected in the query image, a good result is obtained by reducing the weight to the recognition likelihood and setting a high value for a recognition target with a high recognition rate. It is done. Further, when the similarity weight is zero, useless processing can be prevented if image feature comparison processing using local features is not performed.

ところで、メタデータを用いてマッチングを行う際、認識メタデータの比較は同一属性であるかを判断し、尤度をその類似度へ換算する事が最も簡便な方法である。また、局所特徴を用いてマッチングを行う際、画像認識領域に含まれる局所特徴量のマッチングで求めた類似度を用いることで、真にクエリ画像の対応する領域との類似性で比較を行う事が可能となる。   By the way, when matching is performed using metadata, it is the simplest method to determine whether comparison of recognition metadata has the same attribute and convert the likelihood to the similarity. In addition, when matching is performed using local features, the similarity obtained by matching the local features included in the image recognition area is used to perform comparison with true similarity to the corresponding area of the query image. Is possible.

もちろん、尤度と画像全体の特徴点に対する局所特徴量のマッチングで求めた類似度を統合した類似度を算出しても良い。このメリットは、画像認識で得た尤度を緩やかに検索結果に反映する事が可能となり、画像認識の失敗の影響を緩和し、よりロバストな検索が可能である事である。   Of course, the similarity obtained by integrating the likelihood and the similarity obtained by matching the local feature amount with the feature point of the entire image may be calculated. This merit is that the likelihood obtained by the image recognition can be gradually reflected in the search result, the influence of the failure of the image recognition can be reduced, and a more robust search can be performed.

ところで、画像認識処理と画像特徴検索処理において共通の局所特徴を用いる事により、画像認識の対象が増えた場合でも既に抽出した局所特徴を用いる事により、登録済みの画像を再解析を行う事無く画像認識を行う事が可能となる。その結果得たメタデータを追加記憶する事が可能となる。   By the way, by using the same local features in the image recognition processing and the image feature search processing, even if the number of targets for image recognition increases, the already extracted local features can be used without reanalyzing the registered image. Image recognition can be performed. It is possible to additionally store the metadata obtained as a result.

これにより、画像認識対象が増えた場合に、過去に登録した画像を最初から解析する事無く、安価な処理コストで増えた画像認識対象を反映した画像検索用のDBを更新する事が可能となる。   As a result, when the number of image recognition targets increases, it is possible to update the image search DB reflecting the image recognition targets increased at a low processing cost without analyzing the images registered in the past from the beginning. Become.

[第1の実施形態]
先ず、本実施形態に係る画像処理装置のハードウェア構成例について、図1のブロック図を用いて説明する。なお、図1に示した構成はあくまでも一例であり、画像処理装置が行うものとして後述する各処理を実行可能な構成であれば、如何なる構成を採用しても良い。例えば、画像を撮像して本装置に入力するためのディジタルカメラを本装置に接続するようにしても良い。また、本装置で検索結果として得た情報を外部の機器に対して出力可能な構成を加えても良い。
[First Embodiment]
First, a hardware configuration example of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG. Note that the configuration illustrated in FIG. 1 is merely an example, and any configuration may be employed as long as each configuration described below can be performed by the image processing apparatus. For example, a digital camera for taking an image and inputting it to the apparatus may be connected to the apparatus. Moreover, you may add the structure which can output the information obtained as a search result with this apparatus with respect to an external apparatus.

CPU101は、RAM105やROM106に格納されているコンピュータプログラムやデータを用いて処理を実行することで、画像処理装置全体の動作制御を行うと共に、画像処理装置が行うものとして後述する各処理を実行する。   The CPU 101 executes processing using computer programs and data stored in the RAM 105 and ROM 106, thereby controlling the operation of the entire image processing apparatus and executing each process described later as what the image processing apparatus performs. .

入力装置102は、アルファベットキー、ひらがなキー、カタカナキー、句点等の文字記号入力キー、カーソル移動を指示するカーソル移動キー等のような、各種の機能キーを有するキーボードや、マウス、スティックポインタなどにより構成されている。ユーザはこの入力装置102を操作することで各種の指示をCPU101に対して入力することができる。   The input device 102 is a keyboard having various function keys such as alphabet keys, hiragana keys, katakana keys, character symbol input keys such as punctuation marks, cursor movement keys for instructing cursor movement, etc., a mouse, a stick pointer, etc. It is configured. The user can input various instructions to the CPU 101 by operating the input device 102.

出力装置103は、CRTや液晶画面等により構成されている表示装置であり、CPU101による処理結果を画像や文字などでもって表示することができる。   The output device 103 is a display device configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the CPU 101 using an image, text, or the like.

記憶装置104には、OS(オペレーティングシステム)や、後述するデータベース、画像処理装置が行うものとして後述する各処理をCPU101に実行させるためのコンピュータプログラムやデータが保存されている。また、既知の情報として後述する各情報も、この記憶装置104に保存されている。記憶装置104に保存されているコンピュータプログラムやデータは、CPU101による制御に従って適宜RAM105にロードされ、CPU101による処理対象となる。なお、この記憶装置104には、ハードディスク、CD-ROM、DVD-ROM、フラッシュメモリ等を用いることができる。   The storage device 104 stores an OS (Operating System), a database, which will be described later, and computer programs and data for causing the CPU 101 to execute each process which will be described later as performed by the image processing apparatus. Each information described later as known information is also stored in the storage device 104. Computer programs and data stored in the storage device 104 are appropriately loaded into the RAM 105 under the control of the CPU 101 and are processed by the CPU 101. The storage device 104 can be a hard disk, CD-ROM, DVD-ROM, flash memory, or the like.

RAM105は、記憶装置104からロードされたコンピュータプログラムやデータを一時的に記憶するためのエリア、CPU101が各種の処理を実行する際に用いるワークエリア、等を有する。即ち、RAM105は、各種のエリアを適宜提供することができる。ROM106には、画像処理装置の設定データやブートプログラムなどが格納されている。上記の各部はバス(BUS)107に接続されている。   The RAM 105 has an area for temporarily storing computer programs and data loaded from the storage device 104, a work area used when the CPU 101 executes various processes, and the like. That is, the RAM 105 can provide various areas as appropriate. The ROM 106 stores setting data and a boot program for the image processing apparatus. Each unit described above is connected to a bus (BUS) 107.

次に、本画像処理装置への画像登録処理と、登録した画像から目的の画像をクエリ画像に基づいて検索する画像検索処理と、について説明する。画像登録処理及び画像検索処理の為に使用する画像処理装置の機能の構成例について図2のブロック図を用いて説明する。   Next, an image registration process to the image processing apparatus and an image search process for searching for a target image from registered images based on a query image will be described. A configuration example of functions of an image processing apparatus used for image registration processing and image search processing will be described with reference to the block diagram of FIG.

画像特徴抽出・認識処理部202は、記憶装置104からロードされた、若しくは外部機器から入力された登録画像201から特徴点(局所特徴点)とその特徴量(局所特徴量)を抽出し、抽出した特徴量を用いて登録画像201に対する画像認識処理を行う。そして画像特徴抽出・認識処理部202は、この画像認識処理の結果をメタデータとして出力する。このメタデータには、登録画像201中における特徴点の座標位置と該特徴点における特徴量、登録画像201中で認識できたオブジェクトの属性を示す属性情報、画像認識尤度、該オブジェクトの領域を示す領域情報、が含まれている。画像特徴抽出・認識処理部202の詳細については、図3を用いて後述する。   The image feature extraction / recognition processing unit 202 extracts and extracts feature points (local feature points) and feature quantities (local feature quantities) from the registered image 201 loaded from the storage device 104 or input from an external device. An image recognition process is performed on the registered image 201 using the feature amount. Then, the image feature extraction / recognition processing unit 202 outputs the result of the image recognition processing as metadata. In this metadata, the coordinate position of the feature point in the registered image 201 and the feature amount at the feature point, the attribute information indicating the attribute of the object recognized in the registered image 201, the image recognition likelihood, the area of the object Area information to indicate. Details of the image feature extraction / recognition processing unit 202 will be described later with reference to FIG.

本実施形態では、局所特徴量を共通化する事により、局所特徴量の比較結果と画像認識の結果が大きく異ならないようにする。それぞれの結果が大きく異なってしまう例としては、局所特徴量が輝度情報から得られるもので、画像認識で色情報を用いると、これらをハイブリッドした場合にそれぞれでヒットする画像の見かけが大きく異なり不自然に結果となってしまう。   In the present embodiment, the local feature value is made common so that the comparison result of the local feature value and the result of the image recognition are not greatly different. An example in which the results differ greatly is that local feature amounts are obtained from luminance information. When color information is used in image recognition, the appearance of images that hit each other when they are hybridized differs greatly. Naturally results.

画像特徴・認識結果登録処理部203は、画像特徴抽出・認識処理部202が出力したメタデータを、このメタデータの生成元である登録画像201と関連付けてデータベース(DB)204に登録する。このように、画像処理装置200は、登録画像201が入力されるたびに、該登録画像201から上記のメタデータを生成し、該生成したメタデータを該登録画像201と関連付けてDB204に登録する、いわゆる画像登録処理を行う。   The image feature / recognition result registration processing unit 203 registers the metadata output by the image feature extraction / recognition processing unit 202 in the database (DB) 204 in association with the registered image 201 from which the metadata is generated. As described above, each time the registered image 201 is input, the image processing apparatus 200 generates the metadata described above from the registered image 201, and registers the generated metadata in the DB 204 in association with the registered image 201. A so-called image registration process is performed.

画像特徴抽出・認識処理部202’は、受け付ける画像が画像特徴抽出・認識処理部202と異なるだけで、画像特徴抽出・認識処理部202と同様の構成を有し且つ同様の動作を行うものである。画像特徴抽出・認識処理部202’は、記憶装置104からロードされた、若しくは外部機器から入力されたクエリ画像205から特徴点とその特徴量を抽出し、抽出した特徴量を用いて該クエリ画像205に対する画像認識処理を行う。そして画像特徴抽出・認識処理部202’は、この画像認識処理の結果をメタデータとして出力する。このメタデータには、クエリ画像205中における特徴点の座標位置と該特徴点における特徴量、クエリ画像205中で認識できたオブジェクトの属性を示す属性情報、画像認識尤度、該オブジェクトの領域を示す領域情報、が含まれている。画像特徴抽出・認識処理部202’の詳細については、図3を用いて後述する。   The image feature extraction / recognition processing unit 202 ′ has the same configuration as the image feature extraction / recognition processing unit 202 and performs the same operation except that the received image is different from the image feature extraction / recognition processing unit 202. is there. The image feature extraction / recognition processing unit 202 ′ extracts feature points and feature amounts from the query image 205 loaded from the storage device 104 or input from an external device, and uses the extracted feature amounts to extract the query image. An image recognition process for 205 is performed. Then, the image feature extraction / recognition processing unit 202 'outputs the result of the image recognition processing as metadata. The metadata includes the coordinate position of the feature point in the query image 205 and the feature amount at the feature point, the attribute information indicating the attribute of the object recognized in the query image 205, the image recognition likelihood, and the area of the object. Area information to indicate. Details of the image feature extraction / recognition processing unit 202 'will be described later with reference to FIG.

画像比較処理部206は、画像特徴抽出・認識処理部202’によってクエリ画像205から生成されたメタデータを用いてDB204から画像検索を行い、画像検索結果(検索処理結果)207を出力する。ここでいう検索は、局所特徴量同士を比較する検索ではなく、画像認識結果のメタデータが一致または類似するかどうか比較する検索である。画像比較処理部206の詳細については後述する。   The image comparison processing unit 206 performs an image search from the DB 204 using the metadata generated from the query image 205 by the image feature extraction / recognition processing unit 202 ′, and outputs an image search result (search processing result) 207. The search here is not a search for comparing local feature amounts but a search for comparing whether or not the metadata of the image recognition result is identical or similar. Details of the image comparison processing unit 206 will be described later.

DB204は、画像処理装置内に備えることに限るものではなく、画像処理装置がアクセス可能に該画像処理装置に直接的若しくは間接的に接続されていれば、その接続形態は特定の接続形態に限るものではない。   The DB 204 is not limited to be provided in the image processing apparatus. If the image processing apparatus is directly or indirectly connected to the image processing apparatus so as to be accessible, the connection form is limited to a specific connection form. It is not a thing.

なお、図2に示した各部はハードウェアで構成しても良いが、本実施形態では、DB204を除く各部(認識辞書305は除く)はコンピュータプログラムで実装し、DB204及び認識辞書305は記憶装置104で実装する。また、以下の説明では、図2の各部を動作の主体として説明するが、実際には、CPU101が対応する機能部のコンピュータプログラムを実行することで対応する動作が実行される。   2 may be configured by hardware. In the present embodiment, each unit (except for the recognition dictionary 305) except the DB 204 is implemented by a computer program, and the DB 204 and the recognition dictionary 305 are storage devices. This is implemented at 104. In the following description, each unit in FIG. 2 will be described as the subject of the operation, but actually, the corresponding operation is executed by the CPU 101 executing the computer program of the corresponding functional unit.

次に、画像特徴抽出・認識処理部202(202’)の機能構成例について、図3のブロック図を用いて説明する。   Next, a functional configuration example of the image feature extraction / recognition processing unit 202 (202 ') will be described with reference to the block diagram of FIG.

画像入力部302は、入力画像301(画像特徴抽出・認識処理部202の場合は登録画像201、画像特徴抽出・認識処理部202’の場合はクエリ画像205に相当する)を受けると、この入力画像301を特徴点/局所特徴量算出部303に転送する。   Upon receiving the input image 301 (corresponding to the registered image 201 in the case of the image feature extraction / recognition processing unit 202 and the query image 205 in the case of the image feature extraction / recognition processing unit 202 ′), the image input unit 302 receives this input. The image 301 is transferred to the feature point / local feature amount calculation unit 303.

特徴点/局所特徴量算出部303は、画像入力部302から転送された入力画像301から、特徴点とその特徴量を算出する。特徴点/局所特徴量算出部303の動作の詳細については後述する。   A feature point / local feature amount calculation unit 303 calculates a feature point and its feature amount from the input image 301 transferred from the image input unit 302. Details of the operation of the feature point / local feature amount calculation unit 303 will be described later.

画像認識処理部304は、認識辞書305を参照しながら、特徴点/局所特徴量算出部303が求めた特徴点とその特徴量を用いて、入力画像301に対する画像認識処理を行う。認識辞書305には複数の画像認識対象の情報が登録されている。そして画像認識処理部304は、画像認識処理の結果として上記のメタデータを局所特徴量及び画像認識結果306として出力する。   The image recognition processing unit 304 performs image recognition processing on the input image 301 using the feature points obtained by the feature point / local feature amount calculation unit 303 and the feature amounts with reference to the recognition dictionary 305. A plurality of pieces of image recognition target information are registered in the recognition dictionary 305. Then, the image recognition processing unit 304 outputs the above metadata as the local feature amount and the image recognition result 306 as a result of the image recognition process.

次に、特徴点/局所特徴量算出部303についてより詳細に説明する。従来技術として説明したように、画像の局所的な特徴量(局所特徴量)を用いたマッチングにより類似画像を検索する方法、画像特徴量検索が提案されている。   Next, the feature point / local feature quantity calculation unit 303 will be described in more detail. As described in the related art, a method of searching for a similar image by matching using a local feature amount (local feature amount) of an image and an image feature amount search have been proposed.

局所特徴量を利用する手法においては、局所特徴量を回転不変、拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大又は縮小させたりした場合であっても、検索を可能にする。   In the method using the local feature amount, the local feature amount is defined as information including a plurality of elements that are rotation invariant and enlargement / reduction invariant. Thereby, even when the image is rotated, enlarged or reduced, the search can be performed.

局所特徴量は一般的にベクトルとして表現される。ただし、局所特徴量が回転不変、拡大・縮小不変であることは理論上の話であり、実際のデジタル画像においては、線形補間をするので、画像の回転や拡大・縮小処理前の局所特徴量と処理後の対応する局所特徴量との間に若干の変動が生じる。   The local feature amount is generally expressed as a vector. However, it is a theoretical story that local features are invariant to rotation and enlargement / reduction, and in actual digital images, linear interpolation is performed, so local features before image rotation and enlargement / reduction processing are performed. And some corresponding local feature after processing.

回転不変の局所特徴量を算出するために、たとえば非特許文献2では、局所特徴点周辺の局所領域の画素パターンから主方向を算出し、局所特徴量算出時に主方向を基準に局所領域を回転させて方向の正規化を行う。   In order to calculate the rotation-invariant local feature amount, for example, in Non-Patent Document 2, the main direction is calculated from the pixel pattern of the local region around the local feature point, and the local region is rotated based on the main direction when calculating the local feature amount. To normalize the direction.

また、拡大・縮小不変の局所特徴量を算出するために、異なるスケールの画像を内部で生成し、各スケールの画像からそれぞれ局所特徴点の抽出と局所特徴量の算出を行う。ここで、内部で生成した一連の異なるスケールの画像集合は一般的にスケールスペースと呼ばれ、図5にその概要を示す。各特徴点の特徴量は、方向の正規化の際の回転角度および特徴量を算出したスケールスペースも記憶する。   Further, in order to calculate the local feature quantity that does not change in size, the image of different scales is generated internally, and local feature points are extracted from the images of the respective scales and the local feature quantities are calculated. Here, a series of image sets having different scales generated inside is generally called a scale space, and an outline thereof is shown in FIG. The feature amount of each feature point also stores a rotation angle and a scale space in which the feature amount is calculated when normalizing the direction.

次に、特徴点/局所特徴量算出部303が行う処理について、同処理のフローチャートを示す図4を用いて説明する。ステップS401では、画像入力部302から転送された入力画像301を受け取り、ステップS402では、この入力画像301の輝度画像を生成する。   Next, processing performed by the feature point / local feature amount calculation unit 303 will be described with reference to FIG. 4 showing a flowchart of the processing. In step S401, the input image 301 transferred from the image input unit 302 is received. In step S402, a luminance image of the input image 301 is generated.

ステップS403では、ステップS402で生成した輝度画像の縮小画像を生成し、ステップS404では、この縮小画像から特徴点を抽出し、ステップS405では、この特徴点における特徴量を抽出する。   In step S403, a reduced image of the luminance image generated in step S402 is generated. In step S404, feature points are extracted from the reduced image. In step S405, feature amounts at the feature points are extracted.

次に、画像比較処理部206の詳細について説明する。特徴点/局所特徴量の比較に基づく画像の照合方法にはいろいろあるが、ここでは以下の文献で説明がなされているRANSACを利用した方法を説明する。   Next, details of the image comparison processing unit 206 will be described. There are various image collation methods based on the feature point / local feature quantity comparison. Here, a method using RANSAC described in the following document will be described.

M. A. Fischler and R. C. Bolles, “Random sample consensus: A paradigm formodel fitting with applications to image analysis and automated cartography,” Commun. ACM, no.24, vol.6, pp.381−395, June 1981.
クエリ画像の各特徴点に対し、DB204が管理しているそれぞれの登録画像の特徴点で、特徴間距離が最小となるものをペアで記述する。次に、クエリ画像から3個の特徴点をランダムに選択し、それぞれの特徴間距離が最小となる登録画像の特徴点群との間で、その座標の対応からアフィン変換行列を求める。このアフィン変換行列を用い、クエリ画像の残りの特徴点の座標を登録画像の座標に変換し、その近傍に上記特徴間距離が最小となるペアの特徴点が存在するかを確認し、存在すれば1票投票し、存在しなければ投票しない。最終的に、この投票数が所定の値に達した場合には、クエリ画像と登録画像は部分一致する領域が存在すると判断し、その投票数が多いほど一致する領域が大きいと考える。
M.M. A. Fischler and R.M. C. Bolles, “Random sample consensus: A paradigm formatfitting with applications to imaging analysis,” Commun. ACM, no. 24, vol. 6, pp. 381-395, June 1981.
For each feature point of the query image, a feature point of each registered image managed by the DB 204 that has a minimum distance between features is described in pairs. Next, three feature points are randomly selected from the query image, and an affine transformation matrix is obtained from the correspondence of the coordinates with the feature point group of the registered image that minimizes the distance between the features. Using this affine transformation matrix, the coordinates of the remaining feature points of the query image are converted to the coordinates of the registered image, and it is confirmed whether there is a pair of feature points that minimize the distance between the features in the vicinity. If you don't exist, you won't vote. Finally, when the number of votes reaches a predetermined value, it is determined that there is a partially matching area between the query image and the registered image, and the larger the number of votes, the larger the matching area.

他方、投票数が所定の値に達しない場合には、新たにクエリ画像から3個の特徴点をランダムに選択し、アフィン変換行列を求める処理から再度処理を行うが、この再処理は定められた反復カウント数以内で繰り返す。もし、反復カウント数に達しても投票数が所定の値を超えなければ、部分一致する領域が存在しないと判断して比較の処理を終了する。そして、部分一致する領域が存在する場合、上記求めたアフィン変換行列と特徴間距離が最小となるもののペアを用い、クエリ画像中の着目した特徴点と対応する特徴点を求めることが出来る。   On the other hand, if the number of votes does not reach the predetermined value, three feature points are newly selected at random from the query image, and the processing is performed again from the processing for obtaining the affine transformation matrix. This reprocessing is determined. Repeat within the repeat count. If the number of votes does not exceed a predetermined value even when the repetition count is reached, it is determined that there is no partially matching area, and the comparison process is terminated. If there is a partially matching region, a feature point corresponding to the feature point of interest in the query image can be obtained using the pair of the affine transformation matrix obtained above and the one having the smallest feature distance.

更に、その特徴点を求める際の方向の正規化の際の回転角度からクエリ画像と登録画像の回転角度関係を求めることが出来る。また更に、その特徴点を求める際のスケールスペースを用いて、クエリ画像と登録画像の拡縮関係を知る事が出来る。   Furthermore, the rotation angle relationship between the query image and the registered image can be obtained from the rotation angle at the time of normalizing the direction when obtaining the feature point. Furthermore, it is possible to know the enlargement / reduction relationship between the query image and the registered image by using the scale space for obtaining the feature point.

また、上記の通り、非特許文献3には、一般物体認識技術として次の様な技術が記されている。ある認識対象カテゴリに属する画像群から特徴量を算出したものを学習データとする。その分布モデルを学習データを用いて最尤推定で推定し、未知のデータに対して分布モデルを利用して事後確立を計算する。そして、事後確率最大化(Maximum A Posteriori, MAP)推定によってどのカテゴリに属すかを決定し、これを認識結果とする。その他、様々なモデルや機械学習方式を組み合わせた方法が数多く存在し、本実施形態で用いる画像認識処理は、局所特徴量を用いて行うものであればその機械学習方法を問わない。   As described above, Non-Patent Document 3 describes the following technique as a general object recognition technique. A feature amount calculated from a group of images belonging to a certain recognition target category is used as learning data. The distribution model is estimated by maximum likelihood estimation using learning data, and the posterior probability is calculated for unknown data using the distribution model. Then, it is determined which category it belongs to by posterior probability maximization (Maximum A Posteriori, MAP) estimation, and this is used as a recognition result. In addition, there are many methods combining various models and machine learning methods, and the image recognition processing used in the present embodiment is not limited to any machine learning method as long as it is performed using local feature amounts.

次に、画像処理装置200が行う画像登録処理について、同処理のフローチャートを示す図6を用いて説明する。ステップS601では、画像入力部302は、記憶装置104からロードされた、若しくは外部機器から入力された登録画像201を取得する。ステップS602では、特徴点/局所特徴量算出部303は、ステップS601で取得した登録画像201から特徴点とその特徴量を抽出する。   Next, image registration processing performed by the image processing apparatus 200 will be described with reference to FIG. 6 showing a flowchart of the processing. In step S601, the image input unit 302 acquires a registered image 201 loaded from the storage device 104 or input from an external device. In step S602, the feature point / local feature amount calculation unit 303 extracts the feature point and its feature amount from the registered image 201 acquired in step S601.

ステップS603では、画像認識処理部304は、ステップS602で抽出した特徴量を用いて、登録画像201に対する画像認識処理を行う。画像認識処理には機械学習済みの検出器を用いる。画像認識対象が複数種ある場合には、それに合わせて検出器も複数種用意しておく必要がある。   In step S603, the image recognition processing unit 304 performs image recognition processing on the registered image 201 using the feature amount extracted in step S602. A machine-learned detector is used for the image recognition processing. When there are a plurality of types of image recognition targets, it is necessary to prepare a plurality of types of detectors accordingly.

各検出器については、事前に正解画像として認識したいカテゴリの様々なアピアランスの画像を用意し、また非正解画像としてカテゴリ外の画像を用意し、機械学習を行う。SIFTの様な回転/拡縮不変の局所特徴量を用いる事により、回転、拡大や縮小した認識対象のオブジェクトの有る画像を認識する事が可能である。   For each detector, images of various appearances in a category to be recognized as a correct image are prepared in advance, and images outside the category are prepared as non-correct images, and machine learning is performed. By using rotation / scaling-invariant local feature quantities such as SIFT, it is possible to recognize an image having a recognition target object that has been rotated, enlarged, or reduced.

更に、その画像中のどこにオブジェクトが存在するかに関しては、オブジェクトが存在すると判断した画像に対し、マスク領域を設定して画像内をスキャンさせ、マスクサイズを小さくしていって検出器に入力し、その認識尤度を求める。そして、認識尤度が予め定めた閾値よりも高くなったマスク領域に、認識対象となるオブジェクトが存在すると推定する。   Furthermore, with regard to where the object exists in the image, the mask area is set for the image determined to be present, the inside of the image is scanned, the mask size is reduced, and the image is input to the detector. Then, the recognition likelihood is obtained. And it is estimated that the object used as recognition object exists in the mask area | region where the recognition likelihood became higher than the predetermined threshold value.

そしてステップS604では、画像特徴・認識結果登録処理部203は、ステップS603で行った画像認識処理の結果をメタデータとして、登録画像201と関連付けてDB204に登録する。   In step S604, the image feature / recognition result registration processing unit 203 registers the result of the image recognition process performed in step S603 as metadata in the DB 204 in association with the registered image 201.

上記の画像登録処理によってDB204に登録された情報について、即ち、DB204内のインデックススキーマについて、図7を用いて説明する。図7(a)は、画像管理インデックスの構成例を示しており、これは登録画像ごとにDB204に登録されているものである。   Information registered in the DB 204 by the above image registration process, that is, the index schema in the DB 204 will be described with reference to FIG. FIG. 7A shows a configuration example of an image management index, which is registered in the DB 204 for each registered image.

「画像ID」のフィールドには、登録画像201に固有のIDが登録され、このIDは例えば登録画像201に固有の整数値である。後述する検索の結果は、画像IDと類似度とのセットで表される。   In the “image ID” field, an ID unique to the registered image 201 is registered, and this ID is, for example, an integer value unique to the registered image 201. A search result to be described later is represented by a set of an image ID and a similarity.

「画像データファイル名」のフィールドには、登録画像201が登録されている登録先(例えばDB204)における該登録画像201のパス名が登録される。もちろん、登録画像201の登録先はDB204に限るものではなく、他の装置であっても良い。   In the “image data file name” field, the path name of the registered image 201 in the registration destination (for example, DB 204) where the registered image 201 is registered is registered. Of course, the registration destination of the registered image 201 is not limited to the DB 204, and may be another device.

「認識結果」のフィールドには、登録画像201に対する画像認識処理により認識された各オブジェクトのID(認識ID)が登録される。認識IDは、図7(b)に示す認識結果管理インデックスへのリンク情報でもある。「認識結果」のフィールドは、即ち可変長のフィールドになる。   In the “recognition result” field, the ID (recognition ID) of each object recognized by the image recognition processing for the registered image 201 is registered. The recognition ID is also link information to the recognition result management index shown in FIG. The “recognition result” field is a variable-length field.

「画像特徴量」のフィールドには、登録画像201から抽出された特徴量のID(画像特徴ID)が登録される。画像特徴IDは、図7(c)に示す画像特徴インデックスへのリンク情報でもある。「画像特徴量」のフィールドは、即ち可変長のフィールドに成る。   In the “image feature amount” field, the feature amount ID (image feature ID) extracted from the registered image 201 is registered. The image feature ID is also link information to the image feature index shown in FIG. The “image feature amount” field is a variable-length field.

次に、認識結果管理インデックスの構成例について、図7(b)を用いて説明する。認識結果管理インデックスは、認識されたオブジェクトごとにDB204に登録されるものである。   Next, a configuration example of the recognition result management index will be described with reference to FIG. The recognition result management index is registered in the DB 204 for each recognized object.

「認識ID」のフィールドには、登録画像201から認識されたオブジェクトに固有のIDが登録され、このIDは例えば、このオブジェクトに固有の整数値である。   In the “recognition ID” field, an ID unique to the object recognized from the registered image 201 is registered, and this ID is, for example, an integer value unique to this object.

「認識属性」のフィールドには、登録画像201から認識されたオブジェクトの属性を示す属性値が登録される。図7では、オブジェクトの属性が「人体」であれば属性値は「1」、オブジェクトの属性が「車」であれば属性値は「2」となっている。属性の種類や数はこれに限るものではなく、属性がN種類あれば、属性値は1〜Nの範囲を取る。   In the “recognition attribute” field, an attribute value indicating the attribute of the object recognized from the registered image 201 is registered. In FIG. 7, if the attribute of the object is “human body”, the attribute value is “1”, and if the attribute of the object is “car”, the attribute value is “2”. The type and number of attributes are not limited to this. If there are N types of attributes, the attribute values range from 1 to N.

「認識尤度」のフィールドには、登録画像201から認識されたオブジェクトの認識尤度が登録され、例えば0〜100(%)の範囲の数値で表される。もちろん、認識尤度の表現方法はこれに限るものではない。   In the “recognition likelihood” field, the recognition likelihood of the object recognized from the registered image 201 is registered, and is represented by a numerical value in the range of 0 to 100 (%), for example. Of course, the method of expressing the recognition likelihood is not limited to this.

「認識領域」のフィールドには、ステップS603で行った画像認識処理で求めた認識尤度が予め定めた閾値よりも高くなったマスク領域(=認識領域)を示す領域情報が登録されている。ここではマスク領域の左上隅の頂点及び右下隅の頂点のそれぞれの座標位置が登録されている。もちろん、領域情報の表現方法はこれに限るものではない。   In the “recognition area” field, area information indicating a mask area (= recognition area) in which the recognition likelihood obtained by the image recognition processing performed in step S603 is higher than a predetermined threshold is registered. Here, the respective coordinate positions of the upper left corner vertex and the lower right corner vertex of the mask area are registered. Of course, the method of expressing the region information is not limited to this.

「認識領域中の画像特徴量」のフィールドには、「認識領域」のフィールドで定義している領域情報が示す領域(認識領域)内のそれぞれの特徴点の特徴量の画像特徴IDが登録されている。「認識領域中の画像特徴量」のフィールドに登録されている情報は第1の実施形態では用いず、第2の実施形態で用いるので、このフィールドに登録されている情報については第2の実施形態で詳しく説明する。   In the “image feature quantity in the recognition area” field, the image feature ID of the feature quantity of each feature point in the area (recognition area) indicated by the area information defined in the “recognition area” field is registered. ing. The information registered in the “image feature amount in the recognition area” field is not used in the first embodiment, but is used in the second embodiment. Therefore, the information registered in this field is the second embodiment. This will be described in detail in the form.

次に、画像特徴インデックスの構成例について、図7(c)を用いて説明する。画像特徴インデックスは、特徴点の特徴量ごとにDB204に登録されるもので、1つの特徴点に対する特徴量を1レコードで記憶する。   Next, a configuration example of the image feature index will be described with reference to FIG. The image feature index is registered in the DB 204 for each feature amount of the feature point, and stores the feature amount for one feature point in one record.

「画像特徴ID」のフィールドには、特徴量に固有のIDが登録される。「画像ID」のフィールドには、該特徴量が抽出された登録画像の画像IDが登録される。「特徴点座標」のフィールドには、登録画像上における該特徴点の座標位置が登録される。「局所特徴量」のフィールドには、ベクトル表現で表現される特徴量が登録される。   In the “image feature ID” field, an ID unique to the feature amount is registered. In the “image ID” field, the image ID of the registered image from which the feature amount is extracted is registered. In the “feature point coordinates” field, the coordinate position of the feature point on the registered image is registered. In the “local feature value” field, a feature value expressed in vector representation is registered.

ここで、図8(a)〜(c)のそれぞれに示す登録画像(登録画像1〜3)を対象にして画像特徴抽出・認識処理部202及び画像特徴・認識結果登録処理部203を動作させた場合に、DB204に登録される各インデックスを図9(a)〜(c)に示す。   Here, the image feature extraction / recognition processing unit 202 and the image feature / recognition result registration processing unit 203 are operated for registered images (registered images 1 to 3) shown in FIGS. 8A to 8C, respectively. In this case, each index registered in the DB 204 is shown in FIGS.

図8(a)に示した登録画像1(画像ID=1の登録画像)には、車のオブジェクト801〜803と、バイクのオブジェクト804が含まれている。ここで、本実施形態では、画像認識において、様々な種類の画像を学習し、これら3つの車の画像が認識されるものとし、バイクは画像認識対象とせず、認識されないものとする。図8(b)、(c)のそれぞれに示した登録画像2,3(それぞれ画像ID=2,3の登録画像)には、車のオブジェクト805,人のオブジェクト806が含まれている。   The registered image 1 (registered image with image ID = 1) shown in FIG. 8A includes car objects 801 to 803 and a motorcycle object 804. Here, in this embodiment, it is assumed that various types of images are learned in image recognition, and images of these three cars are recognized, and a motorcycle is not recognized as an image recognition target. The registered images 2 and 3 (registered images with image ID = 2 and 3 respectively) shown in FIGS. 8B and 8C include a car object 805 and a human object 806, respectively.

このとき、図9(a)に示す如く、DB204に登録される画像管理インデックスにおいて、「画像ID」のフィールドには、それぞれの登録画像の画像ID(1〜3)が登録されている。   At this time, as shown in FIG. 9A, in the image management index registered in the DB 204, the image IDs (1 to 3) of the respective registered images are registered in the “image ID” field.

画像ID=1が登録されている行(レコード)における「画像データファイル名」のフィールドには、画像ID=1の登録画像のパス名が登録されている。また、同行の「認識結果」のフィールドには、オブジェクト801〜803のそれぞれのID(認識ID)が登録されており、同行の「画像特徴量」のフィールドには、画像ID=1の登録画像から抽出された特徴量のIDが登録されている。なお、上記の取り、オブジェクト804については画像認識は行われないが、その特徴量のIDは「画像特徴量」のフィールドに登録されている。図9では、登録画像1から抽出した全特徴点に対する局所特徴量が800個検出されたとしているため、画像特徴IDを1〜800の間で付与する。   In the “image data file name” field in the row (record) in which image ID = 1 is registered, the path name of the registered image with image ID = 1 is registered. The IDs (recognition IDs) of the objects 801 to 803 are registered in the “recognition result” field in the same row, and the registered image with the image ID = 1 in the “image feature amount” field in the same row. The ID of the feature amount extracted from is registered. In addition, although the image recognition is not performed for the object 804, the feature amount ID is registered in the “image feature amount” field. In FIG. 9, since 800 local feature amounts for all feature points extracted from the registered image 1 are detected, an image feature ID is assigned between 1 and 800.

画像ID=2が登録されている行における「画像データファイル名」のフィールドには、画像ID=2の登録画像のパス名が登録されている。また、同行の「認識結果」のフィールドには、オブジェクト805のID(認識ID)が登録されており、同行の「画像特徴量」のフィールドには、画像ID=2の登録画像から抽出された特徴量のIDが登録されている。図9では、登録画像2から抽出した全特徴点に対する局所特徴量が200個検出されたとしているため、画像特徴IDを801〜1000の間で付与する。   In the “image data file name” field in the row where the image ID = 2 is registered, the path name of the registered image with the image ID = 2 is registered. The ID (recognition ID) of the object 805 is registered in the “recognition result” field in the same row, and the “image feature amount” field in the same row is extracted from the registered image with the image ID = 2. The feature amount ID is registered. In FIG. 9, since 200 local feature amounts for all feature points extracted from the registered image 2 are detected, image feature IDs are assigned between 801 and 1000.

画像ID=3が登録されている行における「画像データファイル名」のフィールドには、画像ID=3の登録画像のパス名が登録されている。また、同行の「認識結果」のフィールドには、オブジェクト806のID(認識ID)が登録されており、同行の「画像特徴量」のフィールドには、画像ID=3の登録画像から抽出された特徴量のIDが登録されている。図9では、登録画像3から抽出した全特徴点に対する局所特徴量が200個検出されたとしているため、画像特徴IDを1001〜1200の間で付与する。   In the “image data file name” field in the row where the image ID = 3 is registered, the path name of the registered image with the image ID = 3 is registered. The ID (recognition ID) of the object 806 is registered in the “recognition result” field in the same row, and the “image feature amount” field in the same row is extracted from the registered image with the image ID = 3. The feature amount ID is registered. In FIG. 9, since 200 local feature amounts for all feature points extracted from the registered image 3 are detected, an image feature ID is assigned between 1001 and 1200.

また、図9(b)に示す如く、DB204に登録される認識結果管理インデックスにおいて、「認識ID」のフィールドには、オブジェクト801〜803、805〜806のそれぞれのID、即ち、1〜5が登録されている。図9(b)に示す如く、登録画像1から認識した結果が認識ID=1〜3のレコードに登録されており、登録画像2から認識した結果が認識ID=4のレコードに登録されており、登録画像3から認識した結果が認識ID=5のレコードに登録されている。   Further, as shown in FIG. 9B, in the recognition result management index registered in the DB 204, the IDs of the objects 801 to 803 and 805 to 806, ie, 1 to 5, are stored in the “recognition ID” field. It is registered. As shown in FIG. 9B, the result recognized from the registered image 1 is registered in the record of recognition ID = 1 to 3, and the result recognized from the registered image 2 is registered in the record of recognition ID = 4. The result recognized from the registered image 3 is registered in the record with recognition ID = 5.

認識ID=1が登録されている行における「認識属性」のフィールドには、認識ID=1のオブジェクト、即ち車のオブジェクト801の属性を示す属性値が登録されている。また、同行の「画像ID」のフィールドには、このオブジェクト801の認識元である登録画像1のIDが登録されており、同行の「認識尤度」のフィールドには、登録画像1からオブジェクト801を画像認識した際の認識尤度が登録されている。また、同行の「認識領域」のフィールドには、オブジェクト801について画像認識処理で求めた認識尤度が予め定めた閾値よりも高くなったマスク領域を示す領域情報が登録されている。また、同行の「認識領域中の画像特徴量」のフィールドには、オブジェクト801について画像認識処理で求めた認識尤度が予め定めた閾値よりも高くなったマスク領域内のそれぞれの特徴点の特徴量の画像特徴IDが登録されている。認識ID=2〜5のそれぞれのレコードも同様の構成を有している。   In the “recognition attribute” field in the row where the recognition ID = 1 is registered, an attribute value indicating the attribute of the object with the recognition ID = 1, that is, the car object 801 is registered. The ID of the registered image 1 that is the recognition source of the object 801 is registered in the “image ID” field of the same row, and the registered image 1 to the object 801 are registered in the “recognition likelihood” field of the same row. The recognition likelihood when the image is recognized is registered. In the “recognition region” field in the same row, region information indicating a mask region in which the recognition likelihood obtained by the image recognition process for the object 801 is higher than a predetermined threshold is registered. In the “image feature value in the recognition area” field of the same line, the feature of each feature point in the mask area in which the recognition likelihood obtained by the image recognition process for the object 801 is higher than a predetermined threshold value. A number of image feature IDs are registered. Each record of recognition ID = 2-5 has the same configuration.

今回、車を学習するに当たり、ピックアップトラックの画像を学習に多めに用いたので、ピックアップトラックのオブジェクト802に対する認識尤度が最も高く90%となっている。また、スポーツカーのオブジェクト801に対する認識尤度は85%、バスのオブジェクト803に対する認識尤度は80%となっている。他方、スポーツカーのオブジェクト805に対する認識尤度は87%、人体のオブジェクト806に対する認識尤度は90%の尤度となっている。   In this time, when learning the car, the image of the pickup truck was used a lot for learning, so that the recognition likelihood for the object 802 of the pickup truck is the highest and is 90%. The recognition likelihood for the sports car object 801 is 85%, and the recognition likelihood for the bus object 803 is 80%. On the other hand, the recognition likelihood for the sports car object 805 is 87%, and the recognition likelihood for the human object 806 is 90%.

認識領域に関しては、各認識IDに対応するオブジェクト801〜803、オブジェクト805〜806のそれぞれについて、登録画像1〜3のうち該当する画像中の位置を記憶する。   Regarding the recognition area, the position in the corresponding image among the registered images 1 to 3 is stored for each of the objects 801 to 803 and the objects 805 to 806 corresponding to each recognition ID.

また、図9(c)に示す如く、画像特徴ID=1〜1200のそれぞれに対し、画像特徴インデックスが生成される。画像特徴ID=1が登録されている行における「画像ID」のフィールドには、画像特徴ID=1の特徴量の抽出元である登録画像のIDが登録されている。同行の「特徴点座標」のフィールドには、画像特徴ID=1の特徴点の登録画像1上の座標位置が登録されている。同行の「局所特徴量」のフィールドには、画像特徴ID=1に対応する特徴量のベクトルが登録されている。画像特徴ID=2〜1200のそれぞれのレコードも同様の構成を有している。   Further, as shown in FIG. 9C, an image feature index is generated for each of image feature IDs = 1 to 1200. In the “image ID” field in the row in which the image feature ID = 1 is registered, the ID of the registered image from which the feature amount of the image feature ID = 1 is registered. The coordinate position on the registered image 1 of the feature point of image feature ID = 1 is registered in the “feature point coordinate” field in the same row. In the “local feature value” field in the same row, a feature value vector corresponding to the image feature ID = 1 is registered. Each record of image feature ID = 2 to 1200 has the same configuration.

ところで、「認識領域中の画像特徴量」のフィールドに関しては上記の通り、第2の実施形態で使用するものであるが、上記認識領域中に含まれる特徴点を画像特徴ID群で記憶する。   By the way, as described above, the “image feature value in the recognition area” field is used in the second embodiment, but the feature points included in the recognition area are stored as an image feature ID group.

次に、図8(d)に示したクエリ画像に類似する画像をDB204から検索する画像検索処理について、同処理のフローチャートを示す図10を用いて説明する。なお、この処理を拡張すれば、入力されたクエリ画像中のオブジェクト毎に、該オブジェクトをクエリとして類似するオブジェクトを含む画像を検索することもできる。   Next, image search processing for searching for an image similar to the query image shown in FIG. 8D from the DB 204 will be described with reference to FIG. 10 showing a flowchart of the processing. If this process is expanded, for each object in the input query image, an image including a similar object can be searched using the object as a query.

ステップS1001では、画像入力部302は、記憶装置104からロードされた、若しくは外部機器から入力された図8(d)のクエリ画像を取得し、特徴点/局所特徴量算出部303に転送する。なお、画像入力部302は、取得したクエリ画像を出力装置103の画面に表示させた後、ユーザが入力装置102を用いて指定したオブジェクト領域内の画像を、改めてクエリ画像として特徴点/局所特徴量算出部303に転送するようにしても良い。   In step S <b> 1001, the image input unit 302 acquires the query image of FIG. 8D loaded from the storage device 104 or input from an external device, and transfers the acquired query image to the feature point / local feature amount calculation unit 303. The image input unit 302 displays the acquired query image on the screen of the output device 103, and then uses the image in the object area designated by the user using the input device 102 as a feature image / local feature again as a query image. You may make it transfer to the quantity calculation part 303. FIG.

ステップS1002では、特徴点/局所特徴量算出部303は、ステップS1001で取得したクエリ画像から特徴点とその特徴量を抽出する。ステップS1003では、画像認識処理部304は、ステップS1002で抽出した特徴量を用いて、クエリ画像に対する画像認識処理を行う。   In step S1002, the feature point / local feature amount calculation unit 303 extracts the feature point and the feature amount from the query image acquired in step S1001. In step S1003, the image recognition processing unit 304 performs image recognition processing on the query image using the feature amount extracted in step S1002.

ステップS1004では、画像認識処理部304は、クエリ画像中のオブジェクトに対する画像認識処理が成功したか否か(例えば属性が特定可能なオブジェクトが1以上あったか否か)を判断する。この判断の結果、画像認識が成功したオブジェクトがあった場合には、処理はステップS1005に進み、無かった場合には、処理はステップS1006に進む。   In step S1004, the image recognition processing unit 304 determines whether or not the image recognition processing for the object in the query image has succeeded (for example, whether or not there are one or more objects whose attributes can be specified). As a result of the determination, if there is an object for which image recognition has succeeded, the process proceeds to step S1005. If not, the process proceeds to step S1006.

ステップS1005では、画像比較処理部206は先ず、ステップS1003における画像認識処理で求めたオブジェクトの属性値と同じ属性値が登録されたレコードを、DB204内の認識結果管理インデックスから特定する。ここでは図8(d)に示す車が写っている画像をクエリ画像としている。そのため、この車が画像認識されてその結果、オブジェクトの属性値は「2」であるため、この場合、認識結果管理インデックスからは、属性値「2」が登録されているレコード、即ち、認識ID=1〜4のレコードが特定される。ここで、認識ID=1〜3は何れも登録画像1に対するものであるため、認識ID=1〜3のレコードに登録されている認識尤度のうち、最も大きい認識尤度を、登録画像1に対する認識尤度とする。従って、ここでは、クエリ画像に対する類似度が90%の検索結果画像が登録画像1、クエリ画像に対する類似度が87%である検索結果画像が登録画像2、として、検索結果を得る。   In step S1005, the image comparison processing unit 206 first identifies, from the recognition result management index in the DB 204, a record in which the same attribute value as the object attribute value obtained in the image recognition process in step S1003 is registered. Here, an image showing a car shown in FIG. 8D is used as a query image. For this reason, the image of this vehicle is recognized and, as a result, the attribute value of the object is “2”. In this case, from the recognition result management index, the record in which the attribute value “2” is registered, that is, the recognition ID = 1 to 4 records are specified. Here, since the recognition IDs = 1 to 3 are for the registered image 1, the largest recognition likelihood among the recognition likelihoods registered in the records with the recognition ID = 1 to 3 is set as the registered image 1. The recognition likelihood for. Therefore, here, the search result image is obtained assuming that the search result image having a similarity degree of 90% to the query image is the registered image 1 and the search result image having the similarity degree of 87% to the query image is the registered image 2.

そして画像比較処理部206は、認識尤度の高い順、即ち、登録画像1、登録画像2、の順番で画像IDと類似度と、を出力する。この場合(画像ID、類似度)=(1,90)、(2,87)の順に出力する。なお、認識尤度が0から100%で表されない場合には、0から100%に成る様に換算して類似度とする。これにより、画像特徴の比較処理無く高速に検索可能である。   The image comparison processing unit 206 outputs the image ID and the similarity in the order of the recognition likelihood, that is, the registered image 1 and the registered image 2 in this order. In this case (image ID, similarity) = (1,90), (2,87) are output in this order. If the recognition likelihood is not represented by 0 to 100%, the similarity is converted to be 0 to 100%. Thereby, it is possible to search at high speed without image feature comparison processing.

一方、クエリ画像として図8(e)の画像を用いた場合、ステップS1004では、画像認識処理部304は、クエリ画像中のオブジェクトに対する画像認識処理が成功していないと判断し、処理はステップS1006に進む。   On the other hand, when the image of FIG. 8E is used as the query image, in step S1004, the image recognition processing unit 304 determines that the image recognition processing for the object in the query image is not successful, and the processing is step S1006. Proceed to

ステップS1006では、画像比較処理部206は、図9(a)の画像管理インデックスに登録されている各画像IDのレコードを順次参照する。そして画像比較処理部206は、該参照したレコード中の各画像特徴IDの画像特徴インデックス中の「局所特徴量」のフィールドに登録されているベクトルと、クエリ画像から求めた特徴量と、を用いて上記のRANSACを用いたマッチングを行う。そして、クエリ画像から求めた特徴量と類似する順に、画像IDとその類似度と、を検索結果として出力する。   In step S1006, the image comparison processing unit 206 sequentially refers to the record of each image ID registered in the image management index in FIG. The image comparison processing unit 206 uses the vector registered in the “local feature amount” field in the image feature index of each image feature ID in the referenced record and the feature amount obtained from the query image. To perform matching using the above RANSAC. Then, the image IDs and their similarities are output as search results in the order similar to the feature values obtained from the query images.

このような処理により、特徴量を用いた画像検索のオブジェクトを選ばない性質と、画像認識の対象オブジェクトを選ぶが誤った検出が比較的少ないという性質を組み合わせる事ができた。その効果として、画像認識可能なオブジェクトがクエリ画像の場合には、極めて高速かつ、ノイズの少ない良好な検索結果をもたらすことができた。   By such processing, it was possible to combine the property of not selecting an object for image search using feature amounts and the property of selecting a target object for image recognition but relatively few erroneous detections. As an effect, when the image recognizable object is a query image, a good search result with extremely high speed and low noise can be obtained.

[第2の実施形態]
第1の実施形態では、クエリ画像が認識可能な場合には、上記のような処理を行うことで、高速に類似画像検索が可能である。しかし、第1の実施形態によれば、最も類似度が高いオブジェクトは画像認識尤度が最も高い、登録画像1中のオブジェクト802となる。これは、クエリ画像にアピアランスが似ているは登録画像2中のオブジェクト805と思う多くのユーザの期待とは異なる結果である。本実施形態では、このような課題を解決するものである。
[Second Embodiment]
In the first embodiment, when the query image can be recognized, the similar image search can be performed at high speed by performing the above-described processing. However, according to the first embodiment, the object having the highest similarity is the object 802 in the registered image 1 having the highest image recognition likelihood. This is a result different from the expectation of many users who think that the appearance of the query image is similar to the object 805 in the registered image 2. In the present embodiment, such a problem is solved.

本実施形態は、画像登録処理は第1の実施形態と同様であるが、画像検索処理において以下の点が第1の実施形態と異なる。以下に、第1の実施形態との差分のみについて説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態に係る画像検索処理について、同処理のフローチャートを示す図11を用いて説明する。   In the present embodiment, the image registration process is the same as that of the first embodiment, but the following points are different from the first embodiment in the image search process. Only the differences from the first embodiment will be described below, and unless otherwise noted, the same as the first embodiment. The image search process according to this embodiment will be described with reference to FIG. 11 showing a flowchart of the process.

ステップS1101では、画像入力部302は、記憶装置104からロードされた、若しくは外部機器から入力された図8(d)のクエリ画像を取得し、特徴点/局所特徴量算出部303に転送する。なお、画像入力部302は、取得したクエリ画像を出力装置103の画面に表示させた後、ユーザが入力装置102を用いて指定したオブジェクト領域内の画像を、改めてクエリ画像として特徴点/局所特徴量算出部303に転送するようにしても良い。   In step S1101, the image input unit 302 acquires the query image of FIG. 8D loaded from the storage device 104 or input from an external device, and transfers the query image to the feature point / local feature amount calculation unit 303. The image input unit 302 displays the acquired query image on the screen of the output device 103, and then uses the image in the object area designated by the user using the input device 102 as a feature image / local feature again as a query image. You may make it transfer to the quantity calculation part 303. FIG.

ステップS1102では、特徴点/局所特徴量算出部303は、ステップS1101で取得したクエリ画像から特徴点とその特徴量を抽出する。ステップS1103では、画像認識処理部304は、ステップS1102で抽出した特徴量を用いて、クエリ画像に対する画像認識処理を行う。   In step S1102, the feature point / local feature amount calculation unit 303 extracts the feature point and the feature amount from the query image acquired in step S1101. In step S1103, the image recognition processing unit 304 performs image recognition processing on the query image using the feature amount extracted in step S1102.

ステップS1104では、画像認識処理部304は、クエリ画像中のオブジェクトに対する画像認識処理が成功したか否か(例えば属性が特定可能なオブジェクトがあったか否か)を判断する。この判断の結果、画像認識が成功したオブジェクトがあった場合には、処理はステップS1105に進み、無かった場合には、処理はステップS1107に進む。   In step S1104, the image recognition processing unit 304 determines whether or not the image recognition processing for the object in the query image has succeeded (for example, whether or not there is an object whose attribute can be specified). As a result of the determination, if there is an object for which image recognition has succeeded, the process proceeds to step S1105, and if there is no object, the process proceeds to step S1107.

ステップS1105では画像比較処理部206は上記のステップS1005と同様にして、ステップS1103における画像認識処理で求めたオブジェクトの属性値と同じ属性値が登録されたレコードを、DB204内の認識結果管理インデックスから特定する。ここでは図8(d)に示す車が写っている画像をクエリ画像としている。そのため、この車が画像認識されてその結果、オブジェクトの属性値は「2」であるため、この場合、認識結果管理インデックスからは、属性値「2」が登録されているレコード、即ち、認識ID=1〜4のレコードが特定される。なお、認識ID=1〜4のレコードのうち、認識尤度が閾値以上のレコードのみを以降の対象としても良い。   In step S1105, as in step S1005, the image comparison processing unit 206 records a record in which the same attribute value as the object attribute value obtained in the image recognition process in step S1103 is registered from the recognition result management index in the DB 204. Identify. Here, an image showing a car shown in FIG. 8D is used as a query image. For this reason, the image of this vehicle is recognized and, as a result, the attribute value of the object is “2”. In this case, from the recognition result management index, the record in which the attribute value “2” is registered, that is, the recognition ID = 1 to 4 records are specified. In addition, it is good also considering only the record whose recognition likelihood is more than a threshold value among the records of recognition ID = 1-4 as a subsequent object.

ステップS1106で画像比較処理部206は、ステップS1105で特定した各レコードについて、次のような処理を行う。即ち、該レコード中の画像特徴IDに対応する画像特徴インデックス内の特徴量と、該レコード内の「認識領域」のフィールドで定義されている領域に対応するクエリ画像内の領域中の特徴量と、のマッチングを行って類似度を求める。これにより、局所特徴量を比較する画像およびその領域を絞り込む事が出来、比較処理のコストを大幅に低減可能である。マッチングに関しては、上記のRANSAC法を用いる事が可能である。   In step S1106, the image comparison processing unit 206 performs the following processing for each record specified in step S1105. That is, the feature amount in the image feature index corresponding to the image feature ID in the record, and the feature amount in the region in the query image corresponding to the region defined in the “recognition region” field in the record, The degree of similarity is obtained by performing matching. As a result, it is possible to narrow down the image and its region to be compared with the local feature amount, and the cost of the comparison process can be greatly reduced. As for matching, the above RANSAC method can be used.

或いは、マッチングに関しては多次元の、SIFTで言えば128次元の局所特徴量をクラスタリングし、各クラスに属す特徴点個数のヒストグラムを作成し、ヒストグラムの正規化相関か或いはインターセクションを用いる事で、類似度の算出が可能である。   Or, for matching, multi-dimensional, or clustering 128-dimensional local features in SIFT, create a histogram of the number of feature points belonging to each class, and use normalized histogram correlation or intersection. The similarity can be calculated.

そして画像比較処理部206は、第1の実施形態と同様にして、より高い類似度を求めたレコード順に、該レコード内の画像IDと、この類似度と、を検索結果として出力する。   Then, as in the first embodiment, the image comparison processing unit 206 outputs the image IDs in the records and the similarities as search results in the order of the records for which higher similarities are obtained.

このように、登録画像とクエリ画像の認識領域中の局所特徴量を比較する事により、認識尤度だけでは解決できなかったクエリとの類似性を反映しつつ、認識結果を絞り込みに使用した効率の良い検索処理を行う事が可能になる。   In this way, by comparing the local features in the recognition area of the registered image and the query image, the efficiency used to narrow down the recognition results while reflecting the similarity with the query that could not be solved only by the recognition likelihood. It is possible to perform a good search process.

一方、クエリ画像として図8(e)の画像を用いた場合、ステップS1004では、画像認識処理部304は、クエリ画像中のオブジェクトに対する画像認識処理が成功していないと判断し、処理はステップS1107に進む。   On the other hand, when the image of FIG. 8E is used as the query image, in step S1004, the image recognition processing unit 304 determines that the image recognition processing for the object in the query image is not successful, and the processing is step S1107. Proceed to

ステップS1107では、画像比較処理部206は、図9(a)の画像管理インデックスに登録されている各画像IDのレコードを順次参照する。そして画像比較処理部206は、該参照したレコード中の各画像特徴IDの画像特徴インデックス中の「局所特徴量」のフィールドに登録されているベクトルと、クエリ画像から求めた特徴量と、を用いて上記のRANSACを用いたマッチングを行う。そして、クエリ画像から求めた特徴量と類似する順に、画像IDとその類似度と、を検索結果として出力する。   In step S1107, the image comparison processing unit 206 sequentially refers to the record of each image ID registered in the image management index in FIG. The image comparison processing unit 206 uses the vector registered in the “local feature amount” field in the image feature index of each image feature ID in the referenced record and the feature amount obtained from the query image. To perform matching using the above RANSAC. Then, the image IDs and their similarities are output as search results in the order similar to the feature values obtained from the query images.

[第3の実施形態]
本実施形態では、第1の実施形態及び第2の実施形態において、クエリ画像、登録画像のどちらか一方において画像認識がうまく機能せず、結果として検索漏れを起こすという課題を解決する。
[Third Embodiment]
In the present embodiment, in the first embodiment and the second embodiment, the problem that image recognition does not function well in one of the query image and the registered image, resulting in a search omission as a result is solved.

本実施形態は、画像登録処理は第1の実施形態と同様であるが、画像検索処理において以下の点が第1の実施形態と異なる。以下に、第1の実施形態との差分のみについて説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。   In the present embodiment, the image registration process is the same as that of the first embodiment, but the following points are different from the first embodiment in the image search process. Only the differences from the first embodiment will be described below, and unless otherwise noted, the same as the first embodiment.

本実施形態に係る画像検索処理について、同処理のフローチャートを示す図12を用いて説明する。なお、ステップS1201〜S1204,S1208はそれぞれ、図10のステップS1001〜S1004,S1006と同じ処理ステップであり、ステップS1005の代わりにステップS1205〜S1207を行う点が第1の実施形態と異なる。   The image search process according to the present embodiment will be described with reference to FIG. 12 showing a flowchart of the process. Note that steps S1201 to S1204 and S1208 are the same processing steps as steps S1001 to S1004 and S1006 in FIG. 10, respectively, and steps S1205 to S1207 are performed instead of step S1005, which is different from the first embodiment.

ステップS1205では、画像比較処理部206は先ず、ステップS1203における画像認識処理で求めたオブジェクトの属性値と同じ属性値が登録されたレコードを、DB204内の認識結果管理インデックスから特定する。そして画像比較処理部206は、特定したレコードから認識尤度を読み出す。   In step S1205, the image comparison processing unit 206 first identifies, from the recognition result management index in the DB 204, a record in which the same attribute value as the object attribute value obtained in the image recognition process in step S1203 is registered. Then, the image comparison processing unit 206 reads the recognition likelihood from the identified record.

ステップS1206では、画像比較処理部206は、ステップS1205で特定した各レコードについて次のような処理を行う。即ち、該レコード中の画像IDに対応する画像管理インデックスから「画像特徴量」のフィールド中の画像特徴IDを読み出し、該画像特徴IDに対応する特徴量を画像特徴インデックスから読み出し、クエリ画像中の特徴量とのマッチングを行う。このマッチングには、上記のRANSACを用い、これにより特徴量間の類似度を求める。   In step S1206, the image comparison processing unit 206 performs the following process for each record specified in step S1205. That is, the image feature ID in the “image feature amount” field is read from the image management index corresponding to the image ID in the record, the feature amount corresponding to the image feature ID is read from the image feature index, and Matches with the feature value. For this matching, the above RANSAC is used, and the similarity between the feature quantities is obtained.

ステップS1207では、画像比較処理部206は、ステップS1205で特定した各レコードについて次のような処理を行う。即ち、該レコードについてステップS1205読み出した認識尤度LHと、該レコードについてステップS1206で求めた類似度Simと、をそれぞれに対する重みw1,w2を用いて重み付け加算を行うことで総合類似度を求める。この重み付け加算の式を以下に示す。   In step S1207, the image comparison processing unit 206 performs the following process for each record specified in step S1205. That is, the total similarity is obtained by performing weighted addition on the recognition likelihood LH read in step S1205 for the record and the similarity Sim obtained in step S1206 for the record using the weights w1 and w2. The formula of this weighted addition is shown below.

総合類似度 Sim total =w1 × LH + w2 × Sim, 但しw1 + w2 =1
そして、類似度の代わりに総合類似度を適用してステップS1005の処理を行うことで、画像認識で失敗した画像についても、局所特徴量比較で高いスコアを出した画像で有れば検索結果に反映する事が可能となる。
Total similarity Sim total = w1 × LH + w2 × Sim, where w1 + w2 = 1
Then, by applying the total similarity instead of the similarity and performing the processing in step S1005, even if the image has failed in image recognition, if the image has a high score in the local feature amount comparison, It can be reflected.

また、w1は認識対象毎に変えても良く、例えば、クエリで認識率の低い認識対象が検出された場合には低い値のw1を、認識率が高い認識対象の場合には高い値のw1を用いると良い。画像認識が可能なオブジェクトを持つ画像に対して、認識尤度が緩やかに効く様に画像認識尤度と類似度の重み付け和で総合評価を得る。   Further, w1 may be changed for each recognition target. For example, when a recognition target with a low recognition rate is detected by a query, a low value w1 is used, and when a recognition target with a high recognition rate is set, w1 has a high value. It is good to use. For an image having an object capable of image recognition, a comprehensive evaluation is obtained by a weighted sum of the image recognition likelihood and the similarity so that the recognition likelihood is moderately effective.

このように、本実施形態によれば、局所特徴量を用いた画像検索のオブジェクトを選ばない性質と、画像認識の対象画像オブジェクトを選ぶが誤った検出が比較的少ないという性質を見合わせた、良好な検索結果をもたらす画像検索を実現する。   As described above, according to the present embodiment, a good match between the property of not selecting an object for image search using local features and the property of selecting a target image object for image recognition but relatively few erroneous detections. Image search that yields accurate search results.

また、上記処理により、第1の実施形態よりは処理コストが高くなるものの、より検索漏れの少なく且つ画像認識結果を緩やかに反映したロバストな検索が可能となる。   In addition, although the processing cost is higher than that of the first embodiment, the above processing enables a robust search with less search omission and gently reflecting the image recognition result.

[第4の実施形態]
画像認識の対象は時間が経過すると共に増加するので、登録済みの画像に対しても新しい画像認識結果を適応する事が好ましい。もちろん、新たな画像認識対象で学習した検出器を用い、最初から画像を登録する方法も有るが、登録済みの画像数が膨大で有る場合、それは現実的で無い。また、DBと画像を別個に管理している場合には、登録画像の参照が困難な場合も有る。
[Fourth Embodiment]
Since the number of image recognition targets increases with time, it is preferable to apply a new image recognition result to a registered image. Of course, there is a method of registering an image from the beginning using a detector learned with a new image recognition target, but this is not practical when the number of registered images is enormous. In addition, when the DB and the image are managed separately, it may be difficult to refer to the registered image.

そこで、本実施形態では、画像認識対象の増加を反映したDBインデックスの更新を登録済みの画像を再解析する事無く、DB内で閉じた処理で効率的に画像認識対象の増加を反映する方法について説明する。各登録画像について、DBインデックスを更新するために行う処理について、同処理のフローチャートを示す図13を用いて説明する。   Therefore, in the present embodiment, a method for efficiently reflecting an increase in the number of image recognition objects in a closed process in the DB without reanalyzing the registered image for updating the DB index reflecting the increase in the number of image recognition objects. Will be described. A process performed for updating the DB index for each registered image will be described with reference to FIG. 13 showing a flowchart of the process.

ステップS1301で画像特徴・認識結果登録処理部203は、登録済みの登録画像のうちの1つに着目し、該着目した登録画像の画像管理インデックス中の画像特徴IDを用いて対応する画像特徴インデックスから、特徴点の座標位置やその特徴量を読み出す。   In step S <b> 1301, the image feature / recognition result registration processing unit 203 focuses on one of the registered images registered, and uses the image feature ID in the image management index of the registered image of interest to correspond to the image feature index. Then, the coordinate position of the feature point and the feature amount thereof are read out.

ステップS1302では、画像特徴・認識結果登録処理部203は、ステップS1301で読み出した情報を用いて、上記着目した登録画像に対する画像認識処理を行う。このとき画像認識に用いる検出器は、以前よりも新たなオブジェクトの認識が可能なようになっている。   In step S1302, the image feature / recognition result registration processing unit 203 performs image recognition processing on the focused registered image using the information read in step S1301. At this time, the detector used for image recognition can recognize a new object than before.

ステップS1303では、画像特徴・認識結果登録処理部203は、上記着目した登録画像からこれまでに認識した何れのオブジェクトとも異なる位置から新たなオブジェクトを認識したか否かを判断する。この判断の結果、新たなオブジェクトを認識していない場合には、本処理を終了するが、新たなオブジェクトを認識した場合には、処理はステップS1304に進む。   In step S1303, the image feature / recognition result registration processing unit 203 determines whether a new object has been recognized from a position different from any of the objects recognized so far from the focused registered image. If the result of this determination is that a new object has not been recognized, this process is terminated. If a new object has been recognized, the process proceeds to step S1304.

ステップS1304では、画像特徴・認識結果登録処理部203は、上記着目した登録画像の画像管理インデックス中の「認識結果」のフィールドに、現在の最大認識IDに1を加えた認識IDを追加登録する。   In step S1304, the image feature / recognition result registration processing unit 203 additionally registers a recognition ID obtained by adding 1 to the current maximum recognition ID in the “recognition result” field in the image management index of the registered image of interest. .

また、画像特徴・認識結果登録処理部203は、認識結果管理インデックスに1つレコードを追加し、この追加したレコードに以下に列挙する情報を登録する。即ち、ステップS1304で追加登録した認識ID、新たなオブジェクトの属性値、上記着目した登録画像の画像ID、新たなオブジェクトの認識尤度、新たなオブジェクトの認識領域の座標、新たなオブジェクトの認識用特徴量の画像特徴ID、を登録する。このように、本実施形態によれば、DB内で閉じた処理で、安価な処理コストで新たに追加した画像認識対象を反映したDBに更新する事が可能となる。   The image feature / recognition result registration processing unit 203 adds one record to the recognition result management index, and registers the information listed below in the added record. That is, the recognition ID additionally registered in step S1304, the new object attribute value, the image ID of the focused registered image, the new object recognition likelihood, the coordinates of the new object recognition area, and the new object recognition The image feature ID of the feature amount is registered. As described above, according to the present embodiment, it is possible to update the DB to reflect the newly added image recognition target at a low processing cost by the process closed in the DB.

[第5の実施形態]
上記の各実施形態では、特徴量としてSIFTを用いたが、画像認識と画像特徴量検索とで共有可能な局所特徴量であれば、その種類は問わない。また、画像認識においては、MAP推定を用いた機械学習により説明したが、当然、生成モデルに基づく方法としてEMアルゴリズムを利用し反復学習する方法や、判別モデルに基づく方法でSVMを用いても良い。また、登録画像の局所特徴量に対して複数の画像認識処理を行い更新する処理も可能である。
[Fifth Embodiment]
In each of the above-described embodiments, SIFT is used as the feature amount. However, the type is not limited as long as it is a local feature amount that can be shared between image recognition and image feature amount search. Further, in the image recognition, the machine learning using MAP estimation has been described, but naturally, as a method based on the generation model, iterative learning using an EM algorithm or a method based on a discrimination model may use SVM. . Also, it is possible to perform a plurality of image recognition processes and update the local feature amount of the registered image.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (11)

それぞれの画像について、該画像に対する画像認識処理によって得られた該画像中の1以上のオブジェクトのそれぞれの属性及び認識尤度を、該画像と関連付けて登録しているデータベースにアクセス可能な画像処理装置であって、
クエリ画像に対して画像認識処理を行うことで該クエリ画像中のオブジェクトの属性を取得し、該取得した属性と関連付けて前記データベースに登録されている画像を特定する特定手段と、
前記特定手段が特定した画像と関連づけて前記データベースに登録されている認識尤度を、前記クエリ画像に対する該特定した画像の類似度とし、該特定した画像に関する情報と、該類似度と、を画像検索結果として出力する出力手段と
を備えることを特徴とする画像処理装置。
For each image, an image processing apparatus capable of accessing a database in which each attribute and recognition likelihood of one or more objects in the image obtained by image recognition processing for the image is registered in association with the image Because
An identification means for acquiring an attribute of an object in the query image by performing an image recognition process on the query image, and specifying an image registered in the database in association with the acquired attribute;
The recognition likelihood registered in the database in association with the image specified by the specifying unit is set as the similarity of the specified image with respect to the query image, and the information about the specified image and the similarity are defined as an image. An image processing apparatus comprising: output means for outputting as a search result.
前記出力手段は、前記特定した画像に関する情報と、前記類似度と、のセットを、類似度が高い順で出力することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit outputs a set of information related to the specified image and the similarity in descending order of similarity. 前記出力手段は、
前記クエリ画像に対する画像認識処理の結果、画像認識できたオブジェクトが1つも存在しなかった場合には、前記データベースに登録されている画像のうち、前記クエリ画像に対する画像認識処理により得られた前記クエリ画像の特徴量と類似する特徴量を有する画像に関する情報を出力することを特徴とする請求項1又は2に記載の画像処理装置。
The output means includes
As a result of the image recognition process on the query image, if there is no object that can be image recognized, the query obtained by the image recognition process on the query image among the images registered in the database. The image processing apparatus according to claim 1, wherein information relating to an image having a feature amount similar to the feature amount of the image is output.
それぞれの画像について、該画像に対する画像認識処理によって得られた該画像中の1以上のオブジェクトのそれぞれの属性と特徴量と認識尤度とを、該画像と関連付けて登録しているデータベースにアクセス可能な画像処理装置であって、For each image, it is possible to access a database in which each attribute, feature amount, and recognition likelihood of one or more objects in the image obtained by image recognition processing for the image is registered in association with the image. Image processing apparatus,
前記データベースに属性と特徴量と認識尤度とが登録されていない新規オブジェクトを認識するために生成された検出器と、前記データベースに登録済みの特徴量と、を用いて、前記データベースに登録済みの画像から該新規オブジェクトを認識し、該認識した新規オブジェクトの属性と特徴量と認識尤度とを、該登録済みの画像と関連付けて前記データベースに登録する認識手段と、Registered in the database using a detector generated for recognizing a new object whose attribute, feature amount, and recognition likelihood are not registered in the database, and a feature amount registered in the database Recognizing means for recognizing the new object from the image and registering the attribute, feature amount, and recognition likelihood of the recognized new object in the database in association with the registered image;
クエリ画像に対して、前記新規オブジェクトの認識処理を含む画像認識処理を行うことで該クエリ画像中のオブジェクトの属性を取得し、該取得した属性と関連付けて前記データベースに登録されている画像を特定する特定手段と、An image recognition process including the new object recognition process is performed on the query image to acquire the attribute of the object in the query image, and the image registered in the database is identified in association with the acquired attribute Specific means to
前記特定手段が特定した画像と関連づけて前記データベースに登録されている認識尤度を、前記クエリ画像に対する該特定した画像の類似度とし、該特定した画像に関する情報と、該類似度と、を画像検索結果として出力する出力手段とThe recognition likelihood registered in the database in association with the image specified by the specifying unit is set as the similarity of the specified image with respect to the query image, and the information about the specified image and the similarity are defined as an image. Output means for outputting as search results
を備えることを特徴とする画像処理装置。An image processing apparatus comprising:
それぞれの画像について、該画像に対する画像認識処理によって得られた該画像中の1以上のオブジェクトのそれぞれの属性及び領域を、該画像と関連付けて登録しているデータベースにアクセス可能な画像処理装置であって、
クエリ画像に対して画像認識処理を行うことで該クエリ画像中のオブジェクトの属性を取得し、該取得した属性と関連付けて前記データベースに登録されている領域を特定する特定手段と、
前記特定手段が特定した領域について画像認識処理で得られた特徴量と、前記クエリ画像において該領域に対応する領域について画像認識処理で得られた特徴量と、の類似度を求める手段と、
前記特定手段が特定した領域と関連付けて前記データベースに登録されている画像に関する情報と、前記類似度と、を画像検索結果として出力する出力手段と
を備えることを特徴とする画像処理装置。
An image processing apparatus capable of accessing a database in which each attribute and area of one or more objects in the image obtained by image recognition processing for the image is registered in association with the image. And
An identification unit that acquires an attribute of an object in the query image by performing an image recognition process on the query image, and identifies an area registered in the database in association with the acquired attribute;
Means for obtaining a similarity between a feature amount obtained by image recognition processing for the region specified by the specifying means and a feature amount obtained by image recognition processing for a region corresponding to the region in the query image;
An image processing apparatus comprising: output means for outputting information relating to an image registered in the database in association with the area specified by the specifying means, and the similarity as an image search result.
それぞれの画像について、該画像に対する画像認識処理によって得られた該画像中の1以上のオブジェクトのそれぞれの属性及び認識尤度を、該画像と関連付けて登録しているデータベースにアクセス可能な画像処理装置であって、
クエリ画像に対して画像認識処理を行うことで該クエリ画像中のオブジェクトの属性を取得し、該取得した属性と関連付けて前記データベースに登録されている画像を特定する特定手段と、
前記クエリ画像に対する画像認識処理で得られる特徴量と、前記特定手段が特定した画像に対する画像認識処理で得られる特徴量と、の類似度を求める手段と、
前記特定手段が特定した画像と関連づけて前記データベースに登録されている認識尤度と、前記類似度と、の重み付け加算により得られる総合類似度を、前記クエリ画像に対する該特定した画像の類似度とし、該特定した画像に関する情報と、該類似度と、を画像検索結果として出力する出力手段と
を備えることを特徴とする画像処理装置。
For each image, an image processing apparatus capable of accessing a database in which each attribute and recognition likelihood of one or more objects in the image obtained by image recognition processing for the image is registered in association with the image Because
An identification means for acquiring an attribute of an object in the query image by performing an image recognition process on the query image, and specifying an image registered in the database in association with the acquired attribute;
Means for obtaining a similarity between a feature quantity obtained by image recognition processing for the query image and a feature quantity obtained by image recognition processing for the image specified by the specifying means;
The overall similarity obtained by weighted addition of the recognition likelihood registered in the database in association with the image specified by the specifying means and the similarity is defined as the similarity of the specified image with respect to the query image. An image processing apparatus comprising: output means for outputting information relating to the specified image and the similarity as an image search result.
それぞれの画像について、該画像に対する画像認識処理によって得られた該画像中の1以上のオブジェクトのそれぞれの属性及び認識尤度を、該画像と関連付けて登録しているデータベースにアクセス可能な画像処理装置が行う画像処理方法であって、
前記画像処理装置の特定手段が、クエリ画像に対して画像認識処理を行うことで該クエリ画像中のオブジェクトの属性を取得し、該取得した属性と関連付けて前記データベースに登録されている画像を特定する特定工程と、
前記画像処理装置の出力手段が、前記特定工程で特定した画像と関連づけて前記データベースに登録されている認識尤度を、前記クエリ画像に対する該特定した画像の類似度とし、該特定した画像に関する情報と、該類似度と、を画像検索結果として出力する出力工程と
を備えることを特徴とする画像処理方法。
For each image, an image processing apparatus capable of accessing a database in which each attribute and recognition likelihood of one or more objects in the image obtained by image recognition processing for the image is registered in association with the image Is an image processing method performed by
The specifying unit of the image processing apparatus acquires an attribute of an object in the query image by performing an image recognition process on the query image, and specifies an image registered in the database in association with the acquired attribute Specific process to
The output means of the image processing apparatus sets the recognition likelihood registered in the database in association with the image specified in the specifying step as the similarity of the specified image to the query image, and information on the specified image And an output step of outputting the similarity as an image search result.
それぞれの画像について、該画像に対する画像認識処理によって得られた該画像中の1以上のオブジェクトのそれぞれの属性と特徴量と認識尤度とを、該画像と関連付けて登録しているデータベースにアクセス可能な画像処理装置が行う画像処理方法であって、For each image, it is possible to access a database in which each attribute, feature amount, and recognition likelihood of one or more objects in the image obtained by image recognition processing for the image is registered in association with the image. An image processing method performed by a simple image processing apparatus,
前記画像処理装置の認識手段が、前記データベースに属性と特徴量と認識尤度とが登録されていない新規オブジェクトを認識するために生成された検出器と、前記データベースに登録済みの特徴量と、を用いて、前記データベースに登録済みの画像から該新規オブジェクトを認識し、該認識した新規オブジェクトの属性と特徴量と認識尤度とを、該登録済みの画像と関連付けて前記データベースに登録する認識工程と、A recognition unit of the image processing apparatus, a detector generated for recognizing a new object whose attribute, feature amount, and recognition likelihood are not registered in the database; a feature amount registered in the database; Recognizing the new object from the image registered in the database, and registering the attribute, feature amount, and recognition likelihood of the recognized new object in the database in association with the registered image Process,
前記画像処理装置の特定手段が、クエリ画像に対して、前記新規オブジェクトの認識処理を含む画像認識処理を行うことで該クエリ画像中のオブジェクトの属性を取得し、該取得した属性と関連付けて前記データベースに登録されている画像を特定する特定工程と、The specifying unit of the image processing apparatus acquires an attribute of the object in the query image by performing an image recognition process including a recognition process of the new object on the query image, and associates the acquired attribute with the acquired attribute. A specific process for identifying images registered in the database;
前記画像処理装置の出力手段が、前記特定工程で特定した画像と関連づけて前記データベースに登録されている認識尤度を、前記クエリ画像に対する該特定した画像の類似度とし、該特定した画像に関する情報と、該類似度と、を画像検索結果として出力する出力工程とThe output means of the image processing apparatus sets the recognition likelihood registered in the database in association with the image specified in the specifying step as the similarity of the specified image to the query image, and information on the specified image And outputting the similarity as an image search result,
を備えることを特徴とする画像処理方法。An image processing method comprising:
それぞれの画像について、該画像に対する画像認識処理によって得られた該画像中の1以上のオブジェクトのそれぞれの属性及び領域を、該画像と関連付けて登録しているデータベースにアクセス可能な画像処理装置が行う画像処理方法であって、
前記画像処理装置の特定手段が、クエリ画像に対して画像認識処理を行うことで該クエリ画像中のオブジェクトの属性を取得し、該取得した属性と関連付けて前記データベースに登録されている領域を特定する特定工程と、
前記画像処理装置の類似度を求める手段が、前記特定工程で特定した領域について画像認識処理で得られた特徴量と、前記クエリ画像において該領域に対応する領域について画像認識処理で得られた特徴量と、の類似度を求める工程と、
前記画像処理装置の出力手段が、前記特定工程で特定した領域と関連付けて前記データベースに登録されている画像に関する情報と、前記類似度と、を画像検索結果として出力する出力工程と
を備えることを特徴とする画像処理方法。
For each image, an image processing apparatus that can access a database in which attributes and areas of one or more objects in the image obtained by image recognition processing for the image are associated with the image and registered is performed. An image processing method comprising:
The specifying unit of the image processing apparatus acquires an attribute of an object in the query image by performing an image recognition process on the query image, and specifies an area registered in the database in association with the acquired attribute Specific process to
The means for obtaining the similarity of the image processing device is a feature amount obtained by image recognition processing for the region specified in the specifying step, and a feature obtained by image recognition processing for a region corresponding to the region in the query image. A step of determining the similarity between the quantity,
The output unit of the image processing apparatus includes an output step of outputting information related to an image registered in the database in association with the region specified in the specifying step and the similarity as an image search result. A featured image processing method.
それぞれの画像について、該画像に対する画像認識処理によって得られた該画像中の1以上のオブジェクトのそれぞれの属性及び認識尤度を、該画像と関連付けて登録しているデータベースにアクセス可能な画像処理装置が行う画像処理方法であって、
前記画像処理装置の特定手段が、クエリ画像に対して画像認識処理を行うことで該クエリ画像中のオブジェクトの属性を取得し、該取得した属性と関連付けて前記データベースに登録されている画像を特定する特定工程と、
前記画像処理装置の類似度を求める手段が、前記クエリ画像に対する画像認識処理で得られる特徴量と、前記特定工程で特定した画像に対する画像認識処理で得られる特徴量と、の類似度を求める工程と、
前記画像処理装置の出力手段が、前記特定工程で特定した画像と関連づけて前記データベースに登録されている認識尤度と、前記類似度と、の重み付け加算により得られる総合類似度を、前記クエリ画像に対する該特定した画像の類似度とし、該特定した画像に関する情報と、該類似度と、を画像検索結果として出力する出力工程と
を備えることを特徴とする画像処理方法。
For each image, an image processing apparatus capable of accessing a database in which each attribute and recognition likelihood of one or more objects in the image obtained by image recognition processing for the image is registered in association with the image Is an image processing method performed by
The specifying unit of the image processing apparatus acquires an attribute of an object in the query image by performing an image recognition process on the query image, and specifies an image registered in the database in association with the acquired attribute Specific process to
A step of obtaining a similarity between a feature quantity obtained by an image recognition process for the query image and a feature quantity obtained by an image recognition process for the image specified in the specifying step; When,
The output means of the image processing apparatus obtains the total similarity obtained by weighted addition of the recognition likelihood registered in the database in association with the image specified in the specifying step and the similarity, and the query image An image processing method comprising: an output step of outputting information relating to the identified image and the similarity as an image search result, the similarity of the identified image with respect to
コンピュータを、請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 6 .
JP2012184572A 2012-08-23 2012-08-23 Image processing apparatus and image processing method Active JP5963609B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012184572A JP5963609B2 (en) 2012-08-23 2012-08-23 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012184572A JP5963609B2 (en) 2012-08-23 2012-08-23 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2014041560A JP2014041560A (en) 2014-03-06
JP2014041560A5 JP2014041560A5 (en) 2015-08-20
JP5963609B2 true JP5963609B2 (en) 2016-08-03

Family

ID=50393750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012184572A Active JP5963609B2 (en) 2012-08-23 2012-08-23 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5963609B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5995916B2 (en) * 2014-07-09 2016-09-21 日本電信電話株式会社 Image search apparatus, method, and program
JP6012819B1 (en) * 2015-07-03 2016-10-25 日本電信電話株式会社 Similar image acquisition apparatus, method, and program
US20180293461A1 (en) * 2015-10-12 2018-10-11 Commissariat A L'energie Atomique Et Aux Energies Alternatives Method and device for detecting copies in a stream of visual data
US12020174B2 (en) 2016-08-16 2024-06-25 Ebay Inc. Selecting next user prompt types in an intelligent online personal assistant multi-turn dialog
US11748978B2 (en) 2016-10-16 2023-09-05 Ebay Inc. Intelligent online personal assistant with offline visual search database
US11004131B2 (en) 2016-10-16 2021-05-11 Ebay Inc. Intelligent online personal assistant with multi-turn dialog based on visual search
US10860898B2 (en) 2016-10-16 2020-12-08 Ebay Inc. Image analysis and prediction based visual search
US10970768B2 (en) 2016-11-11 2021-04-06 Ebay Inc. Method, medium, and system for image text localization and comparison
JP7026105B2 (en) * 2017-03-24 2022-02-25 株式会社日立国際電気 Service provision system
KR101981669B1 (en) * 2017-07-28 2019-05-24 한국지질자원연구원 Apparatus, method and system for classifying rock and geological structure using image
CN109871457A (en) * 2019-01-30 2019-06-11 北京百度网讯科技有限公司 Image-based data processing method, apparatus, electronic device and storage medium
JP2020102245A (en) * 2020-03-05 2020-07-02 日本電気株式会社 Abnormal work detection system and abnormal work detection method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3649264B2 (en) * 1997-07-15 2005-05-18 オムロン株式会社 Image search device, image search method, keyword extraction device, and keyword extraction method
JPH11306322A (en) * 1998-04-23 1999-11-05 Fujitsu Ltd Image filtering system
JP3903783B2 (en) * 2001-12-14 2007-04-11 日本電気株式会社 Face metadata generation method and apparatus, and face similarity calculation method and apparatus
JP5257071B2 (en) * 2006-08-03 2013-08-07 日本電気株式会社 Similarity calculation device and information retrieval device
CN101627399B (en) * 2007-02-13 2012-10-10 奥林巴斯株式会社 Feature matching method
JP5202148B2 (en) * 2008-07-15 2013-06-05 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP5430243B2 (en) * 2009-06-17 2014-02-26 キヤノン株式会社 Image search apparatus, control method therefor, and program

Also Published As

Publication number Publication date
JP2014041560A (en) 2014-03-06

Similar Documents

Publication Publication Date Title
JP5963609B2 (en) Image processing apparatus and image processing method
Turcot et al. Better matching with fewer features: The selection of useful features in large database recognition problems
US11341770B2 (en) Facial image identification system, identifier generation device, identification device, image identification system, and identification system
JP6046948B2 (en) Object detection apparatus, control method therefor, program, and storage medium
CN114758362B (en) Clothes-changing pedestrian re-identification method based on semantic-aware attention and visual masking
WO2016139964A1 (en) Region-of-interest extraction device and region-of-interest extraction method
US10007678B2 (en) Image processing apparatus, image processing method, and recording medium
KR20220004009A (en) Key point detection method, apparatus, electronic device and storage medium
CN112991555B (en) Data display method, device, equipment and storage medium
JPWO2020050413A1 (en) Face image candidate determination device for authentication, face image candidate determination method for authentication, program, and recording medium
TW201546636A (en) Annotation display assistance device and method of assisting annotation display
JP6173754B2 (en) Image search system, image search apparatus, and image search method
JP5746550B2 (en) Image processing apparatus and image processing method
JP2011118790A (en) Similar image retrieval device, similar image retrieval method and similar image retrieval program
Carvalho et al. Analysis of object description methods in a video object tracking environment
JP2023545221A (en) Method, device, equipment and storage medium for detecting degree of association between face and hand
CN115082999B (en) Method, device, computer equipment and storage medium for analyzing people in group photo images
US10853972B2 (en) Apparatus for processing image and method thereof
JP2018081452A (en) Image processing apparatus and image processing method
JP7540500B2 (en) GROUP IDENTIFICATION DEVICE, GROUP IDENTIFICATION METHOD, AND PROGRAM
CN117690117A (en) Image recognition method and device combining semantic analysis and serving data acquisition
JP6341843B2 (en) Image search apparatus and image search system
CN116662589A (en) Image matching method, device, electronic equipment and storage medium
JP2018156544A (en) Information processing apparatus and program
CN113869510A (en) Network training, unlocking and object tracking method, device, equipment and storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160628

R151 Written notification of patent or utility model registration

Ref document number: 5963609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151