[go: up one dir, main page]

JP2012053776A - Display image search device, display device, display image search system, and display image search method - Google Patents

Display image search device, display device, display image search system, and display image search method Download PDF

Info

Publication number
JP2012053776A
JP2012053776A JP2010197019A JP2010197019A JP2012053776A JP 2012053776 A JP2012053776 A JP 2012053776A JP 2010197019 A JP2010197019 A JP 2010197019A JP 2010197019 A JP2010197019 A JP 2010197019A JP 2012053776 A JP2012053776 A JP 2012053776A
Authority
JP
Japan
Prior art keywords
image
specific image
feature amount
specific
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010197019A
Other languages
Japanese (ja)
Other versions
JP5544250B2 (en
Inventor
Koichi Nishio
浩一 西尾
Makoto Nakamura
誠 中村
Naoya Miyashita
直也 宮下
Matsuo Kodama
松男 兒玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2010197019A priority Critical patent/JP5544250B2/en
Publication of JP2012053776A publication Critical patent/JP2012053776A/en
Application granted granted Critical
Publication of JP5544250B2 publication Critical patent/JP5544250B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】マーカを利用せずに撮影した画像に応じたコンテンツを提供すること。
【解決手段】撮影画像データに基づき、当該画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出部と、特定画像特徴量テーブルを参照して、前記特定画像の特徴量と前記撮影画像特徴量とを比較し、前記撮影画像データに含まれる画像の特徴量と類似する特徴量を有する前記特定画像を検索する画像特徴量比較部と、前記画像特徴量比較部が検索により前記特定画像を得た場合、当該特定画像に関連する特定画像付加情報を記憶部から読み出す特定画像付加情報取得部と、前記検索により得た特定画像と類似する特徴量を有する撮影画像データ内の画像領域の位置を示す表示位置情報と、当該特定画像付加情報とを、表示部へ出力する出力部とを備えることを特徴とする。
【選択図】図1
To provide content corresponding to an image taken without using a marker.
An image feature amount calculation unit that calculates a captured image feature amount indicating a feature of the image based on the captured image data, and a specific image feature amount table, and the feature amount of the specific image and the captured image An image feature amount comparison unit that compares the feature amount and searches for the specific image having a feature amount similar to the feature amount of the image included in the captured image data; and the image feature amount comparison unit performs the search to search for the specific image. A specific image additional information acquisition unit that reads out the specific image additional information related to the specific image from the storage unit, and an image area in the captured image data having a feature amount similar to the specific image obtained by the search. An output unit that outputs display position information indicating a position and the specific image additional information to the display unit is provided.
[Selection] Figure 1

Description

本発明は、撮影した撮影画像に応じたコンテンツを検索し、検索により得たコンテンツを表示部に表示させる表示画像検索装置、表示装置、表示画像検索システム、および、表示画像検索方法に関する。   The present invention relates to a display image search device, a display device, a display image search system, and a display image search method that search for content corresponding to a captured image and display the content obtained by the search on a display unit.

仮想現実感(VR:Virtual Reality)技術を利用して、ユーザの存在する実空間を、ユーザ視点で表示された仮想空間によって表現して携帯端末に表示するシステムがある。
また、拡張現実感(AR:Augmented Reality)技術を利用して、ユーザの現在の位置を示す位置情報とこの位置でモバイルデバイスが撮影した画像に基づき、この撮影した位置に関連付けられた情報を、撮影した画像とともにモバイルデバイスに表示させ、ユーザに提供するシステムがある。この拡張現実感技術を利用したシステムとしては、セカイカメラ(Tonchidot Corporation, http://sekaicamera.com/ )やLayar( http://layar.com/ )などがあり、注目を集めている。
There is a system that uses a virtual reality (VR) technology to display a real space in which a user exists in a virtual space displayed from a user viewpoint and displays the real space on a mobile terminal.
Also, using augmented reality (AR) technology, based on position information indicating the current position of the user and an image captured by the mobile device at this position, information associated with the captured position is obtained. There is a system in which a captured image is displayed on a mobile device and provided to a user. As a system using this augmented reality technology, there are Sekai Camera (Tonchidot Corporation, http://secamera.com/) and Layar (http://layer.com/), which are attracting attention.

例えば、拡張現実感技術を利用した技術として、二次元バーコード等のマーカを撮影し、当該二次元バーコードと一意に関連づけられたコンテンツを撮影した画像に合成して表示させるものがある(例えば、特許文献1参照)。
また、撮影した画像データの内容を認識する画像認識装置として、撮影された位置に応じて、撮影された画像データの内容を表わすキーワードを抽出するものがある(例えば、特許文献2参照)。
For example, as a technique using augmented reality technology, a marker such as a two-dimensional barcode is photographed, and content uniquely associated with the two-dimensional barcode is synthesized and displayed on the photographed image (for example, , See Patent Document 1).
Further, as an image recognition device that recognizes the content of captured image data, there is a device that extracts a keyword representing the content of captured image data according to the captured position (see, for example, Patent Document 2).

特開2008−249407号公報JP 2008-249407 A 特開2007−41762号公報JP 2007-41762 A

しかしながら、マーカを撮影して拡張現実感技術を利用する場合、実空間におけるマーカの表示形態や表示場所が制限される問題があった。
例えば、二次元バーコード等のマーカを撮影して画像認識する場合、認識可能な画角が得られる程度にユーザがマーカに近接して撮影する必要があり、マーカとユーザとの関係が比較的近い範囲内に制限される問題があった。なお、マーカは二次元バーコードのようにデザイン性の低い図形で構成されている場合が多いため、例えば、ビルに設置されている大型広告の全面に表示するなどのマーカ表示方法は、美観的に適さず、その表示場所が制限される問題があった。
However, when the augmented reality technology is used by photographing the marker, there is a problem that the display form and display location of the marker in the real space are limited.
For example, when an image is recognized by photographing a marker such as a two-dimensional barcode, it is necessary for the user to photograph as close as possible to a recognizable angle of view, and the relationship between the marker and the user is relatively There was a problem of being restricted within a close range. Note that markers are often composed of low-design graphics such as two-dimensional barcodes. For example, marker display methods such as displaying on the entire surface of large advertisements installed in buildings are aesthetic. There is a problem that the display location is limited.

本発明は、上記課題を解決するものであり、マーカを利用せずに撮影した画像に応じたコンテンツを提供する表示画像検索装置、表示装置、表示画像検索システム、および、表示画像検索方法を提供することを目的とする。   The present invention solves the above-described problems, and provides a display image search device, a display device, a display image search system, and a display image search method that provide content according to an image taken without using a marker. The purpose is to do.

上述の課題を鑑み、本発明に係る表示画像検索装置は、被写体を撮影する撮影部により生成された撮影画像データを入力する入力部と、前記撮影画像データに基づき、当該画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出部と、検索対象である特定画像の特徴を示す特定画像特徴量情報に当該特定画像を表わす特定画像データを対応付ける特定画像特徴量テーブルと、前記特定画像に関連する特定画像付加情報を記憶する記憶部と、前記特定画像特徴量テーブルを参照して、前記特定画像の特徴量と前記撮影画像特徴量とを比較し、前記撮影画像データに含まれる画像の特徴量と類似する特徴量を有する前記特定画像を検索する画像特徴量比較部と、前記画像特徴量比較部が検索により前記特定画像を得た場合、当該特定画像に関連する特定画像付加情報を前記記憶部から読み出す特定画像付加情報取得部と、前記検索により得た特定画像と類似する特徴量を有する撮影画像データ内の画像領域の位置を示す表示位置情報と、当該特定画像付加情報とを、表示部へ出力する出力部とを備えることを特徴とする。   In view of the above-described problems, a display image search device according to the present invention includes an input unit that inputs captured image data generated by an imaging unit that captures a subject, and imaging that shows the characteristics of the image based on the captured image data. An image feature amount calculation unit for calculating an image feature amount, a specific image feature amount table for associating specific image data representing the specific image with specific image feature amount information indicating the characteristics of the specific image to be searched, and the specific image With reference to the storage unit storing related specific image additional information and the specific image feature amount table, the feature amount of the specific image and the captured image feature amount are compared, and the image included in the captured image data is compared. An image feature amount comparison unit that searches for the specific image having a feature amount similar to the feature amount, and when the image feature amount comparison unit obtains the specific image by the search, A specific image additional information acquisition unit that reads the specific image additional information to be read from the storage unit, display position information that indicates a position of an image area in captured image data having a feature amount similar to the specific image obtained by the search, and And an output unit that outputs the specific image additional information to the display unit.

また、上述の表示画像検索装置は、前記入力部が、前記撮影画像データが生成された際に前記撮影部の存在した位置を示す撮影位置情報を入力し、前記記憶部が、前記特定画像に対して予め関係付けられた位置を示す特定画像位置情報に前記特定画像データを対応づける特定画像位置テーブルを記憶し、前記特定画像位置テーブルを参照して、前記撮影位置情報に基づき、当該撮影位置情報に対応する前記特定画像を検索する位置情報比較部を備え、前記画像特徴量比較部が、前記位置情報比較部の検索により得られた前記特定画像の特徴量と前記撮影画像特徴量とを比較することを特徴とする。   In the display image search apparatus described above, the input unit inputs shooting position information indicating a position where the shooting unit is present when the shooting image data is generated, and the storage unit stores the specific image in the specific image. A specific image position table for associating the specific image data with specific image position information indicating a position associated with the image in advance, and referring to the specific image position table, based on the shooting position information, the shooting position A position information comparison unit that searches for the specific image corresponding to the information, wherein the image feature amount comparison unit includes the feature amount of the specific image and the captured image feature amount obtained by the search of the position information comparison unit. It is characterized by comparing.

また、上述の表示画像検索装置は、前記記憶部が、前記特定画像データに含まれるオブジェクトの特徴を示すオブジェクト特徴情報を前記特定画像データに対応付けるオブジェクト特徴情報テーブルを記憶し、前記オブジェクト特徴情報テーブルを参照して、前記撮影画像データに含まれるオブジェクトと前記特定画像データに含まれるオブジェクトが類似している程度を示すオブジェクト類似度を算出し、当該オブジェクト類似度に基づき、前記撮影画像データと最も類似する前記特定画像データを検索して、検索により得た特定画像データを前記特定画像付加情報取得部に出力する画像認識部を、さらに備えることを特徴とする。   In the display image search device described above, the storage unit stores an object feature information table that associates object feature information indicating the feature of an object included in the specific image data with the specific image data, and the object feature information table , Calculating an object similarity indicating a degree of similarity between the object included in the captured image data and the object included in the specific image data, and based on the object similarity, the most similar to the captured image data An image recognition unit that searches for similar specific image data and outputs the specific image data obtained by the search to the specific image additional information acquisition unit is further provided.

また、上述の表示画像検索装置は、前記記憶部が、前記特定画像付加情報に対して予め関係付けられた条件を示す撮影条件情報を前記特定画像付加情報に対応付ける特定画像付加情報テーブルを記憶し、前記特定画像付加情報取得部が、前記検索により前記特定画像を得た場合、前記特定画像付加テーブルを参照して、前記撮影位置情報に基づき、当該撮影位置情報が前記撮影条件情報の条件を満たす前記特定画像付加情報を前記記憶部から読み出すことを特徴とする。   In the display image search device described above, the storage unit stores a specific image additional information table that associates shooting condition information indicating a condition previously associated with the specific image additional information with the specific image additional information. When the specific image additional information acquisition unit obtains the specific image by the search, the shooting position information refers to the shooting position information based on the shooting position information with reference to the specific image addition table. The specific image additional information that satisfies is read out from the storage unit.

また、上述の表示画像検索装置は、前記画像認識部が、前記画像特徴量比較部の検索により複数の特定画像が得られた場合、当該特定画像の特徴量と類似する特徴量を有する前記撮影画像データ内の画像領域を示す重畳領域同士が、予め決められた割合以上の面積で重複しているか否かを判断し、予め決められた割合以上の面積で前記重畳領域同士が重複している場合、前記オブジェクト特徴情報テーブルを参照して、オブジェクトに関して当該重畳領域の画像と当該重畳領域に対応する前記特定画像とが類似している程度を示す前記オブジェクト類似度を算出し、このオブジェクト類似度に基づき、前記撮影画像データにおいて前記重畳領域同士が重複している部分の画像と最も類似する前記特定画像データを選択することを特徴とする。   Further, in the above-described display image search device, when the image recognition unit obtains a plurality of specific images by the search of the image feature amount comparison unit, the image capturing unit has a feature amount similar to the feature amount of the specific image. It is determined whether or not the overlapping regions indicating the image regions in the image data overlap with a predetermined area or more, and the overlapping regions overlap with each other with a predetermined area or more. In this case, referring to the object feature information table, the object similarity indicating the degree of similarity between the image of the overlapping area and the specific image corresponding to the overlapping area with respect to the object is calculated. On the basis of the above, the specific image data that is most similar to the image of the portion where the superimposed regions overlap in the captured image data is selected.

上述の課題を鑑み、本発明に係る表示装置は、上述の記載のいずれか一つの表示画像検索装置と、被写体を撮影して前記撮影画像データを生成する撮影部と、前記特定画像表示データに基づく画像を表示する表示部と、を備えることを特徴とする。   In view of the above-described problems, a display device according to the present invention includes any one of the display image search devices described above, a photographing unit that photographs a subject and generates the photographed image data, and the specific image display data. And a display unit for displaying an image based thereon.

上述の課題を鑑み、本発明に係る表示画像検索システムは、上述の記載のいずれか一つの表示画像検索装置と、前記表示画像検索装置とネットワークを介して接続され、被写体を撮影して前記撮影画像データを生成する撮影部と、前記特定画像表示データに基づく画像を表示する表示部と、を備える表示装置とを備えることを特徴とする。   In view of the above-described problems, a display image search system according to the present invention is connected to any one of the above-described display image search devices, and the display image search device via a network. A display device comprising: a photographing unit that generates image data; and a display unit that displays an image based on the specific image display data.

また、上述の表示装置および表示画像検索システムにおいて、表示装置は、入力する前記表示位置情報に基づき、特定画像の重畳領域の形状にあわせて当該特定画像に関連する前記特定画像付加情報の表示形状を変形処理して、当該重畳領域に前記特定画像付加情報を合成処理した前記撮影画像データを、前記表示部に表示させることを特徴とする。   In the display device and the display image search system described above, the display device displays a display shape of the specific image additional information related to the specific image in accordance with the shape of the overlapping region of the specific image based on the display position information to be input. And the photographed image data obtained by synthesizing the specific image additional information in the superimposing region is displayed on the display unit.

上述の課題を鑑み、本発明に係る表示画像検索方法は、撮影された画像に対応する画像を検索する表示画像検索方法であって、被写体を撮影する撮影部により生成された撮影画像データを入力し、前記撮影画像データに基づき、当該画像の特徴を示す撮影画像特徴量を算出し、検索対象である特定画像の特徴を示す特定画像特徴量情報に当該特定画像を表わす特定画像データを対応付ける特定画像特徴量テーブルを参照して、前記特定画像の特徴量と前記撮影画像特徴量とを比較し、前記撮影画像データに含まれる画像の特徴量と類似する特徴量を有する前記特定画像を検索し、検索により前記特定画像を得た場合、当該特定画像に関連する特定画像付加情報を記憶部から読み出し、前記検索により得た特定画像と類似する特徴量を有する撮影画像データ内の画像領域の位置を示す表示位置情報と、当該特定画像付加情報とを、表示部へ出力することを特徴とする。   In view of the above-described problems, a display image search method according to the present invention is a display image search method for searching for an image corresponding to a captured image, and inputs captured image data generated by a capturing unit that captures a subject. Then, based on the photographed image data, a photographed image feature amount indicating the feature of the image is calculated, and specific image data representing the specific image is associated with specific image feature amount information representing a feature of the specific image to be searched With reference to the image feature amount table, the feature amount of the specific image is compared with the captured image feature amount, and the specific image having a feature amount similar to the feature amount of the image included in the captured image data is searched. When the specific image is obtained by the search, the specific image additional information related to the specific image is read from the storage unit, and the image having a feature amount similar to the specific image obtained by the search is acquired. And display position information indicating the position of the image area in the image data and the specific image additional information, and outputs to the display unit.

上述の課題を鑑み、本発明に係る表示画像検索装置は、被写体を撮影する撮影部により生成された撮影画像データと、前記撮影画像データが生成された際に前記撮影部の存在した位置を示す撮影位置情報とを入力する入力部と、前記撮影画像データに基づき、当該画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出部と、検索対象である特定画像の特徴を示す特定画像特徴量情報に当該特定画像を表わす特定画像データを対応付ける特定画像特徴量テーブルと、前記特定画像に対して予め関係付けられた位置を示す特定画像位置情報に前記特定画像データを対応づける特定画像位置テーブルと、前記特定画像データに含まれるオブジェクトの特徴を示すオブジェクト特徴情報を前記特定画像データに対応付けるオブジェクト特徴情報テーブルと、前記特定画像に関連する特定画像付加情報を記憶する記憶部と、前記特定画像特徴量テーブルを参照して、前記特定画像の特徴量と前記撮影画像特徴量とに基づき、前記撮影画像データと前記特定画像データが類似する程度を示す特徴量類似度を算出する画像特徴量比較部と、前記特定画像位置テーブルを参照して、前記撮影位置情報に基づき、前記特定画像位置情報の位置に対して前記撮影位置情報の位置関係を示す位置類似度を算出する位置情報比較部と、前記オブジェクト特徴情報テーブルを参照して、前記撮影画像データに含まれるオブジェクトと前記特定画像データに含まれるオブジェクトが類似している程度を示すオブジェクト類似度を算出するオブジェクト特徴量比較部と、前記特徴量類似度、前記位置類似度、前記オブジェクト類似度に基づき、前記撮影画像データと類似する前記特定画像データを検索する画像認識部と、前記画像識別部が検索により前記特定画像を得た場合、当該特定画像に関連する特定画像付加情報を前記記憶部から読み出す特定画像付加情報取得部と、前記画像識別部が検索により得た特定画像と類似する特徴量を有する撮影画像データ内の画像領域の位置を示す表示位置情報と、当該特定画像付加情報とを、表示部へ出力する出力部と、を備えることを特徴とする。   In view of the above-described problems, a display image search device according to the present invention indicates captured image data generated by a capturing unit that captures a subject, and a position where the capturing unit is present when the captured image data is generated. An input unit for inputting shooting position information, an image feature amount calculation unit for calculating a shot image feature amount indicating the feature of the image based on the shot image data, and a specific image indicating the feature of the specific image to be searched A specific image feature amount table associating specific image data representing the specific image with the feature amount information, and a specific image position associating the specific image data with specific image position information indicating a position previously associated with the specific image Object feature information for associating a table and object feature information indicating a feature of an object included in the specific image data with the specific image data The captured image based on the feature amount of the specific image and the captured image feature amount with reference to the specific image feature amount table, with reference to the specific image feature amount table. An image feature amount comparison unit that calculates a feature amount similarity indicating the degree of similarity between the data and the specific image data, and a position of the specific image position information based on the shooting position information with reference to the specific image position table Referring to the object feature information table, a position information comparison unit that calculates a position similarity indicating a positional relationship of the shooting position information with respect to the object included in the captured image data and the specific image data An object feature amount comparison unit for calculating an object similarity indicating the degree of similarity of the objects, the feature amount similarity, the position similarity, An image recognition unit that searches for the specific image data similar to the captured image data based on the object similarity, and when the image identification unit obtains the specific image by the search, a specific image addition related to the specific image is added A specific image additional information acquisition unit that reads information from the storage unit, display position information that indicates a position of an image region in captured image data having a feature amount similar to the specific image obtained by the search by the image identification unit, and And an output unit that outputs the specific image additional information to the display unit.

本発明によれば、マーカを利用せずに撮影した画像に応じたコンテンツを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the content according to the image image | photographed without utilizing a marker can be provided.

本発明の実施形態に係る表示画像検索システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the display image search system which concerns on embodiment of this invention. 撮影画像の一例を示す図である。It is a figure which shows an example of a picked-up image. 本発明の実施形態に係る特定画像位置テーブルの一例を示す図である。It is a figure which shows an example of the specific image position table which concerns on embodiment of this invention. 特定画像データの一例を示す図である。It is a figure which shows an example of specific image data. 撮影画像特徴量の一例を示す図である。It is a figure which shows an example of the picked-up image feature-value. 本発明の実施形態に係る特定画像特徴量テーブルの一例を示す図である。It is a figure which shows an example of the specific image feature-value table which concerns on embodiment of this invention. 本発明の実施形態に係るオブジェクト特徴情報テーブルの一例を示す図である。It is a figure which shows an example of the object characteristic information table which concerns on embodiment of this invention. 本発明の実施形態に係る特定画像付加情報テーブルの一例を示す図である。It is a figure which shows an example of the specific image additional information table which concerns on embodiment of this invention. 重畳領域の一例を示す図である。It is a figure which shows an example of a superimposition area | region. 本発明の実施形態に係る表示画像検索方法の一例を示すフローチャートである。It is a flowchart which shows an example of the display image search method which concerns on embodiment of this invention. 図10に示す表示画像検索方法の続きを示すフローチャートである。11 is a flowchart showing a continuation of the display image search method shown in FIG. 10. コンテンツ等を提供する際に表示装置に表示される画像の一例を説明する図である。It is a figure explaining an example of the image displayed on a display device when providing contents etc. 本実施形態に係る表示画像検索システムを利用したサービスの一例を説明するための図である。It is a figure for demonstrating an example of the service using the display image search system which concerns on this embodiment. 本発明による表示画像検索の概念を説明するための図である。It is a figure for demonstrating the concept of the display image search by this invention. 本実施形態に係る表示画像検索装置の構成の他の例を示す図である。It is a figure which shows the other example of a structure of the display image search apparatus which concerns on this embodiment. 本発明の概要について説明するための図である。It is a figure for demonstrating the outline | summary of this invention.

<第1実施形態>
以下、本発明の一実施形態による画像検索表示システムの一例について、図面を参照して詳細に説明する。図1は、本実施形態における画像検索表示システムの機能ブロック図である。
図1に示す通り、画像検索表示システムは、表示装置1と表示画像検索装置2を備える。本実施形態において、表示装置1と表示画像検索装置2は、ネットワークNWを介して通信可能に接続されている。
なお、本実施形態では、表示装置1と表示画像検索装置2は、それぞれ異なるデバイスであって、ネットワークNWを経由して接続されている構成を例に以下説明するが、本発明はこれに限られない。例えば、表示装置1が、表示画像検索装置2を内部に備える構成であってもよい。また、ネットワークNWは、有線あるいは無線のいずれであってもよく、例えば、電話回線、インターネット回線、無線LAN通信方式等を利用した通信を行うものであればよい。
<First Embodiment>
Hereinafter, an example of an image search and display system according to an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram of an image search / display system according to this embodiment.
As shown in FIG. 1, the image search / display system includes a display device 1 and a display image search device 2. In the present embodiment, the display device 1 and the display image search device 2 are communicably connected via a network NW.
In the present embodiment, the display device 1 and the display image search device 2 are different devices, and will be described as an example in which the display device 1 and the display image search device 2 are connected via the network NW. However, the present invention is not limited to this. I can't. For example, the display device 1 may include the display image search device 2 inside. The network NW may be either wired or wireless. For example, any network that performs communication using a telephone line, an Internet line, a wireless LAN communication method, or the like may be used.

表示装置1は、例えば、カメラ付き携帯電話や、通信機能付きカメラ等のモバイルデバイスが利用可能である。この表示装置1は、拡張現実感技術を利用して得られるコンテンツを撮影された画像に合成して表示するARモードを設定する機能が搭載されており、以下、このARモードが設定されている場合に利用する機能と動作を中心に説明する。   As the display device 1, for example, a mobile device such as a mobile phone with a camera or a camera with a communication function can be used. The display device 1 is equipped with a function for setting an AR mode in which content obtained by using augmented reality technology is combined with a captured image and displayed. This AR mode is set below. The functions and operations used in the case will be mainly described.

表示装置1は、端末制御部11と、撮影部12と、位置情報検出部13と、計時部14と、表示部15と、通信部16と、記憶部17と、操作部18を備える。
撮影部12は、被写体からの光を受光し、受光した光を光電変換して画像データを生成し、出力する。つまり、撮影部12は、被写体を撮影して画像データを出力する。
この撮影部12は、画像データとして、撮影画像データD(n)とリアルタイム再生画像データとを出力する。このリアルタイム再生画像データは、撮影部12が撮影する画像をリアルタイムで表示部15に表示するため撮影部12から出力される画像データである。これにより、ユーザは、表示部15に表示されている画像をみながら、表示部15に表示された被写体を撮影することができる。
一方、撮影画像データD(n)は、リアルタイム再生画像データに基づく画像が表示部15に表示されている状態において、操作部18が入力するユーザからの撮影指示に基づき、撮影部12が被写体を撮影して得られる画像データである。
The display device 1 includes a terminal control unit 11, a photographing unit 12, a position information detection unit 13, a timing unit 14, a display unit 15, a communication unit 16, a storage unit 17, and an operation unit 18.
The imaging unit 12 receives light from the subject, photoelectrically converts the received light, generates image data, and outputs the image data. That is, the photographing unit 12 photographs a subject and outputs image data.
The photographing unit 12 outputs photographed image data D (n) and real-time reproduction image data as image data. The real-time reproduction image data is image data output from the photographing unit 12 in order to display an image photographed by the photographing unit 12 on the display unit 15 in real time. As a result, the user can take an image of the subject displayed on the display unit 15 while viewing the image displayed on the display unit 15.
On the other hand, in the state where the image based on the real-time reproduction image data is displayed on the display unit 15, the image capturing unit 12 selects the subject image data D (n) based on a user instruction input by the operation unit 18. This is image data obtained by photographing.

位置情報検出部13は、例えば、GPS(Global Positioning System)を利用して、表示装置1が撮影時に存在する位置を示す撮影位置情報P(n)を検出して、出力する。この撮影位置情報P(n)は、例えば、緯度、経度、高度により決定される地球上における絶対的な位置を示す。
なお、本実施形態において、撮影時とは、例えば、操作部18のシャッターボタンをユーザが押下したタイミングであってもよく、撮影画像データD(n)が生成されたタイミングであってもよい。
The position information detection unit 13 uses, for example, GPS (Global Positioning System) to detect and output shooting position information P (n) indicating a position where the display device 1 is present at the time of shooting. The photographing position information P (n) indicates an absolute position on the earth determined by, for example, latitude, longitude, and altitude.
In the present embodiment, the time of shooting may be, for example, the timing when the user presses the shutter button of the operation unit 18 or the timing when the captured image data D (n) is generated.

計時部14は、年月日および時刻を計時しており、撮影時に計時した年月日と時刻を示す撮影日時情報T(n)を出力する。   The timekeeping unit 14 measures the date and time and outputs shooting date / time information T (n) indicating the date and time measured at the time of shooting.

端末制御部11は、表示装置1を統括的に制御する。この端末制御部11は、撮影部12から出力される撮影画像データD(n){n=1,2・・・}に、この撮影画像データD(n)が撮影された位置を示す撮影位置情報P(n)と、この撮影画像データD(n)が撮影された日時を示す撮影日時情報T(n)とを対応付けて、記憶部17に格納する。なお、nは、撮影部12によって撮影された撮影画像データを他の撮影画像データから識別するための識別情報である撮影画像ID(Identification)である。
また、端末制御部11は、撮影部12によって連続的に撮影されるリアルタイム再生画像データを端末制御部11から入力し、撮影部12が撮影する画像をリアルタイムで表示部15に表示する。
この端末制御部11は、表示画像検索装置2から受信した特定画像付加情報と表示位置情報に基づき、表示位置情報が示す撮影画像データ内の画像領域に、特定画像付加情報を重畳して表示部15に表示させる。
この表示位置情報が示す画像領域の形状が、特定画像付加情報が示す画像の出力形状と一致していない場合、端末制御部11は、特定画像付加情報の出力形状を、表示位置情報が示す画像領域の形状に対応するものに変形処理する。この端末制御部11は、表示位置情報が示す画像領域に特定画像付加情報を重畳して表示させるための合成処理した撮影画像データを、表示部15に出力する。例えば、特定画像付加情報である動画ファイル名の動画の出力形状が長方形の画像であって、表示位置情報が示す画像領域の形状が歪んでいる場合、特定画像付加情報取得部32は、この歪みに応じて、動画の出力形状を変形処理する。
The terminal control unit 11 comprehensively controls the display device 1. The terminal control unit 11 captures the captured image data D (n) {n = 1, 2...} Output from the capturing unit 12 and indicates the position where the captured image data D (n) is captured. Information P (n) and shooting date / time information T (n) indicating the date / time when the shot image data D (n) was shot are associated with each other and stored in the storage unit 17. Note that n is a captured image ID (Identification) that is identification information for identifying captured image data captured by the capturing unit 12 from other captured image data.
In addition, the terminal control unit 11 inputs real-time reproduction image data continuously captured by the imaging unit 12 from the terminal control unit 11 and displays an image captured by the imaging unit 12 on the display unit 15 in real time.
The terminal control unit 11 superimposes the specific image additional information on the image area in the captured image data indicated by the display position information based on the specific image additional information and the display position information received from the display image search device 2. 15 is displayed.
When the shape of the image area indicated by the display position information does not match the output shape of the image indicated by the specific image additional information, the terminal control unit 11 displays the output shape of the specific image additional information by the image indicated by the display position information. A deformation process corresponding to the shape of the region is performed. The terminal control unit 11 outputs, to the display unit 15, composite imaged image data for displaying the specific image additional information superimposed on the image region indicated by the display position information. For example, when the output shape of the moving image with the moving image file name that is the specific image additional information is a rectangular image and the shape of the image area indicated by the display position information is distorted, the specific image additional information acquisition unit 32 performs the distortion. In response to this, the output shape of the moving image is deformed.

表示部15は、例えば、液晶ディスプレイ等であって、端末制御部11から入力する情報に基づく画像を表示する。   The display unit 15 is a liquid crystal display, for example, and displays an image based on information input from the terminal control unit 11.

通信部16は、ネットワークNWを介して表示画像検索装置2から送信される情報を受信して端末制御部11に出力し、端末制御部11から入力する情報をネットワークNWを介して表示画像検索装置2に送信する。   The communication unit 16 receives information transmitted from the display image search device 2 via the network NW, outputs the information to the terminal control unit 11, and displays information input from the terminal control unit 11 via the network NW. 2 to send.

記憶部17は、撮影部12によって生成された撮影画像データD(n)と、撮影位置情報P(n)と、撮影日時情報T(n)とを対応付けて記憶する。また、記憶部17は、表示装置1が動作するためのプログラムを記憶する。   The storage unit 17 stores the captured image data D (n) generated by the imaging unit 12, the imaging position information P (n), and the imaging date / time information T (n) in association with each other. The storage unit 17 also stores a program for operating the display device 1.

操作部18は、例えば、電源のON/OFFを入力する電源ボタン、ユーザからの撮影指示を入力するシャッターボタン等を含む。   The operation unit 18 includes, for example, a power button for inputting power ON / OFF, a shutter button for inputting a photographing instruction from the user, and the like.

ここで、表示装置1の撮影部12が取得した撮影画像データD(n)の一例について、図2を参照して説明する。図2は、撮影画像の一例を示す図である。
図2に示す通り、撮影画像データD(n)は、例えば、ある繁華街の風景を写した画像であって、画面右側に大きなビルB1の画像が、画面中央にビルB1よりも小さいビルB2の画像が、それぞれ含まれている。このビルB1には、大型ディスプレイが設置されている。ビルB2には、貸広告を掲示する大きな貸広告スペースが設けられている。
このビルB1の大型ディスプレイは、右辺が長く、左辺が短く歪んでいる。また、ビル2の貸広告スペースは、上辺と下辺が湾曲している。
Here, an example of the photographed image data D (n) acquired by the photographing unit 12 of the display device 1 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a captured image.
As shown in FIG. 2, the captured image data D (n) is, for example, an image of a certain downtown area, and an image of a large building B1 on the right side of the screen and a building B2 smaller than the building B1 at the center of the screen. Each of these images is included. A large display is installed in this building B1. Building B2 is provided with a large rental advertisement space for posting rental advertisements.
The large display of this building B1 has a long right side and a short left side that is distorted. In addition, the rental advertising space of the building 2 has a curved upper side and lower side.

図1に戻って、表示画像検索装置2は、通信部21と、第1記憶部22と、画像特徴量算出部23と、位置情報比較部24と、第2記憶部25と、画像特徴量比較部26と、画像識別部27と、重畳領域抽出部28と、第3記憶部29と、オブジェクト特徴情報比較部30と、第4記憶部31と、特定画像付加情報取得部32とを備える。   Returning to FIG. 1, the display image search device 2 includes a communication unit 21, a first storage unit 22, an image feature amount calculation unit 23, a position information comparison unit 24, a second storage unit 25, and an image feature amount. The comparison unit 26, the image identification unit 27, the superimposed region extraction unit 28, the third storage unit 29, the object feature information comparison unit 30, the fourth storage unit 31, and the specific image additional information acquisition unit 32 are provided. .

通信部21は、表示装置1との間で情報の入出力を行うインターフェースであって、ネットワークNWを介して表示装置1から送信される撮影画像データD(n)と、撮影位置情報P(n)と、撮影日時情報T(n)を受信する。この通信部21は、撮影画像データD(n)を画像特徴量算出部23に、撮影位置情報P(n)を位置情報比較部24と特定画像付加情報取得部32に、撮影日時情報T(n)を特定画像付加情報取得部32に、それぞれ出力する。また、通信部21は、特定画像付加情報取得部32から入力する特定画像表示データS(n)を、ネットワークNWを介して表示装置1に送信する。
なお、通信部21は、本実施形態のように、表示装置1と表示画像検索装置2とがネットワークNWを介して接続されている場合、上述のように表示装置1と情報の送受信を行う機能を有する。一方、図示しないが、表示画像検索装置2が表示装置1に内蔵されている場合、表示装置1と情報の入出力を行う機能を有する。つまり、通信部21は、表示装置1から情報を入力する入力部、および、表示装置1(表示部15)へ情報を出力する出力部として機能する。
The communication unit 21 is an interface for inputting / outputting information to / from the display device 1, and the captured image data D (n) transmitted from the display device 1 via the network NW and the captured position information P (n ) And shooting date / time information T (n). The communication unit 21 captures the captured image data D (n) in the image feature amount calculation unit 23, captures the captured position information P (n) in the position information comparison unit 24 and the specific image additional information acquisition unit 32, and captures the shooting date / time information T ( n) is output to the specific image additional information acquisition unit 32. Further, the communication unit 21 transmits the specific image display data S (n) input from the specific image additional information acquisition unit 32 to the display device 1 via the network NW.
Note that, when the display device 1 and the display image search device 2 are connected via the network NW as in the present embodiment, the communication unit 21 functions to transmit and receive information to and from the display device 1 as described above. Have On the other hand, although not shown, when the display image search device 2 is built in the display device 1, it has a function of inputting / outputting information to / from the display device 1. That is, the communication unit 21 functions as an input unit that inputs information from the display device 1 and an output unit that outputs information to the display device 1 (display unit 15).

第1記憶部22は、例えば表示画像検索装置2の管理者により予め登録された特定画像位置テーブル220を記憶する。
この特定画像位置テーブル220は、図3に示す通り、特定画像IDと、特定画像に関連する付加情報を提供可能な位置を示す特定画像位置情報とを対応付けるテーブルである。この特定画像位置情報は、緯度と、経度と、高度と、位置誤差許容距離を示す情報を含む。
特定画像IDは、特定画像を識別するための識別情報である。なお、この特定画像IDが割り当てられている特定画像データは、この特定画像IDと対応付けて第1記憶部22に格納されている。
The first storage unit 22 stores a specific image position table 220 registered in advance by an administrator of the display image search device 2, for example.
As shown in FIG. 3, the specific image position table 220 is a table that associates a specific image ID with specific image position information indicating a position where additional information related to the specific image can be provided. The specific image position information includes information indicating latitude, longitude, altitude, and position error allowable distance.
The specific image ID is identification information for identifying the specific image. Note that the specific image data to which the specific image ID is assigned is stored in the first storage unit 22 in association with the specific image ID.

例えば、第1記憶部22は、図4に示すような、特定画像ID1、2、3の特定画像データ100、200、300を格納している。なお、いずれの特定画像も、その画像が縦長の長方形であって、例えば、映画の宣伝用のポスター画像である。
図4に示す通り、特定画像データ100は、特定画像ID1が割り当てられており、画面の中央にネコの画像を含む画像である。この特定画像データ100は、画面の約60%の範囲にネコの画像が表示されている。
特定画像データ200は、特定画像ID2が割り当てられており、画面の上部に「映画タイトル」の文字画像を、この「映画タイトル」の下にネコの画像を、それぞれ含む画像である。この特定画像データ200は、画面の約30%の範囲にネコの画像が、画面の約20%の範囲に「映画タイトル」の文字画像が、それぞれ表示されている。
特定画像データ300は、特定画像ID3が割り当てられており、画面の中央に「映画タイトル」の文字画像を、この「映画タイトル」の上にネコの画像を、この「映画タイトル」の右下に「近日公開」の文字画像を、それぞれ含む画像である。この特定画像データ300は、画面の約5%の範囲にネコの画像が、画面の約20%の範囲に「映画タイトル」の文字画像が、画面の約5%の範囲に「近日公開」の文字画像が、それぞれ表示されている。
For example, the first storage unit 22 stores specific image data 100, 200, and 300 having specific image IDs 1, 2, and 3 as shown in FIG. Note that each of the specific images is a vertically long rectangle, for example, a poster image for movie promotion.
As shown in FIG. 4, the specific image data 100 is an image that is assigned a specific image ID1 and includes a cat image in the center of the screen. In the specific image data 100, a cat image is displayed in a range of about 60% of the screen.
The specific image data 200 is assigned with a specific image ID 2 and is an image including a character image of “movie title” at the top of the screen and a cat image under the “movie title”. In the specific image data 200, a cat image is displayed in a range of about 30% of the screen, and a character image of “movie title” is displayed in a range of about 20% of the screen.
The specific image data 300 is assigned with a specific image ID 3, a character image of “movie title” in the center of the screen, a cat image on this “movie title”, and a lower right of this “movie title”. The images include character images of “coming soon”. The specific image data 300 includes a cat image in the range of about 5% of the screen, a character image of “movie title” in the range of about 20% of the screen, and “coming soon” in the range of about 5% of the screen. Each character image is displayed.

図3に戻って、緯度、経度、および高度は、特定画像IDの特定画像データに対応する特定画像位置を示す情報である。この特定画像位置は、例えば、特定画像データが表わされたポスターや大型ディスプレイが設置されている位置である。
位置誤差許容距離は、緯度、経度、および高度によって、特定画像位置とみなされる一定の範囲を示す情報である。この位置誤差許容距離は、例えば、特定画像位置を中心とする円の半径を示す距離である。
Returning to FIG. 3, latitude, longitude, and altitude are information indicating the specific image position corresponding to the specific image data of the specific image ID. The specific image position is, for example, a position where a poster or a large display in which specific image data is represented is installed.
The position error allowable distance is information indicating a certain range that is regarded as a specific image position by latitude, longitude, and altitude. This position error allowable distance is, for example, a distance indicating the radius of a circle centered on the specific image position.

図1に戻って、画像特徴量算出部23は、撮影画像データD(n)に基づき、この画像の特徴を示す画像特徴量(以下、撮影画像特徴量という)を算出する。この撮影画像特徴量は、例えば、色の成分、明るさ、エッジ画像等の画像の特徴を数値化したものである。なお、本実施形態において、撮影画像特徴量は、撮影画像全体に対応する特徴量のうち、一定の閾値以上の数値を有するもののみを表わす。   Returning to FIG. 1, the image feature quantity calculator 23 calculates an image feature quantity (hereinafter referred to as a photographed image feature quantity) indicating the feature of the image based on the photographed image data D (n). This photographed image feature amount is obtained by quantifying image features such as color components, brightness, and edge images. In the present embodiment, the photographed image feature amount represents only the feature amount corresponding to the entire photographed image having a numerical value equal to or greater than a certain threshold value.

この撮影画像特徴量の一例を図5に示す。図5に示す通り、画像特徴量算出部23は、例えば、撮影画像データD(n)に基づき撮影画像特徴量を算出し、例えば、撮影画像特徴量群C1、C2、C3を得る。
この撮影画像特徴量群C1は、撮影画像データD(n)の画像内において、ビルB1の大型ディスプレイに表示された「映画タイトル」の文字画像に対応する画像領域から算出された特徴量である。
撮影画像特徴量群C2は、撮影画像データD(n)の画像内において、ビルB1の大型ディスプレイに表示されたネコの画像に対応する画像領域から算出された特徴量である。
撮影画像特徴量群C3は、撮影画像データD(n)の画像内において、ビルB2の貸広告のスペースに表示されたネコの画像に対応する画像領域から算出された特徴量である。
なお、撮影画像特徴量群C2とC3は、ともにネコの画像に対応する画像領域から算出される特徴量であり、その特徴量の分布は類似している。
An example of the photographed image feature amount is shown in FIG. As illustrated in FIG. 5, the image feature amount calculation unit 23 calculates a captured image feature amount based on the captured image data D (n), for example, and obtains captured image feature amount groups C1, C2, and C3.
This photographed image feature quantity group C1 is a feature quantity calculated from an image area corresponding to the character image of “movie title” displayed on the large display of the building B1 in the photographed image data D (n) image. .
The photographed image feature quantity group C2 is a feature quantity calculated from an image area corresponding to a cat image displayed on the large display of the building B1 in the photographed image data D (n) image.
The photographed image feature amount group C3 is a feature amount calculated from an image region corresponding to a cat image displayed in the rental advertisement space of the building B2 in the image of the photographed image data D (n).
Note that the photographed image feature amount groups C2 and C3 are both feature amounts calculated from an image region corresponding to a cat image, and the distribution of the feature amounts is similar.

図1に戻って、位置情報比較部24は、通信部21から撮影位置情報P(n)を入力する。この位置情報比較部24は、特定画像位置テーブル220を参照して、入力する撮影位置情報P(n)に基づき、対応する特定画像IDを検索する。つまり、位置情報比較部24は、特定画像位置情報の示す範囲に撮影位置情報P(n)の示す撮影位置を含む特定画像データを検索する。
言い換えると、位置情報比較部24は、第1記憶部22に記憶されている全ての特定画像データの中から、撮影位置情報に対応する特定画像データを検索によって得ることで、画像特徴量比較部26による比較対象を撮影位置情報に対応するものに限定する処理を行っている。
Returning to FIG. 1, the position information comparison unit 24 inputs the shooting position information P (n) from the communication unit 21. The position information comparison unit 24 refers to the specific image position table 220 and searches for the corresponding specific image ID based on the input shooting position information P (n). That is, the position information comparison unit 24 searches for specific image data that includes the shooting position indicated by the shooting position information P (n) within the range indicated by the specific image position information.
In other words, the position information comparison unit 24 obtains the specific image data corresponding to the shooting position information from all the specific image data stored in the first storage unit 22 by searching, and thereby the image feature amount comparison unit. 26 is performed to limit the comparison target to that corresponding to the shooting position information.

具体的に説明すると、位置情報比較部24は、撮影位置情報P(n)が示す位置が、特定画像位置テーブル220に示された緯度、経度、高度を中心とし位置誤差許容距離を半径とする特定画像位置範囲内となる特定画像IDがあるか否かを判断する。この位置情報比較部24は、この撮影位置情報P(n)の示す位置が特定画像位置範囲内となる特定画像IDを検索によって得た場合、この検索によって得た特定画像IDを画面特徴量比較部26に出力する。
なお、特定画像特徴量テーブル250において、特定の緯度、経度、高度、位置誤差許容距離と対応づけられていない特定画像IDの特定画像データは、位置情報比較部24により検索結果の候補から除外せず、位置情報比較部24によって画像特徴量比較部26に出力される。
More specifically, the position information comparison unit 24 uses the position indicated by the shooting position information P (n) as the center with the latitude, longitude, and altitude indicated in the specific image position table 220 as the radius. It is determined whether there is a specific image ID that falls within the specific image position range. When the position information comparison unit 24 obtains a specific image ID in which the position indicated by the shooting position information P (n) is within the specific image position range by the search, the specific image ID obtained by the search is compared with the screen feature amount. To the unit 26.
In the specific image feature quantity table 250, the specific image data of the specific image ID that is not associated with the specific latitude, longitude, altitude, and position error allowable distance is excluded from the search result candidates by the position information comparison unit 24. First, the position information comparison unit 24 outputs the image feature amount comparison unit 26.

第2記憶部25は、例えば表示画像検索装置2の管理者により予め登録された特定画像特徴量テーブル250を記憶する。
この特定画像特徴量テーブル250は、図6に示す通り、特定画像IDと、特定画像の特徴を示す特定画像特徴量情報とを対応付けるテーブルである。この特定画像特徴量情報は、特徴点縦座標と、特徴点横座標と、特徴点特徴量とを示す情報を含む。
この特徴点縦座標と特徴点横座標は、対応する特定画像IDの特定画像データにおける特徴点特徴量の位置を示す。この特徴点特徴量は、この特徴点縦座標と特徴点横座標が示す位置の特徴量を示す。なお、各特定画像IDに対応付けられている特徴点特徴量の数は、各特定画像IDに応じて決まる。
The second storage unit 25 stores, for example, a specific image feature amount table 250 registered in advance by an administrator of the display image search device 2.
As shown in FIG. 6, the specific image feature amount table 250 is a table that associates a specific image ID with specific image feature amount information indicating the characteristics of the specific image. The specific image feature amount information includes information indicating the feature point ordinate, the feature point abscissa, and the feature point feature amount.
The feature point ordinate and feature point abscissa indicate the position of the feature point feature quantity in the specific image data of the corresponding specific image ID. This feature point feature amount indicates the feature amount at the position indicated by the feature point ordinate and the feature point abscissa. Note that the number of feature point feature quantities associated with each specific image ID is determined according to each specific image ID.

図1に戻って、画像特徴量比較部26は、特定画像特徴量テーブル250を参照して、位置情報比較部24の検索によって得られた特定画像IDに対応する特徴量を読み出し、この特定画像IDに対応する特徴量と、画像特徴量算出部23によって算出された撮影画像特徴量とを比較して、撮影画像データD(n)の画像内に含まれる特徴量と類似する特徴量を有する特定画像を、特定画像候補として検出する。   Returning to FIG. 1, the image feature amount comparison unit 26 reads the feature amount corresponding to the specific image ID obtained by the search of the position information comparison unit 24 with reference to the specific image feature amount table 250, and this specific image. The feature amount corresponding to the ID and the captured image feature amount calculated by the image feature amount calculation unit 23 are compared, and the feature amount is similar to the feature amount included in the image of the captured image data D (n). A specific image is detected as a specific image candidate.

具体的に説明すると、この画像特徴量比較部26は、位置情報比較部24の検索によって得られた特定画像IDに対応する特徴量と撮影画像データD(n)の撮影画像特徴量との類似度を示す特徴量類似度を算出し、この特徴量類似度が閾値以上の特定画像IDの特定画像データを特定画像候補として検出する。この画像特徴量比較部26は、この特定画像候補を示す特定画像IDと、特定画像特徴量テーブル250においてこの特定画像IDと対応付けられている特徴量とを対応付けた特定画像候補セットを取得し、画像識別部27に出力する。なお、特徴量類似度が閾値以上の特定画像データが複数ある場合、複数の特定画像候補セットが検出される。
なお、特徴量類似度は、例えば、レベル1〜10で示され、閾値がレベル5とする。また、レベル1は、特定画像の特徴量と撮影画像特徴量とが最も類似していないことを示し、レベル10は特定画像の特徴量と撮影画像特徴量とが最も類似していることを示すものとする。
More specifically, the image feature amount comparison unit 26 is similar to the feature amount corresponding to the specific image ID obtained by the search of the position information comparison unit 24 and the captured image feature amount of the captured image data D (n). The feature amount similarity indicating the degree is calculated, and the specific image data of the specific image ID having the feature amount similarity equal to or greater than the threshold is detected as a specific image candidate. The image feature amount comparison unit 26 acquires a specific image candidate set in which the specific image ID indicating the specific image candidate is associated with the feature amount associated with the specific image ID in the specific image feature amount table 250. And output to the image identification unit 27. In addition, when there are a plurality of specific image data whose feature amount similarity is equal to or greater than a threshold value, a plurality of specific image candidate sets are detected.
Note that the feature amount similarity is represented by levels 1 to 10, for example, and the threshold is level 5. Level 1 indicates that the feature amount of the specific image is not the most similar to the captured image feature amount, and level 10 indicates that the feature amount of the specific image is the most similar to the captured image feature amount. Shall.

ここで、画像特徴量比較部26による処理について、特定画像ID1〜3の中から特定画像候補を選択する例を用いて説明する。なお、本発明は、以下に説明する特定画像候補の選択方法に限られず、例えば、公知となっている画像認識関数等を利用しても実現可能である。
図5に示した通り、撮影画像特徴量群C2は、ネコの画像に対応する画像領域から算出された特徴量である。このため、このネコの画像を含む特定画像データ100、200、300の特徴量と撮影画像特徴量群C2とは類似する。
画像特徴量比較部26は、例えば、この撮影画像特徴量群C2と類似する特徴量の画像が特定画像データにおいて占める面積の割合に応じて、特徴量類似度を算出する。上述の通り、特定画像データ100、200、300のそれぞれにおいて、ネコの画像の占める面積の割合は、60%、30%、5%である。よって、画像特徴量比較部26は、特定画像データ100、200、300の特徴量のそれぞれと撮影画像特徴量群C2との特徴量類似度は、例えば、レベル6、3、0.5と算出する。
Here, the processing by the image feature amount comparison unit 26 will be described using an example in which specific image candidates are selected from the specific image IDs 1 to 3. Note that the present invention is not limited to the specific image candidate selection method described below, and can be realized by using, for example, a known image recognition function.
As shown in FIG. 5, the captured image feature amount group C2 is a feature amount calculated from an image region corresponding to a cat image. Therefore, the feature amount of the specific image data 100, 200, 300 including the cat image is similar to the photographed image feature amount group C2.
For example, the image feature amount comparison unit 26 calculates the feature amount similarity according to the ratio of the area occupied by the image of the feature amount similar to the captured image feature amount group C2 in the specific image data. As described above, in each of the specific image data 100, 200, and 300, the ratio of the area occupied by the cat image is 60%, 30%, and 5%. Therefore, the image feature amount comparison unit 26 calculates the feature amount similarity between each of the feature amounts of the specific image data 100, 200, and 300 and the captured image feature amount group C2, for example, levels 6, 3, and 0.5. To do.

また、撮影画像特徴量群C1は、「映画タイトル」の文字画像に対応する画像領域から算出された特徴量である。このため、この「映画タイトル」の文字画像を含む特定画像データ200、300の特徴量と撮影画像特徴量群C1とは類似する。上述の通り、特定画像データ200、300のそれぞれにおいて、「映画タイトル」の文字画像の占める面積の割合は、ともに20%である。よって、画像特徴量比較部26は、特定画像データ200、300の特徴量のそれぞれと撮影画像特徴量群C1との特徴量類似度は、例えば、レベル2と算出する。   The photographed image feature quantity group C1 is a feature quantity calculated from an image area corresponding to the character image of “movie title”. Therefore, the feature amount of the specific image data 200 and 300 including the character image of the “movie title” is similar to the captured image feature amount group C1. As described above, the ratio of the area occupied by the character image of “movie title” in each of the specific image data 200 and 300 is 20%. Therefore, the image feature amount comparison unit 26 calculates the feature amount similarity between each of the feature amounts of the specific image data 200 and 300 and the captured image feature amount group C1, for example, level 2.

さらに、「映画タイトル」の文字画像の位置は、ネコの画像の上にあり、撮影画像特徴量群C1、C2との位置関係に基づき、特定画像データ200の方が、特定画像データ300に比べて、撮影画像特徴量群C1、C2と類似している。よって、画像特徴量比較部26は、特定画像データ200の特徴量と撮影画像特徴量群C1、C2との特徴量類似度は、例えば、レベル2と算出する。   Furthermore, the position of the character image of “movie title” is on the cat image, and the specific image data 200 is more specific than the specific image data 300 based on the positional relationship with the captured image feature groups C1 and C2. The captured image feature amount groups C1 and C2 are similar. Therefore, the image feature amount comparison unit 26 calculates the feature amount similarity between the feature amount of the specific image data 200 and the captured image feature amount groups C1 and C2, for example, level 2.

画像特徴量比較部26は、特定画像データ毎に算出した特徴量類似度を加算して、撮影画像特徴量群C1、C2との特徴点類似度を算出する。
これにより、画像特徴量比較部26は、撮影画像特徴量群C1、C2と特定画像データ100との特徴量類似度が「6」、撮影画像特徴量群C1、C2と特定画像データ200との特徴量類似度が「6」、撮影画像特徴量群C1、C2と特定画像データ300との特徴量類似度が「2.5」と算出する。
このように、撮影画像特徴量群C1、C2と特定画像データ100、200との特徴量類似が閾値のレベル5以上である。よって、画像特徴量比較部26は、特定画像ID1、2を、撮影画像特徴量群C1、C2の特定画像候補として検出する。
The image feature amount comparison unit 26 adds the feature amount similarity calculated for each specific image data, and calculates the feature point similarity with the captured image feature amount groups C1 and C2.
As a result, the image feature amount comparison unit 26 sets the feature amount similarity between the captured image feature amount groups C1 and C2 and the specific image data 100 to “6”, and the captured image feature amount groups C1 and C2 and the specific image data 200. The feature amount similarity is calculated as “6”, and the feature amount similarity between the captured image feature groups C1 and C2 and the specific image data 300 is calculated as “2.5”.
As described above, the feature amount similarity between the captured image feature amount groups C1 and C2 and the specific image data 100 and 200 is the threshold level 5 or higher. Therefore, the image feature amount comparison unit 26 detects the specific images ID1 and ID2 as specific image candidates of the captured image feature amount groups C1 and C2.

なお、上述のようにして、画像特徴量比較部26が、特定画像データ100、200、300の特徴量のそれぞれと撮影画像特徴量群C3との特徴量類似度を算出すると、それぞれの特徴点類似度は、レベル6、3、0.5となる。よって、画像特徴量比較部26は、特定画像ID1を、撮影画像特徴量群C3の特定画像候補として検出する。   As described above, when the image feature amount comparison unit 26 calculates the feature amount similarity between each of the feature amounts of the specific image data 100, 200, and 300 and the captured image feature amount group C3, each feature point is calculated. Similarities are levels 6, 3, and 0.5. Therefore, the image feature amount comparison unit 26 detects the specific image ID1 as a specific image candidate of the captured image feature amount group C3.

また、画像特徴量比較部26は、撮影画像データD(n)の画像内における特定画像データの画像の歪みや、照明や設置環境等の撮影条件の違いに応じて、位置情報比較部24の検索によって得られた特定画像IDに対応する特徴量を補正し、この補正した特定画像IDに対応する特徴量と撮影画像特徴量とを比較する。これにより、撮影画像データD(n)の画像内における特定画像データの画像が歪んでいる場合や、撮影条件が異なる場合であっても、撮影画像データD(n)に含まれている特定画像を検出することができる。
なお、撮影条件とは、例えば、撮影時の照明が自然光(日中、夜間)、蛍光灯、白熱灯等であって照明の色や明るさ、特定画像データの画像が設置されている背景の色や明るさ、映り込みの有無や程度に応じて決められる。補正値は、このように想定される撮影時の状況の撮影条件に応じて、特徴量を補正する係数によって予め決められている。なお、この補正値は、例えば、第2記憶部25に記憶されている。
よって、画像特徴量比較部26は、特定画像特徴量テーブル250から読み出した特定画像データの特徴量に対して撮影条件や画像の歪みに応じた補正をかけた特徴量と、撮影画像特徴量とを比較して、特定画像データであると許容される類似度の閾値の範囲内であれば、撮影画像特徴量と類似する特徴量を有する特定画像データと認識する。一方、この類似度の閾値の範囲外である場合、画像特徴量比較部26は、撮影画像特徴量と類似する特徴量を有しない特定画像データと認識し、この特定画像データを特定画像候補としては検出しない。
In addition, the image feature amount comparison unit 26 determines whether the position information comparison unit 24 determines the image distortion of the specific image data in the image of the captured image data D (n) or the difference in the image capturing conditions such as illumination and installation environment. The feature amount corresponding to the specific image ID obtained by the search is corrected, and the feature amount corresponding to the corrected specific image ID is compared with the captured image feature amount. Thereby, even when the image of the specific image data in the image of the captured image data D (n) is distorted or when the shooting conditions are different, the specific image included in the captured image data D (n). Can be detected.
Note that the shooting conditions include, for example, natural lighting (daytime, nighttime), fluorescent light, incandescent light, etc., and the background of the color and brightness of the lighting and the image of the specific image data. It is decided according to the color, brightness, presence or absence and the degree of reflection. The correction value is determined in advance by a coefficient for correcting the feature amount in accordance with the shooting condition of the situation at the time of shooting assumed in this way. In addition, this correction value is memorize | stored in the 2nd memory | storage part 25, for example.
Therefore, the image feature amount comparison unit 26 applies a feature amount obtained by correcting the feature amount of the specific image data read from the specific image feature amount table 250 according to the shooting conditions and image distortion, and the captured image feature amount. Are within the range of the similarity threshold allowed for the specific image data, it is recognized as specific image data having a feature quantity similar to the photographed image feature quantity. On the other hand, when the similarity is outside the threshold value range, the image feature amount comparison unit 26 recognizes the specific image data having no feature amount similar to the captured image feature amount, and uses the specific image data as a specific image candidate. Is not detected.

図1に戻って、画像識別部27は、重畳領域抽出部28に対して特定画像候補セットを出力し、撮影画像データD(n)の画像内における特定画像候補の画像領域(以下、重畳領域という)を重畳領域抽出部28に算出させる。この画像識別部27は、重畳領域抽出部28によって算出された重畳領域を示す座標情報(以下、重畳領域情報という)を入力する。   Returning to FIG. 1, the image identification unit 27 outputs a specific image candidate set to the superimposition region extraction unit 28, and the image region of the specific image candidate in the image of the captured image data D (n) (hereinafter, the superimposition region). ) Is calculated by the superposition region extraction unit 28. The image identifying unit 27 inputs coordinate information (hereinafter referred to as superimposed region information) indicating the superimposed region calculated by the superimposed region extracting unit 28.

重畳領域抽出部28は、特徴量画像特徴量テーブル25を参照して、画像識別部27から入力する特定画像候補セットに基づき、撮影画像データD(n)の画像内における特定画像候補の重畳領域を示す重畳領域情報を算出する。この重畳領域抽出部28は、特定画像特徴量テーブル250において定義されている特徴点特徴量の位置(特徴点縦座標と特徴点横座標が示す位置)に応じて、この特徴点特徴量と類似する撮影画像特徴量群に対応する重畳領域を抽出する。重畳領域抽出部28は、抽出した重畳領域の座標を、重畳領域情報として算出する。この重畳領域抽出部28は、特定画像候補毎に重畳領域情報を算出し、特定画像候補の特定画像IDと重畳領域情報とを対応付けた重畳領域セットを取得して、画像識別部27に出力する。
この重畳領域抽出部28は、例えば、特定画像候補と対応する特定画像の特徴量の特定画像特徴量テーブル250から読み出し、この特定画像の特徴量を表わす変換行列M(t)を作成する。この変換行列M(t)は、言い換えると、特定画像候補セットから特定画像特徴量テーブル250から読み出し特定画像の特徴量のセットへの変換行列である。重畳領域抽出部28は、この変換行列M(t)に基づき重畳領域の輪郭を示す座標を算出し、重畳領域情報を得る。
The superimposition region extraction unit 28 refers to the feature amount image feature amount table 25 and based on the specific image candidate set input from the image identification unit 27, the superimposition region of the specific image candidate in the image of the captured image data D (n). Is calculated. The superimposing region extraction unit 28 is similar to the feature point feature quantity in accordance with the position of the feature point feature quantity defined in the specific image feature quantity table 250 (the position indicated by the feature point ordinate and the feature point abscissa). A superimposed region corresponding to the captured image feature amount group to be extracted is extracted. The superimposition area extraction unit 28 calculates the coordinates of the extracted superimposition area as superimposition area information. The superimposition region extraction unit 28 calculates superimposition region information for each specific image candidate, acquires a superimposition region set in which the specific image ID of the specific image candidate is associated with the superimposition region information, and outputs it to the image identification unit 27. To do.
For example, the superimposed region extraction unit 28 reads out from the specific image feature amount table 250 of the feature amount of the specific image corresponding to the specific image candidate, and creates a conversion matrix M (t) representing the feature amount of the specific image. In other words, this conversion matrix M (t) is a conversion matrix from the specific image candidate set read from the specific image feature amount table 250 to the set of feature amounts of the specific image. The superimposition area extraction unit 28 calculates coordinates indicating the outline of the superimposition area based on the conversion matrix M (t), and obtains superimposition area information.

ここで、重畳領域抽出部28によって検出される重畳領域の一例について、図9を参照して説明する。図9は、撮影画像データD(n)の撮影画像特徴量群C1〜C3に類似する特定画像候補の重畳領域を示す図である。
R11、R12は、特定画像ID1に対応する重畳領域を示す。R21は、特定画像ID2に対応する重畳領域を示す。
図9に示す通り、撮影画像特徴量群C1、C2と類似する特徴量を有する特定画像データ100の重畳領域R11と特定画像データ200の重畳領域R21は、互いに、撮影画像特徴量群C2に対応する画像領域において重複している。
Here, an example of the overlapping area detected by the overlapping area extraction unit 28 will be described with reference to FIG. FIG. 9 is a diagram illustrating a superimposed region of specific image candidates similar to the captured image feature amount groups C1 to C3 of the captured image data D (n).
R11 and R12 indicate overlapping regions corresponding to the specific image ID1. R21 indicates a superimposed region corresponding to the specific image ID2.
As shown in FIG. 9, the overlapping region R11 of the specific image data 100 and the overlapping region R21 of the specific image data 200 having feature amounts similar to the captured image feature amount groups C1 and C2 correspond to the captured image feature amount group C2. Overlap in the image area.

図1に戻って、画像識別部27は、オブジェクト特徴情報比較部30に対して、対応する重畳領域と特定画像候補との類似度を示すオブジェクト類似度を算出させる。この画像識別部27は、オブジェクト特徴情報比較部30によって算出されたオブジェクト類似度を入力する。   Returning to FIG. 1, the image identification unit 27 causes the object feature information comparison unit 30 to calculate the object similarity indicating the similarity between the corresponding superimposed region and the specific image candidate. The image identification unit 27 inputs the object similarity calculated by the object feature information comparison unit 30.

この画像識別部27は、撮影画像データD(n)の画像内において、重畳領域が一定の閾値以上の面積で重複している特定画像候補の数を算出し、この特定画像候補が複数枚算出された場合、オブジェクト類似度を用いて、重畳領域の画像と最も類似する特定画像候補を選択する。
例えば、この画像識別部27は、重畳領域が一定の閾値以上の面積で重複している複数の特定画像候補毎に、オブジェクト特徴情報比較部30によって算出されるオブジェクト類似度が一定の閾値以上であるか否かを判断する。この画像識別部27は、これら特定画像候補の中から、オブジェクト類似度が閾値以上の特定画像候補を取得する。
画像識別部27は、重畳領域が一定の閾値以上の面積で重複している特定画像候補のうち、このオブジェクト類似度が閾値以上の特定画像候補を、重畳領域に含まれている特定画像と判断し、特定画像候補の中から検索によって得た画像(以下、検索特定画像という)として扱う。
The image identification unit 27 calculates the number of specific image candidates in which the overlapping region overlaps with an area equal to or larger than a certain threshold in the captured image data D (n), and calculates a plurality of specific image candidates. If so, the specific image candidate that is most similar to the image in the superimposed region is selected using the object similarity.
For example, the image identification unit 27 determines that the object similarity calculated by the object feature information comparison unit 30 is equal to or greater than a certain threshold for each of a plurality of specific image candidates whose overlapping regions overlap with an area equal to or greater than a certain threshold. Judge whether there is. The image identification unit 27 acquires, from these specific image candidates, specific image candidates whose object similarity is greater than or equal to a threshold value.
The image identification unit 27 determines that a specific image candidate whose object similarity is equal to or greater than the threshold among the specific image candidates where the overlap region overlaps with an area equal to or greater than a certain threshold is a specific image included in the overlap region. Then, it is handled as an image obtained by searching from specific image candidates (hereinafter referred to as a search specific image).

なお、画像識別部27は、オブジェクト類似度が閾値以上の特定画像候補を複数取得した場合、そのオブジェクト類似度が最大の特定画像候補を1つ選択することで、重畳領域画像に最も類似する特定画像候補を取得する。画像識別部27は、この最も類似する特定画像候補を、検索特定画像として扱う。
一方、重畳領域情報が示す重畳領域が他の重畳領域と重複していない場合、および、重複している場合であってもその重複している重畳領域が一定の閾値未満の面積である場合、画像識別部27は、オブジェクト類似度に基づき、1つの特定画像候補を検索特定画像として選択する処理をすることなく、各重畳領域に対応する特定画像候補を検索特定画像として扱う。
画像識別部27は、各重畳領域情報に検索特定画像の特定画像IDを関連付けて特定画像付加情報取得部32に出力する。
Note that when a plurality of specific image candidates having an object similarity equal to or greater than a threshold value are acquired, the image identification unit 27 selects one specific image candidate having the maximum object similarity, thereby specifying the most similar to the superimposed region image. Get image candidates. The image identification unit 27 treats the most similar specific image candidate as a search specific image.
On the other hand, when the overlapping region indicated by the overlapping region information does not overlap with other overlapping regions, and even when overlapping, the overlapping overlapping region has an area less than a certain threshold value, Based on the object similarity, the image identification unit 27 treats the specific image candidate corresponding to each overlapping region as the search specific image without performing processing for selecting one specific image candidate as the search specific image.
The image identification unit 27 associates the specific image ID of the search specific image with each superimposition area information and outputs it to the specific image additional information acquisition unit 32.

第3記憶部29は、例えば表示画像検索装置2の管理者により予め登録されたオブジェクト情報テーブル290を記憶する。
このオブジェクト情報テーブル290は、図7に示す通り、特定画像IDと、特定画像に含まれるオブジェクトの特徴を示すオブジェクト特徴情報とを対応付けるテーブルである。このオブジェクト特徴情報は、特定画像内オブジェクト種別と、画像内オブジェク縦座標と、画像内オブジェクト横座標と、特定画像内文字とを含む。
特定画像内オブジェクト種別は、例えば、イメージ、文字、図形等の属性の異なるオブジェクトの種別を示す。ここでは、「1」が文字、「2」が図形、「3」が表、「0」はその他のオブジェクトであることを示す。
画像内特徴座標縦座標と画像内特徴座標横座標は、特定画像IDの示す特定画像データにおいて、オブジェクトを含む位置を示す。なお、このオブジェクトを含む位置は、特定画像データの画像を分割した領域で示すものであってもよく、画像の右上領域、画像の左下領域等によりその位置を特定するものであってもよい。
特定画像内文字は、特定画像内特徴種別が文字を示す場合、この文字の内容を示す。つまり、特定画像内文字は、特定画像内特徴種別が「1」の場合において、対応する特定画像IDの示す特定画像データに含まれる文字列を示す。なお、特定画像内特徴種別が「1」以外の場合、nullとする。
The third storage unit 29 stores an object information table 290 registered in advance by an administrator of the display image search device 2, for example.
As shown in FIG. 7, the object information table 290 is a table that associates a specific image ID with object feature information indicating the characteristics of an object included in the specific image. This object feature information includes a specific image object type, an image object ordinate, an image object abscissa, and a specific image character.
The specific image object type indicates, for example, the type of an object having different attributes such as an image, a character, and a graphic. Here, “1” indicates a character, “2” indicates a figure, “3” indicates a table, and “0” indicates other objects.
The in-image feature coordinate ordinate and the in-image feature coordinate abscissa indicate a position including the object in the specific image data indicated by the specific image ID. The position including the object may be indicated by an area obtained by dividing the image of the specific image data, or may be specified by the upper right area of the image, the lower left area of the image, or the like.
The character in the specific image indicates the content of the character when the characteristic type in the specific image indicates a character. That is, the character in the specific image indicates a character string included in the specific image data indicated by the corresponding specific image ID when the characteristic type in the specific image is “1”. If the feature type in the specific image is other than “1”, it is set to null.

図1に戻って、オブジェクト特徴情報比較部30は、オブジェクト特徴情報テーブル290を参照して、画像識別部27から入力する特定画像候補セットと重畳領域セットに基づき、撮影画像データの画像内における重畳領域の画像(以下、重畳領域画像という)に、重畳領域の特定画像IDに対応するオブジェクトが含まれているか否かを判断する。
具体的にいうと、オブジェクト特徴情報比較部30は、画像識別部27によって重畳領域が一定の閾値以上の面積で重複している特定画像候補が複数枚算出された場合、この特定画像候補にそれぞれ対応する重畳領域画像に、オブジェクト特徴情報テーブル290において定義されているオブジェクトが存在する可能性を示すオブジェクト類似度を算出する。
Returning to FIG. 1, the object feature information comparison unit 30 refers to the object feature information table 290, and superimposes the captured image data in the image based on the specific image candidate set and the overlap region set input from the image identification unit 27. It is determined whether or not an image corresponding to the specific image ID of the superimposed region is included in the region image (hereinafter referred to as a superimposed region image).
Specifically, the object feature information comparison unit 30 determines that each of the specific image candidates when the image identification unit 27 calculates a plurality of specific image candidates in which the overlapping region overlaps with an area equal to or greater than a certain threshold value. An object similarity indicating the possibility that an object defined in the object feature information table 290 exists in the corresponding superimposed area image is calculated.

このオブジェクト類似度は、重畳領域画像と特定画像データの画像が類似している程度を示すものであって、撮影画像データD(n)にこのオブジェクトが含まれている可能性を段階的に表わす情報である。例えば、オブジェクト特徴情報比較部30は、撮影画像特徴量に基づき、オブジェクト特徴情報テーブル290において定義されているオブジェクトの特徴を示す特徴量が撮影画像特徴量に含まれている可能性を算出する。
その結果、撮影画像データD(n)において、各特定画像IDと対応付けられているオブジェクト特徴情報と類似するオブジェクトが決められた位置に存在している場合、オブジェクト特徴情報比較部30は、撮影画像データD(n)にこのオブジェクトが含まれている可能性が高いことを示すオブジェクト類似度を算出する。この場合、オブジェクト類似度は高くなる。なお、このオブジェクトが類似しているとオブジェクト特徴情報比較部30により判断される範囲は、オブジェクトの種類や位置に応じて予め決められている。
また、オブジェクト特徴情報テーブル290において定義されているオブジェクトが、重畳領域画像に存在する可能性が低い場合、オブジェクト類似度は低い。
This object similarity indicates the degree to which the superimposed area image and the image of the specific image data are similar, and indicates the possibility that this object is included in the captured image data D (n) in a stepwise manner. Information. For example, the object feature information comparison unit 30 calculates the possibility that the feature value indicating the feature of the object defined in the object feature information table 290 is included in the photographed image feature amount based on the photographed image feature amount.
As a result, in the captured image data D (n), when an object similar to the object feature information associated with each specific image ID exists at the determined position, the object feature information comparison unit 30 captures the image. An object similarity indicating that there is a high possibility that this object is included in the image data D (n) is calculated. In this case, the object similarity is high. Note that the range in which the object feature information comparison unit 30 determines that the objects are similar is predetermined according to the type and position of the object.
Further, when the object defined in the object feature information table 290 is unlikely to exist in the superimposed area image, the object similarity is low.

例えば、オブジェクト特徴情報テーブル290における特定画像内オブジェクト種別が「1」(文字)である場合、オブジェクト特徴情報比較部30は、光学文字認識( Optical Character Recognition )の技術を利用して、撮影画像データに含まれる文字画像を文字列に変換する。このオブジェクト特徴情報比較部30は、OCRにより検出した文字列と、オブジェクト特徴情報テーブル290に定義されている特定画像内文字の文字列とを比較して、類似する範囲(例えば、一致する文字数が一定割合以上ある場合)内であるか否かを判断する。また、オブジェクト特徴情報比較部30は、OCRにより検出した文字列が、重畳領域画像において、オブジェクト特徴情報テーブル290に定義されている画像内オブジェクト縦座標と画像内オブジェクト横座標が示す位置にあるか否かを判断する。このオブジェクト特徴情報比較部30は、文字列の比較結果が類似する範囲内であり、かつ、定義されている位置にオブジェクトがあることが判断された場合、重畳領域画像が、これらオブジェクト特徴情報と対応付けられている特定画像IDである可能性が高いことを示すオブジェクト類似度を算出する。なお、オブジェクト特徴情報比較部30は、この文字列が類似している程度や、オブジェクトの位置が定義されている位置との誤差に応じて、この類似度を段階的に表わすことができる。   For example, when the object type in the specific image in the object feature information table 290 is “1” (character), the object feature information comparison unit 30 uses the technique of optical character recognition (Optical Character Recognition) to capture the captured image data. The character image included in is converted into a character string. The object feature information comparison unit 30 compares the character string detected by the OCR and the character string of the character in the specific image defined in the object feature information table 290, and has a similar range (for example, the number of matching characters is It is determined whether it is within a certain ratio). Also, the object feature information comparison unit 30 determines whether the character string detected by OCR is in the position indicated by the object ordinate in the image and the object abscissa defined in the object feature information table 290 in the superimposed region image. Judge whether or not. When it is determined that the comparison result of the character strings is within a similar range and there is an object at the defined position, the object feature information comparison unit 30 converts the superimposed region image from the object feature information. An object similarity indicating that there is a high possibility that the specific image ID is associated is calculated. Note that the object feature information comparison unit 30 can represent the degree of similarity stepwise in accordance with the degree of similarity of the character strings and the error from the position where the position of the object is defined.

例えば、図9に示した通り、重畳領域R11と重畳領域R21とは、重複している。よって、画像識別部27は、重畳領域R11、R21が、それぞれの領域において重複する面積の割合を、閾値と比較する。ここで閾値は、各重畳領域において、他の重畳領域と重複する面積の割合が50%であることとする。
画像識別部27は、重畳領域R11が、他の重畳領域R21と面積の割合90%で重複しているため、閾値以上であると判断し、この重畳領域R11、R12に対応するオブジェクト類似度を、オブジェクト特徴情報比較部30に算出させる。
For example, as shown in FIG. 9, the overlapping region R11 and the overlapping region R21 overlap. Therefore, the image identification unit 27 compares the ratio of the area where the overlapping regions R11 and R21 overlap in each region with a threshold value. Here, the threshold value is set such that the ratio of the area overlapping with other overlapping regions in each overlapping region is 50%.
The image identification unit 27 determines that the overlapping area R11 is equal to or greater than the threshold value because the overlapping area R11 overlaps the other overlapping area R21 at an area ratio of 90%, and determines the object similarity corresponding to the overlapping areas R11 and R12. Then, the object feature information comparison unit 30 is made to calculate.

ここで、オブジェクト特徴情報比較部30は、OCRより、重畳領域R21の撮影画像特徴量群C1に対応する領域から文字列を検出し、オブジェクト特徴情報テーブル290を参照して、オブジェクト類似度を算出する。ここでは、オブジェクト特徴情報テーブル290において、特定画像ID2と対応付けられているオブジェクト特徴情報と、OCRにより検出した文字列が類似しているとする。オブジェクト特徴情報比較部30は、重畳領域R21のオブジェクト類似度として、特定画像ID2である可能性が高いことを示すオブジェクト類似度を算出する。
また、オブジェクト特徴情報比較部30は、オブジェクト特徴情報テーブル290を参照して、重畳領域R11にオブジェクト特徴情報に対応するオブジェクトがあるか否かを判断する。ここでは、オブジェクト特徴情報比較部30は、対応するオブジェクトがないと判断し、重畳領域R11のオブジェクト類似度として、特定画像ID1である可能性が低いことを示すオブジェクト類似度を算出する。
Here, the object feature information comparison unit 30 detects a character string from the region corresponding to the captured image feature amount group C1 of the superimposed region R21 from the OCR, and calculates the object similarity by referring to the object feature information table 290. To do. Here, in the object feature information table 290, it is assumed that the object feature information associated with the specific image ID2 is similar to the character string detected by OCR. The object feature information comparison unit 30 calculates an object similarity indicating that there is a high possibility of the specific image ID2 as the object similarity of the overlapping region R21.
Further, the object feature information comparison unit 30 refers to the object feature information table 290 and determines whether or not there is an object corresponding to the object feature information in the overlapping region R11. Here, the object feature information comparison unit 30 determines that there is no corresponding object, and calculates an object similarity indicating that the possibility of the specific image ID1 is low as the object similarity of the overlapping region R11.

よって、画像識別部27は、重畳領域R11、R21のそれぞれのオブジェクト類似度に基づき、重畳領域R11、R21が重複する領域に対応する特定画像候補が、特定画像ID2であると判断する。これにより、オブジェクト特徴情報比較部30は、特定画像ID2を、検索特定画像として扱う。
一方、重畳領域R12は、他の重畳領域と重複していないため、画像識別部27は、重畳領域R12に対応する特定画像候補である特定画像ID1の特定画像を、検索特定画像として扱う。
Therefore, the image identification unit 27 determines that the specific image candidate corresponding to the region where the overlapping regions R11 and R21 overlap is the specific image ID2 based on the object similarity of the overlapping regions R11 and R21. Thereby, the object feature information comparison unit 30 handles the specific image ID2 as a search specific image.
On the other hand, since the overlapping region R12 does not overlap with other overlapping regions, the image identifying unit 27 treats the specific image of the specific image ID1 that is the specific image candidate corresponding to the overlapping region R12 as the search specific image.

第4記憶部31は、例えば表示画像検索装置2の管理者により予め登録された特定画像付加情報テーブル310を記憶する。
この特定画像付加情報テーブル310は、図8に示す通り、特定画像IDと、特定画像に関連する付加情報を示す特定画像付加情報と、この特定画像IDに対応する特定画像付加情報を撮影時の条件に応じてさらに特定するための情報である撮影条件情報とを対応付けるテーブルである。この撮影条件情報は、緯度と、経度と、高度と、位置誤差許容距離と、年/月/日と、時刻とを含む。特定画像付加情報は、例えば、コンテンツURLと、動画ファイル名と、スライドショー画像数と、スライドショー画像表示フレームレートとを含む。
The fourth storage unit 31 stores, for example, a specific image additional information table 310 registered in advance by the administrator of the display image search device 2.
As shown in FIG. 8, the specific image additional information table 310 includes a specific image ID, specific image additional information indicating additional information related to the specific image, and specific image additional information corresponding to the specific image ID. It is a table which matches imaging condition information which is information for further specifying according to conditions. This photographing condition information includes latitude, longitude, altitude, allowable position error distance, year / month / day, and time. The specific image additional information includes, for example, a content URL, a moving image file name, the number of slide show images, and a slide show image display frame rate.

緯度、経度、高度、位置誤差許容距離は、特定画像IDに対応する特定画像付加情報を撮影時の位置に応じてさらに特化させることを可能にするための情報である。
年/月/日と、時刻は、特定画像IDに対応する特定画像付加情報を撮影時の日時に応じてさらに特化させることを可能にするための情報である。
コンテンツURLは、特定画像と関連するコンテンツをインターネットを介して提供するURL( Uniform Resource Locator )である。
動画ファイル名は、特定画像と関連する動画ファイルを示す情報である。なお、この動画ファイル名で示す動画ファイルは、第4の記憶部31に保存されている。
スライドショー画像数と、スライドショー画像表示フレームレートは、特定画像と関連するスライドショーの画像枚数と、このスライドショーを表示させる際のフレームレートを示す情報である。
The latitude, longitude, altitude, and position error allowable distance are information for allowing the specific image additional information corresponding to the specific image ID to be further specialized according to the position at the time of shooting.
The year / month / day and time are information for allowing the specific image additional information corresponding to the specific image ID to be further specialized according to the date and time at the time of shooting.
The content URL is a URL (Uniform Resource Locator) that provides content related to a specific image via the Internet.
The moving image file name is information indicating a moving image file associated with the specific image. Note that the moving image file indicated by the moving image file name is stored in the fourth storage unit 31.
The number of slide show images and the slide show image display frame rate are information indicating the number of slide show images associated with the specific image and the frame rate for displaying the slide show.

特定画像付加情報取得部32は、画像識別部27から、重畳領域情報に対応する検索特定画像の特定画像IDを入力する。この特定画像付加情報取得部32は、特定画像付加情報テーブル310を参照して、検索特定画像の特定画像IDに基づき、この特定画像IDに対応する特定画像付加情報を検索によって得る。
また、特定画像付加情報取得部32は、特定画像付加情報テーブル310を参照して、通信部21から入力する撮影位置情報と撮影日時情報に対応する特定画像付加情報を検索によって得る。
特定画像付加情報取得部32は、検索によって得られた特定画像付加情報と、重畳領域情報を、通信部21に出力する。なお、この特定画像付加情報取得部32が通信部21に出力する重畳領域情報は、表示装置1において、撮影画像データの重畳領域、特定画像付加情報を重畳して表示するための表示位置を示す情報であって、表示位置情報という。
通信部21は、入力する特定画像付加情報と表示位置情報(重畳領域情報)を表示装置1に送信する。
The specific image additional information acquisition unit 32 inputs the specific image ID of the search specific image corresponding to the superimposed region information from the image identification unit 27. The specific image additional information acquisition unit 32 refers to the specific image additional information table 310 and acquires specific image additional information corresponding to the specific image ID by searching based on the specific image ID of the search specific image.
Further, the specific image additional information acquisition unit 32 refers to the specific image additional information table 310 to obtain specific image additional information corresponding to the shooting position information and the shooting date / time information input from the communication unit 21 by searching.
The specific image additional information acquisition unit 32 outputs the specific image additional information obtained by the search and the superimposed area information to the communication unit 21. Note that the superimposition area information output from the specific image additional information acquisition unit 32 to the communication unit 21 indicates a superimposition area of captured image data and a display position for superimposing and displaying the specific image additional information on the display device 1. Information, which is called display position information.
The communication unit 21 transmits the input specific image additional information and display position information (superimposition region information) to the display device 1.

次に、図10、11を参照して、本実施形態に係る画像検索表示方法の一例について説明する。図10、11は、本実施形態に係る画像検索表示方法の一例を説明するためのフローチャートである。
例えば、表示装置1の撮影部12がリアルタイム再生画像データを取得して、端末制御部11が表示部15にリアルタイム再生画像データに基づく画像を表示している。この状態において、ユーザが操作部18のシャッターボタンを押下すると、撮影部12が、リアルタイム再生画像データに対応する画像を撮影する。つまり、撮影部12は、撮影画像データD(n)を取得して、端末制御部11に出力する(ステップST1)。
Next, an example of an image search display method according to the present embodiment will be described with reference to FIGS. 10 and 11 are flowcharts for explaining an example of the image search and display method according to the present embodiment.
For example, the photographing unit 12 of the display device 1 acquires real-time reproduction image data, and the terminal control unit 11 displays an image based on the real-time reproduction image data on the display unit 15. In this state, when the user presses the shutter button of the operation unit 18, the imaging unit 12 captures an image corresponding to the real-time playback image data. That is, the imaging unit 12 acquires the captured image data D (n) and outputs it to the terminal control unit 11 (step ST1).

そして、撮影画像データD(n)が取得されたタイミング(例えば、操作部18のシャッターボタンが押下されたタイミング)で、位置情報検出部13は、撮影時に表示装置1が存在する位置を示す撮影位置情報P(n)を検出して、出力する。この撮影画像データD(n)が取得されたタイミングで、計時部14は、撮影時に計時した年月日と時刻を示す撮影日時情報T(n)を出力する(ステップST2)。   Then, at the timing when the captured image data D (n) is acquired (for example, when the shutter button of the operation unit 18 is pressed), the position information detection unit 13 captures the position where the display device 1 is present at the time of capturing. The position information P (n) is detected and output. At the timing when the captured image data D (n) is acquired, the timer unit 14 outputs shooting date / time information T (n) indicating the date and time measured at the time of shooting (step ST2).

次いで、端末制御部11は、撮影部12から出力される撮影画像データD(n)に、撮影位置情報P(n)と撮影日時情報T(n)を対応付けて、通信部16に出力する。そして、通信部16は、撮影画像データD(n)と撮影位置情報P(n)と撮影日時情報T(n)をネットワークNWを介して表示画像検索装置2に送信する(ステップST3)。   Next, the terminal control unit 11 associates the shooting position information P (n) and the shooting date / time information T (n) with the shooting image data D (n) output from the shooting unit 12 and outputs it to the communication unit 16. . Then, the communication unit 16 transmits the photographed image data D (n), the photographing position information P (n), and the photographing date / time information T (n) to the display image retrieval device 2 via the network NW (step ST3).

そして、表示画像検索装置2の通信部21は、表示装置1から送信された撮影画像データD(n)と撮影位置情報P(n)と撮影日時情報T(n)を受信する。この通信部21は、撮影画像データD(n)を画像特徴量算出部23に、撮影位置情報P(n)を位置情報比較部24と特定画像付加情報取得部32に、撮影日時情報T(n)を特定画像付加情報取得部32に、それぞれ出力する。
次いで、位置情報比較部24は、特定画像位置テーブル220を参照して、撮影位置情報P(n)に基づき、特定画像位置テーブル220に示された緯度、経度、高度を中心とし位置誤差許容距離を半径とする特定画像範囲内に、撮影位置情報P(n)が示す位置を含む特定画像データを検索する(ステップST4)。
例えば、位置情報比較部24は、撮影位置情報P(n)に対応する特定画像データとして、特定画像ID1〜10の特定画像データを検索によって得る。
The communication unit 21 of the display image search device 2 receives the captured image data D (n), the shooting position information P (n), and the shooting date / time information T (n) transmitted from the display device 1. The communication unit 21 captures the captured image data D (n) in the image feature amount calculation unit 23, captures the captured position information P (n) in the position information comparison unit 24 and the specific image additional information acquisition unit 32, and captures the shooting date / time information T ( n) is output to the specific image additional information acquisition unit 32.
Next, the position information comparison unit 24 refers to the specific image position table 220 and based on the shooting position information P (n), the position error allowable distance centered on the latitude, longitude, and altitude indicated in the specific image position table 220. The specific image data including the position indicated by the shooting position information P (n) within the specific image range having a radius of is searched (step ST4).
For example, the position information comparison unit 24 obtains specific image data with specific image IDs 1 to 10 by searching as specific image data corresponding to the shooting position information P (n).

そして、画像特徴量算出部23は、撮影画像データD(n)に基づき、この画像の特徴を示す撮影画像特徴量を算出し、画像特徴量比較部26に出力する(ステップST5)。この画像特徴量算出部23は、例えば、図5に示したような撮影画像特徴量群C1、C2、C3を含む撮影画像特徴量を算出する。   Then, the image feature amount calculation unit 23 calculates a photographed image feature amount indicating the feature of the image based on the photographed image data D (n), and outputs it to the image feature amount comparison unit 26 (step ST5). For example, the image feature amount calculation unit 23 calculates a captured image feature amount including the captured image feature amount groups C1, C2, and C3 as illustrated in FIG.

次いで、画像特徴量比較部26は、特定画像特徴量テーブル250を参照して、位置情報比較部24の検索によって得られた特定画像データの特徴量と、画像特徴量算出部23によって算出された撮影画像データD(n)の撮影画像特徴量とを比較して、撮影画像データD(n)の撮影画像特徴量に対応する特定画像候補を検出する(ステップST6)。
例えば、画像特徴量比較部26は、特定画像特徴量テーブル250において各特定画像ID1〜3と対応付けられている特徴量と、撮影画像特徴量群C1、C2、C3を含む撮影画像特徴量とを比較して、特徴量類似度を算出する。そして、画像特徴量比較部26は、上述の通り、撮影画像特徴量群C1、C2と特定画像データ100との特徴量類似度が「6」、撮影画像特徴量群C1、C2と特定画像データ200との特徴量類似度が「6」、撮影画像特徴量群C1、C2と特定画像ID3の特定画像データ100との特徴量類似度が「2.5」であると算出する。よって、画像特徴量比較部26は、特定画像ID1、2を、撮影画像特徴量群C1、C2の特定画像候補として検出する。
また、画像特徴量比較部26が、特定画像データ100、200、300の特徴量のそれぞれと撮影画像特徴量群C3との特徴量類似度を算出すると、それぞれの特徴点類似度は、レベル6、3、0.5となる。よって、画像特徴量比較部26は、特定画像ID1を、撮影画像特徴量群C3の特定画像候補として検出する。
Next, the image feature amount comparison unit 26 refers to the specific image feature amount table 250 and is calculated by the feature amount of the specific image data obtained by the search of the position information comparison unit 24 and the image feature amount calculation unit 23. The specific image candidate corresponding to the captured image feature amount of the captured image data D (n) is detected by comparing with the captured image feature amount of the captured image data D (n) (step ST6).
For example, the image feature amount comparison unit 26 includes feature amounts associated with the specific image IDs 1 to 3 in the specific image feature amount table 250, and captured image feature amounts including the captured image feature amount groups C1, C2, and C3. Are compared to calculate the feature quantity similarity. Then, as described above, the image feature quantity comparison unit 26 has the feature quantity similarity “6” between the photographed image feature quantity groups C1 and C2 and the specific image data 100, and the photographed image feature quantity groups C1 and C2 and the specific image data. It is calculated that the feature amount similarity with “200” is “6”, and the feature amount similarity between the captured image feature amount groups C1 and C2 and the specific image data 100 with the specific image ID3 is “2.5”. Therefore, the image feature amount comparison unit 26 detects the specific images ID1 and ID2 as specific image candidates of the captured image feature amount groups C1 and C2.
In addition, when the image feature amount comparison unit 26 calculates the feature amount similarity between each of the feature amounts of the specific image data 100, 200, and 300 and the photographed image feature amount group C3, each feature point similarity is level 6. 3, 0.5. Therefore, the image feature amount comparison unit 26 detects the specific image ID1 as a specific image candidate of the captured image feature amount group C3.

次いで、画像特徴量比較部26は、ステップST6において検出された特定画像候補の重畳領域を算出する(ステップST7)。
この画像特徴量比較部26は、例えば、図9に示したように、特定画像候補の重畳領域R11、R12、R21を抽出し、これら重畳領域の座標を示す重畳領域情報を算出する。そして、画像特徴量比較部26は、特定画像候補の特定画像IDと重畳領域情報とを対応付けた重畳領域セットを取得して、画像識別部27に出力する。
Next, the image feature amount comparison unit 26 calculates the overlap region of the specific image candidate detected in step ST6 (step ST7).
For example, as illustrated in FIG. 9, the image feature amount comparison unit 26 extracts the overlapping regions R11, R12, and R21 of the specific image candidate, and calculates the overlapping region information indicating the coordinates of these overlapping regions. Then, the image feature amount comparison unit 26 acquires a superimposition region set in which the specific image ID of the specific image candidate and the superimposition region information are associated with each other, and outputs the acquired superimposition region set to the image identification unit 27.

そして、画像識別部27は、撮影画像データD(n)の画像内において、重畳領域が一定の閾値以上の面積で重複している特定画像候補の数を算出する(ステップST8)。
ここで、重畳領域R11と重畳領域R21とは、重複しているため、画像識別部27は、複数の重畳領域が重複していると判断する(ステップST9−YES)。
Then, the image identification unit 27 calculates the number of specific image candidates in which the overlapping region overlaps with an area equal to or larger than a certain threshold in the captured image data D (n) (step ST8).
Here, since the overlapping region R11 and the overlapping region R21 overlap, the image identification unit 27 determines that a plurality of overlapping regions overlap (step ST9—YES).

次いで、オブジェクト特徴情報比較部30が、オブジェクト特徴情報テーブル290を参照して、重複している特定画像候補の特定画像ID1、2とそれぞれの重畳領域R11、R21を示す重畳領域情報に基づき、オブジェクト類似度を算出する(ステップST10)。
そして、画像識別部27は、重畳領域R11、R21のそれぞれのオブジェクト類似度に基づき、重畳領域R11、R21が重複する領域に対応する特定画像候補が、特定画像ID2であると判断する。これにより、オブジェクト特徴情報比較部30は、特定画像ID2を、検索特定画像として扱う(ステップST11)。
そして、画像識別部27は、この重畳領域R11、R21が重複する領域に対応する検索特定画像が、特定画像ID2であることを示す情報を特定画像付加情報取得部32に出力する。
Next, the object feature information comparison unit 30 refers to the object feature information table 290, based on the overlapped region information indicating the overlapped specific image IDs 1 and 2 and the respective overlap regions R11 and R21. The similarity is calculated (step ST10).
Then, the image identification unit 27 determines that the specific image candidate corresponding to the region where the overlapping regions R11 and R21 overlap is the specific image ID2 based on the respective object similarities of the overlapping regions R11 and R21. Accordingly, the object feature information comparison unit 30 handles the specific image ID2 as a search specific image (step ST11).
Then, the image identification unit 27 outputs information indicating that the search specific image corresponding to the region where the overlapping regions R11 and R21 overlap is the specific image ID2 to the specific image additional information acquisition unit 32.

この画像識別部27は、全ての特定画像候補に対して、重複する重畳領域があるか否かの処理を行ったか否かを判断し(ステップST12)、処理を行っていない場合、ステップST8に戻る。
一方、ステップST9において、重複する重畳領域がないと判断された場合、画像識別部27は、ステップST10、11は行ない。例えば、画像識別部27は、当該重畳領域R11に対応する特定画像候補が、特定画像ID1であると判断するため、この場合ステップST10、11は行わない。
The image identification unit 27 determines whether or not there is an overlapped overlapping region for all the specific image candidates (step ST12). If no processing is performed, the process proceeds to step ST8. Return.
On the other hand, when it is determined in step ST9 that there are no overlapping overlapping regions, the image identification unit 27 performs steps ST10 and ST11. For example, since the image identification unit 27 determines that the specific image candidate corresponding to the overlap region R11 is the specific image ID1, steps ST10 and ST11 are not performed in this case.

次いで、図11に示す通り、特定画像付加情報取得部32は、画像識別部27から、重畳領域情報に対応する検索特定画像の特定画像IDを入力する。
この特定画像付加情報取得部32は、特定画像付加情報テーブル310を参照して、検索特定画像の特定画像ID、撮影位置情報、撮影日時情報に対応する特定画像付加情報を検索によって得る(ステップST13)。
Next, as illustrated in FIG. 11, the specific image additional information acquisition unit 32 inputs the specific image ID of the search specific image corresponding to the superimposed region information from the image identification unit 27.
The specific image additional information acquisition unit 32 refers to the specific image additional information table 310 to obtain specific image additional information corresponding to the specific image ID, shooting position information, and shooting date / time information of the search specific image by searching (step ST13). ).

そして、特定画像付加情報取得部32は、特定画像付加情報と、この特定画像付加情報に対応する重畳領域を示す表示位置情報とを、通信部21に出力する(ステップST14)。   Then, the specific image additional information acquisition unit 32 outputs the specific image additional information and the display position information indicating the overlapping area corresponding to the specific image additional information to the communication unit 21 (step ST14).

次いで、通信部21は、特定画像表示データと表示位置情報を対応付けた情報を、表示装置1に送信する(ステップST15)。   Next, the communication unit 21 transmits information associating the specific image display data with the display position information to the display device 1 (step ST15).

表示装置1の通信部16は、特定画像表示データと表示位置情報を対応付けた情報を受信する(ステップST16)。
そして、操作部18から特定画像付加情報を表示部15に表示させることを指示する操作情報を入力した場合(ステップST17−YES)、端末制御部11は、特定画像表示データと重畳領域情報に基づき、撮影画像データの対応する領域に特定画像付加情報を表示させる(ステップST18)。
つまり、端末制御部11は、表示画像検索装置2から受信した特定画像付加情報と表示位置情報に基づき、表示位置情報が示す撮影画像データ内の画像領域に、特定画像付加情報を重畳して表示部15に表示させる。具体的には、端末制御部11が、特定画像付加情報の出力形状を、表示位置情報が示す画像領域の形状に対応するものに変形処理する。そして、端末制御部11が、表示位置情報が示す画像領域に特定画像付加情報を重畳して表示させるための合成処理した撮影画像データを、表示部15に出力する。この表示部15は、この合成処理された撮影画像データに基づき、撮影画像データの重畳領域に特定画像付加情報を重畳して表示する。
The communication unit 16 of the display device 1 receives information associating specific image display data with display position information (step ST16).
And when the operation information which instruct | indicates to display the specific image additional information on the display part 15 is input from the operation part 18 (step ST17-YES), the terminal control part 11 is based on specific image display data and superimposition area | region information. The specific image additional information is displayed in the corresponding area of the captured image data (step ST18).
That is, the terminal control unit 11 superimposes and displays the specific image additional information on the image area in the captured image data indicated by the display position information based on the specific image additional information and the display position information received from the display image search device 2. Display on the unit 15. Specifically, the terminal control unit 11 transforms the output shape of the specific image additional information into a shape corresponding to the shape of the image area indicated by the display position information. Then, the terminal control unit 11 outputs, to the display unit 15, captured image data that has been subjected to synthesis processing for displaying the specific image additional information superimposed on the image region indicated by the display position information. The display unit 15 superimposes and displays the specific image additional information on the superimposed area of the captured image data based on the combined captured image data.

また、端末制御部11は、特定画像付加情報に関連する関連情報を表示させることを指示する操作情報を操作部18が入力した場合(ステップST19−YES)、この関連情報を、表示部15に表示させる(ステップST20)。   In addition, when the operation unit 18 inputs operation information instructing to display related information related to the specific image additional information (YES in step ST19), the terminal control unit 11 displays the related information on the display unit 15. It is displayed (step ST20).

次に、上述の表示画像検索システムを利用して、ユーザにコンテンツ等を提供する際の流れについて説明する。図12は、このコンテンツ等を提供する際に表示装置1に表示される画像の一例を説明する図である。
図12(a)は、被写体を撮影した際の撮影画像データの一例を示す図である。例えば、表示装置1の撮影部12が、図12(a)に示すようなポスターを含む風景を被写体として撮影する。ここで、表示装置1の端末制御部11は、ARモードが設定されており、撮影により生成された撮影画像データと、撮影時に位置情報検出部13により検出された撮影位置情報と、撮影時に計時部14により計時された撮影日時情報を、表示画像検索装置2に送信する。
Next, a flow when providing content etc. to a user using the above-described display image search system will be described. FIG. 12 is a diagram illustrating an example of an image displayed on the display device 1 when providing the content and the like.
FIG. 12A is a diagram illustrating an example of photographed image data when a subject is photographed. For example, the photographing unit 12 of the display device 1 photographs a landscape including a poster as illustrated in FIG. Here, the terminal control unit 11 of the display device 1 is set to the AR mode, and the captured image data generated by photographing, the photographing position information detected by the position information detecting unit 13 at the time of photographing, and the time measurement at the time of photographing. The shooting date / time information timed by the unit 14 is transmitted to the display image search device 2.

そして、表示画像検索装置2の位置情報比較部24は、特定画像位置テーブル220を参照して、撮影位置情報に対応する特定画像を検索し、検索によって得られた特定画像の特定画像IDを画像特徴量比較部26に出力する。これにより、画像特徴量比較部26による検索対象を、表示画像検索装置2に記憶されている全ての特定画像から撮影位置情報に対応した特定画像に絞り込むことができる。
また、画像特徴量算出部23は、撮影画像データに基づき、撮影画像の特徴を示す撮影画像特徴量を算出し、画像特徴量比較部26に出力する。
画像特徴量比較部26は、特定画像特徴量テーブル250を参照して、撮影画像特徴量と類似する特徴量を有する特定画像を検出し、特定画像候補として画像識別部27に出力する。ここで、画像特徴量比較部26は、撮影画像特徴量と特定画像の特徴量と類似の程度を示す特徴量類似度を算出し、この特徴量類似度に応じて撮影画像データに含まれている可能性の高い特定画像を特定画像候補として検出する。
Then, the position information comparison unit 24 of the display image search device 2 searches the specific image corresponding to the shooting position information with reference to the specific image position table 220, and sets the specific image ID of the specific image obtained by the search as the image. The result is output to the feature amount comparison unit 26. Thereby, the search object by the image feature amount comparison unit 26 can be narrowed down from all the specific images stored in the display image search device 2 to a specific image corresponding to the shooting position information.
Further, the image feature amount calculation unit 23 calculates a photographed image feature amount indicating the feature of the photographed image based on the photographed image data, and outputs it to the image feature amount comparison unit 26.
The image feature amount comparison unit 26 refers to the specific image feature amount table 250, detects a specific image having a feature amount similar to the captured image feature amount, and outputs the specific image candidate to the image identification unit 27 as a specific image candidate. Here, the image feature amount comparison unit 26 calculates a feature amount similarity indicating the degree of similarity between the photographed image feature amount and the feature amount of the specific image, and is included in the photographed image data according to the feature amount similarity. A specific image having a high possibility of being detected is detected as a specific image candidate.

重畳領域抽出部28は、各特定画像候補の重畳領域を抽出し、撮影画像データの画面における重畳領域の座標を示す重畳領域情報を画像識別部27に出力する。なお、複数の特定画像候補が検出された場合、重畳領域抽出部28は、各特定画像候補に対応する重畳領域情報を算出する。
ここでは、1つの特定画像候補が検出され、図12(b)に示す通り、撮影画像の画面の右辺が左辺よりも長い台形で示される重畳領域R13が抽出される。また、重畳領域情報は、例えば、この重畳領域R13の四隅を示す座標である。なお、ここでは、検出された特定画像候補が1つであり、複数の重畳領域が重複することがないため、オブジェクト特徴情報比較部30により算出されたオブジェクト類似度に基づき、画像識別部27が複数の特定画像候補のうち、重複する重畳領域に対応する特定画像を選択する処理は実行されない。
そして、画像識別部27は、特定画像候補と重畳領域情報を特定画像付加情報取得部32に出力する。
The superimposition area extraction unit 28 extracts the superimposition area of each specific image candidate, and outputs superimposition area information indicating the coordinates of the superimposition area on the screen of the captured image data to the image identification unit 27. When a plurality of specific image candidates are detected, the overlapping area extraction unit 28 calculates overlapping area information corresponding to each specific image candidate.
Here, one specific image candidate is detected, and as shown in FIG. 12B, a superimposed region R13 in which the right side of the screen of the captured image is indicated by a trapezoid longer than the left side is extracted. The superimposition area information is, for example, coordinates indicating the four corners of the superimposition area R13. Here, there is one detected specific image candidate, and a plurality of overlapping regions do not overlap. Therefore, based on the object similarity calculated by the object feature information comparison unit 30, the image identification unit 27 Of the plurality of specific image candidates, the process of selecting the specific image corresponding to the overlapped overlapping region is not executed.
Then, the image identification unit 27 outputs the specific image candidate and the superimposed area information to the specific image additional information acquisition unit 32.

特定画像付加情報取得部32は、特定画像付加情報テーブル310を参照して、特定画像候補に対応する特定画像付加情報であって、入力する撮影位置情報や撮影日時情報に対応する特定画像付加情報を読み出し、重畳領域情報を示す表示位置情報を対応付けて通信部21に出力する。つまり、表示装置1に提供するコンテンツとして、特定画像候補に対応する特定画像付加情報の中から、さらに、撮影時の位置や日時に応じて異なる特定画像付加情報を選択することができる。
例えば、特定画像位置テーブル220では、特定画像位置情報として、緯度、経度、高度が示す位置から半径数十キロ範囲と規定しておく。そして、特定画像付加情報テーブル310では、この特定画像位置テーブル220において規定する特定画像位置情報よりも狭い範囲、例えば、緯度、経度、高度が示す位置から半径数キロ範囲と規定しておく。
具体的に説明すると、位置情報比較部24では、東京都23区の地域と関連付けられた特定画像を検索により得るようにしておき、特定画像付加情報取得部32では、このエリアよりも狭い、例えば渋谷や恵比寿といった各駅単位のエリアを規定しておく。これにより、東京都23区に張り出された同一のポスターが特定画像として登録されている場合であっても、駅毎にユーザの撮影時の位置に近い映画館の情報を特定画像付加情報として提供することができる。
The specific image additional information acquisition unit 32 refers to the specific image additional information table 310 and is specific image additional information corresponding to a specific image candidate, and specific image additional information corresponding to input shooting position information and shooting date / time information. And display position information indicating the superimposition area information is associated with each other and output to the communication unit 21. That is, as the content to be provided to the display device 1, different specific image additional information can be selected from the specific image additional information corresponding to the specific image candidate according to the position and date / time at the time of shooting.
For example, in the specific image position table 220, the specific image position information is defined as a range of several tens of kilometers from the position indicated by latitude, longitude, and altitude. In the specific image additional information table 310, a range narrower than the specific image position information defined in the specific image position table 220, for example, a range of several kilometers in radius from the position indicated by latitude, longitude, and altitude is defined.
More specifically, the position information comparison unit 24 obtains a specific image associated with the area of Tokyo's 23 wards by searching, and the specific image additional information acquisition unit 32 is narrower than this area. Prescribe areas for each station such as Shibuya and Ebisu. As a result, even if the same poster projecting in the 23 wards of Tokyo is registered as a specific image, information on a movie theater close to the user's shooting position for each station is used as specific image additional information. Can be provided.

表示装置1の通信部16は、この特定画像付加情報と表示位置情報を受信し、端末制御部11に出力する。この端末制御部11は、特定画像付加情報のうち、例えば、動画ファイル等の画像を表示するコンテンツが含まれている場合、このコンテンツの表示形状を、重畳領域情報に基づき重畳領域R13の外形に応じて変形処理をする。つまり、重畳領域R13に内接する形状にコンテンツの外形を変形処理する。この端末制御部11は、変形処理したコンテンツを、重畳領域情報が示す重畳領域R13の上に重ねて表示するように合成処理した画面データを表示部15に出力する。図8に示す例では、コンテンツ動画ファイル名や特定画像に対応付けられているコンテンツである。
これにより、この画像データに基づき、表示装置1の表示部15は、図12(b)に示すように、重畳領域R13に特定画像付加情報のコンテンツを重畳して表示することができる。
このコンテンツは、例えば、ポスターに掲載されている企業や映画等のテレビCMの動画等である。
The communication unit 16 of the display device 1 receives the specific image additional information and the display position information and outputs them to the terminal control unit 11. For example, when content that displays an image such as a moving image file is included in the specific image additional information, the terminal control unit 11 changes the display shape of the content to the outer shape of the overlapping region R13 based on the overlapping region information. The transformation process is performed accordingly. That is, the outer shape of the content is transformed into a shape inscribed in the overlapping region R13. The terminal control unit 11 outputs to the display unit 15 screen data that has been subjected to synthesis processing so that the deformed content is displayed on the overlapping region R13 indicated by the overlapping region information. In the example illustrated in FIG. 8, the content is associated with a content moving image file name or a specific image.
Thereby, based on this image data, the display part 15 of the display apparatus 1 can superimpose and display the content of specific image additional information on the superimposition area | region R13, as shown in FIG.12 (b).
This content is, for example, a movie of a television commercial such as a company or a movie posted on a poster.

また、端末制御部11は、表示部13に表示した動画ファイルのコンテンツの再生が終了すると、続けて、コンテンツに関連するコンテンツ関連情報を閲覧するか否かをユーザに示す表示画面を表示部15に表示させる。ここで、コンテンツ関連情報を閲覧することを指示する操作がユーザから操作部18に入力すると、端末制御部11は、表示画像検索装置2から受信した特定画像付加情報にコンテンツ関連情報が含まれている場合、このコンテンツ関連情報を表示部15に表示する。図8に示す例では、コンテンツURLやスライドスライドショーに関する情報がコンテンツ関連情報である。
これにより、表示装置1の端末制御部11は、通信部16を介して、コンテンツURLにアクセスしてコンテンツ関連情報をダウンロードし、図12(c)に示すように、コンテンツ関連情報を表示部15に表示する。
このコンテンツ関連情報は、例えば、ポスターに掲載されている企業や映画等とタイアップしているキャンペーン等に関する情報である。
In addition, when the reproduction of the content of the moving image file displayed on the display unit 13 is finished, the terminal control unit 11 continues to display a display screen that indicates to the user whether or not to view content-related information related to the content. To display. Here, when an operation instructing browsing of the content related information is input from the user to the operation unit 18, the terminal control unit 11 includes the content related information in the specific image additional information received from the display image search device 2. If there is, the content related information is displayed on the display unit 15. In the example illustrated in FIG. 8, information related to the content URL and the slide slide show is the content related information.
As a result, the terminal control unit 11 of the display device 1 accesses the content URL via the communication unit 16 to download the content related information, and the content related information is displayed on the display unit 15 as shown in FIG. To display.
This content-related information is, for example, information related to a business or a tie-up with a company or a movie posted on a poster.

このように、表示装置1は、特定画像を含む風景を撮影することで、この特定画像に対応するコンテンツを、撮影した画像のうち特定画像に対応する部分に表示することができる。これにより、マーカ等をポスターの全面に表示せずとも、ARを利用したコンテンツ提供を実現することができる。
よって、ポスターの内容としては、マーカに限られず、ARを利用したコンテンツの提供を受けないユーザも認識できるようなデザイン性の高い写真や文字等を利用することができる。これにより、特定画像をポスターや大型ディスプレイに表示して、本実施形態に係るARモードを利用したコンテンツを配信サービスの提供を受けないユーザに対しても、認識できる画像を表示することができる。また、ARモードを利用したコンテンツの配信サービスの提供を受けるためにユーザが意識的にマーカを撮影せずとも、このARモードを設定しておき、撮影した画像内に特定画像が含まれていれば、関連するコンテンツの提供をうけることができる。
これにより、撮影画像データに特定画像に類似する画像が含まれていれば、特定画像付加情報が重畳領域に重畳されて表示される。よって、特定画像付加情報が動画ファイルの場合、撮影した静止画の撮像画像データの一部に、動画が重畳して表示されるため、撮影した静止画が目の前で動き出したような画像を表示部15に表示することができる。
As described above, the display device 1 can capture the landscape corresponding to the specific image by capturing the landscape including the specific image on the portion corresponding to the specific image in the captured image. This makes it possible to provide content using AR without displaying markers or the like on the entire surface of the poster.
Therefore, the content of the poster is not limited to the marker, and it is possible to use highly-designed photographs and characters that can be recognized by users who do not receive provision of content using AR. Thereby, a specific image can be displayed on a poster or a large display, and a recognizable image can be displayed even for a user who is not provided with a distribution service for content using the AR mode according to the present embodiment. In addition, in order to receive provision of a content distribution service using the AR mode, the AR mode is set without the user consciously shooting the marker, and a specific image is included in the shot image. For example, you can receive related content.
As a result, if the captured image data includes an image similar to the specific image, the specific image additional information is displayed superimposed on the overlapping region. Therefore, when the specific image additional information is a moving image file, the moving image is superimposed and displayed on a part of the captured image data of the captured still image. It can be displayed on the display unit 15.

また、表示画像検索装置2は、画像特徴量に基づき、撮影画像データ内における特定画像に類似する画像を特定画像候補として検出するとともに、複数の特定画像候補が検出された場合、オブジェクト類似度を算出して、最も類似する特定画像を決定する。この構成により、画像特徴量による類似度の判定では、その類似とする範囲を広く規定しておき、類似する複数の特定画像を特定画像候補として検出し、これらからオブジェクトに基づきその類似とする範囲を絞ることができる。
このように、本発明は、画像識別処理による「画像の特徴量」の類似度に、「画像が撮影された位置情報」および「特定画像に含まれる文字情報や画像情報等のオブジェクトならびにそれらの画像内における座標情報」を組み合わせて、撮影画像データと特定画像を比較処理する。この比較方法の採用により、従来方式に比べて誤識別や識別不可能となる場合を低減でき、従来よりも正確にモバイルデバイスで撮影された空間に付加情報の表示を可能とする。
Further, the display image search device 2 detects an image similar to the specific image in the captured image data as the specific image candidate based on the image feature amount, and when a plurality of specific image candidates are detected, the object similarity is determined. Calculate and determine the most similar specific image. With this configuration, in the similarity determination based on the image feature amount, the range to be similar is defined widely, a plurality of similar specific images are detected as specific image candidates, and the range to be similar based on the object is determined from these. Can be squeezed.
As described above, according to the present invention, the similarity of the “image feature amount” obtained by the image identification processing is determined based on the “position information where the image is captured” and the “text information and image information included in the specific image, and the objects thereof. The captured image data and the specific image are compared with each other by combining the “coordinate information in the image”. By adopting this comparison method, it is possible to reduce the case of erroneous identification or inability to be identified as compared with the conventional method, and it is possible to display the additional information in the space photographed by the mobile device more accurately than the conventional method.

例えば、撮影条件が悪く撮影画像データにノイズが含まれる場合、撮影画像に含まれる特定画像の特徴量と、テーブルにおいて規定されている特定画像の特徴量とが大きく異なる場合がある。この場合、撮影画像の被写体として特定画像を含んでいるにも関わらず、撮影画像から特定画像を認識できない場合や、誤って他の特定画像を認識してしまう場合がある。
本願発明によれば、このような誤認識や認識不可能等の発生を防止し、撮影画像データに含まれる特定画像の検索精度を向上させることができる。また、特定画像が、撮影された画像内の仮想空間において、どの領域に存在するのか特定することができ、仮想空間内において特定画像が存在する領域に対応するコンテンツを表示することができる。
For example, when the shooting conditions are bad and noise is included in the captured image data, the feature amount of the specific image included in the captured image may be greatly different from the feature amount of the specific image defined in the table. In this case, although the specific image is included as the subject of the captured image, the specific image may not be recognized from the captured image, or another specific image may be erroneously recognized.
According to the present invention, it is possible to prevent the occurrence of such misrecognition and unrecognition, and improve the search accuracy of the specific image included in the captured image data. In addition, it is possible to specify in which region the specific image exists in the captured virtual space, and it is possible to display content corresponding to the region in which the specific image exists in the virtual space.

また、特定画像付加情報テーブル310において、コンテンツ等を規定する特定画像付加情報に加え、撮影条件情報を特定IDに対応付けておき、特定画像付加情報取得部32が、入力する撮影位置情報や撮影日時情報に対応する特定画像付加情報を検索する。これにより、同一の特定画像が検索によって得られた場合であっても、撮影時の位置や日時に応じて、配信するコンテンツを変更することができる。これにより、配信するコンテンツの属性に応じてコンテンツを配信することができる。   In addition, in the specific image additional information table 310, in addition to the specific image additional information that defines the content and the like, the shooting condition information is associated with the specific ID, and the specific image additional information acquisition unit 32 inputs the shooting position information and the shooting The specific image additional information corresponding to the date information is searched. As a result, even if the same specific image is obtained by the search, the content to be distributed can be changed according to the position and date / time at the time of shooting. Accordingly, the content can be distributed according to the attribute of the content to be distributed.

次に、図13を参照して、コンテンツを提供するサービスの一例について説明する。図13は、本実施形態に係る表示画像検索システムを利用したサービスの一例を説明するための図である。
例えば、図13(a)に示す通り、雑誌や新聞等の媒体に特定画像を掲載しておくことで、この特定画像に関連する広告のコンテンツや、ショッピングサイトのURLを、コンテンツやコンテンツ関連情報として提供することができる。
また、図13(b)に示す通り、ビルの大型ディスプレイや貸広告スペース等に特定画像である映画のポスターを表示することで、この風景を撮影した場合、映画の予告編の動画やこの映画が上映されている映画館の情報を、コンテンツやコンテンツ関連情報として提供することができる。この場合、特定画像付加情報テーブル310において、撮影条件情報として、各映画館の位置に応じた緯度、経度、高度で示される位置情報を設定して、特定画像付加情報と対応付けるデータを予め用意しておく。これにより、特定画像位置テーブル220に規定されている位置情報においては同一の範囲内とされる複数の映画館であって、撮影時にユーザが存在している位置により近い映画館の情報を配信することができる。
Next, an example of a service that provides content will be described with reference to FIG. FIG. 13 is a diagram for explaining an example of a service using the display image search system according to the present embodiment.
For example, as shown in FIG. 13A, by placing a specific image on a medium such as a magazine or a newspaper, the content of the advertisement related to the specific image or the URL of the shopping site can be changed to the content or content related information. Can be offered as.
In addition, as shown in FIG. 13B, by displaying a movie poster, which is a specific image, on a large display of a building, a rental advertisement space, etc., when this landscape is shot, a movie trailer movie or this movie is displayed. Information about the movie theater being screened can be provided as content or content-related information. In this case, in the specific image additional information table 310, position information indicated by latitude, longitude, and altitude corresponding to the position of each movie theater is set as shooting condition information, and data associated with the specific image additional information is prepared in advance. Keep it. As a result, information on a plurality of movie theaters within the same range in the position information defined in the specific image position table 220 and closer to the position where the user exists at the time of shooting is distributed. be able to.

<第2実施形態>
次に、図14、15を参照して、本発明に係る他の実施形態の一例について説明する。図14は、第1、2の実施形態を含む概念を説明するための図である。
図14に示す通り、本発明に係る表示画像検索装置2は、表示装置1の撮影部12が撮影した撮影画像データと、撮影時に取得される撮影位置情報と撮影日時情報に基づき、以下の(A)〜(C)の要素に基づき、特定画像が撮影した画像内に含まれているか否かを検索する。この表示画像検索装置2は、撮影画像データに特定画像と類似する画像が含まれている場合、この特定画像に関連するコンテンツを、表示部15が表示している撮影画像データ内の対応する領域に重畳して表示させる。また、コンテンツ関連情報が存在する場合、このコンテンツ関連情報を、コンテンツを表示した後に表示させる。
このように、表示画像検索装置2は、(A)撮影画像データから検出されるオブジェクトと特定画像に含まれるオブジェクトの類似の程度を示すオブジェクト類似度、(B)撮影位置情報に基づき特定画像が存在する位置との距離、(C)撮影画像データから検出される撮影画像特徴量と特定画像の特徴量の類似の程度を示す特徴量類似度、に基づき、撮影画像データに含まれている特定画像を検索する。
Second Embodiment
Next, an example of another embodiment according to the present invention will be described with reference to FIGS. FIG. 14 is a diagram for explaining a concept including the first and second embodiments.
As shown in FIG. 14, the display image search device 2 according to the present invention is based on the captured image data captured by the capturing unit 12 of the display device 1, the capturing position information acquired at the time of capturing, and the capturing date and time information as follows ( Based on the elements A) to (C), it is searched whether or not the specific image is included in the captured image. When the captured image data includes an image similar to the specific image, the display image search device 2 displays content related to the specific image in a corresponding region in the captured image data displayed by the display unit 15. Superimposed on the display. If content related information exists, the content related information is displayed after the content is displayed.
As described above, the display image search device 2 is configured such that (A) the object similarity indicating the degree of similarity between the object detected from the captured image data and the object included in the specific image, and (B) the specific image based on the shooting position information. The identification included in the photographed image data based on the distance to the existing position, and (C) the feature quantity similarity indicating the degree of similarity between the photographed image feature quantity detected from the photographed image data and the feature quantity of the specific image. Search for an image.

上述の第1実施形態において、表示画像検索装置2は、最初に、(B)特定画像が存在する位置との距離に応じて、特定画像をある程度絞り、撮影位置情報に対応する特定画像に対して、(C)特徴量類似度を算出している。また、重畳領域が一定の割合の面積以上で重複する特定画像候補が検出された場合のみ、(A)オブジェクト類似度を算出して、1つの特定画像候補に絞っている。このような処理手順で特定画像を決定することにより、処理対象となる特定画像の絞込みや、オブジェクト類似度の算出処理を省くことができるため、処理速度の向上に貢献し、装置に対する処理負荷を軽減することができる。
しかし本発明はこれに限られず、上述の通り(A)〜(C)の要素に基づき、特定画像が撮影した画像内に含まれているか否かを検索し、撮影画像の画像領域に応じて最も類似する特定画像に決定することができる。この一例を以下に説明する。
In the first embodiment described above, the display image search device 2 first narrows down the specific image to some extent according to the distance from the position where the specific image exists (B), and for the specific image corresponding to the shooting position information. (C) The feature quantity similarity is calculated. Further, only when a specific image candidate that overlaps with an area of a certain ratio or more is detected, (A) the object similarity is calculated and narrowed down to one specific image candidate. By determining the specific image in such a processing procedure, it is possible to omit the narrowing down of the specific image to be processed and the calculation process of the object similarity, thereby contributing to an improvement in processing speed and reducing the processing load on the apparatus. Can be reduced.
However, the present invention is not limited to this, and as described above, based on the elements (A) to (C), it is searched whether or not the specific image is included in the captured image, and according to the image area of the captured image. The specific image that is most similar can be determined. An example of this will be described below.

図15を参照して、第2実施形態に係る表示画像検索装置2´の構成について説明する。なお、各構成の基本的な機能は第1実施形態と同様であり、同一の符号を付すことで、詳細な説明は省略する。ここでは、各構成に入出力する情報や接続関係が異なることで、第1実施形態と異なる処理手順や機能について説明する。
図15に示す通り、通信部21が受信した撮影画像データは、画像特徴量算出部23とオブジェクト特徴情報比較部30に出力され、撮影位置情報は位置情報比較部24に出力される。
With reference to FIG. 15, the configuration of the display image search device 2 ′ according to the second embodiment will be described. The basic function of each component is the same as that of the first embodiment, and the detailed description is omitted by attaching the same reference numerals. Here, processing procedures and functions different from those in the first embodiment will be described because information input to and output from each configuration and connection relations are different.
As shown in FIG. 15, the captured image data received by the communication unit 21 is output to the image feature amount calculation unit 23 and the object feature information comparison unit 30, and the shooting position information is output to the position information comparison unit 24.

位置情報比較部24は、特定画像位置テーブル220を参照して、撮影位置情報に対応する特定画像を検索する。この位置情報比較部24は、検索によって得た特定画像毎に、撮影位置情報が示す位置と、この特定画像の位置(特定画像IDに対応付けられている緯度、経度、高度で示される位置)との距離の差(以下、距離誤差X(t)と記す)を算出する。位置情報比較部24は、特定画像位置テーブル220の位置誤差許容距離A(t)と距離誤差X(t)との関係を示す位置類似度f(A(t),X(t))を算出する。言い換えると、位置類似度f(A(t),X(t))は、位置誤差許容距離A(t)が示す特定画像位置範囲に対して、撮影位置情報が示す撮影位置の位置関係や距離関係を表わす関数式であって、特定画像データに割り当てられた位置に対して撮影位置の位置関係を示す。位置情報比較部24は、検索によって得た特定画像を示す特定画像IDと位置類似度f(A(t),X(t))を画像識別部27に出力する。なお、tは、特定画像IDを示す番号である。   The position information comparison unit 24 refers to the specific image position table 220 and searches for a specific image corresponding to the shooting position information. The position information comparison unit 24, for each specific image obtained by the search, the position indicated by the shooting position information and the position of the specific image (the position indicated by the latitude, longitude, and altitude associated with the specific image ID). The distance difference (hereinafter referred to as distance error X (t)) is calculated. The position information comparison unit 24 calculates the position similarity f (A (t), X (t)) indicating the relationship between the position error allowable distance A (t) and the distance error X (t) in the specific image position table 220. To do. In other words, the position similarity f (A (t), X (t)) is the positional relationship or distance of the shooting position indicated by the shooting position information with respect to the specific image position range indicated by the position error allowable distance A (t). It is a functional expression representing the relationship, and shows the positional relationship of the shooting position with respect to the position assigned to the specific image data. The position information comparison unit 24 outputs the specific image ID indicating the specific image obtained by the search and the position similarity f (A (t), X (t)) to the image identification unit 27. Note that t is a number indicating the specific image ID.

この位置類似度f(A(t),X(t))は、例えば、以下のような特性を有する関数式である。
例えば、距離誤差X(t)≦位置誤差許容距離A(t)であるとき、撮影位置が特定画像位置範囲内にあるため、位置類似度f(A(t),X(t))は、正の値とする。なお、位置類似度f(A(t),X(t))は、特定画像位置範囲内において撮影位置情報が示す位置からどの程度位置がずれているかを示す。
一方、距離誤差X(t)>位置誤差許容距離A(t)であるとき、撮影位置が特定画像位置範囲外にあるため、位置類似度f(A(t),X(t))は、負の値とする。なお、位置類似度f(A(t),X(t))は、特定画像位置範囲に対して、撮影位置情報が示す位置からどの程度位置がずれているかを示す。
このような特性を有する位置類似度f(A(t),X(t))は、例えば、以下の式で示すことができる。

位置類似度f(A(t),X(t))= {A(t) − X(t)}/A(t)
・・・式1
なお、撮影位置が特定画像位置範囲に対してどの程度範囲の内外にあるかを示す値は、この関数fの傾きを任意に設定することにより算出することができる。また、この値は、傾きに限らず、他のやり方で数式に傾斜を与えられるものであってもよい。
This position similarity f (A (t), X (t)) is, for example, a functional expression having the following characteristics.
For example, when the distance error X (t) ≦ the position error allowable distance A (t), since the shooting position is within the specific image position range, the position similarity f (A (t), X (t)) is Positive value. Note that the position similarity f (A (t), X (t)) indicates how much the position is deviated from the position indicated by the shooting position information within the specific image position range.
On the other hand, when the distance error X (t)> the position error allowable distance A (t), since the shooting position is outside the specific image position range, the position similarity f (A (t), X (t)) is Negative value. Note that the position similarity f (A (t), X (t)) indicates how much the position is deviated from the position indicated by the shooting position information with respect to the specific image position range.
The position similarity f (A (t), X (t)) having such characteristics can be expressed by the following equation, for example.

Position similarity f (A (t), X (t)) = {A (t) −X (t)} / A (t)
... Formula 1
It should be noted that a value indicating how much the photographing position is within or outside the specific image position range can be calculated by arbitrarily setting the slope of the function f. In addition, this value is not limited to the inclination, and may be an expression that can be given an inclination in another way.

オブジェクト特徴情報比較部30は、撮影画像データに対して、OCR処理やパターンマッチング等を行い、撮影画像データに含まれている文字列や図形等のオブジェクトを検出する。このオブジェクト特徴情報比較部30は、オブジェクト特徴情報テーブル290を参照して、撮影画像データから検出されたオブジェクトと、特定画像のオブジェクトとの類似の程度を示すオブジェクト類似度を算出する。このオブジェクト類似度は、例えば、オブジェクトが文字であれば、一致している文字の数Y(t)を各特定画像ID(t)の文字数C(t)で除算した数値で表わすことができる。このオブジェクト特徴情報比較部30は、算出したオブジェクト類似度Y(t)/C(t)を画像識別部27に出力する。   The object feature information comparison unit 30 performs OCR processing, pattern matching, and the like on the captured image data to detect objects such as character strings and figures included in the captured image data. The object feature information comparison unit 30 refers to the object feature information table 290 and calculates an object similarity indicating the degree of similarity between the object detected from the captured image data and the object of the specific image. For example, if the object is a character, the object similarity can be represented by a numerical value obtained by dividing the number of matching characters Y (t) by the number of characters C (t) of each specific image ID (t). The object feature information comparison unit 30 outputs the calculated object similarity Y (t) / C (t) to the image identification unit 27.

画像特徴量比較部26は、特定画像特徴量テーブルを参照して、画像特徴量算出部23によって算出された撮影画像特徴量と類似する特徴量を有する特定画像を検索する。この画像特徴量比較部26は、撮影画像特徴量と特定画像の特徴量類似度Z(t)を算出して、閾値以上の特定画像を示す特定画像IDと特徴量類似度を特定識別部27に出力する。   The image feature amount comparison unit 26 refers to the specific image feature amount table and searches for a specific image having a feature amount similar to the captured image feature amount calculated by the image feature amount calculation unit 23. The image feature amount comparison unit 26 calculates a captured image feature amount and a feature amount similarity Z (t) of the specific image, and specifies a specific image ID and a feature amount similarity indicating a specific image equal to or greater than a threshold value by the specific identification unit 27. Output to.

画像識別部27は、入力する位置類似度f(A(t),X(t))、オブジェクト類似度Y(t)/C(t)、特徴量類似度Z(t)に基づき、以下に式2に従って、特定画像類似度Q(t)を、特定画像毎に算出する。

Q(t)=a×f(A(t),X(t))+b×Y(t)/C(t)+c×Z(t)
・・・式2
なお、a、b、cは、重み係数であって、任意に決められる数値である。
Based on the input position similarity f (A (t), X (t)), object similarity Y (t) / C (t), and feature quantity similarity Z (t), the image identification unit 27 According to Equation 2, the specific image similarity Q (t) is calculated for each specific image.

Q (t) = a * f (A (t), X (t)) + b * Y (t) / C (t) + c * Z (t)
... Formula 2
Note that a, b, and c are weighting factors and are arbitrarily determined numerical values.

画像識別部27は、この特定画像類似度Q(t)が最大となる特定画像IDの特定画像を、撮影画像データの領域に応じて、検索特定画像と決定し、特定画像付加情報取得部32に出力する。つまり、検出された特定画像のうち、特定画像類似度Q(t)が2番目、3番目に大きいものであって、自身の特定画像類似度Q(t)よりも大きい特定画像類似度Q(t)の特定画像と、撮影画像データ内において一定の割合で面積が重複していなければ、画像識別部27は、検索特定画像として決定し、特定画像付加情報取得部32に出力する。
ここで、画像識別部27は、重畳領域抽出部28に対して、例えば、特定画像類似度Q(t)が大きい上位10個の特定画像に対応する重畳領域を抽出させ、上述の通り、撮影画像データ内において一定の割合で面積が重複しているか否かを判断できる。
The image identification unit 27 determines the specific image of the specific image ID that maximizes the specific image similarity Q (t) as a search specific image according to the area of the captured image data, and the specific image additional information acquisition unit 32. Output to. That is, of the detected specific images, the specific image similarity Q (t) is the second and third largest, and is higher than the specific image similarity Q (t). If the area does not overlap with the specific image of t) at a certain rate in the captured image data, the image identification unit 27 determines the search specific image and outputs it to the specific image additional information acquisition unit 32.
Here, the image identification unit 27 causes the superimposition region extraction unit 28 to extract, for example, the superimposition regions corresponding to the top ten specific images having the large specific image similarity Q (t), and captures the image as described above. It can be determined whether or not the areas overlap at a certain rate in the image data.

なお、上述の式2は、重み係数を変更することにより各項の関係を調整する一次関数を利用しているが、本発明はこれに限られず、n次関数によって定義されるものであってもよい。
また、上述の式2は、この場合、位置類似度f(A(t),X(t))、オブジェクト類似度Y(t)/C(t)、特徴量類似度Z(t)のうち、画像識別部27によって特定画像類似度Q(t)が算出される以前に特定画像の絞込みに利用されたものについては、対応する重み係数を「0」にすることによって、他の表示画像検索装置の構成において利用することができる。
In addition, although the above-described Expression 2 uses a linear function that adjusts the relationship between the terms by changing the weighting factor, the present invention is not limited to this and is defined by an n-order function. Also good.
Further, in this case, the above formula 2 is obtained from the position similarity f (A (t), X (t)), the object similarity Y (t) / C (t), and the feature quantity similarity Z (t). For those used for narrowing down the specific image before the specific image similarity Q (t) is calculated by the image identification unit 27, search for other display images by setting the corresponding weighting coefficient to “0”. It can be used in the configuration of the apparatus.

<実施形態の応用>
なお、本発明に係る表示画像検索装置2は、表示装置1の撮影部12が撮影した撮影画像データと、撮影時に取得される撮影位置情報と撮影日時情報に基づき、(A)〜(C)の要素に基づき、特定画像が撮影した画像内に含まれているか否かを検索するものとして説明した。本発明は、これら(A)〜(C)の要素を組み合わせることによって、あるいは、新たな要素を追加することによって、撮影画像データに含まれる特定画像の検索精度を高めることができる。
<Application of the embodiment>
The display image search device 2 according to the present invention is based on the captured image data captured by the capturing unit 12 of the display device 1, the capturing position information and the capturing date / time information acquired at the time of capturing, (A) to (C). In the above description, it is assumed that a search is made as to whether or not the specific image is included in the captured image. The present invention can improve the search accuracy of a specific image included in captured image data by combining these elements (A) to (C) or adding a new element.

例えば、オブジェクト類似度による比較においても、重畳領域が一定の割合以上の面積で重複する検索特定画像が絞り込めず、画像識別部27から複数の検索特定画像が特定画像付加情報取得部32に出力される場合がある。この場合、画像識別部27は、オブジェクト類似度に基づき最も類似する1つの特定画像データを選択して検索特定画像を決定せずに、複数の特定画像データを特定画像付加情報取得部32に出力するものであってもよい。この特定画像付加情報取得部32は、特定画像付加情報テーブルを参照して、入力する複数の特定画像データの画像IDの特定画像付加情報のうち、撮影位置情報および撮影日時情報が示す撮影条件情報に対応する特定画像付加情報を選択する。
これにより、撮影画像データにノイズが含まれ、撮影画像に含まれるオブジェクトと、テーブルにおいて規定されているオブジェクトとが大きく異なり、オブジェクト類似度の信頼性が低い場合であっても、撮影時のユーザの状況に応じた特定画像付加情報を提供することができる。
For example, even in the comparison based on the object similarity, search specific images in which the overlapping region overlaps with an area of a certain ratio or more cannot be narrowed down, and a plurality of search specific images are output from the image identification unit 27 to the specific image additional information acquisition unit 32. May be. In this case, the image identification unit 27 outputs a plurality of specific image data to the specific image additional information acquisition unit 32 without selecting one specific image data that is most similar based on the object similarity and determining a search specific image. You may do. The specific image additional information acquisition unit 32 refers to the specific image additional information table, and among the specific image additional information of the image IDs of the plurality of specific image data to be input, the shooting condition information indicated by the shooting position information and the shooting date / time information. The specific image additional information corresponding to is selected.
As a result, even if the captured image data includes noise, the object included in the captured image is significantly different from the object specified in the table, and the reliability of the object similarity is low, the user at the time of shooting Specific image additional information according to the situation can be provided.

また、重畳領域が一定の割合以上の面積で重複する特定画像のうち、1つの検索特定画像に絞り込めた場合であっても、特定画像付加情報取得部32が、特定画像付加情報テーブルを参照して、撮影位置情報および撮影日時情報が示す撮影条件情報に対応する特定画像付加情報を選択することができる。これにより、撮影された特定画像が同一であっても、撮影した位置や日時に応じて、配信する特定画像付加情報を、特定画像付加情報テーブル310の撮影条件情報を変更することにより、変えることができる。   In addition, even if the specific image overlapping information is narrowed down to one search specific image among the specific images overlapping with an area of a certain ratio or more, the specific image additional information acquisition unit 32 refers to the specific image additional information table. Thus, the specific image additional information corresponding to the shooting condition information indicated by the shooting position information and the shooting date / time information can be selected. As a result, even if the captured specific images are the same, the specific image additional information to be distributed can be changed by changing the shooting condition information in the specific image additional information table 310 according to the shooting position and date / time. Can do.

<検索パターン>
ここで、図16を参照して、本発明に係る検索パターンを用いて、本願発明の概要について説明する。図16(a)には、第1記憶部22に記憶されている特定画像ID1〜4の特定画像データ100、200、300、400を示す。図示の通り、特定画像データ400は、タワーが中央にある風景の画像である。
このように特定画像データ100、200、300と、特定画像データ400とは、画像に含まれる内容が異なるため、その画像特徴量も大きく異なる。
<Search pattern>
Here, with reference to FIG. 16, the outline of the present invention will be described using the search pattern according to the present invention. FIG. 16A shows specific image data 100, 200, 300, and 400 with specific image IDs 1 to 4 stored in the first storage unit 22. As illustrated, the specific image data 400 is an image of a landscape with the tower in the center.
As described above, the specific image data 100, 200, and 300 and the specific image data 400 are different in the content included in the image, and thus the image feature amount is also greatly different.

次に、図16(b)を参照して、撮影した画像内に、これら特定画像データ100、200、300のように、複数の似通った特定画像が含まれており、画像識別部27によって複数の特定画像候補が検出された場合について説明する。
この場合、画像特徴量算出部23による検索だけでは、特定画像データ100、200、300のように複数の特定画像候補が残ってしまう可能性がある。この場合、図示の通り、各特定画像データ100、200、300の重畳領域R100、R200、R300は、仮想的に重なりあっており、この重なった部分に対応する特定画像候補を決定することができない。そこで、本願発明は、画像識別部27によって、オブジェクト類似度に応じて、この重なった部分の撮影画像と類似する特定画像候補を選択することにより、画像認識の精度を高めることができる。
画像識別部27は、上述の通り、オブジェクト類似度を用いることで、含まれているオブジェクトの類似する程度やオブジェクトの位置に応じた特定画像候補を選択することができる。また、画像識別部27は、重畳領域が撮影画像データの画像サイズに占める面積の割合に応じて、複数の特定画像候補を絞るものであってもよい。
なお、このような検索パターンは、図2を参照して上述した検索パターンに対応するものである。つまり、ビルB1の大型ディスプレイにおいて、重畳領域が一定の割合以上の面積で重畳している特定画像ID1、2が検索により得られるため、画像識別部27は、オブジェクト類似度に応じて、1つの特定画像に絞っている。
Next, referring to FIG. 16B, a plurality of similar specific images such as the specific image data 100, 200, 300 are included in the captured image, and a plurality of similar specific images are included by the image identification unit 27. A case where a specific image candidate is detected will be described.
In this case, only the search by the image feature quantity calculation unit 23 may leave a plurality of specific image candidates like the specific image data 100, 200, and 300. In this case, as illustrated, the overlapping regions R100, R200, and R300 of the specific image data 100, 200, and 300 are virtually overlapped, and a specific image candidate corresponding to the overlapped portion cannot be determined. . Therefore, according to the present invention, the image recognition unit 27 can improve the accuracy of image recognition by selecting a specific image candidate similar to the captured image of the overlapping portion according to the object similarity.
As described above, the image identification unit 27 can select a specific image candidate according to the degree of similarity of the included objects and the position of the object by using the object similarity. In addition, the image identification unit 27 may narrow down a plurality of specific image candidates according to the ratio of the area occupied by the superimposed region to the image size of the captured image data.
Such a search pattern corresponds to the search pattern described above with reference to FIG. That is, in the large display of the building B1, the specific image IDs 1 and 2 in which the overlapping areas are overlapped with an area of a certain ratio or more are obtained by the search. Focus on specific images.

次に、図16(c)を参照して、撮影した画像内に、複数の重畳領域に対応する特定画像を画像識別部27が検索によって得た場合について説明する。
重畳領域R101、R102は、特定画像ID1に対応するものであり、重畳領域R400は、特定画像ID4に対応するものである。
この場合、図示の通り、検出された複数の重畳領域R101、R102、R400は、いずれも仮想的に重なっていない。
よって、画像識別部27は、検索により得られた特定画像が、複数の領域に出現していて、複数の検索結果である重畳領域R101、R102、R400にそれぞれ対応する特定画像ID1、1、4が有効であると判断する。この画像識別部27によって有効と判断された特定画像は、通信部21に出力される。
Next, with reference to FIG. 16C, a case will be described in which the image identification unit 27 obtains specific images corresponding to a plurality of superimposed regions in a photographed image.
The overlapping regions R101 and R102 correspond to the specific image ID1, and the overlapping region R400 corresponds to the specific image ID4.
In this case, as shown in the drawing, none of the detected overlapping regions R101, R102, R400 virtually overlap.
Therefore, the image identification unit 27 has specific images obtained by the search appearing in a plurality of regions, and the specific image IDs 1, 1, 4 corresponding to the superimposed regions R101, R102, R400, which are a plurality of search results, respectively. Is determined to be effective. The specific image determined to be valid by the image identification unit 27 is output to the communication unit 21.

なお、本発明は上述の実施形態に限られず、例えば、以下のような構成であってもよい。
例えば、特定画像の形状は、上述の四角形や台形に限られず、円や三角形等の形状であってもよい。
In addition, this invention is not restricted to the above-mentioned embodiment, For example, the following structures may be sufficient.
For example, the shape of the specific image is not limited to the square or trapezoid described above, and may be a shape such as a circle or a triangle.

また、図10、11に示す各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、また、図1に示す表示装置1および表示画像検索装置2の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、検出対象物の形状情報の推定値を算出する処理を行ってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Also, a program for realizing each step shown in FIGS. 10 and 11 is recorded on a computer-readable recording medium, and the functions of the display device 1 and the display image search device 2 shown in FIG. 1 are realized. The program may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed to calculate the estimated value of the shape information of the detection target. Good.
The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

11・・・端末制御部、12・・・撮影部、13・・・位置情報検出部、14・・・計時部、15・・・表示部、16・・・通信部、17・・・記憶部、18・・・操作部、21・・・通信部、22・・・第1記憶部22、23・・・画像特徴量算出部、24・・・位置情報比較部、25・・・第2記憶部、26・・・画像特徴量比較部、27・・・画像識別部、28・・・重畳領域抽出部、29・・・第3記憶部、30・・・オブジェクト特徴情報比較部、31・・・第4記憶部、32・・・特定画像付加情報取得部   DESCRIPTION OF SYMBOLS 11 ... Terminal control part, 12 ... Image pick-up part, 13 ... Position information detection part, 14 ... Time measuring part, 15 ... Display part, 16 ... Communication part, 17 ... Memory | storage 18, operation unit 21, communication unit 22, first storage unit 22, 23 image feature amount calculation unit 24, position information comparison unit 25, number 1 2 storage unit, 26... Image feature amount comparison unit, 27... Image identification unit, 28... Superimposed region extraction unit, 29... Third storage unit, 30. 31 ... 4th memory | storage part, 32 ... specific image additional information acquisition part

Claims (11)

被写体を撮影する撮影部により生成された撮影画像データを入力する入力部と、
前記撮影画像データに基づき、当該画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出部と、
検索対象である特定画像の特徴を示す特定画像特徴量情報に当該特定画像を表わす特定画像データを対応付ける特定画像特徴量テーブルと、前記特定画像に関連する特定画像付加情報を記憶する記憶部と、
前記特定画像特徴量テーブルを参照して、前記特定画像の特徴量と前記撮影画像特徴量とを比較し、前記撮影画像データに含まれる画像の特徴量と類似する特徴量を有する前記特定画像を検索する画像特徴量比較部と、
前記画像特徴量比較部が検索により前記特定画像を得た場合、当該特定画像に関連する特定画像付加情報を前記記憶部から読み出す特定画像付加情報取得部と、
前記検索により得た特定画像と類似する特徴量を有する撮影画像データ内の画像領域の位置を示す表示位置情報と、当該特定画像付加情報とを、表示部へ出力する出力部と、
を備えることを特徴とする表示画像検索装置。
An input unit for inputting photographed image data generated by a photographing unit for photographing a subject;
An image feature amount calculation unit that calculates a captured image feature amount indicating a feature of the image based on the captured image data;
A specific image feature amount table for associating specific image feature amount information indicating the characteristics of the specific image to be searched with specific image data representing the specific image, a storage unit for storing specific image additional information related to the specific image, and
With reference to the specific image feature amount table, the feature amount of the specific image is compared with the captured image feature amount, and the specific image having a feature amount similar to the feature amount of the image included in the captured image data is obtained. An image feature amount comparison unit to be searched;
A specific image additional information acquisition unit that reads specific image additional information related to the specific image from the storage unit when the image feature amount comparison unit obtains the specific image by searching;
An output unit that outputs display position information indicating the position of an image region in captured image data having a feature amount similar to the specific image obtained by the search, and the specific image additional information to the display unit;
A display image retrieval apparatus comprising:
前記入力部は、前記撮影画像データが生成された際に前記撮影部の存在した位置を示す撮影位置情報を入力し、
前記記憶部は、前記特定画像に対して予め関係付けられた位置を示す特定画像位置情報に前記特定画像データを対応づける特定画像位置テーブルを記憶し、
前記特定画像位置テーブルを参照して、前記撮影位置情報に基づき、当該撮影位置情報に対応する前記特定画像を検索する位置情報比較部を備え、
前記画像特徴量比較部は、前記位置情報比較部の検索により得られた前記特定画像の特徴量と前記撮影画像特徴量とを比較することを特徴とする請求項1に記載の表示画像検索装置。
The input unit inputs shooting position information indicating a position where the shooting unit is present when the shot image data is generated;
The storage unit stores a specific image position table associating the specific image data with specific image position information indicating a position related in advance to the specific image;
A position information comparison unit that refers to the specific image position table and searches for the specific image corresponding to the shooting position information based on the shooting position information;
The display image search device according to claim 1, wherein the image feature amount comparison unit compares the feature amount of the specific image obtained by the search of the position information comparison unit with the captured image feature amount. .
前記記憶部は、前記特定画像データに含まれるオブジェクトの特徴を示すオブジェクト特徴情報を前記特定画像データに対応付けるオブジェクト特徴情報テーブルを記憶し、
前記オブジェクト特徴情報テーブルを参照して、前記撮影画像データに含まれるオブジェクトと前記特定画像データに含まれるオブジェクトが類似している程度を示すオブジェクト類似度を算出し、当該オブジェクト類似度に基づき、前記撮影画像データと最も類似する前記特定画像データを検索して、検索により得た特定画像データを前記特定画像付加情報取得部に出力する画像認識部を、
さらに備えることを特徴とする請求項1あるいは2に記載の表示画像検索装置。
The storage unit stores an object feature information table that associates object feature information indicating a feature of an object included in the specific image data with the specific image data,
With reference to the object feature information table, an object similarity indicating the degree of similarity between the object included in the captured image data and the object included in the specific image data is calculated, and based on the object similarity, An image recognition unit that searches for the specific image data most similar to the captured image data and outputs the specific image data obtained by the search to the specific image additional information acquisition unit,
The display image search device according to claim 1, further comprising:
前記記憶部は、前記特定画像付加情報に対して予め関係付けられた条件を示す撮影条件情報を前記特定画像付加情報に対応付ける特定画像付加情報テーブルを記憶し、
前記特定画像付加情報取得部は、前記検索により前記特定画像を得た場合、前記特定画像付加テーブルを参照して、前記撮影位置情報に基づき、当該撮影位置情報が前記撮影条件情報の条件を満たす前記特定画像付加情報を前記記憶部から読み出すことを特徴とする請求項2あるいは3に記載の表示画像検索装置。
The storage unit stores a specific image additional information table associating shooting condition information indicating a condition previously associated with the specific image additional information with the specific image additional information;
When the specific image additional information acquisition unit obtains the specific image by the search, the specific image additional information acquisition unit refers to the specific image additional table and based on the shooting position information, the shooting position information satisfies the conditions of the shooting condition information. 4. The display image search device according to claim 2, wherein the specific image additional information is read from the storage unit.
前記画像認識部は、
前記画像特徴量比較部の検索により複数の特定画像が得られた場合、当該特定画像の特徴量と類似する特徴量を有する前記撮影画像データ内の画像領域を示す重畳領域同士が、予め決められた割合以上の面積で重複しているか否かを判断し、予め決められた割合以上の面積で前記重畳領域同士が重複している場合、前記オブジェクト特徴情報テーブルを参照して、オブジェクトに関して当該重畳領域の画像と当該重畳領域に対応する前記特定画像とが類似している程度を示す前記オブジェクト類似度を算出し、このオブジェクト類似度に基づき、前記撮影画像データにおいて前記重畳領域同士が重複している部分の画像と最も類似する前記特定画像データを選択することを特徴とする請求項3あるいは4に記載の表示画像検索装置。
The image recognition unit
When a plurality of specific images are obtained by the search of the image feature amount comparison unit, overlapping regions indicating image regions in the captured image data having a feature amount similar to the feature amount of the specific image are determined in advance. If the overlapping areas overlap with each other with a predetermined area or more, refer to the object feature information table and refer to the object overlapping information. The object similarity indicating the degree of similarity between the image of the region and the specific image corresponding to the overlapping region is calculated, and the overlapping regions overlap in the captured image data based on the object similarity. 5. The display image retrieval apparatus according to claim 3, wherein the specific image data that is most similar to an image of a certain portion is selected.
上記請求項1から5のいずれか一項に記載の表示画像検索装置と、
被写体を撮影して前記撮影画像データを生成する撮影部と、
前記特定画像表示データに基づく画像を表示する表示部と、
を備えることを特徴とする表示装置。
The display image search device according to any one of claims 1 to 5,
A photographing unit for photographing a subject and generating the photographed image data;
A display unit for displaying an image based on the specific image display data;
A display device comprising:
前記表示装置は、
入力する前記表示位置情報に基づき、特定画像の重畳領域の形状にあわせて当該特定画像に関連する前記特定画像付加情報の表示形状を変形処理して、当該重畳領域に前記特定画像付加情報を合成処理した前記撮影画像データを、前記表示部に表示させることを特徴とする請求項6に記載の表示装置。
The display device
Based on the input display position information, the display shape of the specific image additional information related to the specific image is transformed in accordance with the shape of the superimposition region of the specific image, and the specific image additional information is combined with the superimposition region. The display device according to claim 6, wherein the processed captured image data is displayed on the display unit.
上記請求項1から5のいずれか一項に記載の表示画像検索装置と、
前記表示画像検索装置とネットワークを介して接続され、被写体を撮影して前記撮影画像データを生成する撮影部と、前記特定画像表示データに基づく画像を表示する表示部と、を備える表示装置と
を備えることを特徴とする表示画像検索システム。
The display image search device according to any one of claims 1 to 5,
A display device that is connected to the display image search device via a network and includes a photographing unit that photographs a subject and generates the photographed image data; and a display unit that displays an image based on the specific image display data. A display image retrieval system comprising:
前記表示装置は、
入力する前記表示位置情報に基づき、特定画像の重畳領域の形状にあわせて当該特定画像に関連する前記特定画像付加情報の表示形状を変形処理して、当該重畳領域に前記特定画像付加情報を合成処理した前記撮影画像データを、前記表示部に表示させることを特徴とする請求項8に記載の表示画像検索システム。
The display device
Based on the input display position information, the display shape of the specific image additional information related to the specific image is transformed in accordance with the shape of the superimposition region of the specific image, and the specific image additional information is combined with the superimposition region. 9. The display image search system according to claim 8, wherein the processed photographed image data is displayed on the display unit.
撮影された画像に対応する画像を検索する表示画像検索方法において、
被写体を撮影する撮影部により生成された撮影画像データを入力し、
前記撮影画像データに基づき、当該画像の特徴を示す撮影画像特徴量を算出し、
検索対象である特定画像の特徴を示す特定画像特徴量情報に当該特定画像を表わす特定画像データを対応付ける特定画像特徴量テーブルを参照して、前記特定画像の特徴量と前記撮影画像特徴量とを比較し、前記撮影画像データに含まれる画像の特徴量と類似する特徴量を有する前記特定画像を検索し、
検索により前記特定画像を得た場合、当該特定画像に関連する特定画像付加情報を記憶部から読み出し、
前記検索により得た特定画像と類似する特徴量を有する撮影画像データ内の画像領域の位置を示す表示位置情報と、当該特定画像付加情報とを、表示部へ出力する
ことを特徴とする表示画像検索方法。
In a display image search method for searching for an image corresponding to a photographed image,
Input the captured image data generated by the imaging unit that captures the subject,
Based on the captured image data, a captured image feature amount indicating the characteristics of the image is calculated,
With reference to a specific image feature amount table that associates specific image feature amount information indicating features of a specific image that is a search target with specific image data representing the specific image, the feature amount of the specific image and the captured image feature amount are obtained. Comparing, searching for the specific image having a feature amount similar to the feature amount of the image included in the captured image data,
When the specific image is obtained by the search, the specific image additional information related to the specific image is read from the storage unit,
Display position information indicating the position of an image area in captured image data having a feature quantity similar to the specific image obtained by the search and the specific image additional information are output to a display unit. retrieval method.
被写体を撮影する撮影部により生成された撮影画像データと、前記撮影画像データが生成された際に前記撮影部の存在した位置を示す撮影位置情報とを入力する入力部と、
前記撮影画像データに基づき、当該画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出部と、
検索対象である特定画像の特徴を示す特定画像特徴量情報に当該特定画像を表わす特定画像データを対応付ける特定画像特徴量テーブルと、前記特定画像に対して予め関係付けられた位置を示す特定画像位置情報に前記特定画像データを対応づける特定画像位置テーブルと、前記特定画像データに含まれるオブジェクトの特徴を示すオブジェクト特徴情報を前記特定画像データに対応付けるオブジェクト特徴情報テーブルと、前記特定画像に関連する特定画像付加情報を記憶する記憶部と、
前記特定画像特徴量テーブルを参照して、前記特定画像の特徴量と前記撮影画像特徴量とに基づき、前記撮影画像データと前記特定画像データが類似する程度を示す特徴量類似度を算出する画像特徴量比較部と、
前記特定画像位置テーブルを参照して、前記撮影位置情報に基づき、前記特定画像位置情報の位置に対して前記撮影位置情報の位置関係を示す位置類似度を算出する位置情報比較部と、
前記オブジェクト特徴情報テーブルを参照して、前記撮影画像データに含まれるオブジェクトと前記特定画像データに含まれるオブジェクトが類似している程度を示すオブジェクト類似度を算出するオブジェクト特徴量比較部と、
前記特徴量類似度、前記位置類似度、前記オブジェクト類似度に基づき、前記撮影画像データと類似する前記特定画像データを検索する画像認識部と、
前記画像識別部が検索により前記特定画像を得た場合、当該特定画像に関連する特定画像付加情報を前記記憶部から読み出す特定画像付加情報取得部と、
前記画像識別部が検索により得た特定画像と類似する特徴量を有する撮影画像データ内の画像領域の位置を示す表示位置情報と、当該特定画像付加情報とを、表示部へ出力する出力部と、
を備えることを特徴とする表示画像検索装置。
An input unit for inputting captured image data generated by an imaging unit that captures an object, and imaging position information indicating a position where the imaging unit was present when the captured image data was generated;
An image feature amount calculation unit that calculates a captured image feature amount indicating a feature of the image based on the captured image data;
A specific image feature amount table for associating specific image feature amount information indicating the characteristics of the specific image to be searched with specific image data representing the specific image, and a specific image position indicating a position associated with the specific image in advance A specific image position table for associating the specific image data with information, an object feature information table for associating object characteristic information indicating the characteristics of an object included in the specific image data with the specific image data, and a specific associated with the specific image A storage unit for storing image additional information;
An image for calculating a feature amount similarity indicating the degree of similarity between the captured image data and the specific image data based on the feature amount of the specific image and the captured image feature amount with reference to the specific image feature amount table A feature comparison unit;
A position information comparison unit that refers to the specific image position table and calculates a position similarity indicating a positional relationship of the shooting position information with respect to the position of the specific image position information based on the shooting position information;
An object feature amount comparison unit that refers to the object feature information table and calculates an object similarity indicating the degree of similarity between the object included in the captured image data and the object included in the specific image data;
An image recognition unit that searches for the specific image data similar to the captured image data based on the feature quantity similarity, the position similarity, and the object similarity;
A specific image additional information acquisition unit that reads specific image additional information related to the specific image from the storage unit when the image identification unit obtains the specific image by a search;
An output unit for outputting display position information indicating the position of an image area in captured image data having a feature quantity similar to the specific image obtained by the search by the image identification unit, and the specific image additional information to the display unit; ,
A display image retrieval apparatus comprising:
JP2010197019A 2010-09-02 2010-09-02 Display image search method Expired - Fee Related JP5544250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010197019A JP5544250B2 (en) 2010-09-02 2010-09-02 Display image search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010197019A JP5544250B2 (en) 2010-09-02 2010-09-02 Display image search method

Publications (2)

Publication Number Publication Date
JP2012053776A true JP2012053776A (en) 2012-03-15
JP5544250B2 JP5544250B2 (en) 2014-07-09

Family

ID=45906989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010197019A Expired - Fee Related JP5544250B2 (en) 2010-09-02 2010-09-02 Display image search method

Country Status (1)

Country Link
JP (1) JP5544250B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214158A (en) * 2012-03-30 2013-10-17 Ntt Comware Corp Display image retrieval device, display control system, display control method, and program
WO2013187130A1 (en) * 2012-06-12 2013-12-19 ソニー株式会社 Information processing device, information processing method, and program
JP2014238815A (en) * 2014-02-04 2014-12-18 株式会社リコー Information processing system, information providing method, terminal device, and program
CN104808956A (en) * 2014-01-23 2015-07-29 富士通株式会社 System and method for controlling a display
JP2015141507A (en) * 2014-01-28 2015-08-03 三菱重工業株式会社 Maintenance work support system and maintenance work support method
JP2016057901A (en) * 2014-09-10 2016-04-21 富士フイルム株式会社 Image processing apparatus, image processing method, program, and recording medium
JP2018181143A (en) * 2017-04-19 2018-11-15 Kddi株式会社 Three-dimensional space information display system and three-dimensional space information display method
JP2020107196A (en) * 2018-12-28 2020-07-09 キヤノン株式会社 Image processing device or image processing server
JP2020198102A (en) * 2014-12-11 2020-12-10 株式会社リリピア Information presentation device, information presentation system, information presentation method, and information presentation program
JP2021534518A (en) * 2018-08-08 2021-12-09 パピーレッド インク. Augmented reality content provision system and method
JPWO2023095770A1 (en) * 2021-11-24 2023-06-01

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207420A (en) * 1998-11-12 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> Similar image search system, similar image search method, and recording medium storing similar image search program
JP2004213398A (en) * 2003-01-06 2004-07-29 Fujitsu Ltd Similar image determination method and image processing apparatus having similar image determination function
JP2007041762A (en) * 2005-08-02 2007-02-15 Seiko Epson Corp Image recognition device
JP2008046806A (en) * 2006-08-14 2008-02-28 Nippon Telegr & Teleph Corp <Ntt> Image processing method, image processing apparatus, and program
JP2009140296A (en) * 2007-12-07 2009-06-25 Canon Inc Image processing apparatus and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207420A (en) * 1998-11-12 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> Similar image search system, similar image search method, and recording medium storing similar image search program
JP2004213398A (en) * 2003-01-06 2004-07-29 Fujitsu Ltd Similar image determination method and image processing apparatus having similar image determination function
JP2007041762A (en) * 2005-08-02 2007-02-15 Seiko Epson Corp Image recognition device
JP2008046806A (en) * 2006-08-14 2008-02-28 Nippon Telegr & Teleph Corp <Ntt> Image processing method, image processing apparatus, and program
JP2009140296A (en) * 2007-12-07 2009-06-25 Canon Inc Image processing apparatus and image processing method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
天目隆平、外4名: "ポスタを利用した複合現実感用幾何位置合わせ", 日本バーチャルリアリティ学会論文誌, vol. 第14巻,第3号, JPN6013064842, 30 September 2009 (2009-09-30), JP, pages 351 - 360, ISSN: 0002719348 *
柴田史久: "4 応用1:モバイルAR 位置情報に基づくARシステム", 情報処理, vol. 第51巻,第4号, JPN6013064844, 15 April 2010 (2010-04-15), JP, pages 385 - 391, ISSN: 0002719349 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214158A (en) * 2012-03-30 2013-10-17 Ntt Comware Corp Display image retrieval device, display control system, display control method, and program
JPWO2013187130A1 (en) * 2012-06-12 2016-02-04 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2013187130A1 (en) * 2012-06-12 2013-12-19 ソニー株式会社 Information processing device, information processing method, and program
EP2860702A4 (en) * 2012-06-12 2016-02-10 Sony Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM THEREOF
CN104808956A (en) * 2014-01-23 2015-07-29 富士通株式会社 System and method for controlling a display
JP2015141507A (en) * 2014-01-28 2015-08-03 三菱重工業株式会社 Maintenance work support system and maintenance work support method
JP2014238815A (en) * 2014-02-04 2014-12-18 株式会社リコー Information processing system, information providing method, terminal device, and program
JP2016057901A (en) * 2014-09-10 2016-04-21 富士フイルム株式会社 Image processing apparatus, image processing method, program, and recording medium
US9721163B2 (en) 2014-09-10 2017-08-01 Fujifilm Corporation Image processing apparatus, image processing method, and recording medium
JP2020198102A (en) * 2014-12-11 2020-12-10 株式会社リリピア Information presentation device, information presentation system, information presentation method, and information presentation program
JP2018181143A (en) * 2017-04-19 2018-11-15 Kddi株式会社 Three-dimensional space information display system and three-dimensional space information display method
JP2021534518A (en) * 2018-08-08 2021-12-09 パピーレッド インク. Augmented reality content provision system and method
JP2020107196A (en) * 2018-12-28 2020-07-09 キヤノン株式会社 Image processing device or image processing server
JP7282519B2 (en) 2018-12-28 2023-05-29 キヤノン株式会社 Image processing device or image processing server
JPWO2023095770A1 (en) * 2021-11-24 2023-06-01

Also Published As

Publication number Publication date
JP5544250B2 (en) 2014-07-09

Similar Documents

Publication Publication Date Title
JP5544250B2 (en) Display image search method
US8988456B2 (en) Generating digital media presentation layouts dynamically based on image features
CN103415849B (en) For marking the Computerized method and equipment of at least one feature of view image
US9076069B2 (en) Registering metadata apparatus
US9286624B2 (en) System and method of displaying annotations on geographic object surfaces
CN101373138B (en) Image reproduction device and image reproduction method thereof
JP5006195B2 (en) Image data management apparatus and image data management method
US10089762B2 (en) Methods for navigating through a set of images
CN101799621B (en) Shooting method and shooting equipment
JP2014071850A (en) Image processing apparatus, terminal device, image processing method, and program
Chen et al. Building book inventories using smartphones
JP6591594B2 (en) Information providing system, server device, and information providing method
JP2010218372A (en) Server system, terminal device, program, information storage medium, and image retrieval method
KR20100054056A (en) Method, system and computer-readable recording medium for providing service using electronic map
KR20100065918A (en) A method for geo-tagging of pictures and apparatus thereof
JP2013210974A (en) Retrieval image registration device, retrieval image display system, retrieval image registration method and program
JP2015022631A (en) Information processor, information processing system and program
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
US20150379040A1 (en) Generating automated tours of geographic-location related features
JP2013214158A (en) Display image retrieval device, display control system, display control method, and program
KR101640020B1 (en) Augmentated image providing system and method thereof
CN110377791A (en) Fast image sort method
US20250021749A1 (en) Memo processing device based on augmented reality, system, and method therefor
JP5967036B2 (en) Image search system, information processing apparatus, and program
Semaan et al. Camera pose estimation using collaborative databases and single building image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140512

R150 Certificate of patent or registration of utility model

Ref document number: 5544250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees