[go: up one dir, main page]

JP2006331322A - Search tag and information search system using the same - Google Patents

Search tag and information search system using the same Download PDF

Info

Publication number
JP2006331322A
JP2006331322A JP2005157828A JP2005157828A JP2006331322A JP 2006331322 A JP2006331322 A JP 2006331322A JP 2005157828 A JP2005157828 A JP 2005157828A JP 2005157828 A JP2005157828 A JP 2005157828A JP 2006331322 A JP2006331322 A JP 2006331322A
Authority
JP
Japan
Prior art keywords
search
tag
identification
information
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005157828A
Other languages
Japanese (ja)
Inventor
Kenichi Hagiwara
賢一 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Systems Co Ltd filed Critical Fuji Electric Systems Co Ltd
Priority to JP2005157828A priority Critical patent/JP2006331322A/en
Publication of JP2006331322A publication Critical patent/JP2006331322A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 検索用タグの抽出を固定焦点の撮像装置で容易に行うことができると共に、抽出した検索用タグに基づいて関連情報を容易に検索することができる検索用タグ及び情報検索システムを提供する。
【解決手段】 四角形領域3aの各辺上に特定の幾何学的不変量を表す5つの識別点P0〜P4を配置した検索用タグ3を検索情報保持物体2に形成する。検索用タグが形成された検索情報保持物体2の画像を撮像する撮像手段11と、該撮像手段11が撮像した画像データから前記各識別点を識別して識別点位置を算出するタグ識別手段12と、該タグ識別手段12で算出した識別点位置に基づいて幾何学的不変量を演算する幾何学的不変量演算手段13と、該幾何学的不変量算出手段13で演算した幾何学的不変量に基づいて前記検索用タグを含む平面上の検索情報を抽出する検索情報抽出手段14とを備えている。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide a search tag and an information search system capable of easily extracting a search tag with a fixed focus imaging device and easily searching related information based on the extracted search tag. To do.
SOLUTION: A search tag 3 in which five identification points P0 to P4 representing a specific geometric invariant are arranged on each side of a quadrangular region 3a is formed in a search information holding object 2. An imaging unit 11 that captures an image of the search information holding object 2 on which a search tag is formed, and a tag identification unit 12 that identifies each identification point from the image data captured by the imaging unit 11 and calculates an identification point position. A geometric invariant calculating means 13 for calculating a geometric invariant based on the identification point position calculated by the tag identifying means 12, and a geometric invariant calculated by the geometric invariant calculating means 13. Search information extraction means 14 for extracting search information on a plane including the search tag based on a variable is provided.
[Selection] Figure 1

Description

本発明は、情報を検索する場合のキーとなる検索情報を容易に特定することができる検索用タグ及びこれを使用した情報検索システムに関する。   The present invention relates to a search tag that can easily specify search information that is a key when searching for information, and an information search system using the search tag.

空間に存在する様々な検索情報を特定する検索用タグを使用して、様々な処理をコンピュータ等の処理装置で行うためには、検索用タグの位置(空間座標)、距離や姿勢(方向ベクトル)、種別などを認識する必要がある。
検索用タグの位置を検出するためには、人為的な目印を用いることなく検索用タグをディジタルカメラ等の撮像手段で撮像し、その撮像データから画像処理によって特徴点を抽出して位置や姿勢を検出することが考えられるが、この場合には、高度な画像処理が必要となるため、処理時間が掛かると共に、認識結果が安定しないなどの未解決の課題がある。
In order to perform various processes with a processing device such as a computer using search tags that specify various search information existing in space, the position (spatial coordinates), distance and orientation (direction vector) of the search tag ), It is necessary to recognize the type.
In order to detect the position of the search tag, the search tag is imaged by an imaging means such as a digital camera without using artificial landmarks, and feature points are extracted from the imaged data by image processing to obtain the position and orientation. However, in this case, since advanced image processing is required, there are unsolved problems such as a long processing time and a recognition result that is not stable.

上記未解決の課題を解決するために、検索情報の位置に、例えば特定パターンを目印として貼付しておき、この検索情報保持物体をディジタルカメラ等の撮像手段で撮像し、撮像した画像データの中から特定パターンを探索して検索情報の位置を検出する手法が採用されている。
さらに、検索情報として、例えばバーコードや非接触式無線タグ(RFID)を所望の検索情報保持物体に貼付しておき、読取機器で識別コードを読取るようにした手法が採用されている。あるいは、検索情報保持物体に印刷された文字情報をディジタルカメラ等の撮像手段で撮像し、その撮像データを文字認識手段で文字認識することにより、検索情報を認識する手法が採用されている。しかしながら、何れの場合にも、検索情報を認識するには、読取機器や撮像手段を検索情報の位置に近接させて識別コードを読取るか文字情報を撮像する必要があり、遠方に存在する物体や広範囲に散らばった物体に保持された検索情報を識別する場合には適用することができないという未解決の課題がある。
In order to solve the above unsolved problems, for example, a specific pattern is attached as a mark at the position of the search information, and the search information holding object is imaged by an imaging means such as a digital camera. A method of detecting a position of search information by searching for a specific pattern is employed.
Furthermore, as a search information, for example, a bar code or a non-contact type radio tag (RFID) is attached to a desired search information holding object, and a method in which an identification code is read by a reading device is adopted. Alternatively, a technique is adopted in which character information printed on a retrieval information holding object is imaged by an imaging unit such as a digital camera, and the captured data is recognized by a character recognition unit to recognize search information. However, in any case, in order to recognize the search information, it is necessary to read the identification code or image the character information by bringing the reading device or imaging means close to the position of the search information. There is an unsolved problem that it cannot be applied when identifying search information held in objects scattered over a wide range.

このような未解決の課題を解決するために、8角形のプレート上に5つの黒点を配置したタグを設け、このタグをディジタルカメラで撮影し、その画像データからプレートの種別、位置、姿勢を同時に認識するようにした幾何学的不変量に基づく固定標識を用いた作業者情報支援の研究が行われている(例えば、非特許文献1参照)。
ここで、幾何学的不変量は,例えば平面上の5点(P0〜04)がどの3点も同一の直線上にない場合、以下のような2つの幾何学的不変量が存在することが知られている(例えば、非特許文献2参照)。
In order to solve such an unsolved problem, a tag in which five black dots are arranged on an octagonal plate is provided, the tag is photographed with a digital camera, and the type, position and orientation of the plate are determined from the image data. Research on worker information support using fixed signs based on geometric invariants that are simultaneously recognized has been conducted (for example, see Non-Patent Document 1).
Here, the geometric invariant is, for example, when five points (P0 to 04) on the plane are not on the same straight line, the following two geometric invariants may exist. It is known (see, for example, Non-Patent Document 2).

Figure 2006331322
Figure 2006331322

この5点の載った平面をカメラで撮影する際、一般に射影変換による幾何学的な歪が発生する。例えばカメラの向きが回転したり、平面との距離が変化したりするとカメラで撮影した画像データは変化する。また、カメラの傾きによっては、長方形が平行四辺形に写る(直角が保存されない)、あるいは長方形が台形に写る(平行性が保存されない)といったことが発生する。ところが、カメラ画像の中の5点の座標から上記(1)式で計算される2つの値I1,I2は、上述した射影変換による幾何学的な歪があっても不変である。このような性質を持つ幾何学的不変量は、画像認識するための特徴量として利用されることがある。 When a plane on which these five points are photographed is photographed with a camera, geometric distortion generally occurs due to projective transformation. For example, image data captured by the camera changes when the orientation of the camera rotates or the distance from the plane changes. Further, depending on the tilt of the camera, a rectangle may appear as a parallelogram (a right angle is not preserved), or a rectangle appears as a trapezoid (a parallelism is not preserved). However, the two values I 1 and I 2 calculated by the above equation (1) from the coordinates of the five points in the camera image are unchanged even if there is a geometric distortion due to the projective transformation described above. A geometric invariant having such a property may be used as a feature amount for image recognition.

すなわち、物体のIDコードを認識するための固体標識となるIDマーカを幾何学的不変量に基づいて生成するIDマーカ生成手段と、任意の視点から撮影して得られる前記IDマーカが貼付された物体の画像を画像入力装置により取込み、その画像に対して画像処理を行ってIDマーカの領域を抽出するIDマーカ領域抽出手段と、IDマーカ領域の画像から複数の特徴点の位置を抽出する特徴点位置抽出手段と、複数の特徴点の位置から少なくとも1つの幾何学的不変量を算出する幾何学的不変量算出手段と、幾何学的不変量と対応付けられる物体のIDコードを、予め幾何学的不変量と物体IDコードとを対応付けて格納しているデータベースから選出するIDコード認識手段とを有する物体IDコード認識装置が知られている(例えば、特許文献1参照)。   That is, an ID marker generating means for generating an ID marker serving as a solid marker for recognizing the ID code of an object based on a geometric invariant, and the ID marker obtained by photographing from an arbitrary viewpoint are attached. An ID marker area extracting means for extracting an ID marker area by taking an image of an object with an image input device and performing image processing on the image; and a feature for extracting positions of a plurality of feature points from the image of the ID marker area A point position extracting unit, a geometric invariant calculating unit for calculating at least one geometric invariant from the positions of a plurality of feature points, and an ID code of an object associated with the geometric invariant in advance An object ID code recognizing device having ID code recognizing means that is selected from a database that stores a physical invariant and an object ID code in association with each other is known (for example, , See Patent Document 1).

伊藤俊樹、“幾何学的不変量に基づく固体標識を用いた作業者支援の研究”、大阪大学大学院 工学研究科 電子制御機械工学専攻 平成12年度修士論文、http://www-cape.mech.eng.osaka-u.ac.jp/ccm06adm/oldboys/2000/ito.pdfToshiki Ito, “Study on worker support using solid labels based on geometric invariants”, Graduate School of Engineering, Osaka University, Department of Electronic Control Mechanical Engineering, 2000 Master thesis, http: //www-cape.mech. eng.osaka-u.ac.jp/ccm06adm/oldboys/2000/ito.pdf 杉本晃宏「物体の見え方によらない情報の抽出」情報処理願学会誌1996年12月Vol.37 No.12 第1125頁〜第1131頁Akihiro Sugimoto “Extracting Information Regardless of how Objects are Visible”, Journal of Information Processing Society of Japan, December 1996, Vol. 37 No. 12 Pages 1125 to 1131 特開2004−192342号公報(第1頁、図1)JP 2004-192342 A (first page, FIG. 1)

しかしながら、上記非特許文献1に記載されている従来例にあっては、物体の種別、距離及び姿勢を同時に認識するという優れた機能を持ったタグであるが、カメラ画像データの中から、タグを見つけ出すために、タグにその環境ではまれな色彩を施しているため、使用環境毎に、色彩を調整する必要があり、種々の環境でタグを使用する場合には、必ずしも安定してタグを検出ことができないという未解決の課題がある。   However, in the conventional example described in Non-Patent Document 1, the tag has an excellent function of simultaneously recognizing the type, distance, and posture of an object. In order to find the tag, it is necessary to adjust the color for each use environment because the tag is given a rare color in that environment. When using the tag in various environments, the tag is not necessarily stable. There is an unsolved problem that it cannot be detected.

また、タグが直径約5cmと小さいので、空間全体のカメラ画像データの中からタグを見つけると、カメラをズームして5つの点の鮮明な画像を取得する必要があり、当然ズームに先立って、カメラの方向(パン、チルト)を制御しなければならず、カメラ及びその制御系のコストが嵩むと共に、処理時間も長くなるという未解決の課題がある。
さらに、幾何学的不変量を計算する上で、黒点の座標を正確に計測する必要があり、カメラ画像データの中で一定の閾値以下の輝度を持った部分を黒点として認識し、その重心の座標を採用するようにしているため、一般に知られているように、カメラ画像データの輝度は照明条件によって大きく変動するため、黒点の検出が必ずしも安定せず、座標の計測精度に悪影響を及ぼすという未解決の課題がある。
In addition, since the tag is as small as about 5 cm in diameter, if the tag is found from the camera image data of the entire space, it is necessary to zoom the camera to obtain a clear image of five points. Naturally, prior to zooming, There is an unsolved problem that the camera direction (pan, tilt) must be controlled, which increases the cost of the camera and its control system and increases the processing time.
Furthermore, in calculating the geometric invariant, it is necessary to accurately measure the coordinates of the black spot. In the camera image data, a portion having a luminance below a certain threshold is recognized as a black spot, and the center of gravity is determined. Since the coordinates are adopted, as is generally known, the brightness of the camera image data varies greatly depending on the illumination conditions, so detection of black spots is not always stable, and the coordinate measurement accuracy is adversely affected. There are unresolved issues.

また、特許文献1に記載された従来例にあっては、7×7の正方形枡目に5色の特徴点と5つの黒色特徴点との2組の特徴点を形成したIDマーカを生成し、このIDマーカを物体に貼付して、物体IDコード認識装置によってカメラ等により撮像された物体の画像を取込み、その画像情報をフーリエ変換を施して空間周波数に変換した後、物体IDマーカ領域の背景画像の空間周波数データとの相似形又は一致形をパターンマッチングにより抽出してから各特徴点位置を抽出するようにしているので、特徴点の抽出処理が複雑となるという未解決の課題がある。また、IDマーカの内部に検索情報を配置することができないという未解決の課題がある。
そこで、本発明は、上記従来例の未解決の課題に着目してなされたものであり、検索用タグの抽出を固定焦点の撮像装置で容易に行うことができると共に、抽出した検索用タグに基づいて関連情報を容易に検索することができる検索用タグ及び情報検索システムを提供することを目的としている。
In addition, in the conventional example described in Patent Document 1, an ID marker is formed in which two sets of feature points of five color feature points and five black feature points are formed in a 7 × 7 square cell. The ID marker is affixed to the object, the object image captured by the object ID code recognition device is captured by the camera or the like, the image information is subjected to Fourier transform and converted to a spatial frequency, and then the object ID marker area Since the feature point positions are extracted after extracting the similar or coincident shape with the spatial frequency data of the background image by pattern matching, there is an unsolved problem that the feature point extraction process becomes complicated . In addition, there is an unsolved problem that search information cannot be arranged inside the ID marker.
Therefore, the present invention has been made paying attention to the above-mentioned unsolved problems of the conventional example, and the search tag can be easily extracted by a fixed-focus imaging device, and the extracted search tag can be used. It is an object of the present invention to provide a search tag and an information search system that can easily search related information based on the search information.

上記目的を達成するために、請求項1に係る検索用タグは、平面上に形成した四角形領域の各辺上に特定の幾何学的不変量を表す5つの識別点を、当該5つの識別点を含む平面内の位置を特定するように配置したことを特徴としている。
また、請求項2に係る検索用タグは、請求項1に係る発明において、前記四角形領域の各辺には等分割した目盛りが形成され、形成された目盛り上に前記識別点が配置されていることを特徴としている。
In order to achieve the above object, a search tag according to claim 1 includes five identification points representing specific geometric invariants on each side of a rectangular region formed on a plane. It is characterized by being arranged so as to specify a position in a plane including
Further, in the search tag according to claim 2, in the invention according to claim 1, an equally divided scale is formed on each side of the quadrangular region, and the identification point is arranged on the formed scale. It is characterized by that.

さらに、請求項3に係る検索用タグは、請求項1又は2に係る発明において、前記識別点は四角形領域の各辺上で移動可能に配置されていることを特徴としている。
さらにまた、請求項4に係る検索用タグは、請求項1乃至3の何れか1つの発明において、前記各識別点は、円形の中心点を起点として半径方向に沿った輝度変化パターンが、全半径方向で同一であることを特徴としている。
なおさらに、請求項5に係る検索用タグは、請求項4に係る発明において、前記輝度変化パターンは、前記中心点から離れるに従って徐々に輝度が低くなる減少パターン及び徐々に輝度が高くなる増加パターンの何れか一方であることを特徴としている。
Further, the search tag according to claim 3 is characterized in that, in the invention according to claim 1 or 2, the identification point is arranged to be movable on each side of the quadrangular region.
Furthermore, the search tag according to claim 4 is the search tag according to any one of claims 1 to 3, wherein each of the identification points has a luminance change pattern along a radial direction starting from a circular center point. It is the same in the radial direction.
Still further, in the search tag according to claim 5, in the invention according to claim 4, the brightness change pattern includes a decrease pattern in which the brightness gradually decreases and an increase pattern in which the brightness gradually increases as the distance from the center point increases. It is characterized by being either one of these.

また、請求項6に係る情報検索システムは、検索情報保持物体に付した請求項1乃至請求項5の何れか1項に記載された検索用タグと、該検索用タグが付された検索情報保持物体の画像を撮像する撮像手段と、該撮像手段が撮像した画像データから前記各識別点を識別して識別点位置を算出するタグ識別手段と、該タグ識別手段で算出した識別点位置に基づいて幾何学的不変量を演算する幾何学的不変量演算手段と、該幾何学的不変量算出手段で演算した幾何学的不変量に基づいて前記検索用タグを含む平面上の検索情報を抽出する検索情報抽出手段とを備えたことを特徴としている。   The information search system according to claim 6 is the search tag described in any one of claims 1 to 5 attached to the search information holding object, and the search information to which the search tag is attached. An imaging unit that captures an image of the holding object, a tag identifying unit that identifies each identification point from the image data captured by the imaging unit and calculates an identification point position, and an identification point position calculated by the tag identifying unit Geometric invariant calculating means for calculating a geometric invariant based on the search information on the plane including the search tag based on the geometric invariant calculated by the geometric invariant calculating means. It is characterized by comprising search information extracting means for extracting.

さらに、請求項7に係る情報検索システムは、検索情報保持物体に付した請求項1乃至請求項5の何れか1項に記載された検索用タグと、該検索用タグが付された検索情報保持物体の画像を撮像する撮像手段と、該撮像手段が撮像した画像データから前記各識別点を識別して識別点位置を算出するタグ識別手段と、該タグ識別手段で算出した識別点位置に基づいて幾何学的不変量を演算する幾何学的不変量演算手段と、該幾何学的不変量算出手段で演算した幾何学的不変量に基づいて前記検索用タグを含む平面上の検索情報を抽出する検索情報抽出手段と、該検索情報抽出手段で抽出した検索情報の画像データを前記検索用タグに基づいて幾何学的に補正する画像補正手段とを備えたことを特徴としている。   Furthermore, an information search system according to claim 7 is the search tag described in any one of claims 1 to 5 attached to the search information holding object, and the search information to which the search tag is attached. An imaging unit that captures an image of the holding object, a tag identifying unit that identifies each identification point from the image data captured by the imaging unit and calculates an identification point position, and an identification point position calculated by the tag identifying unit Geometric invariant calculating means for calculating a geometric invariant based on the search information on the plane including the search tag based on the geometric invariant calculated by the geometric invariant calculating means. Search information extraction means for extracting and image correction means for geometrically correcting the image data of the search information extracted by the search information extraction means based on the search tag are provided.

さらにまた、請求項8に係る情報検索システムは、検索情報保持物体に付した請求項1乃至請求項5の何れか1項に記載された検索用タグと、該検索用タグが付された検索情報保持物体の画像を撮像する撮像手段と、該撮像手段が撮像した画像データから前記各識別点を識別して識別点位置を算出するタグ識別手段と、該タグ識別手段で算出した識別点位置に基づいて幾何学的不変量を演算する幾何学的不変量演算手段と、該幾何学的不変量算出手段で演算した幾何学的不変量に基づいて検索情報を特定する情報検索手段とを備えたことを特徴としている。   Furthermore, an information search system according to claim 8 is a search tag according to any one of claims 1 to 5 attached to a search information holding object, and a search with the search tag attached thereto. An imaging unit that captures an image of an information holding object, a tag identifying unit that identifies each identification point from image data captured by the imaging unit and calculates an identification point position, and an identification point position calculated by the tag identifying unit And a geometric invariant calculating means for calculating a geometric invariant based on the information, and an information searching means for specifying search information based on the geometric invariant calculated by the geometric invariant calculating means. It is characterized by that.

なおさらに、請求項9に係る情報検索システムは、請求項6乃至8の何れか1つの発明において、前記タグ識別手段は、前記識別点を識別可能な特徴情報を記憶しており、前記画像データから前記特徴情報と比較可能な比較情報を取得し、取得した比較情報と前記特徴情報とを比較し、当該比較結果に基づいて前記識別点を識別するように構成されていることを特徴としている。
また、請求項10に係る情報検索システムは、請求項9に係る発明において、前記特徴情報及び前記比較情報は、画素毎の輝度の最大増加方向及び最大減少方向の何れか一方を表す方向符号であることを特徴としている。
Still further, in the information search system according to claim 9, in the invention according to any one of claims 6 to 8, the tag identification unit stores feature information that can identify the identification point, and the image data The comparison information that can be compared with the feature information is acquired from, the acquired comparison information is compared with the feature information, and the identification point is identified based on the comparison result. .
According to a tenth aspect of the present invention, in the invention according to the ninth aspect, the feature information and the comparison information are directional codes that represent one of a maximum increase direction and a maximum decrease direction of luminance for each pixel. It is characterized by being.

本発明に係る検索用タグによれば、従来のタグとは異なり、四角形領域の各辺に5つの識別点が配置されているので、固定焦点カメラで検索用タグを撮影しても検索用タグを容易に識別することができると共に、四角形領域内に検索情報を配置し、この検索情報を5つの識別点に基づいて算出される幾何学的不変量で特定するので、検索対象位置を容易に検出することができるという効果が得られる。
また、本発明に係る情報検索システムによれば、上記検索用タグを容易に識別することができると共に、検索用タグの識別点に基づく座標系を認識して、検索用タグを撮影した画像データから幾何学的不変量を算出し、この幾何学的不変量に基づいて画像データに含まれる検索情報の抽出や検索情報位置の特定を容易に行なうことができるという効果が得られる。
According to the search tag according to the present invention, unlike the conventional tag, five identification points are arranged on each side of the quadrangular region. Therefore, even if the search tag is photographed with a fixed focus camera, the search tag is used. Can be easily identified, and search information is arranged in a rectangular area, and this search information is specified by a geometric invariant calculated based on five identification points. The effect that it can detect is acquired.
Further, according to the information search system of the present invention, the search tag can be easily identified, and image data obtained by capturing the search tag by recognizing a coordinate system based on the identification point of the search tag. From this, it is possible to calculate the geometric invariant, and to extract the search information included in the image data and specify the search information position based on the geometric invariant.

以下、本発明の実施の形態を図面に基づいて説明する。
図1は、本発明に係る情報検索システムにおける第1の実施形態の構成を示すシステム構成図である。
図中、1は情報検索システムであって、雑誌、折り込み広告等の検索情報保持物体2に印刷された検索情報を含む検索用タグ3と、この検索用タグ3を読取って検索情報を抽出するタグ読取装置4と、このタグ読取装置4で抽出した検索情報に基づいて情報検索を行う情報検索装置5とを備えている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a system configuration diagram showing the configuration of the first embodiment in the information search system according to the present invention.
In the figure, reference numeral 1 denotes an information search system, which includes a search tag 3 including search information printed on a search information holding object 2 such as a magazine or a folder advertisement, and reads the search tag 3 to extract search information. A tag reading device 4 and an information search device 5 that performs information search based on the search information extracted by the tag reading device 4 are provided.

検索用タグ3は、図3に示すように、検索情報保持物体2の表面に正方形、長方形等の四角形領域3aが形成され、この四角形領域3aの各辺に例えば16等分した目盛り3bが形成され、この目盛り3b上に中心点を有する5つの円形の識別点P0〜P4が形成されている。
四角形領域3aは、高さをH、幅をWとし、その左上の頂点を原点(0,0)とし、右方向をx軸、下方向をy軸とする座標系を考えたとき、識別点P0は原点(0,0)に固定し、他の4つの識別点P1〜P4は各辺上の任意の位置に配置されている。なお、3点が同一直線上に並ぶことを避けるために、例えば原点に置いた識別点P0以外の4つの識別点は頂点には配置しないようにする。ここで、識別点P0以外の4つの識別点を、5つの識別点の重心から見て識別点P0から反時計回りの順に各識別点をP1、P2、P3及びP4とする。
As shown in FIG. 3, the search tag 3 has a square area 3a such as a square or rectangle formed on the surface of the search information holding object 2, and a scale 3b divided into, for example, 16 equal parts is formed on each side of the square area 3a. In addition, five circular identification points P0 to P4 having a center point are formed on the scale 3b.
The rectangular area 3a has a height H, a width W, an upper left vertex as the origin (0, 0), a right direction as the x axis, and a lower direction as the y axis. P0 is fixed at the origin (0, 0), and the other four identification points P1 to P4 are arranged at arbitrary positions on each side. In order to avoid the three points being arranged on the same straight line, for example, four identification points other than the identification point P0 placed at the origin are not arranged at the vertices. Here, it is assumed that four identification points other than the identification point P0 are P1, P2, P3, and P4 in order of counterclockwise from the identification point P0 when viewed from the center of gravity of the five identification points.

そして、識別点P0は他の識別点P1〜P4と区別するために大きな直径(例えば20mm)に設定され、他の識別点P1〜P4は小さな直径(例えは15mm)に設定されている。
このため、識別点P1の座標は(0,y1)で表され、識別点P2の座標は(x2,H)、識別点P3の座標は(W,y3)及び識別点P4の座標は(x4,0)に設定される。ここで、y1及びy3はH/16〜15H/16の範囲をとることができ、x2及びx4はW/16〜15W/16の範囲をとることができる。したがって、5つの識別点P0〜P4の配置パターンは154=50625通りとなる。
The discrimination point P0 is set to a large diameter (for example, 20 mm) to distinguish it from the other discrimination points P1 to P4, and the other discrimination points P1 to P4 are set to a small diameter (for example, 15 mm).
Therefore, the coordinates of the identification point P1 are represented by (0, y 1 ), the coordinates of the identification point P2 are (x 2 , H), the coordinates of the identification point P3 are (W, y 3 ), and the coordinates of the identification point P4. Is set to (x 4 , 0). Here, y 1 and y 3 may range from H / 16~15H / 16, x 2 and x 4 can range of W / 16~15W / 16. Therefore, there are 15 4 = 50625 arrangement patterns of the five identification points P0 to P4.

また、各識別点P0〜P4は、図4に示すように、外周が円形に形成され、その中心点Oを起点として、半径方向に沿った輝度変化パターンが全半径方向で同一となるように設定されている。なお、輝度変化パターンは、狭義の単調減少又は単調増加のパターンであればどのような変化パターンでも構わない。図4(a)の例であれば、図5(a)に示すように輝度値が直線的に減少するパターンであり、図4(b)の例であれば、図5(b)に示すように輝度値が直線的に増加するパターンである。その他、減少するパターンとしては、接線の傾きが負となって連続的に減少する曲線となればよく、図6(a)に示すように上に凸の曲線でもいいし、同(b)に示すように下に凸の曲線でもいいし、同(c)に示すようなS字曲線でもいいし、同(d)に示すようなS字を二つ合わせたような曲線でもいい。増加パターンの場合も同様に接線の傾きが正となって連続的に増加する種々のパターンが採用可能である。
上記構成を有する検索用タグ3について、各識別点の座標を前記(1)式に代入することにより、識別点P0を原点とした2つの幾何学的不変量I1及びI2は、辺の長さで正規化した座標を用いて以下のように算出される。
Further, as shown in FIG. 4, each identification point P0 to P4 has a circular outer periphery, and the luminance change pattern along the radial direction is the same in all radial directions starting from the center point O. Is set. The luminance change pattern may be any change pattern as long as it is a monotonously decreasing or monotonically increasing pattern in a narrow sense. In the example of FIG. 4 (a), the luminance value decreases linearly as shown in FIG. 5 (a), and in the example of FIG. 4 (b), it is shown in FIG. 5 (b). Thus, the luminance value increases linearly. In addition, the decreasing pattern may be a curve that continuously decreases with a negative tangent slope, and may be an upwardly convex curve as shown in FIG. As shown, it may be a downwardly convex curve, an S-shaped curve as shown in (c), or a curve obtained by combining two S-shaped curves as shown in (d). Similarly, in the case of the increasing pattern, various patterns in which the slope of the tangent is positive and continuously increases can be employed.
For the search tag 3 having the above configuration, by substituting the coordinates of each identification point into the equation (1), the two geometric invariants I 1 and I 2 with the identification point P0 as the origin are It is calculated as follows using coordinates normalized by length.

Figure 2006331322
Figure 2006331322

ここで、Xi=xi/W,Yj=yj/Hであり、Wは四角形領域3aの幅、Hは四角形領域3aの高さである。また、Xi及びYjは夫々幅及び高さの辺に付けた目盛りの番号(1〜15)を等分数(=16)で除した値である。
上記(2)式に示すように、幾何学的不変量I1及びI2は四角形領域の辺の長さに依存しないので、検索用タグ3の縦横のサイズを自由に設定することができるという効果が得られる。また、長さの単位にも依存しないので、(xi,yi)(i=0〜4)は、目盛りの番号(0〜16)としてもよいし、或いは実測長(例えばmm単位)の値としてもよい。さらに、目盛りを付けることにより、5つの識別点P0〜P4の配置を誤差なく指定することができるという効果が得られる。
Here, X i = x i / W, Y j = y j / H, W is the width of the quadrangular area 3a, and H is the height of the quadrangular area 3a. X i and Y j are values obtained by dividing the scale numbers (1 to 15) attached to the sides of the width and height by an equal fraction (= 16).
As shown in the above equation (2), the geometric invariants I 1 and I 2 do not depend on the length of the sides of the quadrangular region, so that the vertical and horizontal sizes of the search tag 3 can be freely set. An effect is obtained. Further, since it does not depend on the unit of length, (x i , y i ) (i = 0 to 4) may be a scale number (0 to 16), or may be an actually measured length (for example, mm unit). It may be a value. Furthermore, by providing a scale, an effect is obtained that the arrangement of the five identification points P0 to P4 can be designated without error.

上記構成を有する検索用タグ3を空間の任意の位置に置き、ディジタルカメラ11で撮影することにより、画像データにおける5点の座標(xi,yi)(i=0〜4)を得ることができる。そして、最も大きな直径の識別点をP0とし、5つの識別点の重心からみて反時計回りの順に識別点をP1、P2、P3及びP4とすることにより、これらの識別点の座標を前記(1)式に代入することにより、幾何学的不変量I1及びI2を算出すると、算出した幾何学的不変量I1及びI2は検索用タグ3の3次元位置に関わらず同一の値となる。 The search tag 3 having the above configuration is placed at an arbitrary position in the space and photographed by the digital camera 11 to obtain five coordinates (x i , y i ) (i = 0 to 4) in the image data. Can do. Then, the identification point having the largest diameter is P0, and the identification points are P1, P2, P3, and P4 in the counterclockwise direction as viewed from the center of gravity of the five identification points. When the geometric invariants I 1 and I 2 are calculated by substituting them into the formula, the calculated geometric invariants I 1 and I 2 are the same values regardless of the three-dimensional position of the search tag 3. Become.

そして、算出した幾何学的不変量I1及びI2は実数値として得られるので、所定の単位量I1_unit及びI2_unitを使って下記(3)式及び(4)式の演算を行うことにより、量子化し整数値の識別コードI1及びI2に変換する。
I1=INT〔I1/I1_unit〕 …………(3)
I2=INT〔I2/I2_unit〕 …………(4)
ただし、INT〔〕は大括弧内の実数の小数点以下を切り捨てて整数化する関数である。
Since the calculated geometric invariants I 1 and I 2 are obtained as real values, the following formulas (3) and (4) are calculated using predetermined unit quantities I 1 _unit and I 2 _unit. As a result, it is quantized and converted into integer identification codes I1 and I2.
I1 = INT [I 1 / I 1 _unit] (3)
I2 = INT [I 2 / I 2 _unit] (4)
Here, INT [] is a function that rounds down the decimal point of the real number in square brackets to make it an integer.

このように、5つの識別点P0〜P4の配置パターン毎に識別コードI1及びI2を算出することができるものであるが、幾何学的不変量I1及びI2を上記(3)式及び(4)式で整数化していることから、同一の識別コードI1及びI2を表す識別点の配置パターンが1つとは限らないと共に、撮影した画像データから識別点の座標を読取る際に読取り誤差を生じることから、読取り誤差を考慮して確実に識別可能な配置パターンは前記50625通りの一部に限定することが好ましい。 In this way, the identification codes I1 and I2 can be calculated for each arrangement pattern of the five identification points P0 to P4. The geometric invariants I 1 and I 2 are expressed by the above formula (3) and ( 4) Since it is converted into an integer in the equation, the arrangement pattern of the identification points representing the same identification codes I1 and I2 is not necessarily one, and a reading error occurs when reading the coordinates of the identification points from the captured image data. Therefore, it is preferable that the arrangement patterns that can be reliably identified in consideration of reading errors are limited to the 50625 portions.

このため、使用可能な配置パターンを決定するために、予め例えばマイクロコンピュータを含んで構成される情報検索装置5を使用して、図7に示す識別点配置パターン決定処理を実行する。なお、前述したように識別点の座標は長さの単位に依存しないので、ここでは(xi,yi)を目盛りの番号として説明する。
この識別点配置パターン決定処理は、図7に示すように、先ず、ステップS1で、座標x0、y0、x1、y4を全て“0”に、座標y2をH(=16)に、座標x3をW(=16)に、そして座標y1、x2、y3及びx4を全て“1”とする初期化を行う。
For this reason, in order to determine the arrangement pattern which can be used, the identification point arrangement pattern determination process shown in FIG. 7 is executed using the information retrieval apparatus 5 including a microcomputer in advance. As described above, since the coordinates of the identification point do not depend on the unit of length, here, (x i , y i ) will be described as a scale number.
As shown in FIG. 7, in the discrimination point arrangement pattern determination process, first, in step S1, the coordinates x 0 , y 0 , x 1 , y 4 are all set to “0”, and the coordinate y 2 is set to H (= 16). In addition, initialization is performed so that the coordinate x 3 is W (= 16) and the coordinates y 1 , x 2 , y 3, and x 4 are all “1”.

次いで、ステップS2に移行して、(x0、y0)〜(x4、y4)を前述した(1)式に代入して、幾何学的不変量I1及びI2を算出すると共に、算出した幾何学不変量I1及びI2を前記(3)式及び(4)式に従って整数化して識別コードI1及びI2を算出する。
次いで、ステップS3に移行して、4つのパラメータy1、x2、y3及びx4と、固定座標x0、y0、x1、y2、x3、y4の各々について許容誤差εを加減算した許容値の全ての組み合わせの210通りについて前記(1)式、(3)式、(4)式の演算を行って識別コードI1及びI2を算出し、各々の最小値I1MIN,I2MIN及び最大値I1MAX,I2MAXを算出する。
Next, the process proceeds to step S2, and (x 0 , y 0 ) to (x 4 , y 4 ) are substituted into the above-described equation (1) to calculate geometric invariants I 1 and I 2. The calculated geometric invariants I 1 and I 2 are converted into integers according to the equations (3) and (4) to calculate the identification codes I1 and I2.
Next, the process proceeds to step S3, where the tolerance ε for each of the four parameters y 1 , x 2 , y 3 and x 4 and the fixed coordinates x 0 , y 0 , x 1 , y 2 , x 3 , y 4. The identification codes I1 and I2 are calculated by performing the operations of the above formulas (1), (3), and (4) for 2 10 combinations of all the allowable values obtained by adding and subtracting the minimum values I1 MIN , I2 MIN and maximum values I1 MAX and I2 MAX are calculated.

次いで、ステップS4に移行して、y1、x2、y3、x4、I1MIN、I1、I1MAX、I2MIN、I2、I2MAXの全てを記憶テーブルTに記憶してからステップS5に移行する。
このステップS5では、全ての配置パターン{y1,x2,y3,x4}についてI1MIN、I1、I1MAX、I2MIN、I2、I2MAXの記録が完了したか否かを判定し、記録が完了していない配置パターンが存在する場合にはステップS6に移行して、座標y1,x2,y3,x4の何れかを変更(例えば、y1=1→y1=2など)して別の配置パターン{y1,x2,y3,x4}を生成してから前記ステップS2に戻り、全ての配置パターン{y1=1〜15、x2=1〜15、y3=1〜15、x4=1〜15}について記憶テーブルTへの記録が完了したときにはステップS7に移行する。
Then, the processing proceeds to step S4, the y 1, x 2, y 3 , x 4, I1 MIN, I1, I1 MAX, I2 MIN, I2, I2 step S5 after storing all the storage table T of MAX Transition.
In this step S5, it is determined whether or not the recording of I1 MIN , I1, I1 MAX , I2 MIN , I2 and I2 MAX has been completed for all the arrangement patterns {y 1 , x 2 , y 3 , x 4 }. If there is an arrangement pattern that has not been recorded, the process proceeds to step S6, and any of the coordinates y 1 , x 2 , y 3 , x 4 is changed (for example, y 1 = 1 → y 1 = 2). Etc.) to generate another arrangement pattern {y 1 , x 2 , y 3 , x 4 }, and then return to the step S2, and all the arrangement patterns {y 1 = 1 to 15, x 2 = 1 to 15 , Y 3 = 1 to 15, x 4 = 1 to 15}, when the recording to the storage table T is completed, the process proceeds to step S7.

このステップS7では、採用する識別コード(I1,I2)を記録するための2次元配列Iを“0”で初期化し、次いでステップS8に移行して、変動幅設定値Vを“2”で初期化してからステップS9に移行する。
このステップS9では、記憶テーブルTに記憶されている全ての配置パターン{y1,x2,y3,x4}について許容誤差εに対する識別コード(I1,I2)の変動幅ΔIを下記(5)式に従って算出する。
ΔI=(I1MAX−I1MIN+1)+(I2MAX−I2MIN+1) …………(5)
In step S7, the two-dimensional array I for recording the identification code (I1, I2) to be employed is initialized with “0”, and then the process proceeds to step S8, where the fluctuation range setting value V is initialized with “2”. Shift to step S9.
In this step S9, the variation width ΔI of the identification code (I1, I2) with respect to the allowable error ε for all the arrangement patterns {y 1 , x 2 , y 3 , x 4 } stored in the storage table T is expressed as (5 ) Calculate according to the formula.
ΔI = (I1 MAX −I1 MIN +1) + (I2 MAX −I2 MIN +1) (5)

次いでステップS10に移行して、算出した各識別コード(I1,I2)の変動幅ΔIが変動幅設定値Vと一致する配置パターン{y1,x2,y3,x4}が存在するか否かを判定し、ΔI=Vとなる配置パターン{y1,x2,y3,x4}が存在する場合には、ステップS11に移行して、該当する配列パターン{y1,x2,y3,x4}の{I1MIN、I1MAX、I2MIN、I2MAX}を使用して全ての2次元配列Iの要素I〔i1,i2〕(I1MIN≦i1≦I1MAX,I2MIN≦i2≦I2MAX)が“0”であるか否かを判定し、これらを満足する場合には、ステップS12に移行して、記録テーブルTの該当する配置パターン{y1,x2,y3,x4}に「採用」を記録する。 Next, the process proceeds to step S10, and whether there is an arrangement pattern {y 1 , x 2 , y 3 , x 4 } in which the calculated fluctuation width ΔI of each identification code (I1, I2) matches the fluctuation width setting value V. If there is an arrangement pattern {y 1 , x 2 , y 3 , x 4 } that satisfies ΔI = V, the process proceeds to step S11 and the corresponding arrangement pattern {y 1 , x 2 , Y 3 , x 4 } using {I1 MIN , I1 MAX , I2 MIN , I2 MAX }, elements I [i1, i2] of all two-dimensional arrays I (I1 MIN ≤ i1 ≤ I1 MAX , I2 MIN ≦ i2 ≦ I2 MAX ) is determined to be “0”, and if these are satisfied, the process proceeds to step S12 and the corresponding arrangement pattern {y 1 , x 2 , y of the recording table T Record “Recruit” in 3 , x 4 }.

次いで、ステップS13に移行して、2次元配列Iの要素I〔i1,i2〕(I1MIN≦i1≦I1MAX,I2MIN≦i2≦I2MAX)の値を使用済みを表す“1”に変更する。
次いで、ステップS14に移行して、記憶テーブルTの全ての配置パターン{y1,x2,y3,x4}について調査が終了したか否かを判定し、全ての配置パターン{y1,x2,y3,x4}について調査が終了したときには識別点配置パターン決定処理を終了し、全ての配置パターン{y1,x2,y3,x4}について調査が終了していないときには前記ステップS10に戻る。
In step S13, the value of the element I [i1, i2] (I1 MIN ≤ i1 ≤ I1 MAX , I2 MIN ≤ i2 ≤ I2 MAX ) of the two-dimensional array I is changed to "1" indicating used. To do.
Next, the process proceeds to step S14, where it is determined whether or not the investigation has been completed for all the arrangement patterns {y 1 , x 2 , y 3 , x 4 } in the storage table T, and all the arrangement patterns {y 1 , When the survey for x 2 , y 3 , x 4 } is completed, the discrimination point arrangement pattern determination process is terminated, and when the survey for all arrangement patterns {y 1 , x 2 , y 3 , x 4 } is not completed. The process returns to step S10.

一方、前記ステップS10の判定結果が、ΔI=Vとなる配列パターン{y1,x2,y3,x4}が存在しないときには、ステップS15に移行して、変動幅設定値Vを“1”だけ増やしてから前記ステップS10に戻る。
さらに、前記ステップS11の判定結果が、2次元配列Iの要素I(i1,i2)(I1MIN≦i1≦I1MAX,I2MIN≦i2≦I2MAX)のいずれかが“1”であるときには、ステップS16に移行して、I1又はI2の変動幅ΔIが使用済みの値に重複していることを意味するので、記録テーブルTの該当配置パターン{y1,x2,y3,x4}に「不採用」を記録してから前記ステップS14に移行する。
On the other hand, when the array pattern {y 1 , x 2 , y 3 , x 4 } with ΔI = V does not exist as a result of determination in step S10, the process proceeds to step S15, and the fluctuation range setting value V is set to “1”. Then, the process returns to step S10.
Furthermore, when the determination result of step S11 is any one of the elements I (i1, i2) (I1 MIN ≤ i1 ≤ I1 MAX , I2 MIN ≤ i2 ≤ I2 MAX ) of the two-dimensional array I, In step S16, it means that the fluctuation range ΔI of I1 or I2 overlaps the used value, so that the corresponding arrangement pattern {y 1 , x 2 , y 3 , x 4 } of the recording table T After “not adopted” is recorded in step S14, the process proceeds to step S14.

このようにして、上記識別点配置パターン決定処理で「採用」が決定された記録テーブルTの配置パターン{y1,x2,y3,x4}を実際の配置パターンとして使用する。そして、採用された配置パターン{y1,x2,y3,x4}を例えば識別コードI1が小さい順にソートして、この順序に並び代えて所定のハードディスク等の記憶装置に記憶する。
そして、検索情報保持物体2を作成する際に、例えば図8に示すように、検索用タグ3内を各目盛り3bを結ぶことにより、16行×16列で原点(0,0)から右方向に順次“1”〜“16”を割り当て、次いで2行目の左端から右方向に順次“17”〜“32”を割り当てて、最終的に最下行の右端に“256”を割り当てて、細分化領域SA1、SA2、……SA256を形成する。
In this way, the arrangement pattern {y 1 , x 2 , y 3 , x 4 } of the recording table T that has been determined to be “adopted” in the identification point arrangement pattern determination process is used as the actual arrangement pattern. Then, the arranged arrangement patterns {y 1 , x 2 , y 3 , x 4 } are sorted, for example, in ascending order of the identification code I1, and are rearranged in this order and stored in a predetermined storage device such as a hard disk.
Then, when creating the search information holding object 2, for example, as shown in FIG. 8, by connecting the scales 3b in the search tag 3, the right direction from the origin (0, 0) in 16 rows × 16 columns Sequentially assigns “1” to “16”, then assigns “17” to “32” sequentially from the left end of the second row to the right, and finally assigns “256” to the right end of the bottom row. Formation regions SA 1 , SA 2 ,... SA 256 are formed.

これら細分化領域SA1〜SAT256の何れか1つを選択し、選択した領域に、二次元バーコード等の検索情報を含む検索コードRCを印刷する印刷位置RPを特定し、情報検索装置5の記憶装置を参照して、特定された印刷位置RPに割り当てられた数値i(i=1〜256)に対応する識別コードI1を有する配置パターン{y1,x2,y3,x4}を選択し、選択した配置パターン{y1,x2,y3,x4}の識別点P0〜P4を決定し、決定された配置パターン{y1,x2,y3,x4}で識別点P0〜P4を印刷すると共に、印刷位置RPに光学的に読取可能なQRコードなどの二次元コードで構成される検索コードを印刷する。 Any one of the subdivided areas SA 1 to SAT 256 is selected, and a print position RP for printing a search code RC including search information such as a two-dimensional barcode is specified in the selected area, and the information search apparatus 5 , The arrangement pattern {y1, x2, y3, x4} having the identification code I1 corresponding to the numerical value i (i = 1 to 256) assigned to the specified printing position RP is selected. The identification points P0 to P4 of the selected arrangement pattern {y1, x2, y3, x4} are determined, the identification points P0 to P4 are printed with the determined arrangement pattern {y1, x2, y3, x4}, and the printing position A search code composed of a two-dimensional code such as an optically readable QR code is printed on the RP.

タグ読取装置4は、図1に示すように、検索用タグ3を撮影して画像データDを出力する撮像手段としてのディジタルカメラ11と、このディジタルカメラ11から出力される映像データDが入力されて、この映像データDに基づいて検索用タグ3の識別点P0〜P4を識別するタグ識別手段としてのタグ識別部12と、このタグ識別部12で識別した識別点P0〜P4の座標(x0,y0)〜(x4,y4)に基づいて幾何学的不変量I1及びI2を算出し、これを整数化して識別コードI1及びI2を算出する幾何学的不変量算出手段としての幾何学的不変量算出部13と、識別コードI1,I2に基づいて検索情報位置を特定し、特定した検索情報位置の画像データを読込み、これを検索情報として出力する検索情報抽出手段としての検索情報抽出部14とを備えている。 As shown in FIG. 1, the tag reading device 4 receives a digital camera 11 as an imaging unit that captures the search tag 3 and outputs image data D, and video data D output from the digital camera 11. The tag identifying unit 12 as tag identifying means for identifying the identification points P0 to P4 of the search tag 3 based on the video data D, and the coordinates (x0) of the identification points P0 to P4 identified by the tag identifying unit 12 , Y0) to (x4, y4), geometric invariants I 1 and I 2 are calculated as integers, and the identification codes I 1 and I 2 are calculated to calculate the identification codes I 1 and I 2. The search information position is specified based on the statistical invariant calculation unit 13 and the identification codes I1 and I2, the image data at the specified search information position is read, and this is output as search information. A search line information extraction unit 14.

タグ識別部12は、図2に示すように、ディジタルカメラ11から入力される一画面分の画像データである対象画像データDから、所定サイズの部分画像PGを順次抽出する部分画像抽出部31と、抽出した部分画像PGについて抽出方向符号EDを演算する方向符号演算部32と、識別点P0〜P4を識別可能な特徴情報としての参照用方向符号RDを予め記憶した方向符号記憶部33と、方向符号演算部32で演算した抽出方向符号EDと、方向符号記憶部33に記憶されている参照用方向符号RDとを比較して、両者が一致するか否かを判定する方向符号比較部34と、部分画像抽出部31の部分画像を1画素毎に移動させながら方向符号比較部34の比較結果が、抽出方向符号EDが参照用方向符号RDと一致したときに、そのときの部分画像の中心点を識別点P0〜P4の中心点として算出する識別点座標演算部35とで構成されている。   As shown in FIG. 2, the tag identification unit 12 includes a partial image extraction unit 31 that sequentially extracts partial images PG of a predetermined size from target image data D that is image data for one screen input from the digital camera 11. A direction code calculation unit 32 that calculates an extraction direction code ED for the extracted partial image PG, a direction code storage unit 33 that stores in advance a reference direction code RD as feature information that can identify the identification points P0 to P4, The direction code comparison unit 34 that compares the extracted direction code ED calculated by the direction code calculation unit 32 with the reference direction code RD stored in the direction code storage unit 33 and determines whether or not they match. When the comparison result of the direction code comparison unit 34 moves the partial image of the partial image extraction unit 31 pixel by pixel and the extraction direction code ED matches the reference direction code RD, Is constructed the center point of the partial image at the identification point coordinate calculating unit 35 that calculates the center point of the identification points P0-P4.

ここで、方向符号とは、例えば、図9に示すように、1画面データの任意の画素PE0を考えたとき、その画素PE0に隣接して包囲する八つの画素PE1〜PE8の各輝度値と、画素PE0の輝度値とをそれぞれ比較し、画素PE0の輝度値からの増加(又は減少)幅が最も大きな方向を符号化してなる情報である。この場合であれば、紙面に向かって、右方向、斜め右上方向、上方向、斜め左上方向、左方向、斜め左下方向、下方向、斜め右下方向の8方向に、例えば0〜7の番号を付すことで符号化してなる情報である。そして、この方向符号0〜7を検索用タグ3の識別点P0〜P4の元データ全体に対して求めてそれを2次元データとして保存したものが、参照用方向符号RDとなる。なお、ここでは画素PE0に隣接する8つの画素に注目して8方向としたが、これに限定されることはなく、より多くの方向に、例えば周囲8つの画素の配置された方向それぞれの中間方向も含めて細分化し、この場合は各方向に0〜15の番号を付して、より詳細な符号化を行うようにしてもよい。   Here, for example, as shown in FIG. 9, when an arbitrary pixel PE0 of one screen data is considered, the direction code is the luminance values of the eight pixels PE1 to PE8 that are adjacent to and surround the pixel PE0. The information is obtained by encoding the direction in which the increase (or decrease) width from the brightness value of the pixel PE0 is the largest by comparing the brightness values of the pixel PE0. In this case, for example, numbers 0 to 7 in the right direction, the diagonally upper right direction, the upward direction, the diagonally upper left direction, the left direction, the diagonally lower left direction, the downward direction, and the diagonally lower right direction toward the page. The information is encoded by appending. Then, the direction code RD is obtained by obtaining the direction codes 0 to 7 with respect to the entire original data of the identification points P0 to P4 of the search tag 3 and storing them as two-dimensional data. Here, the eight directions are focused on the eight pixels adjacent to the pixel PE0. However, the present invention is not limited to this, and is not limited to this. For example, in the middle of each of the directions in which the surrounding eight pixels are arranged. Subdivision including the direction is also possible, and in this case, a number from 0 to 15 may be assigned to each direction to perform more detailed encoding.

また、ここでは参照用方向符号RDを識別点P0〜P4の元データから生成する方法を説明したが、これに限定されることなく、所定の大きさの参照用方向符号RDを直接計算して生成するようにしてもよい。このようにして生成した参照用方向符号RDは、全ての方向符号(上記の例では0〜7)が円周方向に連続して一様に現れ、また同一の半径方向上では全て同一の方向符号となる特徴がある。   Further, here, the method of generating the reference direction code RD from the original data of the identification points P0 to P4 has been described. However, the present invention is not limited to this, and the reference direction code RD having a predetermined size is directly calculated. You may make it produce | generate. In the reference direction code RD generated in this way, all the direction codes (0 to 7 in the above example) appear uniformly in the circumferential direction, and all have the same direction on the same radial direction. There is a characteristic which becomes a code.

そして、タグ識別部12の部分画像抽出部31は、参照用方向符号RDを生成する際に用いた画像サイズと同じ大きさの部分画像PGを抽出するようになっており、方向符号演算部32は、抽出された部分画像PGに対して参照用方向符号RDを生成する際と同様の手順で演算を行って部分画像PGの方向符号を求めるように構成されている。
ここで、例えば、図10(a)に示すように、画像データDの画像サイズの大きさを高さ480画素、幅640画素とし、図10(b)に示すように、参照用方向符号RDの画像サイズの大きさを高さ及び幅共に32画素とした例を考える。即ちかかる例の場合、部分画像抽出部31は、図10(a)に示すように、画像データDの最上段左端から右端に向かって1画素移動する毎に部分画像PGを順次抽出し、第1行の右端に達したら、1画素分下側の第2行に移り左端から右端に向けて、1画素移動する毎に部分画像PGを順次抽出し、これを順次最終行まで継続してこの部分画像PGを抽出するということになる。
The partial image extraction unit 31 of the tag identification unit 12 extracts a partial image PG having the same size as the image size used when generating the reference direction code RD, and the direction code calculation unit 32. Is configured to calculate the direction code of the partial image PG by performing an operation in the same procedure as that for generating the reference direction code RD for the extracted partial image PG.
Here, for example, as shown in FIG. 10A, the size of the image data D is 480 pixels high and 640 pixels wide, and the reference direction code RD as shown in FIG. 10B. Consider an example in which the image size is 32 pixels in both height and width. That is, in such an example, as shown in FIG. 10A, the partial image extraction unit 31 sequentially extracts partial images PG every time one pixel moves from the uppermost left end of the image data D toward the right end. When the right end of one row is reached, the second row is moved down by one pixel, and the partial image PG is sequentially extracted every time one pixel moves from the left end to the right end, and this is continued until the last row. That is, the partial image PG is extracted.

方向符号比較部34は、参照用方向符号RDと部分画像PGの対応する全ての画素について方向符号の差を集計する。そして、その集計値が0であれば「一致」と判定し、所定の閾値以内であれば「近似している」と判定する。なお、方向符号の差は次のように計算される。例えば、方向を8等分して方向符号0〜7を使う場合で説明する。2つの方向符号D1とD2の差dは、下記(6)式で算出することができる。
d=Min{G,8−G} 但し、G=|D1−D2| ……(6)
The direction code comparison unit 34 adds up the difference of the direction codes for all the corresponding pixels of the reference direction code RD and the partial image PG. If the total value is 0, it is determined as “match”, and if it is within a predetermined threshold, it is determined as “approximate”. The direction code difference is calculated as follows. For example, the case where the direction code is divided into eight and the direction codes 0 to 7 are used will be described. The difference d between the two direction codes D1 and D2 can be calculated by the following equation (6).
d = Min {G, 8-G} where G = | D1-D2 | (6)

すなわち、抽出方向符号EDの符号が“0”で参照用方向符号RDの符号が“0”であるときには、G=0となることにより、差dが“0”となるが、抽出方向符号EDの符号が“0”で参照用方向符号RDの符号が“1”(又は“7”)であるときには、G=1,8−G=7(又はG=7,8−G=1)となるのでd=1となり、抽出方向符号EDの符号が“0”で参照用方向符号RDの符号が“3”(又は“5”)であるときには、G=3,8−G=5(又はG=5,8−G=3)となるのでd=3となる。   That is, when the code of the extraction direction code ED is “0” and the code of the reference direction code RD is “0”, the difference d becomes “0” because G = 0, but the extraction direction code ED When the code of the reference direction code RD is “1” (or “7”), G = 1, 8-G = 7 (or G = 7, 8-G = 1). Therefore, when d = 1, the code of the extraction direction code ED is “0” and the code of the reference direction code RD is “3” (or “5”), G = 3, 8−G = 5 (or Since G = 5, 8-G = 3), d = 3.

識別点座標演算部35は、例えば、対象画像データDの左上を座標の原点(0,0)として方向符号比較部34の比較結果が“0”であればこのときの部分画像PGの中心点を識別点P0〜P4の何れかの中心点として記憶し、比較結果が“0”ではないが所定の閾値以下であるときにもこのときの部分画像PGの中心点座標を識別点P0〜P4の何れかの中心点座標(xi,yi)として記憶すると共に、5つの識別点の中心点座標が検出されたときに、各識別点の輪郭線の直径が一番大きい識別点を識別点P0として設定し、さらに5つの識別点の重心点を算出し、算出した重心点から見て識別点P0から反時計回りに順次識別点P1〜P4として設定し、設定した識別点P0〜P4とその中心点座標(x0,y0)、(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)とを幾何学的不変量算出部13に出力する。 For example, if the upper left of the target image data D is the coordinate origin (0, 0) and the comparison result of the direction code comparison unit 34 is “0”, the identification point coordinate calculation unit 35 is the center point of the partial image PG at this time. Is stored as the center point of any of the identification points P0 to P4, and the center point coordinates of the partial image PG at this time are also used as the identification points P0 to P4 even when the comparison result is not “0” but below a predetermined threshold. Is stored as any one of the center point coordinates (x i , y i ), and when the center point coordinates of the five identification points are detected, the identification point having the largest contour line diameter is identified. Set as the point P0, and further calculate the centroid points of the five identification points, sequentially set as the identification points P1 to P4 counterclockwise from the identification point P0 as seen from the calculated centroid points, and set the identification points P0 to P4. And its center point coordinates (x 0 , y 0 ), (x 1 , y 1 ), ( x 2 , y 2 ), (x 3 , y 3 ), and (x 4 , y 4 ) are output to the geometric invariant calculator 13.

なお、ここでは対象画像データDから部分画像PGを抽出し、その部分画像PGに対して方向符号を求める方法について説明したが、これに限定されることなく、対象画像データD全体に対して方向符号を求めておき、そこから部分画像PGに対応する方向符号を抽出して、方向符号比較部34に供給するようにしてもよい。
幾何学的不変量算出部13では、入力された各識別点P0〜P4の中心点座標(x0,y0)、(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)に基づいて下記(7)及び(8)式の演算を行って幾何学的不変量I1及びI2を算出し、算出した幾何学的不変量I1及びI2を前記(3)式及び(4)式を使って整数化した値を識別コードI1及びI2として検索情報抽出部14に出力する。
Here, the method of extracting the partial image PG from the target image data D and obtaining the direction code for the partial image PG has been described. A code may be obtained, and a direction code corresponding to the partial image PG may be extracted therefrom and supplied to the direction code comparison unit 34.
In the geometric invariant calculation unit 13, the center point coordinates (x 0 , y 0 ), (x 1 , y 1 ), (x 2 , y 2 ), (x 3 ) of the inputted identification points P0 to P4. , Y 3 ), (x 4 , y 4 ) to calculate geometric invariants I 1 and I 2 by calculating the following equations (7) and (8), and calculating the calculated geometric invariant The values obtained by converting I 1 and I 2 into integers using the equations (3) and (4) are output to the search information extraction unit 14 as identification codes I1 and I2.

Figure 2006331322
Figure 2006331322

この検索情報抽出部14では、幾何学的不変量算出部22から入力された識別コードI1及びI2のうち例えば識別コードI1の値に基づいて検索情報が含まれている細分化領域SAk(k=1〜256)を特定し、その画像データを抽出して情報検索装置5に出力する。 In the search information extraction unit 14, the segmentation area SA k (k) containing the search information based on, for example, the value of the identification code I 1 out of the identification codes I 1 and I 2 input from the geometric invariant calculation unit 22. = 1 to 256), and the image data is extracted and output to the information search device 5.

情報検索装置5は、検索コードの解読プログラム、例えばインターネットへ接続する通信プログラム、解読したコード情報を送信する送信プログラム等を備えており、タグ読取装置4の検索情報抽出部14から出力される検索コードの画像データが入力されると、この画像データを解析して、検索コードに記憶されている検索情報を解読し、解読した検索情報に基づいて検索処理を実行する。この検索処理としては、例えば検索コードにインターネットの接続先アドレス(URL)及び商品コードが含まれているものとすると、検索コードの解読プログラムによって接続先アドレス及び商品コードを解読し、通信プログラム及び送信プログラムによって解読した接続先アドレスに商品コードを送信することにより、接続先アドレスのサーバにアクセスし、サーバに格納されている商品コードに応じた商品情報を受信して表示装置5aに表示する。   The information search device 5 includes a search code decoding program, for example, a communication program for connecting to the Internet, a transmission program for transmitting the decoded code information, and the like, and a search output from the search information extraction unit 14 of the tag reader 4 When the image data of the code is input, the image data is analyzed, the search information stored in the search code is decoded, and the search process is executed based on the decoded search information. As this search process, for example, if the search code includes the Internet connection address (URL) and product code, the connection address and product code are decrypted by the search code decoding program, and the communication program and transmission are performed. By transmitting the product code to the connection destination address decoded by the program, the server of the connection destination address is accessed, and the product information corresponding to the product code stored in the server is received and displayed on the display device 5a.

次に、上記実施形態の動作を説明する。
今、図8に示すように、四角形領域3a内の細分化領域SA213にQRコードでなる検索コードが印刷され、この細分化領域SA213を指定するように、識別コードI1が“213”を表す配置パターンで識別点P0〜P4が印刷された検索用タグ3が雑誌、折り込み広告等の検索情報保持物体2に印刷されているものとする。
Next, the operation of the above embodiment will be described.
Now, as shown in FIG. 8, the search code in the subdivision area SA 213 in the quadrangular region 3a becomes in the QR code is printed, so as to specify the subdivision area SA 213, an identification code I1 is "213" It is assumed that the search tag 3 on which the identification points P0 to P4 are printed in the arrangement pattern to be printed is printed on the search information holding object 2 such as a magazine or an insertion advertisement.

この検索情報保持物体2の検索用タグ3を読取るには、先ず、検索用タグ3が視野範囲内に入るようにディジタルカメラ11をセットしてからシャッターボタンを押圧することにより、検索用タグ3の画像を含む画像データDを形成し、この画像データDがタグ識別部12に出力される。このタグ識別部12では、ディジタルカメラ11から画像データDが入力されると、この画像データDを部分画像抽出部31に供給して、この部分画像抽出部31で画像データを一時記憶してから画像データDの原点位置から順次所定サイズの部分画像PGを抽出し、抽出した部分画像PGを方向符号演算部32に供給する。   In order to read the search tag 3 of the search information holding object 2, first, the digital camera 11 is set so that the search tag 3 falls within the visual field range, and then the shutter button is pressed, thereby the search tag 3 The image data D including the image is formed, and the image data D is output to the tag identification unit 12. In the tag identification unit 12, when image data D is input from the digital camera 11, the image data D is supplied to the partial image extraction unit 31, and the partial image extraction unit 31 temporarily stores the image data. A partial image PG having a predetermined size is sequentially extracted from the origin position of the image data D, and the extracted partial image PG is supplied to the direction code calculation unit 32.

この方向符号演算部32では、部分画像PGに含まれる各画素間の輝度変化に基づいて抽出方向符号EDを算出する。このとき、部分画像PGが検索用タグ3の識別点P0〜P4の何れかの位置に到達していないときには、輝度変化に基づいて算出される方向符号がないか又は文字、図形等が記載されている場合に、文字、図形等に沿って方向符号が生じるが何れにしても識別点P0〜P4の中心から各半径方向に順次輝度が連続的に減少又は増加する方向符号パターンは存在しないので、方向符号演算部32で演算された抽出方向符号EDと予め方向符号記憶部33に記憶されている正規の検索用タグ3から算出した参照用方向符号RDとが一致することはなく、前述した(6)式で算出される差dの合計値が大きな値となり、識別点P0〜P4として認識されることはない。   The direction code calculation unit 32 calculates an extraction direction code ED based on the luminance change between the pixels included in the partial image PG. At this time, when the partial image PG has not reached any position of the identification points P0 to P4 of the search tag 3, there is no direction code calculated based on the luminance change, or a character, a figure, or the like is described. However, there is no direction code pattern in which the luminance decreases or increases sequentially in the radial direction from the center of the identification points P0 to P4 in any case. The extraction direction code ED calculated by the direction code calculation unit 32 and the reference direction code RD calculated from the regular search tag 3 stored in the direction code storage unit 33 in advance do not coincide with each other. The total value of the differences d calculated by the equation (6) is a large value and is not recognized as the identification points P0 to P4.

ところが、識別点P0〜P4の何れかが部分画像PGに含まれる状態となり、例えば図11(a)に示すように、抽出される部分画像PGが識別点P0〜P4の何れかの中心点を横切る状態となると、部分画像PGに含まれる識別点の方向符号が図11(b)〜(e)に示すように順次変化することになり、方向符号記憶部23に記憶されている参照用方向符号が、図11(f)に示すように、検索用タグ3の中心部の方向符号であるものとすると、図11(b)では、方向符号の差dの総計が大きく、図11(c)で方向符号の差dの総計が小さくなり、図11(d)で方向符号の差dの総計が所定の閾値以内となる近似している状態となるが、さらに図11(e)では、参照用方向符号RDと完全に一致することから方向符号の差dの総計が“0”となり、この状態における部分画像PGの中心点座標が識別点P0〜P4の何れかの中心点座標(xi,yi)として記憶される。 However, any one of the identification points P0 to P4 is included in the partial image PG. For example, as shown in FIG. 11A, the extracted partial image PG has the central point of any of the identification points P0 to P4. In the crossing state, the direction codes of the identification points included in the partial image PG are sequentially changed as shown in FIGS. 11B to 11E, and the reference direction stored in the direction code storage unit 23 is changed. As shown in FIG. 11 (f), if the code is the direction code at the center of the search tag 3, in FIG. 11 (b), the sum of the direction code differences d is large. ), The sum of the direction code differences d becomes smaller, and in FIG. 11 (d), the sum of the direction code differences d falls within a predetermined threshold, but in FIG. 11 (e), Since it completely matches the reference direction code RD, the total difference d of the direction codes is There "0", the center point coordinates of a partial image PG in this state is stored as one of the center point coordinates of the identification points P0~P4 (x i, y i) .

以上の識別点抽出処理を繰り返すことにより、検索用タグ3の5つの識別点P0〜P4の中心点座標(xi,yi)(i=0〜4)を抽出する。
このとき、ディジタルカメラ11に対する検索情報保持物体2の姿勢が変化して検索用タグ3がディジタルカメラ11に正対していない場合でも、識別点P0〜P4は、360度全ての方向に対して同じように変化する円形のパターンを持っているので、タグ識別部12の処理は影響を受けることはない。
By repeating the above identification point extraction processing, the center point coordinates (x i , y i ) (i = 0 to 4) of the five identification points P0 to P4 of the search tag 3 are extracted.
At this time, even when the posture of the search information holding object 2 with respect to the digital camera 11 changes and the search tag 3 does not face the digital camera 11, the identification points P0 to P4 are the same for all 360 degrees. Thus, the processing of the tag identification unit 12 is not affected.

また、ディジタルカメラ11に対して検索用タグ3が接近するか又は遠ざかることにより、これによって撮像される識別点P0〜P4の円形のパターンが拡大又は縮小しても、輝度が中心から360度全ての方向に対して同じように変化するという特徴は変わらず、その抽出方向符号EDが参照用方向符号RDと同じなので識別点P0〜P4を正確に識別することができ、タグ識別部12の処理は影響を受けることはない。   Further, when the search tag 3 approaches or moves away from the digital camera 11, even if the circular pattern of the identification points P <b> 0 to P <b> 4 captured thereby is enlarged or reduced, the luminance is all 360 degrees from the center. The characteristics of the change in the same direction with respect to the direction of are not changed, and since the extraction direction code ED is the same as the reference direction code RD, the identification points P0 to P4 can be accurately identified. Will not be affected.

また、識別点P0〜P4とディジタルカメラ11との方向により、撮像された識別点P0〜P4の円形のパターンに視覚歪が発生しても、輝度が中心から360度全ての方向に対して変化するという特徴に変わりはなく、撮像された識別点P0〜P4の抽出方向符号EDと参照用方向符号RDの大部分とが一致することで、識別点P0〜P4を正確に識別することが可能となり、タグ識別部12の処理は影響を受けることはない。   Further, even if visual distortion occurs in the circular pattern of the imaged identification points P0 to P4 due to the directions of the identification points P0 to P4 and the digital camera 11, the luminance changes in all directions of 360 degrees from the center. The extraction point code ED of the imaged identification points P0 to P4 and most of the reference direction code RD coincide with each other so that the identification points P0 to P4 can be accurately identified. Thus, the processing of the tag identification unit 12 is not affected.

以上のようにして、検索用タグ3の5つの識別点の中心点座標を抽出すると、そのうち識別点の境界線の直径が一番大きい識別点を識別点P0に設定すると共に、各識別点の中心点座標から重心点を求め、求めた重心点から識別点P0を見たときに反時計回りに順次現れる識別点を順次P1、P2……P4として設定し、設定した識別点P0〜P4とそれらの中心点座標(x0,y0)、(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)とを幾何学的不変量算出部13に出力する。 When the center point coordinates of the five identification points of the search tag 3 are extracted as described above, the identification point having the largest diameter of the boundary line of the identification points is set as the identification point P0, and The center of gravity point is obtained from the center point coordinates, and when the identification point P0 is viewed from the obtained center of gravity point, the identification points that appear sequentially in the counterclockwise direction are sequentially set as P1, P2... P4, and the set identification points P0 to P4 Their center point coordinates (x 0 , y 0 ), (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 ) are expressed in geometric Output to the variable calculation unit 13.

この幾何学的不変量算出部13では、各識別点P0〜P4の中心点座標(x0,y0)、(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)に基づいて前記(7)式及び(8)式の演算を行って幾何学的不変量I1及びI2を算出し、これらを前記(3)式及び(4)式を使って整数化した識別コードI1及びI2を検索情報抽出部14に出力する。
この検索情報抽出部14では、入力される識別コードI1及びI2の内識別コードI1(=213)に基づいて細分化領域SA213を検索情報の位置として決定し、この細分化領域SA213の画像データ即ちQRコードでなる検索コードの画像データを抽出して、この画像データを情報検索装置5に出力する。
In this geometric invariant calculation unit 13, the center point coordinates (x 0 , y 0 ), (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y) of the respective identification points P0 to P4. 3 ) Based on (x 4 , y 4 ), the operations of the equations (7) and (8) are performed to calculate the geometric invariants I 1 and I 2. (4) The identification codes I1 and I2 converted to integers using the formula are output to the search information extraction unit 14.
In the search information extracting unit 14, it determines the granularity area SA 213 based on the internal identification code of the identification codes I1 and I2 are input I1 (= 213) as the position of the search information, images of the subdivision area SA 213 Data, that is, image data of a search code composed of a QR code is extracted, and this image data is output to the information search device 5.

情報検索装置5では、入力される検索コードの画像データを解読プログラムによって、検索コードに含まれる接続先アドレス及び商品コードを解読し、解読した接続先アドレスのサーバにアクセスすると共に、商品コードを送信する。これによって接続先のサーバから商品コードに応じた商品情報を情報検索装置5に送信し、情報検索装置5では、サーバからの商品情報を受信すると、受信した商品情報を表示装置5aに表示する。   In the information retrieval device 5, the image data of the input search code is decrypted by the decryption program, the connection destination address and the product code included in the search code are decrypted, the server of the decrypted connection destination address is accessed, and the product code is transmitted. To do. As a result, the product information corresponding to the product code is transmitted from the connection destination server to the information search device 5, and when the product information from the server is received, the information search device 5 displays the received product information on the display device 5a.

このように、上記実施形態によれば、検索用タグ3の識別点の配置パターンに基づいて幾何学的不変量I1及びI2を算出し、算出した幾何学的不変量I1及びI2を整数化して識別コードI1及びI2を算出し、算出した識別コードI1が検索コードを記載した検索情報の位置を表す情報となっているので、QRコードなどの二次元コードで検索コードを構成している場合でも、検索コードの位置を容易に検出することができ、この位置から検索コードの画像データを容易に抽出することができ、ディジタルカメラ11での撮像位置をラフに設定しても、検索コードを正確に検出することができる。 Thus, according to the above embodiment, it calculates the geometric invariant I 1 and I 2 on the basis of the arrangement pattern of the identification points of the search for the tag 3, calculated geometric invariant I 1 and I 2 The identification codes I1 and I2 are calculated by converting the numbers into integers. Since the calculated identification code I1 is information indicating the position of the search information describing the search code, the search code is composed of a two-dimensional code such as a QR code. Even if it is, the position of the search code can be easily detected, the image data of the search code can be easily extracted from this position, and even if the imaging position of the digital camera 11 is set roughly, The search code can be detected accurately.

しかも、検索用タグ3はディジタルカメラ11との対面角度に関わらず算出される幾何学的不変量I1及びI2が一定値であるので、検索情報保持物体2とディジタルカメラ11との相対姿勢が変化して検索用タグ3のディジタルカメラ11に対する角度が変化した場合でも正確に識別コードを算出することができ、検索用タグ3を誤認識することを確実に防止することができる。 In addition, since the geometric invariants I 1 and I 2 calculated for the search tag 3 regardless of the facing angle with the digital camera 11 are constant values, the relative attitude between the search information holding object 2 and the digital camera 11 is fixed. Even when the angle of the search tag 3 with respect to the digital camera 11 changes, the identification code can be calculated accurately, and erroneous recognition of the search tag 3 can be reliably prevented.

しかも、検索用タグ3は、四角形領域3aの各辺に識別点P0〜P4を配置するようにしており、識別点を配置した各辺の内側領域は検索コードを印刷した検索情報位置以外は検索には使用しないので、この内側領域における検索情報位置以外の領域に、任意の文字や図形等を記載することが可能となり、広告情報、会社情報等を記載することができる。
また、検索用タグ3は、四角形領域3aの各辺に目盛りが形成され、この目盛り上に識別点P0〜P4を配置するようにしているので、ラベルに四角形領域3aの外径枠と目盛りのみを設けておき、予め印刷した識別点P0〜P4を検索情報の位置に応じて目盛り上に貼着して検索用タグ3を構成することができ、多数種の配置パターンの検索用タグ3を予め設ける場合に比較して、製作コストを低減することができる。
Moreover, the search tag 3 is arranged so that the identification points P0 to P4 are arranged on each side of the quadrangular area 3a, and the area inside each side where the identification points are arranged is searched except for the search information position where the search code is printed. Is not used, it is possible to describe arbitrary characters, figures, etc. in areas other than the search information position in this inner area, and advertisement information, company information, etc. can be described.
Further, the search tag 3 has a scale formed on each side of the quadrangular area 3a, and the identification points P0 to P4 are arranged on the scale, so that only the outer diameter frame and the scale of the quadrangular area 3a are on the label. The search tag 3 can be configured by pasting the identification points P0 to P4 printed in advance on the scale according to the position of the search information. The manufacturing cost can be reduced compared with the case where it is provided in advance.

また、本発明に係る検索用タグ及び情報検索システムでは、テンプレートマッチング処理として「方向符号法」を用いており、また検索用タグ3の識別点P0〜P4の円形のパターンの輝度が中心から360度全ての方向に対して同じように変化するという特徴を持たせている。このため、例えば、検索用タグ3をカメラ11で撮像する際に、照明変動が起きて検索用タグ3上に影が発生したり、充分な光量が得られずに暗がりでの撮像だったりしたとしても、撮像された対象画像データDに基づく抽出方向符号EDが参照用方向符号RDと同じであることに変わりはないので、タグ識別部12の処理は影響を受けにくい。   In the search tag and information search system according to the present invention, the “direction code method” is used as the template matching process, and the luminance of the circular pattern of the identification points P0 to P4 of the search tag 3 is 360 from the center. It has the characteristic of changing in the same way for all directions. For this reason, for example, when the search tag 3 is imaged by the camera 11, illumination fluctuation occurs and a shadow is generated on the search tag 3, or the image is captured in the dark without obtaining a sufficient amount of light. However, since the extraction direction code ED based on the captured target image data D is the same as the reference direction code RD, the processing of the tag identification unit 12 is not easily affected.

このように、検索用タグ3は、輝度が中心点Oから360度全ての方向に対して同じように変化する円形のパターンを持たせているので、この検索用タグ3をカメラ11で撮像する際の状況が変化しても影響を受けない。
このため、テンプレートマッチングの際に、1つのテンプレート(参照用方向符号RD)を用意することでカメラ11での撮像状況に広く対応でき、計算コストを削減して画像識別処理を高速化できるという効果が得られる。
Thus, since the search tag 3 has a circular pattern in which the luminance changes in the same manner in all directions of 360 degrees from the center point O, the search tag 3 is imaged by the camera 11. Even if the situation changes, it will not be affected.
For this reason, at the time of template matching, by preparing a single template (reference direction code RD), it is possible to deal with a wide range of imaging conditions with the camera 11 and to reduce the calculation cost and speed up the image identification process. Is obtained.

また、上記記載の理由により、検索用タグ3とカメラ11との位置関係及び撮像状況に制約を受けずに検索用タグ3を識別できるという効果が得られる。
なお、上記第1の実施形態においては、識別コードI1,I2の何れか又は双方に基づいて設定した検索情報位置即ち細分化領域SAkの画像データをそのまま情報検索装置5に出力する場合について説明したが、これに限定されるものではなく、細分化領域SAkの画像データを拡大して情報検索装置5に出力するようにしてもよい。
In addition, for the reason described above, there is an effect that the search tag 3 can be identified without being restricted by the positional relationship between the search tag 3 and the camera 11 and the imaging situation.
In the above first embodiment, when outputting the image data of the identification code I1, I2 search information position or subdivided areas SA k set based on either or both directly to the information retrieval device 5 for a description However, the present invention is not limited to this, and the image data of the subdivided area SA k may be enlarged and output to the information search device 5.

また、上記第1の実施形態においては、雑誌、折り込み広告等の検索情報保持物体2に検索用タグ3を印刷して、検索情報の位置を特定する場合について説明したが、これに限定されるものではなく、可視光通信の発信光源などの位置を特定し、通信光受信機の向きを制御する場合にも本発明を適用することができる。
さらに、上記第1の実施形態においては、細分化領域SAkに識別コードI1を“1”から順に割り付けた場合について説明したが、これに限定されるものではなく、識別コードI1を特定位置(例えば、左上角、右下角など)に割り付けたり、所定数置きの細分化領域に割り付けたり、任意の割り付け方法を適用することができる。
In the first embodiment, the case has been described in which the search tag 3 is printed on the search information holding object 2 such as a magazine or an insertion advertisement and the position of the search information is specified. However, the present invention is not limited to this. The present invention can also be applied to a case where the position of a transmission light source or the like for visible light communication is specified and the direction of the communication light receiver is controlled.
Furthermore, in the first embodiment, the case where the identification code I1 is assigned to the subdivision area SA k in order from “1” has been described. However, the present invention is not limited to this, and the identification code I1 is assigned to a specific position ( For example, an upper left corner, a lower right corner, etc.), a predetermined number of subdivided areas, or an arbitrary allocation method can be applied.

次に、本発明の第2の実施形態を図12及び図13について説明する。
この第2の実施形態では、検索情報位置の画像データを幾何学的補正可能としたものである。
すなわち、第2の実施形態においては、図12に示すように、前述した第1の実施形態における図1の構成において、検索情報抽出部14と情報検索装置5との間に、検索情報抽出部14で抽出された検索コードRCの画像データをディジタルカメラ11が検索情報保持物体2に正体した状態の画像データに補正する画像補正手段としての画像補正部15が介挿されていることを除いては図1と同様の構成を有し、図1との対応部分には同一符号を付し、その詳細説明はこれを省略する。
Next, a second embodiment of the present invention will be described with reference to FIGS.
In the second embodiment, the image data at the search information position can be geometrically corrected.
That is, in the second embodiment, as shown in FIG. 12, in the configuration of FIG. 1 in the first embodiment described above, a search information extraction unit is provided between the search information extraction unit 14 and the information search device 5. 14 except that an image correction unit 15 is inserted as image correction means for correcting the image data of the search code RC extracted in 14 into image data in a state in which the digital camera 11 is identified as the search information holding object 2. 1 has the same configuration as in FIG. 1, and the same reference numerals are given to the corresponding parts in FIG. 1, and the detailed description thereof will be omitted.

ここで、画像補正部15における画像補正処理を説明すると、図13に示すように、2つの画像データA及びBがあり、各々の中に同一の検索用タグが含まれている場合を考える。画像データAにおける検索用タグ3の識別点P0〜P4の位置を(xAi,yAi)(i=0〜4)とする。同様に、画像データBにおける検索用タグ3の識別点P0〜P4の位置を(xBi,yBi)(i=0〜4)とする。   Here, the image correction processing in the image correcting unit 15 will be described. As shown in FIG. 13, there are two image data A and B, and the same search tag is included in each of them. Assume that the positions of the identification points P0 to P4 of the search tag 3 in the image data A are (xAi, yAi) (i = 0 to 4). Similarly, the positions of the identification points P0 to P4 of the search tag 3 in the image data B are (xBi, yBi) (i = 0 to 4).

今、同一の点Pが画像データA及びBに含まれている場合を考えると、画像データAにおける点Pの座標(xA,yA)は、画像データAにおける検索用タグ3によって定められる座標系を基準にしている。同様に、画像データBにおける点Pの座標(xB,yB)は、画像データBにおける検索用タグ3によって定められる座標系を基準にしている。
一般に、2つの画像データA及びBは射影変換の関係にあるので、画像データAにおける点(xA,yA)と画像データBにおける点(xB,yB)の間には、下記(9)式で表される関係がある。
Considering the case where the same point P is included in the image data A and B, the coordinates (xA, yA) of the point P in the image data A are a coordinate system defined by the search tag 3 in the image data A. It is based on. Similarly, the coordinates (xB, yB) of the point P in the image data B are based on the coordinate system defined by the search tag 3 in the image data B.
In general, since the two image data A and B have a projective transformation relationship, the following equation (9) is used between the point (xA, yA) in the image data A and the point (xB, yB) in the image data B. There is a relationship expressed.

Figure 2006331322
Figure 2006331322

この(9)式を展開し、定数λを消去すると、2つの連立方程式が得られる。従って、検索用タグ3の5つの識別点P0〜P4のうちの4つの識別点P0、P1、P2及びP3の座標を得られた連立方程式に代入することにより、合計8つの制約式が得られる。行列Mの自由度は8であるから、これら8つの制約式を使って、全ての要素mij(i=1〜3、j=1〜3、但しm33は除く)を求めることができる。   When this equation (9) is expanded and the constant λ is eliminated, two simultaneous equations are obtained. Accordingly, by substituting the coordinates of the four identification points P0, P1, P2, and P3 among the five identification points P0 to P4 of the search tag 3, a total of eight constraint equations can be obtained. . Since the matrix M has 8 degrees of freedom, all the elements mij (i = 1 to 3, j = 1 to 3, except m33) can be obtained using these eight constraint equations.

こうして得られた変換行列Mを使うことにより、画像データA及びBの中の点を相互に射影変換することかできる。すなわち、画像データAにおける座標(xA,yA)の点は、画像データBで座標(xB,yB)の点に対応する。逆に、画像データBにおける座標(xB,yB)の点は、画像データAで座標(xA,yA)の点に対応する。双方の座標は上記(9)式で算出することができる。   By using the transformation matrix M thus obtained, the points in the image data A and B can be projectively transformed with each other. That is, the point of coordinates (xA, yA) in the image data A corresponds to the point of coordinates (xB, yB) in the image data B. On the contrary, the point of coordinates (xB, yB) in the image data B corresponds to the point of coordinates (xA, yA) in the image data A. Both coordinates can be calculated by the above equation (9).

そして、上記画像データAがタグ読取装置4によって撮影された画像データであるとする一方、上記画像データBは検索コードを正面の位置から所定のサイズで読取った場合の仮想的な画像データであるとする。このとき、画像データBでは、検索用タグ3も実際の形(5つの識別点P0〜P4は設計配置にある)或いはその相似形であるはずである。
そこで、上記(9)式から得られる制約式に代入する検索用タグ3の5つの識別点P0〜P4のうちの4点P0,P1,P2,P3の座標としてタグ読取装置4で読取って得られた画像データAの点(xAi,yAi)(i=0,1,2,3)及び検索用タグ3の設計配置にある点(xB,yB)(i=0,1,2,3)を採用する。
The image data A is assumed to be image data taken by the tag reading device 4, while the image data B is virtual image data when the search code is read at a predetermined size from the front position. And At this time, in the image data B, the search tag 3 should also be in an actual form (the five identification points P0 to P4 are in the design layout) or a similar form thereof.
Therefore, the tag reader 4 reads the coordinates of the four points P0, P1, P2, and P3 among the five identification points P0 to P4 of the search tag 3 to be substituted into the constraint equation obtained from the above equation (9). The point (xAi, yAi) (i = 0, 1, 2, 3) of the obtained image data A and the point (xB, yB) (i = 0, 1, 2, 3) in the design arrangement of the search tag 3 Is adopted.

その結果得られた変換行列Mを使うことにより、タグ読取装置4によって得られた画像データの中の任意の点は、検索コードを正面の位置から所定のサイズで読取った場合の画像データの中に正しく位置付けられる。
すなわち、たとえタグ読取装置4が検索コードに正対していなくとも、検索用タグ3の5つの識別点P0〜P4のうちの4点の設計配置を利用することにより、検索用コードの画像データを幾何学的に補正して、あたかも正面から見た所定のサイズの検索コードの画像データを得ることができる。
By using the conversion matrix M obtained as a result, an arbitrary point in the image data obtained by the tag reader 4 can be found in the image data when the search code is read at a predetermined size from the front position. Correctly positioned.
That is, even if the tag reader 4 does not face the search code, the image data of the search code can be obtained by using the design arrangement of four of the five identification points P0 to P4 of the search tag 3. It is possible to obtain image data of a search code of a predetermined size as viewed from the front by correcting geometrically.

このように、上記第2の実施形態によると、ディジタルカメラ11で検索用タグ3を含む画像データを撮影したときに、ディジタルカメラ11と検索情報保持物体2とが正対していない場合でも検索情報位置に対応する画像データを幾何学的に補正してあたかも正面から撮影したように所定サイズの検索コードの画像データを得ることができ、この幾何学的補正後の画像データを情報検索装置5に出力することにより、この情報検索装置5で画像データを正確に解析して、検索コードに記憶されている検索情報を解読し、解読した検索情報に基づいて検索処理を実行することができる。   As described above, according to the second embodiment, when image data including the search tag 3 is captured by the digital camera 11, even if the digital camera 11 and the search information holding object 2 are not facing each other, the search information The image data corresponding to the position is geometrically corrected to obtain image data of a search code of a predetermined size as if it was photographed from the front, and the image data after this geometric correction is stored in the information search device 5. By outputting, the information search device 5 can accurately analyze the image data, decode the search information stored in the search code, and execute the search process based on the decoded search information.

なお、上記第1及び第2の実施形態においては、検索コードRCとしてQRコードを適用した場合について説明したが、これに限定されるものではなく、1次元のバーコードや他の二次元コードを適用することができ、任意の検索コードを適用することができる。
なおまた、上記第1及び第2の実施形態においては、検索コードは1つの細分化領域にある場合について説明したが、これに限定されるものではなく、複数の細分化領域にまたがって検索コードが存在してもよい。この場合には、例えば複数領域の左上をSAL、右下をSARとしたとき、2つの識別コードでI1=L、I2=Rのように指定することができる。
In the first and second embodiments, the case where the QR code is applied as the search code RC has been described. However, the present invention is not limited to this, and a one-dimensional barcode or other two-dimensional code is used. Any search code can be applied.
In the first and second embodiments, the search code is in one subdivision area. However, the search code is not limited to this, and the search code extends over a plurality of subdivision areas. May be present. In this case, for example, when the upper left of the plurality of areas is SA L and the lower right is SA R , two identification codes can be designated such as I1 = L and I2 = R.

次に、本発明の第3の実施形態を図14について説明する。
この第3の実施形態では、検索コードを使用することなく、幾何学的不変量算出部13で算出した識別コードI1及びI2を直接情報検索装置5に出力して、この情報検索装置5で識別コードI1及びI2の何れか一方又は双方に基づいて関連情報を検索するようにしたものである。
Next, a third embodiment of the present invention will be described with reference to FIG.
In the third embodiment, the identification codes I1 and I2 calculated by the geometric invariant calculation unit 13 are directly output to the information search device 5 without using the search code, and the information search device 5 performs identification. The related information is searched based on one or both of the codes I1 and I2.

すなわち、第3の実施形態においては、図14に示すように、前述した第1の実施形態における図1の構成において、検索用タグ3の細分化領域SA1〜SA256及びこれに記載された検索コードが省略されていると共に、タグ読取装置4における検索情報抽出部14が省略されて、幾何学的不変量算出部14で算出した識別コードI1及びI2が直接情報検索装置5に供給されるように構成されていることを除いては図1と同様の構成を有し、図1との対応部分には同一符号を付し、その詳細説明はこれを省略する。 That is, in the third embodiment, as shown in FIG. 14, in the configuration of FIG. 1 in the first embodiment described above, the subdivision areas SA 1 to SA 256 of the search tag 3 and the subdivision areas SA 1 to SA 256 are described. The search code is omitted, the search information extraction unit 14 in the tag reader 4 is omitted, and the identification codes I1 and I2 calculated by the geometric invariant calculation unit 14 are directly supplied to the information search device 5. Except for the above configuration, the configuration is the same as in FIG. 1, and the same reference numerals are given to the corresponding parts to FIG. 1, and the detailed description thereof is omitted.

ここで、情報検索装置5では、幾何学的不変量算出部14で算出した識別コードI1及びI2が入力されると、これら識別コードI1及びI2に基づいて予め設定された関連情報記憶テーブルを参照して関連情報を選択する。
この関連情報としては、詳細情報が格納されたWWW(World Wide Web)サーバのURL(Uniform Resource Locator)が採用され、このURLが識別コードI1及びI2に対応付けられて関連情報記憶テーブルに記憶されている。
そして、情報検索装置5では、識別コードI1及びI2に基づいて関連情報記憶テーブルを参照して該当するURLを求めると、求めたURLのホームページにアクセスして詳細情報を入手し、この詳細情報を表示装置5aに表示する。
Here, when the identification codes I1 and I2 calculated by the geometric invariant calculation unit 14 are input, the information search device 5 refers to a related information storage table set in advance based on the identification codes I1 and I2. To select related information.
As this related information, a URL (Uniform Resource Locator) of a WWW (World Wide Web) server in which detailed information is stored is adopted, and this URL is stored in the related information storage table in association with the identification codes I1 and I2. ing.
When the information retrieval device 5 obtains the corresponding URL by referring to the related information storage table based on the identification codes I1 and I2 and obtains the detailed information by accessing the home page of the obtained URL. Displayed on the display device 5a.

この第3の実施形態によれば、タグ読取装置4で検索用タグ3を読取ることにより、各識別点P0〜P4の位置座標に基づいて幾何学的不変量I1及びI2を算出し、この幾何学的不変量I1及びI2を整数化して識別コードI1及びI2を算出し、この識別コードI1及びI2を情報検索装置5に出力することにより、この情報検索装置5で、関連情報記憶テーブルを参照することにより、識別コードI1及びI2で表されるURLを選択し、選択したURLのホームページにアクセスすることにより、広告内容の詳細情報その他の必要な詳細情報を入手し、これを表示装置5aに表示することにより、ユーザーが必要とする詳細情報を容易且つ正確に取得することができる。 According to the third embodiment, geometric invariants I 1 and I 2 are calculated based on the position coordinates of the respective identification points P0 to P4 by reading the search tag 3 with the tag reader 4. The geometric invariants I 1 and I 2 are converted into integers to calculate identification codes I 1 and I 2 , and the identification codes I 1 and I 2 are output to the information search apparatus 5. By referring to the storage table, the URL represented by the identification codes I1 and I2 is selected, and the homepage of the selected URL is accessed to obtain the detailed information of the advertisement content and other necessary detailed information. By displaying on the display device 5a, detailed information required by the user can be acquired easily and accurately.

この場合、雑誌の広告面などでは検索用タグ3を記事の外枠に書き込むことができるため、検索用タグ3自体を大きく表示することが可能となり、低解像度の携帯電話のカメラを使用して、遠方から検索用タグ3を撮影した場合でも、タグ読取装置4で検索用タグ3を正確に検出して幾何学的不変量I1及びI2を算出することができ、これを整数化して識別コードI1及びI2を正確に算出することができ、検索コードの誤読取りを生じることがなく、詳細情報を確実に入手することかできる。 In this case, since the search tag 3 can be written in the outer frame of an article on the advertisement side of a magazine, the search tag 3 itself can be displayed in a large size, and a low-resolution mobile phone camera is used. Even when the search tag 3 is photographed from a distance, the tag reading device 4 can accurately detect the search tag 3 to calculate the geometric invariants I 1 and I 2 , which are converted into integers. The identification codes I1 and I2 can be accurately calculated, and the detailed information can be obtained reliably without causing erroneous reading of the search code.

なお、上記第3の実施形態においては、検索情報保持物体2に直接検索用タグ3を印刷した場合について説明したが、これに限定されるものではなく、検索用タグ3を透明シートに印刷し、この検索用タグ3を印刷した透明シートを検索情報保持物体2に重ねて貼付することにより、この透明シートに印刷された検索用タグ3をディジタルカメラ11で撮影することにより、タグ読取装置4で検索用タグ3を読取って識別コードI1及びI2を正確に算出することができる。このように、検索用タグ3を印刷した透明シートを使用することにより、既存の広告文書をそのまま使用して、この広告文書の上に透明シートを貼着すればよく、新たな広告文書を作成する手間を省略することができる。   In the third embodiment, the case where the search tag 3 is directly printed on the search information holding object 2 has been described. However, the present invention is not limited to this, and the search tag 3 is printed on a transparent sheet. The tag reading device 4 is obtained by photographing the search tag 3 printed on the transparent sheet with the digital camera 11 by pasting the transparent sheet on which the search tag 3 is printed on the search information holding object 2. By reading the search tag 3, the identification codes I1 and I2 can be accurately calculated. In this way, by using the transparent sheet on which the search tag 3 is printed, the existing advertisement document can be used as it is, and a transparent sheet can be pasted on the advertisement document to create a new advertisement document. The trouble of doing can be omitted.

また、上記第3の実施形態においては、タグ識別部12は5つの識別点の内、直径が一番大きな点をP0と識別して識別点の座標(x0、y0)〜(x4、y4)を算出している場合について説明したが、これに限定されるものではなく、ディジタルカメラ11で撮影した画像の中で最も左上にある識別点をP0とし、5点の重心からみて反時計回りに順にP1,P2,P3,P4として座標を算出するようにしてもよい。幾何学的不変量I1、I2は、5つの識別点のどれをP0にとるかによって値が異なる。そこで、1つの検索用タグに対して、5つの識別点を各々P0としたときの5通りの幾何学的不変量I1、I2を予め全て計算し、情報検索装置5における関連情報記憶テーブルに同一の関連情報と共に登録しておく。こうすることにより、タグ識別部12は、識別点の大きさを比較してP0を特定する処理を省くことができ、全体の処理を簡略化し高速化することができる。 In the third embodiment, the tag identification unit 12 identifies the point having the largest diameter among the five identification points as P0, and coordinates (x0, y0) to (x4, y4) of the identification points. However, the present invention is not limited to this, and the upper left identification point in the image photographed by the digital camera 11 is P0, and it is counterclockwise when viewed from the center of gravity of the five points. The coordinates may be calculated as P1, P2, P3, and P4 in order. The geometric invariants I 1 and I 2 have different values depending on which of the five discrimination points is taken as P0. Therefore, all five geometric invariants I 1 and I 2 are calculated in advance for each search tag when the five identification points are P 0, and the related information storage table in the information search device 5 is calculated. Registered with the same related information. By doing so, the tag identifying unit 12 can omit the process of specifying P0 by comparing the sizes of the identification points, and can simplify and speed up the entire process.

なおまた、上記第1〜第3の実施形態において、検索用タグ3を識別点P0が常に特定の位置(例えば左上)にくるように設置して利用するようにすれば、タグ識別部12はディジタルカメラ11で撮影した画像の中で最も左上にある識別点をP0とすればよいため、識別点の大きさを比較してP0を特定する処理を省くことができ、全体の処理を簡略化し高速化することができる。   Furthermore, in the first to third embodiments, if the search tag 3 is installed and used so that the identification point P0 is always at a specific position (for example, upper left), the tag identification unit 12 is Since the identification point at the upper left in the image photographed by the digital camera 11 may be set as P0, the process of specifying the identification point by comparing the size of the identification point can be omitted, and the entire process is simplified. The speed can be increased.

次に、上記第1〜第3の実施形態においては、検索用タグ3の識別点P0〜P4を抽出する際に、所定サイズの画像データDの全領域に対して所定サイズの部分画像PGを1画素毎に順次移動させることにより、識別点P0〜P4を抽出する場合について説明したが、これに限定されるものではなく、方向符号比較部34によるテンプレートマッチング処理に先立ち、画像データDの隣接する画素毎に方向符号の所定の範囲における連続性の有無(隣接する画素の方向符号の差dが所定範囲内であるか否か)を調査して、方向符号の連続性がある画素をグループ化し、各グループから予め定めた選出基準によって図15に示すようにマスクを選出して、選出したマスクに属する画素についてのみ部分画像PGによる識別点P0〜P4の抽出を行うことにより、画像識別の処理時間を短縮することができる。ここで、識別点P0〜P4には、輝度が中心点から360度全ての方向に対して同じように変化する円形のパターンを持たせているので、その画像から生成される方向符号は連続した値をとるので、各識別点P0〜P4は、上記のグルーピング処理によって、一つのグループG、すなわちマスクとして抽出される。なお、選出基準としては、例えば、グループGの占める面積、真円度等が挙げられる。さらに、図16に示すように、マスクの上下左右の各端部における座標に基づいてマスクの中心点を求め、この中心点近傍でのみ部分画像PGによる識別点抽出処理を行うことにより、さらに画像処理時間を短縮することができる。   Next, in the first to third embodiments, when extracting the identification points P0 to P4 of the search tag 3, the partial image PG having a predetermined size is applied to the entire area of the image data D having a predetermined size. The case where the identification points P0 to P4 are extracted by sequentially moving each pixel has been described. However, the present invention is not limited to this, and prior to the template matching process by the direction code comparison unit 34, the image data D is adjacent. Investigate whether or not there is continuity in a predetermined range of direction codes (whether or not the difference d in the direction codes of adjacent pixels is within the predetermined range) for each pixel to be grouped. The mask is selected from each group according to a predetermined selection criterion as shown in FIG. 15, and the identification points P0 to P4 are extracted by the partial image PG only for the pixels belonging to the selected mask. The Ukoto, it is possible to shorten the processing time of image identification. Here, since the identification points P0 to P4 have a circular pattern whose luminance changes in the same manner in all directions of 360 degrees from the center point, the direction codes generated from the images are continuous. Since the value is taken, each of the identification points P0 to P4 is extracted as one group G, that is, a mask by the above grouping process. In addition, as selection criteria, the area which the group G occupies, roundness, etc. are mentioned, for example. Further, as shown in FIG. 16, by obtaining the center point of the mask based on the coordinates at the top, bottom, left, and right ends of the mask and performing the identification point extraction process with the partial image PG only in the vicinity of the center point, the image Processing time can be shortened.

また、テンプレートとして、図17に示すように、32画素×32画素のテンプレートがあり、方向符号を0〜15とすると、中心点Qを挟んで、その左半分には方向符号8(左向き)が、右半分には方向符号0(右向き)が以下のように並ぶ。ここでは、中心点Qの方向符号は0としておく。
例: ・・・888Q000・・・
この方向符号の列を水平方向部分テンプレート(列状特徴情報)として、前述した図9の参照用方向符号RDとして方向符号記憶部33に記憶しておくと共に、画像データDに対する抽出方向符号から長さ32画素の列状の部分画像PGを比較情報として部分画像抽出部31により順次抽出し、これを方向符号比較部34にてタグ方向符号33と比較し、相互に一致又は近似した比較情報を選択することで、識別点座標演算部35により画像データDの中から識別点P0〜P4の位置座標を検出するようにしてもよい。
As a template, as shown in FIG. 17, there is a template of 32 pixels × 32 pixels. When the direction code is 0 to 15, a direction code 8 (leftward) is placed on the left half of the center point Q. In the right half, direction code 0 (toward the right) is arranged as follows. Here, the direction code of the center point Q is set to 0.
Example: ... 888Q000 ...
The direction code sequence is stored in the direction code storage unit 33 as the above-described reference direction code RD in FIG. 9 as a horizontal partial template (column-shaped feature information), and the extracted direction code for the image data D is long. The partial image extraction unit 31 sequentially extracts the 32 pixel column-shaped partial image PG as comparison information, compares it with the tag direction code 33 by the direction code comparison unit 34, and compares the comparison information that is identical or approximate to each other. By selecting, the identification point coordinate calculation unit 35 may detect the position coordinates of the identification points P0 to P4 from the image data D.

この場合には、画像データDの画像サイズがL×M(640×480)である場合に、N×N(N=32)のテンプレート画像サイズから、照合する画素の延べ数はL×M×N×N(約3×108)となるが、テンプレート画像サイズが、N×1(N=32)となるので、列状特徴情報を用いて比較を行った場合に照合する画素の延べ数はL×M×N(約1×107)となり、N(N=32)倍の高速化ができる。即ち、特徴情報及び比較情報の一度に比較する情報量をそれぞれ減らすことにより、高速化を図ることができる。 In this case, when the image size of the image data D is L × M (640 × 480), the total number of matching pixels is L × M × N from the template image size of N × N (N = 32). × N (about 3 × 10 8 ), but the template image size is N × 1 (N = 32), and therefore the total number of pixels to be collated when comparison is performed using columnar feature information is L × M × N (about 1 × 10 7 ), which is N (N = 32) times faster. That is, the speed can be increased by reducing the amount of information to be compared at one time for the feature information and the comparison information.

さらには、図18(a)に示すように、上述したように水平方向部分テンプレートHTを使用して、これと一致又は近似する画像領域を抽出し、抽出した画像領域について再度垂直方向部分テンプレートVTを使用して比較処理することにより、2回の比較処理を行うことにより、誤検出を防止することができる。この場合には、図18(b)に示すように、最初に垂直方向部分テンプレートVTを使用し、次に水平方向テンプレートHTを使用するようにしてもよい。   Further, as shown in FIG. 18 (a), as described above, the horizontal partial template HT is used to extract an image area that matches or approximates the horizontal partial template HT, and the vertical partial template VT is again extracted with respect to the extracted image area. By performing the comparison process using, it is possible to prevent erroneous detection by performing the comparison process twice. In this case, as shown in FIG. 18B, the vertical direction partial template VT may be used first, and then the horizontal direction template HT may be used.

このようにして識別点P0〜P4を検出することで、水平方向に対して比較をしてから、さらに垂直方向へ比較した場合の延べ数は、L×M×N+N×kとなる。ここで言うkとは、水平又は垂直方向でマッチしてから、さらに垂直又は水平方向の比較をした件数であり、k<<L×Mの関係である。すなわち、水平又は垂直方向部分テンプレートによる比較処理を行うことで上記第1の実施の形態と比較してN倍の高速化ができる他、水平(又は垂直)方向への比較を行った後に、さらに垂直(又は水平)方向への比較を行う場合には、誤検出を減らすと共に、ほぼN倍の高速化ができるということになる。   By detecting the discrimination points P0 to P4 in this way, the total number when compared in the horizontal direction and then in the vertical direction is L × M × N + N × k. Here, k is the number of matches in the horizontal or vertical direction, and further compared in the vertical or horizontal direction, and has a relationship of k << L × M. That is, by performing comparison processing using a horizontal or vertical partial template, the speed can be increased by N times compared to the first embodiment, and further, after performing comparison in the horizontal (or vertical) direction, When comparing in the vertical (or horizontal) direction, it is possible to reduce false detections and increase the speed almost N times.

さらに、図18(c)に示すように、水平方向部分テンプレートHTによる比較処理を行ってから、数列の垂直方向部分テンプレートからなる面状テンプレート(面状特徴情報)FTと水平方向部分テンプレートHTのマッチした部分画像PGの中心点を中心とする面状テンプレートと同じ大きさの画像領域を持つ画像データDから抽出された部分画像PGとの比較処理を順次行うようにしてもよく、図18(d)に示すように、上記面状テンプレートFTより小さい画素数の小面状テンプレートSFTによる比較処理を行ってから、小面状テンプレートSFTとマッチした小面状テンプレートSFTの中心点を中心とする面状テンプレートFTと同じ大きさの画像領域をもつ画像データDから抽出された部分画像PGと面状テンプレートFTと比較処理するようにしてもよい。   Further, as shown in FIG. 18C, after performing the comparison process using the horizontal partial template HT, the planar template (planar feature information) FT consisting of several vertical partial templates and the horizontal partial template HT are compared. The comparison processing with the partial image PG extracted from the image data D having the image area of the same size as the planar template centered on the center point of the matched partial image PG may be sequentially performed. As shown in d), after the comparison process is performed using the small surface template SFT having a smaller number of pixels than the planar template FT, the center point of the small surface template SFT matching the small surface template SFT is set as the center. Partial image PG and planar template F extracted from image data D having an image area of the same size as planar template FT It may be compared processing.

このように、少ない情報量を持つテンプレートの1つとこれに対応する画像データDの部分画像PGとを比較し、この比較結果に基づいて実際の識別点P0〜P4の検出範囲を絞り込んでから、他の、例えば、同等の情報量又はより情報量の多いテンプレートで更なる比較を行えば、高速化と誤検出防止とを両立できるということになる。
また、上記各実施形態においては、検索用タグ3の識別点P0〜P4として全ての半径方向について輝度が変化するようにグラデーションを施した場合について説明したが、これに限定されるものではなく、中心から2方向、3方向、4方向等の任意数の方向に輝度を変化させるようにしてもよい。
さらに、検索用タグ3としては、四角形領域3aの境界位置にベルベットファスナーの一方を貼付しておき、他方を識別点を表面に印刷した円形ボタンの裏面に貼付することにより、任意の目盛り位置に識別点P1〜P4を配置可能に構成することにより、所望の幾何学的不変量を設定すること可能となる。
Thus, after comparing one of the templates having a small amount of information with the corresponding partial image PG of the image data D and narrowing down the detection range of the actual discrimination points P0 to P4 based on the comparison result, If another comparison is made with another, for example, a template having the same amount of information or a larger amount of information, both speeding up and prevention of erroneous detection can be achieved.
Further, in each of the embodiments described above, the case where gradation is applied so that the luminance is changed in all radial directions as the identification points P0 to P4 of the search tag 3 is not limited to this. The luminance may be changed in an arbitrary number of directions such as two directions, three directions, and four directions from the center.
Further, as the search tag 3, one velvet fastener is affixed to the boundary position of the quadrangular region 3a, and the other is affixed to the back of the circular button with the identification point printed on the front surface, so that it can be placed at any scale position. By configuring the identification points P1 to P4 so that they can be arranged, a desired geometric invariant can be set.

本発明に係る情報検索システムの第1の実施形態を示すシステム構成図である。1 is a system configuration diagram showing a first embodiment of an information search system according to the present invention. 図1のタグ識別部の具体的構成を示すブロック図である。It is a block diagram which shows the specific structure of the tag identification part of FIG. 検索用タグを示す正面図である。It is a front view which shows the tag for search. 検索用タグの識別点の中心点から離れるに従って輝度が減少するパターン及び増加するパターンの一例を示す図である。It is a figure which shows an example of the pattern which a brightness | luminance reduces as it leaves | separates from the center point of the identification point of a search tag, and a pattern which increases. 識別点の輝度及び中心点からの距離の関係の一例を示すグラデーション特性線図である。It is a gradation characteristic diagram which shows an example of the relationship between the brightness | luminance of an identification point and the distance from a center point. 識別点の輝度及び中心点からの距離との関係の一例を示すグラデーション特性線図である。It is a gradation characteristic diagram which shows an example of the relationship between the brightness | luminance of an identification point and the distance from a center point. 情報検索装置で実行する識別点配置パターン決定処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the identification point arrangement | positioning pattern determination processing procedure performed with an information search device. 検索用タグの具体例を示す正面図である。It is a front view which shows the specific example of the tag for a search. 方向符号の生成を説明するための概略図の一例である。It is an example of the schematic for demonstrating the production | generation of a direction code. 画像データ及び部分画像を示す説明図である。It is explanatory drawing which shows image data and a partial image. 識別点抽出処理の説明に供する説明図である。It is explanatory drawing with which it uses for description of an identification point extraction process. 本発明の第2の実施形態を示すシステム構成図である。It is a system configuration figure showing a 2nd embodiment of the present invention. 画像補正部の画像補正処理の説明に供する説明図である。It is explanatory drawing with which it uses for description of the image correction process of an image correction part. 本発明の第3の実施形態を示すシステム構成図である。It is a system configuration figure showing a 3rd embodiment of the present invention. 方向符号をグループ化する場合の説明図である。It is explanatory drawing in the case of grouping a direction code. 方向符号をグループ化してその中心点を部分画像として設定する場合の説明図である。It is explanatory drawing at the time of grouping a direction code and setting the center point as a partial image. 水平及び垂直方向の方向符号を示す説明図である。It is explanatory drawing which shows the direction code | symbol of a horizontal and a vertical direction. テンプレートの組合せを示す説明図である。It is explanatory drawing which shows the combination of a template.

符号の説明Explanation of symbols

1…情報検索システム、2…検索情報保持物体、3…検索用タグ、4…タグ読取装置、5…情報検索装置、11…ディジタルカメラ、12…タグ識別部、13…幾何学的不変量算出部、14…検索情報抽出部、15…画像補正部、31…部分画像抽出部、32…方向符号演算部、33…方向符号記憶部、34…方向符号比較部、35…識別点座標演算部、D…画像データ、PG…部分画像   DESCRIPTION OF SYMBOLS 1 ... Information search system, 2 ... Search information holding object, 3 ... Search tag, 4 ... Tag reader, 5 ... Information search device, 11 ... Digital camera, 12 ... Tag identification part, 13 ... Geometric invariant calculation , 14 ... Search information extraction unit, 15 ... Image correction unit, 31 ... Partial image extraction unit, 32 ... Direction code calculation unit, 33 ... Direction code storage unit, 34 ... Direction code comparison unit, 35 ... Identification point coordinate calculation unit , D ... image data, PG ... partial image

Claims (10)

平面上に形成した四角形領域の各辺上に特定の幾何学的不変量を表す5つの識別点を、当該5つの識別点を含む平面内の位置を特定するように配置したことを特徴とする検索用タグ。   Five identification points representing specific geometric invariants are arranged on each side of a quadrangular region formed on a plane so as to specify a position in a plane including the five identification points. Search tag. 前記四角形領域の各辺には等分割した目盛りが形成され、形成された目盛り上に前記識別点が配置されていることを特徴とする請求項1に記載の検索用タグ。   2. The search tag according to claim 1, wherein equally divided scales are formed on each side of the quadrangular region, and the identification points are arranged on the formed scales. 前記識別点は四角形領域の各辺上で移動可能に配置されていることを特徴とする請求項1又は2に記載の検索用タグ。   The search tag according to claim 1 or 2, wherein the identification point is arranged so as to be movable on each side of the quadrangular region. 前記各識別点は、円形の中心点を起点として半径方向に沿った輝度変化パターンが、全半径方向で同一であることを特徴とする請求項1乃至3の何れか1項に記載の検索用タグ。   The search point according to any one of claims 1 to 3, wherein each of the identification points has the same luminance change pattern along the radial direction starting from a circular center point in all radial directions. tag. 前記輝度変化パターンは、前記中心点から離れるに従って徐々に輝度が低くなる減少パターン及び徐々に輝度が高くなる増加パターンの何れか一方であることを特徴とする請求項4に記載の検索用タグ。   The search tag according to claim 4, wherein the luminance change pattern is one of a decreasing pattern in which luminance gradually decreases and an increasing pattern in which luminance gradually increases as the distance from the center point increases. 検索情報保持物体に付した請求項1乃至請求項5の何れか1項に記載された検索用タグと、該検索用タグが付された検索情報保持物体の画像を撮像する撮像手段と、該撮像手段が撮像した画像データから前記各識別点を識別して識別点位置を算出するタグ識別手段と、該タグ識別手段で算出した識別点位置に基づいて幾何学的不変量を演算する幾何学的不変量演算手段と、該幾何学的不変量算出手段で演算した幾何学的不変量に基づいて前記検索用タグを含む平面上の検索情報を抽出する検索情報抽出手段とを備えたことを特徴とする情報検索システム。   The search tag according to any one of claims 1 to 5 attached to a search information holding object, an imaging unit that takes an image of the search information holding object to which the search tag is attached, Tag identification means for identifying each identification point from image data captured by the imaging means and calculating the identification point position, and geometry for calculating a geometric invariant based on the identification point position calculated by the tag identification means And a search information extracting means for extracting search information on a plane including the search tag based on the geometric invariant calculated by the geometric invariant calculating means. Characteristic information retrieval system. 検索情報保持物体に付した請求項1乃至請求項5の何れか1項に記載された検索用タグと、該検索用タグが付された検索情報保持物体の画像を撮像する撮像手段と、該撮像手段が撮像した画像データから前記各識別点を識別して識別点位置を算出するタグ識別手段と、該タグ識別手段で算出した識別点位置に基づいて幾何学的不変量を演算する幾何学的不変量演算手段と、該幾何学的不変量算出手段で演算した幾何学的不変量に基づいて前記検索用タグを含む平面上の検索情報を抽出する検索情報抽出手段と、該検索情報抽出手段で抽出された検索情報の画像データを前記検索用タグに基づいて幾何学的に補正する画像補正手段とを備えたことを特徴とする情報検索システム。   The search tag according to any one of claims 1 to 5 attached to a search information holding object, an imaging unit that takes an image of the search information holding object to which the search tag is attached, Tag identification means for identifying each identification point from image data captured by the imaging means and calculating the identification point position, and geometry for calculating a geometric invariant based on the identification point position calculated by the tag identification means Invariant calculating means, search information extracting means for extracting search information on a plane including the search tag based on the geometric invariant calculated by the geometric invariant calculating means, and the search information extracting And an image correcting means for geometrically correcting the image data of the search information extracted by the means based on the search tag. 検索情報保持物体に付した請求項1乃至請求項5の何れか1項に記載された検索用タグと、該検索用タグが付された検索情報保持物体の画像を撮像する撮像手段と、該撮像手段が撮像した画像データから前記各識別点を識別して識別点位置を算出するタグ識別手段と、該タグ識別手段で算出した識別点位置に基づいて幾何学的不変量を演算する幾何学的不変量演算手段と、該幾何学的不変量算出手段で演算した幾何学的不変量に基づいて検索情報を特定する情報検索手段とを備えたことを特徴とする情報検索システム。   The search tag according to any one of claims 1 to 5 attached to a search information holding object, an imaging unit that takes an image of the search information holding object to which the search tag is attached, Tag identification means for identifying each identification point from image data captured by the imaging means and calculating the identification point position, and geometry for calculating a geometric invariant based on the identification point position calculated by the tag identification means An information retrieval system comprising: a dynamic invariant calculating means; and an information searching means for specifying search information based on the geometric invariant calculated by the geometric invariant calculating means. 前記タグ識別手段は、前記識別点を識別可能な特徴情報を記憶しており、前記画像データから前記特徴情報と比較可能な比較情報を取得し、取得した比較情報と前記特徴情報とを比較し、当該比較結果に基づいて前記識別点を識別するように構成されていることを特徴とする請求項6乃至8の何れか1項に記載の情報検索システム。   The tag identification means stores feature information that can identify the identification point, acquires comparison information that can be compared with the feature information from the image data, and compares the acquired comparison information with the feature information. 9. The information search system according to claim 6, wherein the identification point is identified based on the comparison result. 前記特徴情報及び前記比較情報は、画素毎の輝度の最大増加方向及び最大減少方向の何れか一方を表す方向符号であることを特徴とする請求項9に記載の情報検索システム。   The information search system according to claim 9, wherein the feature information and the comparison information are direction codes that represent one of a maximum increase direction and a maximum decrease direction of luminance for each pixel.
JP2005157828A 2005-05-30 2005-05-30 Search tag and information search system using the same Pending JP2006331322A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005157828A JP2006331322A (en) 2005-05-30 2005-05-30 Search tag and information search system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005157828A JP2006331322A (en) 2005-05-30 2005-05-30 Search tag and information search system using the same

Publications (1)

Publication Number Publication Date
JP2006331322A true JP2006331322A (en) 2006-12-07

Family

ID=37552923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005157828A Pending JP2006331322A (en) 2005-05-30 2005-05-30 Search tag and information search system using the same

Country Status (1)

Country Link
JP (1) JP2006331322A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010534827A (en) * 2007-07-27 2010-11-11 エフ.ホフマン−ラ ロシュ アーゲー Direction identification label, reagent container transport structure, analyzer, and reading module
JP2016201126A (en) * 2012-09-21 2016-12-01 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Detection of label from image
CN107194299A (en) * 2017-07-11 2017-09-22 余军辉 A kind of label recognition system classified for heparin tube

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010534827A (en) * 2007-07-27 2010-11-11 エフ.ホフマン−ラ ロシュ アーゲー Direction identification label, reagent container transport structure, analyzer, and reading module
JP2016201126A (en) * 2012-09-21 2016-12-01 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Detection of label from image
US9811749B2 (en) 2012-09-21 2017-11-07 Alibaba Group Holding Limited Detecting a label from an image
CN107194299A (en) * 2017-07-11 2017-09-22 余军辉 A kind of label recognition system classified for heparin tube
CN107194299B (en) * 2017-07-11 2024-05-03 台州恩泽医疗中心(集团) Label identification system for blood collection tube classification

Similar Documents

Publication Publication Date Title
ES2369143T3 (en) VISUAL CODE METHOD FOR MOBILE DEVICES EQUIPPED WITH CAMERA.
Rohs Real-world interaction with camera phones
US7950589B2 (en) Program, information storage medium, two-dimensional code generation system, image generation system and printed material
JP5908113B2 (en) 2D code
CN106778996B (en) It is embedded with the generation system and method for the two dimensional code of visual pattern and reads system
JP5848464B2 (en) Two-dimensional code, two-dimensional code creation system and analysis program
CN109784323A (en) Image recognition method, device, electronic device and computer storage medium
US20150262051A1 (en) Dot pattern, dot pattern formation medium, program generating image data of dot pattern, dot pattern formation device, optical device, optical reading device, information input/output device, dot pattern reading device
US11995866B2 (en) Optically readable markers
CN103098075B (en) Dot code pattern using absolute position of light pen and other information, dot code printing method, and dot code reading method
TWI700669B (en) Information processing apparatus, control method, and program
WO2016166914A1 (en) Two-dimensional code, two-dimensional code record carrier, method for reading two-dimensional code, program for reading two-dimensional code, and device for reading two-dimensional code
JP6856956B2 (en) How to detect and recognize long-range high-density visual markers
KR102527390B1 (en) A Method for recognizing 2D code information
US20160153784A1 (en) Map marking method
US9129171B2 (en) Code reading device and code reading method
JP2006331322A (en) Search tag and information search system using the same
KR100702534B1 (en) ID Judgment Method Using Expandable Visual Marker with Direction Information
JP2006331214A (en) Object identification tag and object identification system using the same
JP5657503B2 (en) Reading apparatus, method and program
EP1557793B1 (en) Method and apparatus for registering, displaying and decoding of information for spatial registration
SCALISE et al. A library for simultaneous localization and mapping using data matrix visual markers
JPH05274461A (en) Symbol information reader