[go: up one dir, main page]

JP2003203090A - Image space display method - Google Patents

Image space display method

Info

Publication number
JP2003203090A
JP2003203090A JP2002000897A JP2002000897A JP2003203090A JP 2003203090 A JP2003203090 A JP 2003203090A JP 2002000897 A JP2002000897 A JP 2002000897A JP 2002000897 A JP2002000897 A JP 2002000897A JP 2003203090 A JP2003203090 A JP 2003203090A
Authority
JP
Japan
Prior art keywords
image
images
display method
feature
feature quantity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002000897A
Other languages
Japanese (ja)
Inventor
Masajiro Iwasaki
雅二郎 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002000897A priority Critical patent/JP2003203090A/en
Publication of JP2003203090A publication Critical patent/JP2003203090A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 視認効率の向上を図ることができる画像空間
表示方法を提供する。 【解決手段】 画像から抽出された複数の特徴量を基に
大量の画像の特徴量空間を可視化する画像空間表示方法
において、極めて類似する画像はグルーピングし、画像
グループを代表する画像により特徴量空間の画面を生成
する。グルーピングは、特徴量抽出処理により得られた
各画像間の特徴量を距離関数により比較し、予め設定さ
れた極似画像識別閾値より小さい場合には極似画像とし
てグループ分けすることにより行う。この結果、すべて
の画像はいずれかの画像グループに属することとなり、
極似する画像がなくても代表画像のみの画像グループと
なる。
(57) [Summary] [PROBLEMS] To provide an image space display method capable of improving the viewing efficiency. In an image space display method for visualizing a feature amount space of a large amount of images based on a plurality of feature amounts extracted from an image, extremely similar images are grouped, and a feature amount space is represented by an image representing an image group. Generate a screen for The grouping is performed by comparing the feature amounts between the images obtained by the feature amount extraction process using a distance function, and if the feature amounts are smaller than a preset very similar image identification threshold, the images are grouped as very similar images. As a result, all images belong to one of the image groups,
Even if there is no very similar image, the image group includes only the representative image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はユーザが所望する画
像を大量の画像から探し出すための画像の表示技術に係
り、特に、画像から抽出した特徴量だけでなく文書から
抽出した特徴量などのあらゆる特徴量を空間的に表示す
る画像空間表示方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display technique for finding a desired image from a large number of images by a user, and in particular, it relates to not only a feature amount extracted from an image but also a feature amount extracted from a document. The present invention relates to an image space display method for spatially displaying a feature amount.

【0002】[0002]

【従来の技術】この種の技術として、例えば (1)「類似画像検索における特徴量空間の可視化イン
ターフェイス」(電子情報通信学会技術研究報告 98
巻204号) (2)「インタラクティブ視覚化による文献集合からの
情報獲得支援」(日本ソフトウェア科学会 第13大
会) が知られている。
2. Description of the Related Art As this type of technology, for example, (1) "Visualization interface of feature quantity space in similar image retrieval" (Technical Report of IEICE 98)
Vol. 204) (2) "Information acquisition support from document collection by interactive visualization" (Japan Society for Software Science, 13th Congress) is known.

【0003】前記(1)の公知技術は、主成分分析によ
り特徴の多次元空間の次元数を落し2次元空間の表示空
間にマップする方法である。また、前記(2)の公知技
術は、多数の文献とキーワードをその関連性に基づいて
配置する視覚的分類技術に、ユーザの操作による視覚化
結果の動的な更新を導入したものである。
The above-mentioned known technique (1) is a method of reducing the number of dimensions of the multidimensional space of the feature by the principal component analysis and mapping it to the display space of the two-dimensional space. Further, the above-mentioned known technique (2) introduces a dynamic updating of the visualization result by a user's operation into a visual classification technique that arranges a large number of documents and keywords based on their association.

【0004】[0004]

【発明が解決しようとする課題】しかし、前記(1)の
公知技術では、画像特徴がベクトルデータで表現できな
い場合、または、画像の類似性が線形結合で表せない場
合には主成分分析ができず、この方法を利用することは
できない。また、前記(2)の公知技術では、計算量が
膨大で処理時間を要すためにインタラクティブな表示に
は向かない。
However, according to the known technique (1), the principal component analysis can be performed when the image feature cannot be represented by vector data or when the image similarity cannot be represented by linear combination. No, you cannot use this method. Further, the known technique of (2) is not suitable for interactive display because the amount of calculation is huge and the processing time is required.

【0005】一方、画像から複数の特徴量が抽出され、
その特徴量空間を2次元や3次元の表示空間に表示する
場合には、各特徴量を表示の次元軸に割り振ることによ
り、当該次元軸を意味付けして表示した方がユーザは特
徴量空間を把握しやすい。しかし、特徴量空間が把握し
やすいように画像を表示させる場合、極めて類似してい
る画像を画面に並べて表示すると、画面サイズが限られ
ているので視認効率が悪くなる。
On the other hand, a plurality of feature quantities are extracted from the image,
When displaying the feature amount space in a two-dimensional or three-dimensional display space, it is preferable for the user to assign the feature amount to the dimension axis of the display so that the dimension axis is displayed with meaning. Easy to grasp. However, when displaying the images so that the feature amount space can be easily grasped, when the images that are very similar are displayed side by side on the screen, the visual efficiency becomes poor because the screen size is limited.

【0006】本発明は、このような点に鑑みてなされた
もので、その目的は、視認効率の向上を図ることができ
る画像空間表示方法を提供することにある。
The present invention has been made in view of the above points, and an object thereof is to provide an image space display method capable of improving the visual recognition efficiency.

【0007】[0007]

【課題を解決するための手段】前記目的を達成するた
め、第1の手段は、画像から抽出された複数の特徴量を
基に大量の画像の特徴量空間を可視化する画像空間表示
方法において、極めて類似する画像はグルーピングし、
画像グループを代表する画像により特徴量空間の画面を
生成することを特徴とする。
To achieve the above object, a first means is an image space display method for visualizing a feature quantity space of a large number of images based on a plurality of feature quantities extracted from an image, Group very similar images,
It is characterized in that a screen of the feature quantity space is generated from images representing the image group.

【0008】第2の手段は、第1の手段において、前記
画像グループを代表する画像のみを画面に表示すること
を特徴とする。
A second means is characterized in that, in the first means, only an image representative of the image group is displayed on the screen.

【0009】第3の手段は、第2の手段において、前記
画像グループに属する画像数を数値として代表画像と共
に画面に表示することを特徴とする。
A third means is characterized in that, in the second means, the number of images belonging to the image group is displayed on the screen together with a representative image as a numerical value.

【0010】第4の手段は、第2の手段において、前記
画像グループに属する画像数を示す色や濃淡を代表画像
と共に画面に表示することを特徴とする。
A fourth means is characterized in that, in the second means, a color and shade indicating the number of images belonging to the image group are displayed on a screen together with a representative image.

【0011】第5の手段は、第2の手段において、前記
画像グループに属する画像数に従い代表画像の表示サイ
ズを変えることを特徴とする。
A fifth means is characterized in that, in the second means, the display size of the representative image is changed according to the number of images belonging to the image group.

【0012】第6の手段は、第1の手段において、前記
画像グループに属する画像を重ね、かつ多少ずらして表
示することを特徴とする。
A sixth means is characterized in that, in the first means, the images belonging to the image group are overlapped and displayed with a slight shift.

【0013】第7の手段は、第3ないし第6の手段にお
いて、前記画像グループの画像の上にカーソルを移動し
たとき、前記カーソルの下にある画像グループに属する
画像を順次入れ替え表示することを特徴とする。
A seventh means is, in the third to sixth means, that when the cursor is moved onto an image of the image group, the images belonging to the image group under the cursor are sequentially replaced and displayed. Characterize.

【0014】第8の手段は、第3ないし第6の手段にお
いて、前記画像グループの画像の上にカーソルを移動し
たとき、前記カーソルの下にある画像を拡大表示するこ
とを特徴とする。
An eighth means is characterized in that, in the third to sixth means, when the cursor is moved onto an image of the image group, the image under the cursor is enlarged and displayed.

【0015】第9の手段は、第1の手段において、前記
画像グループに属する画像数を特徴量とする。
A ninth means uses the number of images belonging to the image group as the feature quantity in the first means.

【0016】第10の手段は、画像から抽出された複数
の特徴量を基に大量の画像の特徴量空間を可視化する画
像空間表示において、画像に付与されている情報を特徴
量とすることを特徴とする。この場合、画像に付与され
ている情報としては、例えば作成日付、画像サイズ、画
像フォーマット、キーワード、ファイル名などが挙げら
れる。
A tenth means uses the information added to the image as the feature amount in the image space display for visualizing the feature amount space of a large number of images based on the plurality of feature amounts extracted from the image. Characterize. In this case, examples of the information given to the image include a creation date, an image size, an image format, a keyword, a file name, and the like.

【0017】[0017]

【発明の実施の形態】以下、本発明の実施形態について
図面を参照して説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0018】1.第1の実施形態 図1は本発明の画像空間表示方法を実施するための第1
の実施形態に係る画像表示装置の構成を示すブロック
図、図2は図1の画像表示装置において実行される処理
を示すブロック図である。
1. First Embodiment FIG. 1 shows a first embodiment for implementing the image space display method of the present invention.
2 is a block diagram showing a configuration of an image display device according to the embodiment of the present invention, and FIG. 2 is a block diagram showing processing executed in the image display device of FIG.

【0019】図1において、画像表示装置は、画像表示
装置の制御を司るCPU1と、CPU1が実行するプロ
グラムが格納されたROM2と、CPU1がROM2に
格納されたプログラムを実行する際にワークエリアとし
て機能するとともに、プログラムを実行するための動的
なデータが記憶されるRAM3と、入力装置としてのキ
ーボード4およびマウス5と、表示装置としてのモニタ
6と、画像アプリケーション7を実行する画像表示部8
と、デジタルカメラやスキャナなどの周辺機器11との
インターフェースとして機能するペリフェラルI/F9
と、ネットワーク12とのインターフェイスとして機能
するネットワークI/F10とからなり、これらはバス
13を介してCPU1から制御可能に接続されている。
画像表示部8は、図2に示すように特徴抽出処理部8
1、極似画像グルーピング処理部82、木構造生成処理
部83、および表示画面生成処理部84からなり、前記
各部81〜84において特徴抽出処理、極似画像グルー
ピング処理、木構造生成処理および表示画面生成処理を
画像アプリケーション7にしたがって実行する。
In FIG. 1, the image display device includes a CPU 1 that controls the image display device, a ROM 2 that stores a program executed by the CPU 1, and a work area when the CPU 1 executes the program stored in the ROM 2. A RAM 3 which stores dynamic data for executing a program while functioning, a keyboard 4 and a mouse 5 as input devices, a monitor 6 as a display device, and an image display unit 8 for executing an image application 7.
And a peripheral I / F 9 that functions as an interface with the peripheral device 11 such as a digital camera or a scanner.
And a network I / F 10 that functions as an interface with the network 12, and these are connected to be controllable from the CPU 1 via a bus 13.
The image display unit 8 has a feature extraction processing unit 8 as shown in FIG.
1, a very similar image grouping processing unit 82, a tree structure generation processing unit 83, and a display screen generation processing unit 84. In each of the units 81 to 84, a feature extraction process, a very similar image grouping process, a tree structure generation process, and a display screen. The generation process is executed according to the image application 7.

【0020】以下、前述した構成を有する画像表示部8
によって実行される処理について、 1)特徴量抽出処理 2)極似画像グルーピング処理 3)特徴量空間木構造抽出処理 4)画像表示画面生成処理 の順で説明する。
Hereinafter, the image display section 8 having the above-mentioned structure
The processing executed by will be described in the order of 1) feature amount extraction processing 2) very similar image grouping processing 3) feature amount spatial tree structure extraction processing 4) image display screen generation processing.

【0021】1)特徴抽出処理 画像の特徴量として、ヒストグラム特徴、エッジ特徴、
テクスチャ特徴など様々あり、本発明はいずれの特徴に
対しても応用できる。もちろん画像以外のデータから抽
出した特徴量でもかまわない。例えばテキストから抽出
した特徴量にも応用可能である。ここでは一般的なヒス
トグラム特徴の抽出処理について説明する。画像として
はデジタルカメラやスキャナなどの周辺機器11から入
力した画像、Webからダウンロードした画像など様々
考えられるが、本装置では入力方法を制限しない。
1) Histogram feature, edge feature,
There are various texture features and the like, and the present invention can be applied to any feature. Of course, the feature amount extracted from the data other than the image may be used. For example, it can be applied to the feature amount extracted from the text. Here, a general histogram feature extraction process will be described. As the image, various images such as an image input from the peripheral device 11 such as a digital camera and a scanner, an image downloaded from the Web, and the like can be considered, but the input method is not limited in this device.

【0022】まず、適当な色空間(例えばLab,Lu
v,HSVなど)を選択してこの空間を複数の領域に分
割し、画像の各ピクセルが色空間のどの領域に対応する
かを調べ、領域毎のピクセル数をカウントした後、全体
のピクセル数により正規化する。正規化された領域毎の
ピクセル数のデータがヒストグラム特徴である。このヒ
ストグラムの特徴量がヒストグラムの特徴量空間のポイ
ントとなる。ヒストグラムの特徴量空間での2つの特徴
量の距離として、一般に2つの特徴量の対応する各領域
毎のピクセル数の差分の合計やユークリッド距離が利用
される。こうして特徴量間の距離を求めることができ
る。
First, an appropriate color space (for example, Lab, Lu
(v, HSV, etc.) to divide this space into multiple areas, check which area of the image each pixel corresponds to in the color space, count the number of pixels in each area, and then determine the total number of pixels To normalize. The normalized pixel count data for each region is a histogram feature. The feature amount of this histogram becomes the point of the feature amount space of the histogram. As the distance between the two feature amounts in the feature amount space of the histogram, the sum of the differences in the number of pixels in each region corresponding to the two feature amounts and the Euclidean distance are generally used. In this way, the distance between the feature quantities can be obtained.

【0023】また、抽出される特徴量は画像から抽出し
た特徴量のみならず、画像に付与されている情報を特徴
量とすることができる。例えば、画像の作成日付、画像
サイズ、画像フォーマット、タイトル(ファイル名)、
キーワードなどが考えられる。特徴量として後述の処理
を行なえるようにするには特徴量間の距離を同時に定義
する必要がある。画像の作成日付、画像サイズなどの数
値で表されるものは数値の差分を距離関数とすればよ
い。また、画像フォーマットの場合には同じフォーマッ
トの時に0、違う場合には1を返すような距離関数を定
義することが可能である。また、タイトルやキーワード
のような文字列の場合には、さらに一単語のみであれ
ば、文字列コードの差分を距離関数とすることが可能で
ある。また、複数の単語からなる場合には単語の重複し
ない割合を距離関数とすることができる。
Further, the extracted feature amount is not limited to the feature amount extracted from the image, and the information attached to the image can be used as the feature amount. For example, image creation date, image size, image format, title (file name),
Keywords etc. can be considered. It is necessary to define the distance between the feature amounts at the same time so that the process described below can be performed as the feature amount. What is represented by a numerical value such as an image creation date and an image size may be a distance function using a difference between the numerical values. Further, it is possible to define a distance function that returns 0 in the case of the same format in the case of the image format, and returns 1 in the case of a different format. In the case of a character string such as a title or a keyword, if there is only one word, the difference between the character string codes can be used as the distance function. When the word is composed of a plurality of words, the ratio of words not overlapping can be used as the distance function.

【0024】複数の特徴量を利用する場合には各特徴量
の距離関数の値を加算する必要がある。これは画像特徴
量の距離関数のみを使う場合と同様であるが、具体的
に、 D=ΣKi*Di(F1i,F2i) で表される。F1i,F2iは特徴量iで、Diは特徴
量iの距離関数である。Kiは特徴量iに対する重み付
けである。
When using a plurality of feature quantities, it is necessary to add the values of the distance function of each feature quantity. This is similar to the case of using only the distance function of the image feature amount, but specifically, it is expressed by D = ΣKi * Di (F1i, F2i). F1i and F2i are the feature amount i, and Di is the distance function of the feature amount i. Ki is a weight for the feature amount i.

【0025】2)極似画像グルーピング処理 特徴量抽出により得られた各画像間の特徴量を距離関数
により比較し予め設定された極似画像識別閾値より小さ
い場合には極似画像としてグルーピングする。以下に詳
細を述べる。
2) Very similar image grouping process The characteristic amounts between the images obtained by the characteristic amount extraction are compared by a distance function, and if they are smaller than a preset very similar image identification threshold value, they are grouped as very similar images. Details will be described below.

【0026】 順次画像特徴量を一つ選択する。 当該の画像特徴量とすべての画像グループの代表画
像の特徴量との距離を距離計算し、極似画像識別閾値よ
り小さい場合には当該の画像グループに加える。 いずれの画像グループとも極似しない場合には、新
規に画像グループを生成し当該の画像をその画像グルー
プの代表画像とする。 まだ上記処理を行なっていない画像特徴量がある場
合にはに戻る。 この結果、すべての画像はいずれかの画像グループに属
することとなり、つまり、極似する画像がなくても代表
画像のみの画像グループとなる。以下の処理は代表画像
の画像特徴量に関して実行する。
One image feature amount is sequentially selected. The distance between the image feature amount and the feature amount of the representative images of all image groups is calculated, and if the distance is smaller than the very similar image identification threshold value, the distance is added to the image group. When the image group is not very similar, a new image group is generated and the image is set as a representative image of the image group. If there is an image feature amount that has not been subjected to the above processing, the process returns to. As a result, all the images belong to any one of the image groups, that is, the image group including only the representative images even if there are no images that are very similar. The following processing is executed on the image feature amount of the representative image.

【0027】なお、画像グループの画像数を特徴量とす
る場合には、前記特徴抽出処理部で行なうのではなく、
このグルーピング処理内で代表画像の特徴量に加える。
When the number of images in the image group is used as the feature quantity, the feature extraction processing section does not perform the feature quantity calculation but the feature extraction processing section.
It is added to the feature amount of the representative image in this grouping process.

【0028】3)特徴量空間木構造抽出処理 特徴量の空間は高次元空間であり、これを単純に画面の
2次元に表示することはできない。そこで、まず特徴量
の空間の構造を木構造で表現し、その後、木構造を画面
の空間にマップすることで仮想的に特徴量の空間を画面
上に表現することができる。
3) Feature Space Tree Structure Extraction Process The feature space is a high-dimensional space, which cannot be simply displayed in two dimensions on the screen. Therefore, first, the structure of the space of the characteristic amount is expressed by a tree structure, and then the tree structure is mapped to the space of the screen, whereby the space of the characteristic amount can be virtually expressed on the screen.

【0029】特徴量の空間を木構造で表現するには、特
徴量空間をクラスタリングし、複数の部分空間に分割を
行い、木構造のノードとする。さらに、各部分空間(ノ
ード)をクラスタリングし、部分空間に分割しノードと
する。これを再帰的に行うことで特徴量の空間の木構造
を生成することができる。つまりすべての特徴量が最下
位の個々のノード(リーフノード)に1つずつ配置され
る。このようにして生成された木構造の例を図3に示
す。空間を分割するノード数は2以上の幾つであっても
構わないが、簡便のためここではノード数を2とする。
この木構造では類似する特徴量は近くに配置されてお
り、画像空間上での画像の位置関係を木構造が表してい
る。
In order to express the feature quantity space in a tree structure, the feature quantity space is clustered and divided into a plurality of subspaces to form a tree structure node. Furthermore, each subspace (node) is clustered and divided into subspaces to form nodes. By performing this recursively, it is possible to generate the tree structure of the space of the feature amount. That is, all the feature quantities are arranged one by one at the lowest individual node (leaf node). An example of the tree structure generated in this way is shown in FIG. The number of nodes dividing the space may be two or more, but for simplicity, the number of nodes is two here.
In this tree structure, similar feature amounts are arranged close to each other, and the tree structure represents the positional relationship of images in the image space.

【0030】クラスタリング手法としては、一般的なN
earest Neighor法やK−平均アルゴリズ
ム法などが利用できる。この木構造では類似する画像は
近くに配置されるが、その精度はクラスタリングの精度
による。そこで、よりクラスタリングの精度を高くする
方法として以下のような手順によるクラスタリングが可
能である。なお、この方法では分割数を2と限定する。
As a clustering method, a general N
The earliest Neighbor method or the K-means algorithm method can be used. In this tree structure, similar images are arranged close to each other, but the accuracy depends on the clustering accuracy. Therefore, as a method of further increasing the accuracy of clustering, clustering according to the following procedure is possible. In this method, the number of divisions is limited to 2.

【0031】クラスタの中心ポイントの獲得 a)空間内で任意のポイントAを選択する。 b)選択したポイントAから最遠のポイントをクラスタ
の中心ポイントC1とする。 c)C1から最遠のポイントを2番目のクラスタの中心
ポイントC2とする。
Obtaining the central point of the cluster a) Select an arbitrary point A in space. b) The point farthest from the selected point A is the center point C1 of the cluster. c) The point farthest from C1 is the center point C2 of the second cluster.

【0032】ポイントのソート a)空間の任意のポイントPを選択する。 b)2つのクラスタの中心ポイントC1,C2とポイン
トP間の距離を算出し、その距離の差分を差分距離とし
て求める。 差分距離=|C1−P|−|C2−P| c)a)−b)を繰返し、すべてのポイントの差分距離
を求める。 d)差分距離の昇順ですべてのポイントをソートする。
Sorting Points a) Select an arbitrary point P in space. b) The distance between the center points C1 and C2 of the two clusters and the point P is calculated, and the difference between the distances is obtained as the difference distance. Difference distance = | C1-P | − | C2-P | c) a) -b) is repeated to obtain the difference distances of all points. d) Sort all points in ascending order of difference distance.

【0033】ポイントの分割 差分距離でソートされたポイントの前後の差分距離の差
を求め、最もその差が大きいポイント間をクラスタの境
界とする。そのクラスタの境界より差分距離の値が小さ
い側がC1に属し、大きい側がC2に属すことになる。
また、木構造のバランスを取れたものにする、つまり
は、最終的な表示画面上で等間隔に画像を分布させたい
場合には個数上での中間で分離することも可能である。
このようにして得られた2つのクラスタを木のノードと
して、各ノードについて同様の処理を再帰的に行
なうことで木が生成され、最終的にリーフノードに各画
像が1つずつ属すこととなる。
The difference between the difference distances before and after the points sorted by the divided difference distances of points is obtained, and the point having the largest difference is set as the boundary of the cluster. The side with a smaller difference distance value than the boundary of the cluster belongs to C1, and the larger side belongs to C2.
Further, it is also possible to make the tree structure well balanced, that is, when it is desired to distribute the images at equal intervals on the final display screen, they can be separated in the middle of the number.
Using the two clusters thus obtained as tree nodes, a tree is generated by recursively performing the same processing for each node, and finally each image belongs to a leaf node. .

【0034】従来技術では、このように生成された1つ
の木構造から画面を生成していたが、本発明では、意味
のある特徴量単位にこの木構造を生成し、それぞれ二分
枝の木構造を生成する。その意味のある特徴量とは、例
えば色や形状やテクスチャであり、次の画面生成により
生成された画面の軸がそれぞれの特徴量に対応すること
となる。
In the prior art, the screen was generated from the one tree structure generated in this way, but in the present invention, this tree structure is generated for each meaningful feature amount unit, and each tree structure of the bifurcated branch is used. To generate. The meaningful feature amount is, for example, color, shape, or texture, and the axis of the screen generated by the next screen generation corresponds to each feature amount.

【0035】3)画像表示画面生成処理 木構造を生成した後に、個々の木構造を1次元上にマッ
プする。画面上の表示領域が1次元でマップするデータ
領域となる。
3) Image display screen generation processing After the tree structure is generated, each tree structure is one-dimensionally mapped. The display area on the screen is a one-dimensional data area.

【0036】木構造をルートから辿り、 a)1次元上のデータ領域を2分割し、2つの子ノード
をそれぞれの領域に配置する。領域を分割する時には等
分にしても良いし、表示精度を高めるには、子ノードに
属すノード数に比例して分割点を決めたり、また、クラ
スタリング時の分割点から各中心点への距離に比例して
分割点を決めたりすることも可能である。さらに、クラ
スタ間の隙間の距離をも考慮して、その隙間の空間に該
当する領域を設定し、その空間には子ノードを指定しな
い。こうすることで、さらに類似性を正確に表した表示
画面となる。
Following the tree structure from the root, a) dividing the one-dimensional data area into two, and arranging two child nodes in each area. The area may be divided into equal parts, and in order to improve the display accuracy, the division point is determined in proportion to the number of nodes belonging to the child node, and the distance from the division point to each central point during clustering. It is also possible to determine the division point in proportion to. Furthermore, considering the distance of the gap between the clusters, a region corresponding to the space of the gap is set, and no child node is designated in the space. By doing so, a display screen that more accurately represents the similarity can be obtained.

【0037】b)各子ノードについて前述の1)特徴量
抽出処理と2)特徴量空間木構造抽出処理を行う。
B) The above-mentioned 1) feature amount extraction processing and 2) feature amount spatial tree structure extraction processing are performed for each child node.

【0038】このように再帰的に処理することで木構造
のすべてが1次元にマップされる。前出の図の木構造を
マップした例を図4に示す。これは木構造を辿りながら
領域を等分に分割した例である。
By recursively processing in this way, the entire tree structure is one-dimensionally mapped. FIG. 4 shows an example of mapping the tree structure of the previous figure. This is an example of dividing a region into equal parts while tracing a tree structure.

【0039】これをすべての木構造について行うこと
で、その木構造数分の次元データが得られる。画面表示
としては3次元以上を表現しにくいので、3次元までの
データとすることが望ましい。例えば色、形状、テクス
チャの特徴量で木構造を生成したなら、各軸がそれぞ
れ、色、形状、テクスチャに対応する3次元の表示空間
が生成できる。
By performing this for all tree structures, dimensional data for the number of tree structures can be obtained. Since it is difficult to express more than three dimensions as a screen display, it is desirable to use data up to three dimensions. For example, if a tree structure is generated with color, shape, and texture feature amounts, a three-dimensional display space in which each axis corresponds to color, shape, and texture can be generated.

【0040】最終的な空間的な画面表示例を図5に示
す。図の点は画像から抽出した形状、テクスチャおよび
色をパラメータに取った特徴量の位置であり、そこに画
像をそのまま表示してもよい。なお、この実施形態で
は、画像から抽出した形状、テクスチャおよび色を特徴
量としているが、これらの特徴量だけでなくあらゆる特
徴量(文書から抽出した特徴量など)に応用が可能であ
る。
An example of the final spatial screen display is shown in FIG. The points in the figure are the positions of the feature amount with the shape, texture, and color extracted from the image as parameters, and the image may be displayed as they are. In this embodiment, the shapes, textures, and colors extracted from the image are used as the characteristic amounts, but the present invention can be applied to not only these characteristic amounts but also all the characteristic amounts (such as the characteristic amounts extracted from a document).

【0041】例えば、図6のように表示する画像は代表
画像のみ表示する。また、図7のように画像グループに
何画像属しているかを示す画像数を数値で表示する。ま
た、図8のように画像数が多くなるにつれ、画像の枠を
白、黄色、赤と変化させ、枠の色で画像数の多少を表現
するようにしてもよい。この場合、色の変化に代えて濃
淡により表現することも可能である。図9は画像数が多
い代表画像は画像サイズを大きくした表示例である。図
10は画像グループに属する画像を少しずらして重ねて
表示した例である。
For example, in the image displayed as shown in FIG. 6, only the representative image is displayed. In addition, as shown in FIG. 7, the number of images indicating how many images belong to the image group is displayed as a numerical value. Alternatively, as shown in FIG. 8, as the number of images increases, the frame of the image may be changed to white, yellow, and red, and the number of images may be expressed by the color of the frame. In this case, it is also possible to express by shading instead of changing the color. FIG. 9 shows a display example in which a representative image having a large number of images has a large image size. FIG. 10 shows an example in which the images belonging to the image group are slightly overlapped and displayed.

【0042】また、上記例では画像グループが3つであ
るが、実際の利用形態では大量の画像グループが生成さ
れる。したがって、個々の代表画像の表示領域は狭くな
り、画像の視認が困難になる可能性がある。そこで、カ
ーソルを代表画像上に移動するとカーソルが画像上にあ
ることを感知し、その画像を自動的に拡大表示するよう
にすることもできる。また、さらにクリックすると(ク
リックしなくても一定時間画像上にカーソルがあると)
画像グループに属する画像がクリックごとに(一定時間
おきに)順次拡大表示されるようにすることもできる。
また、拡大表示されずとも、画像グループに属する画像
を順次表示するようにすることもできる。
Further, although the number of image groups is three in the above example, a large number of image groups are generated in the actual usage pattern. Therefore, the display area of each representative image becomes narrow, and it may be difficult to visually recognize the image. Therefore, when the cursor is moved on the representative image, it is possible to detect that the cursor is on the image and automatically enlarge and display the image. In addition, if you click further (when the cursor is on the image for a certain period of time without clicking)
The images belonging to the image group may be sequentially enlarged and displayed with each click (at fixed time intervals).
Further, it is possible to sequentially display the images belonging to the image group without the enlarged display.

【0043】また、本実施形態に係る画像特徴量空間の
表示方式は、表示の次元数を選択的に利用することがで
き、前述の図4に示すような1次元の軸に表現すること
も可能である。1次元の場合には、その軸を折り返すこ
とにより、図11に示す一般に利用されている一覧表示
形態にも応用できる。
Further, in the display method of the image feature amount space according to the present embodiment, the number of display dimensions can be selectively used, and the display can be expressed on the one-dimensional axis as shown in FIG. It is possible. In the case of one-dimensional, by folding back the axis, it can be applied to the generally used list display mode shown in FIG.

【0044】[0044]

【発明の効果】以上のように本発明によれば、極めて類
似する画像はグルーピングし、画像グループを代表する
画像によって特徴量空間の画面を生成するので、表示面
積が限られた画面での画像の表示効率を上げることがで
き、これにより、画像の視認効率を向上させることがで
きる。
As described above, according to the present invention, very similar images are grouped, and a screen of the feature amount space is generated by the images representing the image groups. The display efficiency can be improved, and thus the visual recognition efficiency of the image can be improved.

【0045】また、本発明によれば、特徴量として画像
の他に画像に付与された情報も同時に扱い、付与された
情報も加味した画像表示を行うので、多様な観点での表
示が可能となり、これによって視認効率の向上を図るこ
とができる。
Further, according to the present invention, the information added to the image as the feature amount is treated at the same time in addition to the image, and the image is displayed in consideration of the added information. Therefore, it is possible to display from various viewpoints. Therefore, the visual recognition efficiency can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態に係る画像表示装置の構成を
示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an image display device according to an embodiment of the present invention.

【図2】本発明の実施形態の画像表示装置において実行
される処理を示すブロック図である。
FIG. 2 is a block diagram showing processing executed in the image display device according to the embodiment of the present invention.

【図3】本発明の実施形態において生成された木構造の
例を示す図である。
FIG. 3 is a diagram showing an example of a tree structure generated in the embodiment of the present invention.

【図4】図3の木構造のすべてを1次元にマップした例
を示す図である。
FIG. 4 is a diagram showing an example in which all of the tree structure of FIG. 3 is one-dimensionally mapped.

【図5】画像から抽出した形状、テクスチャおよび色を
特徴量として3次元の表示空間と特徴量の位置との関係
を示す図である。
FIG. 5 is a diagram showing a relationship between a three-dimensional display space and a position of a feature amount with a feature amount of a shape, a texture, and a color extracted from an image.

【図6】代表画像のみ表示する表示例を示す図である。FIG. 6 is a diagram showing a display example in which only representative images are displayed.

【図7】画像グループに何画像属しているかを示す画像
数を数値で表示した表示例を示す図である。
FIG. 7 is a diagram showing a display example in which the number of images indicating how many images belong to an image group is displayed numerically.

【図8】画像の枠の色を変化させて表示する表示例を示
す図である。
FIG. 8 is a diagram showing a display example in which a frame color of an image is changed and displayed.

【図9】画像数が多い代表画像は画像サイズを大きくし
て表示する表示例を示す図である。
FIG. 9 is a diagram showing a display example in which a representative image having a large number of images is displayed with a large image size.

【図10】同一の画像グループに属する画像を少しずつ
ずらして重ねて表示した表示例を示す図である。
FIG. 10 is a diagram showing a display example in which images belonging to the same image group are gradually shifted and overlapped and displayed.

【図11】一般に使用されている表示形態に本実施形態
に係る表示方法を適用した表示例を示す図である。
FIG. 11 is a diagram showing a display example in which the display method according to the present embodiment is applied to a commonly used display form.

【符号の説明】[Explanation of symbols]

1 CPU 2 ROM 3 RAM 6 モニタ 7 画像アプリケーション 8 画像表示部 81 特徴抽出処理部 82 極似画像グルーピング処理部 83 木構造生成部 84 表示画面生成部 11 スキャナ、デジタルカメラ(周辺機器) 1 CPU 2 ROM 3 RAM 6 monitors 7 image applications 8 Image display section 81 Feature Extraction Processing Unit 82 Very similar image grouping processing unit 83 Tree Structure Generation Unit 84 Display screen generation unit 11 Scanners, digital cameras (peripheral devices)

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/393 H04N 1/393 Fターム(参考) 5B050 BA06 BA11 BA12 BA13 CA07 DA02 DA04 EA08 EA09 EA12 EA18 EA19 FA02 FA05 FA19 5B057 BA26 CC01 CD05 CE10 CH07 CH08 CH11 CH18 DA08 DA12 DA16 DB02 DB06 DC05 DC19 DC34 DC36 5B075 ND06 PQ02 PQ73 QM05 5C076 AA16 AA19 AA21 AA22 Front page continued (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 1/393 H04N 1/393 F term (reference) 5B050 BA06 BA11 BA12 BA13 CA07 DA02 DA04 EA08 EA09 EA12 EA18 EA19 FA02 FA05 FA19 5B057 BA26 CC01 CD05 CE10 CH07 CH08 CH11 CH18 DA08 DA12 DA16 DB02 DB06 DC05 DC19 DC34 DC36 5B075 ND06 PQ02 PQ73 QM05 5C076 AA16 AA19 AA21 AA22

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 画像から抽出された複数の特徴量を基に
大量の画像の特徴量空間を可視化する画像空間表示方法
において、 極めて類似する画像はグルーピングし、画像グループを
代表する画像により特徴量空間の画面を生成することを
特徴とする画像特徴量空間表示方法。
1. An image space display method for visualizing a feature quantity space of a large number of images based on a plurality of feature quantities extracted from an image, wherein very similar images are grouped, and feature quantities are represented by images representing image groups. An image feature quantity space display method characterized by generating a screen of space.
【請求項2】 前記画像グループを代表する画像のみを
画面に表示することを特徴とする請求項1記載の画像特
徴量空間表示方式。
2. The image feature quantity space display method according to claim 1, wherein only the image representative of the image group is displayed on the screen.
【請求項3】 前記画像グループに属する画像数を数値
として代表画像と共に画面に表示することを特徴とする
請求項2記載の画像特徴量空間表示方法。
3. The image feature quantity space display method according to claim 2, wherein the number of images belonging to the image group is displayed as a numerical value together with a representative image on the screen.
【請求項4】 前記画像グループに属する画像数を示す
色や濃淡を代表画像と共に画面に表示することを特徴と
する請求項2記載の画像特徴量空間表示方法。
4. The image feature quantity space display method according to claim 2, further comprising displaying a color and shade indicating the number of images belonging to the image group together with a representative image on a screen.
【請求項5】 前記画像グループに属する画像数に従い
代表画像の表示サイズを変えることを特徴とする請求項
2記載の画像特徴量空間表示方法。
5. The image feature quantity space display method according to claim 2, wherein the display size of the representative image is changed according to the number of images belonging to the image group.
【請求項6】 前記画像グループに属する画像を重ね、
かつ多少ずらして表示することを特徴とする請求項1記
載の画像特徴量空間表示方法。
6. Overlapping images belonging to the image group,
The image feature quantity space display method according to claim 1, wherein the display is performed with a slight shift.
【請求項7】 前記画像グループの画像の上にカーソル
を移動したとき、前記カーソルの下にある画像グループ
に属する画像を順次入れ替え表示することを特徴とする
請求項3ないし6のいずれか1項に記載の画像特徴量空
間表示方法。
7. The image according to claim 3, wherein when the cursor is moved onto an image of the image group, the images belonging to the image group under the cursor are sequentially switched and displayed. The image feature amount space display method described in [3].
【請求項8】 前記画像グループの画像の上にカーソル
を移動したとき、前記カーソルの下にある画像を拡大表
示することを特徴とする請求項3ないし6のいずれか1
項に記載の画像特徴量空間表示方法。
8. The image under the cursor is enlarged and displayed when the cursor is moved over the image of the image group.
The image feature quantity space display method described in the item.
【請求項9】 前記画像グループに属する画像数を特徴
量とする請求項1記載の画像特徴量空間表示方法。
9. The image feature quantity space display method according to claim 1, wherein the number of images belonging to the image group is used as the feature quantity.
【請求項10】 画像から抽出された複数の特徴量を基
に大量の画像の特徴量空間を可視化する画像空間表示方
法において、 画像に付与されている情報を特徴量とすることを特徴と
する画像特徴量空間表示方法。
10. An image space display method for visualizing a feature quantity space of a large number of images based on a plurality of feature quantities extracted from an image, wherein information added to the image is used as the feature quantity. Image feature space display method.
JP2002000897A 2002-01-07 2002-01-07 Image space display method Pending JP2003203090A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002000897A JP2003203090A (en) 2002-01-07 2002-01-07 Image space display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002000897A JP2003203090A (en) 2002-01-07 2002-01-07 Image space display method

Publications (1)

Publication Number Publication Date
JP2003203090A true JP2003203090A (en) 2003-07-18

Family

ID=27641155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002000897A Pending JP2003203090A (en) 2002-01-07 2002-01-07 Image space display method

Country Status (1)

Country Link
JP (1) JP2003203090A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182819A (en) * 2003-12-18 2005-07-07 Palo Alto Research Center Inc User interest assessment method and system
JP2005223854A (en) * 2004-02-09 2005-08-18 Fuji Photo Film Co Ltd Image display device and digital camera with image display device
JP2008165304A (en) * 2006-12-27 2008-07-17 Fujifilm Corp Search system
JP2009540451A (en) * 2006-06-16 2009-11-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Clinician-driven, example-based computer-aided diagnosis
CN101986295A (en) * 2010-10-28 2011-03-16 浙江大学 Image clustering method based on manifold sparse coding
JP2011138512A (en) * 2009-12-29 2011-07-14 Nhn Corp Method and system for selecting representative image in removal of duplicated image
JP2012063967A (en) * 2010-09-16 2012-03-29 Casio Comput Co Ltd Image display device and program
US8341555B2 (en) 2007-06-04 2012-12-25 Sony Corporation Image managing apparatus, image managing method and image managing program
JP2013175200A (en) * 2013-03-12 2013-09-05 Sony Corp Image display control method, image display device and program
US8730259B2 (en) 2007-08-22 2014-05-20 Sony Corporation Image display device, image display control method and program
JP2014229178A (en) * 2013-05-24 2014-12-08 株式会社東芝 Electronic apparatus, display control method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10275160A (en) * 1997-03-31 1998-10-13 Matsushita Giken Kk Information filter device, information filtering method, and recording medium recorded with information filtering program
JPH11149485A (en) * 1997-09-24 1999-06-02 Ricoh Co Ltd Document image database search method, document image database organization method, recording medium, and document image database organization device
JP2000311246A (en) * 1999-04-28 2000-11-07 Ricoh Co Ltd Recording medium storing similar image display method and similar image display processing program
JP2001273302A (en) * 2000-03-23 2001-10-05 Toshiba Corp Image search system and image search method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10275160A (en) * 1997-03-31 1998-10-13 Matsushita Giken Kk Information filter device, information filtering method, and recording medium recorded with information filtering program
JPH11149485A (en) * 1997-09-24 1999-06-02 Ricoh Co Ltd Document image database search method, document image database organization method, recording medium, and document image database organization device
JP2000311246A (en) * 1999-04-28 2000-11-07 Ricoh Co Ltd Recording medium storing similar image display method and similar image display processing program
JP2001273302A (en) * 2000-03-23 2001-10-05 Toshiba Corp Image search system and image search method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
岩崎 雅二郎: "大量画像データベースへのアクセス手段の提案", 情報処理学会研究報告, vol. 第99巻 第61号, CSNG200100097007, 23 July 1999 (1999-07-23), JP, pages 43 - 48, ISSN: 0000797367 *
岩崎 雅二郎: "大量画像データベースへの効率的アクセスを可能とする統合画像アクセスインタフェース", 情報処理学会論文誌:データベース, vol. 第42巻 第SIG1(TOD8)号, CSNG200201349004, 15 January 2001 (2001-01-15), JP, pages 32 - 42, ISSN: 0000797366 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182819A (en) * 2003-12-18 2005-07-07 Palo Alto Research Center Inc User interest assessment method and system
JP2005223854A (en) * 2004-02-09 2005-08-18 Fuji Photo Film Co Ltd Image display device and digital camera with image display device
JP2009540451A (en) * 2006-06-16 2009-11-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Clinician-driven, example-based computer-aided diagnosis
JP2008165304A (en) * 2006-12-27 2008-07-17 Fujifilm Corp Search system
US8341555B2 (en) 2007-06-04 2012-12-25 Sony Corporation Image managing apparatus, image managing method and image managing program
US8730259B2 (en) 2007-08-22 2014-05-20 Sony Corporation Image display device, image display control method and program
US9342593B2 (en) 2007-08-22 2016-05-17 Sony Corporation Image display device, image display control method and program
JP2011138512A (en) * 2009-12-29 2011-07-14 Nhn Corp Method and system for selecting representative image in removal of duplicated image
JP2012063967A (en) * 2010-09-16 2012-03-29 Casio Comput Co Ltd Image display device and program
CN101986295A (en) * 2010-10-28 2011-03-16 浙江大学 Image clustering method based on manifold sparse coding
JP2013175200A (en) * 2013-03-12 2013-09-05 Sony Corp Image display control method, image display device and program
JP2014229178A (en) * 2013-05-24 2014-12-08 株式会社東芝 Electronic apparatus, display control method, and program

Similar Documents

Publication Publication Date Title
JP6382538B2 (en) Image segmentation based on color and color difference values
Schmidt et al. VAICo: Visual analysis for image comparison
JP3950718B2 (en) Image space display method
Hagenauer et al. Hierarchical self-organizing maps for clustering spatiotemporal data
Yuan et al. Deep colormap extraction from visualizations
JP2009251850A (en) Commodity recommendation system using similar image search
JP2004062804A (en) Image classification method, image feature space display method, program, and recording medium
JP2004152297A (en) Method and system for integrating multiple cue
JP4173246B2 (en) Similar image display method and recording medium storing similar image display processing program
Karjus et al. Compression ensembles quantify aesthetic complexity and the evolution of visual art
Buter et al. Explorative visualization and analysis of a social network for arts: the case of deviantART
CN101211344A (en) Text message ergodic rapid four-dimensional visualization method
US20050135667A1 (en) Method and apparatus for labeling images and creating training material
JP2003203090A (en) Image space display method
CN117015812A (en) System for clustering data points
KR20220126845A (en) System for providing bigdata based clothing pattern serching service using content-based image retrieval
CN104809721B (en) A kind of caricature dividing method and device
Khotanzad et al. Color image retrieval using multispectral random field texture model and color content features
Pflüger et al. Sifting through visual arts collections
Martínez-Martínez et al. A new visualization tool for data mining techniques
CN102369525A (en) System for searching visual information
Maciejewski Data representations, transformations, and statistics for visual reasoning
CN112597695B (en) A computer-aided design method and system based on perceptual feature clustering
CN111563181B (en) Digital image file query method, device and readable storage medium
JP5818202B2 (en) Image analysis apparatus, image analysis method, image search system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061030

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061219