[go: up one dir, main page]

JP2000242782A - Apparatus and method for detecting object in image and recording medium recording this method - Google Patents

Apparatus and method for detecting object in image and recording medium recording this method

Info

Publication number
JP2000242782A
JP2000242782A JP11047661A JP4766199A JP2000242782A JP 2000242782 A JP2000242782 A JP 2000242782A JP 11047661 A JP11047661 A JP 11047661A JP 4766199 A JP4766199 A JP 4766199A JP 2000242782 A JP2000242782 A JP 2000242782A
Authority
JP
Japan
Prior art keywords
image
detection target
target object
recognition model
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11047661A
Other languages
Japanese (ja)
Other versions
JP3569641B2 (en
Inventor
Etsuro Fujita
悦郎 藤田
Shinji Abe
伸治 安部
Toshiaki Sugimura
利明 杉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP04766199A priority Critical patent/JP3569641B2/en
Publication of JP2000242782A publication Critical patent/JP2000242782A/en
Application granted granted Critical
Publication of JP3569641B2 publication Critical patent/JP3569641B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 画像から物体を検出するのに、物体が含まれ
る局所矩形領域の部分画像に対してKL変換等の画像処
理で認識モデルを作成するのでは、物体に向きやオクル
ージョン等の見かけ上の変化がある場合に検出できな
い。 【解決手段】 検出対象物体及び物体以外が写された複
数の画像を入力し(101、102)、各入力画像から
色、エッジ、テクスチャ、あるいはこれらの結合による
特徴ベクトルを抽出し(111)、特徴ベクトルの空間
を物体の画像特徴付け領域とそれ以外の領域とに階層的
に分類し(112)、この特徴空間において認識モデル
を作成する(113)。また、局所領域の検出は、未知
画像に対して探索ウインドウのスキャンで照合対象とな
る局所領域を選択し、この各局所領域から特徴ベクトル
を抽出し、抽出された各特徴ベクトルと認識モデルとの
照合計算によって未知画像内に検出対象物体が写ってい
るか否かを判定する。
(57) [Summary] To detect an object from an image, when a recognition model is created by image processing such as KL conversion on a partial image of a local rectangular area including the object, the orientation of the object is determined. It cannot be detected when there is an apparent change such as occlusion. SOLUTION: A plurality of images including an object to be detected and an object other than the object are input (101, 102), and a color, an edge, a texture, or a feature vector by a combination thereof is extracted from each input image (111). The space of the feature vector is hierarchically classified into an image characterization region of the object and other regions (112), and a recognition model is created in this feature space (113). In addition, the local region is detected by selecting a local region to be collated by scanning a search window with respect to an unknown image, extracting a feature vector from each local region, and comparing the extracted feature vector with the recognition model. It is determined whether or not the detection target object is included in the unknown image by the matching calculation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像中の物体を検
出する検出装置、検出方法に係り、特に検出対象となる
物体が写された複数の画像から検出対象物体の認識モデ
ルを作成し、この認識モデルに基づいて、未知画像内に
検出対象物体が含まれるか否かを判定し、含まれる場合
にはその物体が写っている局所領域を検出する装置、方
法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a detection device and a detection method for detecting an object in an image, and more particularly to a method for creating a recognition model of a detection target object from a plurality of images in which the detection target object is captured. The present invention relates to an apparatus and a method for determining whether or not a detection target object is included in an unknown image based on the recognition model, and detecting a local region in which the object is included when the object is included.

【0002】[0002]

【従来の技術】画像中の物体を認識し検出するための認
識モデルの作成に関する装置は、近年多くの技術が提案
されている。その中の一つに、検出対象となる物体が写
された複数の画像から直接その物体の認識モデルを作成
する装置がある。
2. Description of the Related Art In recent years, many techniques have been proposed for an apparatus for creating a recognition model for recognizing and detecting an object in an image. One of them is an apparatus for directly creating a recognition model of an object to be detected from a plurality of images of the object.

【0003】この従来の装置は、検出対象物体が写され
た画像、あるいは検出対象物体が写された画像の、物体
が含まれる局所矩形領域による部分画像等からなる事例
集合に対してKL(カルフーネン・レーヴ)変換等の画
像処理方法を適用することで検出対象物体の2次元的な
テンプレート画像を作成し、このテンプレート画像自身
により検出対象物体の認識モデルを作成するというもの
であり、入力未知画像の多くの局所領域とこのテンプレ
ート画像との照合計算に基づいて物体を検出するもので
ある。例えば、次の文献がある。
[0003] This conventional apparatus uses a KL (Kalfunen) for a case set consisting of an image of an object to be detected or an image of an object to be detected, which is a partial image of a local rectangular area including the object. (Reve) A two-dimensional template image of the object to be detected is created by applying an image processing method such as transformation, and a recognition model of the object to be detected is created by the template image itself. The object is detected based on the collation calculation between many local regions of the template image and this template image. For example, there is the following document.

【0004】参考文献1:M.Turk and A.
Pentland,”Eigenfaces for
Recognition”,J.Cognitive
Neuroscience,Vol.3,No.1,pp.7
1−86(1991) この参考文献1では画像から人間の顔を認識し検出する
ために、複数の人間の正面から撮影した顔画像の集合に
対してKL変換を適用することによって、未知画像から
正面を向いた顔画像が検出可能な顔画像認識モデルを作
成している。
Reference 1: M. Turk and A.
Pentland, "Eigenfaces for
Recognition ", J. Cognitive
Neuroscience, Vol. 3, No. 1, pp. 7
1-86 (1991) In this reference 1, in order to recognize and detect a human face from an image, a KL transform is applied to a set of face images photographed from the front of a plurality of humans, so that an unknown image can be obtained. A face image recognition model capable of detecting a face image facing forward is created.

【0005】[0005]

【発明が解決しようとする課題】画像から検出対象物体
を検出するために、検出対象物体が写された画像、ある
いは検出対象物体が写された画像の、物体が含まれる局
所矩形領域の部分画像等の事例集合に対してKL変換等
の画像処理方法を適用することで対象物体の2次元的な
テンプレート画像を認識モデルとして作成する従来の装
置においては、未知画像内の物体を認識しその領域を検
出する際、照合計算において、未知画像の各局所領域と
テンプレート画像との画像全体に関する類似性を照合評
価として測るため、局所領域内に検出対象物体が写って
いる場合であっても、検出対象物体に向きやオクルージ
ョン等の見かけ上の変化が多少でもある場合には、画像
全体での類似性が評価されないために検出対象物体を検
出できないという問題がある。
SUMMARY OF THE INVENTION In order to detect an object to be detected from an image, an image of the object to be detected or a partial image of a local rectangular area including the object of the image of the object to be detected. In a conventional apparatus that creates a two-dimensional template image of a target object as a recognition model by applying an image processing method such as KL transformation to a set of cases such as In the matching calculation, since the similarity of each local region of the unknown image and the template image with respect to the entire image is measured as the matching evaluation in the matching calculation, even when the detection target object is included in the local region, the detection is performed. If the target object has any apparent change such as orientation or occlusion, it cannot be detected because the similarity of the whole image is not evaluated. There is a problem.

【0006】本発明が解決しようとする課題は、未知画
像内において検出対象物体が写されている場合で、向き
やオクルージョン等の見かけ上の変化が多少ある場合に
対しても、物体の検出が可能な認識モデルを作成し、こ
の認識モデルに基づいて検出対象物体を検出する装置お
よび方法を提案することにある。
The problem to be solved by the present invention is that when an object to be detected is photographed in an unknown image, the object can be detected even when there is a slight change in orientation or occlusion. An object of the present invention is to propose a device and a method for creating a possible recognition model and detecting a detection target object based on the recognition model.

【0007】[0007]

【課題を解決するための手段】上記の課題を解決するた
めの本発明の画像中の物体の検出装置は、検出対象物体
が写された複数の画像から作成する認識モデルに基づい
て、入力された未知画像内に検出対象物体が含まれるか
否かを判定し、含まれる場合にはその物体が写っている
局所領域を検出する画像中の物体の検出装置であって、
前記認識モデルの作成手段は、前記検出対象物体が写さ
れた複数の画像を入力する手段と、前記検出対象物体以
外が写された複数の画像を入力する手段と、前記検出対
象物体および検出対象物体以外の各入力画像から色、エ
ッジ、テクスチャ、あるいはこれらの結合による特徴ベ
クトルを抽出する手段と、前記抽出された検出対象物体
および検出対象物体以外の特徴ベクトルによって、特徴
空間を検出対象物体の画像特徴の特徴付け領域とそれ以
外の領域とに階層的に分類する手段と、前記分類された
特徴空間において検出対象物体の認識モデルを作成する
手段とを備えたことを特徴とする。
According to the present invention, there is provided an apparatus for detecting an object in an image, comprising the steps of: receiving an input object based on a recognition model created from a plurality of images in which an object to be detected is captured; It is determined whether or not the detection target object is included in the unknown image, and if so, a device for detecting an object in an image that detects a local region in which the object is captured,
Means for inputting a plurality of images in which the object to be detected is captured; means for inputting a plurality of images in which objects other than the object to be detected are captured; and Means for extracting a color, an edge, a texture, or a feature vector by a combination thereof from each input image other than the object, and the extracted detection target object and the feature vector other than the detection target object, thereby extracting a feature space of the detection target object. The image processing apparatus further includes means for hierarchically classifying the image feature into a characteristic area and other areas, and means for creating a recognition model of the detection target object in the classified feature space.

【0008】また、前記局所領域の検出手段は、前記入
力された未知画像に対して探索ウインドウを画像全体に
わたってスキャンして照合対象となる局所領域を選択す
る手段と、前記選択された各局所領域から特徴ベクトル
を抽出する手段と、前記抽出された各特徴ベクトルと前
記作成した検出対象物体の認識モデルとの照合計算によ
って未知画像内に検出対象物体が写っているか否かを判
定し、写っている場合にはその局所領域を検出する手段
とを備えたことを特徴とする。
The local area detecting means scans a search window of the input unknown image over the entire image to select a local area to be collated, and the local area detecting means selects each of the selected local areas. Means for extracting a feature vector from, and determining whether or not the detection target object is present in the unknown image by a collation calculation between each of the extracted feature vectors and the created recognition model of the detection target object. And a means for detecting the local area when it exists.

【0009】また、上記の課題を解決するための本発明
の画像中の物体の検出方法は、検出対象物体が写された
複数の画像から作成する認識モデルに基づいて、入力さ
れた未知画像内に検出対象物体が含まれるか否かを判定
し、含まれる場合にはその物体が写っている局所領域を
検出する画像中の物体の検出方法であって、前記認識モ
デルの作成は、前記検出対象物体が写された複数の画像
を入力し、前記検出対象物体以外が写された複数の画像
を入力し、前記検出対象物体および検出対象物体以外の
各入力画像から色、エッジ、テクスチャ、あるいはこれ
らの結合による特徴ベクトルを抽出し、前記抽出された
検出対象物体および検出対象物体以外の特徴ベクトルに
よって、特徴空間を検出対象物体の画像特徴の特徴付け
領域とそれ以外の領域とに階層的に分類し、前記分類さ
れた特徴空間において検出対象物体の認識モデルを作成
することを特徴とする。
According to another aspect of the present invention, there is provided a method for detecting an object in an image, comprising the steps of: detecting an object in an input unknown image based on a recognition model created from a plurality of images of the object to be detected; It is a method of detecting an object in an image to determine whether or not a detection target object is included, and if so, a local region in which the object is detected. A plurality of images in which the target object is captured, a plurality of images in which the objects other than the detection target object are captured are input, and the colors, edges, textures, or each of the input images other than the detection object and the detection object is input. By extracting a feature vector by combining these, the extracted detection target object and a feature vector other than the detection target object are used to convert a feature space into a feature region of the image feature of the detection target object and the other Hierarchically classified into frequency, characterized by creating a recognized model of the detection target object in the classified feature space.

【0010】また、前記局所領域の検出は、前記入力さ
れた未知画像に対して探索ウインドウを画像全体にわた
ってスキャンして照合対象となる局所領域を選択し、前
記選択された各局所領域から特徴ベクトルを抽出し、前
記抽出された各特徴ベクトルと前記作成した検出対象物
体の認識モデルとの照合計算によって未知画像内に検出
対象物体が写っているか否かを判定し、写っている場合
にはその局所領域を検出することを特徴とする。
In the detection of the local region, a search window is scanned over the entirety of the input unknown image to select a local region to be collated, and a feature vector is selected from each of the selected local regions. Is extracted, and it is determined whether or not the detection target object is included in the unknown image by a collation calculation between the extracted feature vectors and the created recognition model of the detection target object. It is characterized by detecting a local region.

【0011】また、上記検出方法における処理手順をコ
ンピュータに実行させるためのプログラムを、該コンピ
ュータが読み取り可能な記録媒体に記録したことを特徴
とする。
A program for causing a computer to execute the processing procedure in the detection method is recorded on a recording medium readable by the computer.

【0012】[0012]

【発明の実施の形態】以下に、本発明の実施形態につい
て、図面を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】図1は、本発明における認識モデル作成の
ための装置構成である。この装置構成の手段101,1
02,111〜113は、マウス、イメージスキャナ、
ディスプレイ、CPU及びメモリ装置等からなるいわゆ
るコンピュータシステムを使用して実現されるが、その
構成は周知であるので図示は省略する。
FIG. 1 shows the configuration of an apparatus for creating a recognition model according to the present invention. Means 101, 1 of this device configuration
02, 111 to 113 are a mouse, an image scanner,
It is realized by using a so-called computer system including a display, a CPU, a memory device, and the like.

【0014】まず、画像入力手段101は、イメージス
キャナ等を利用して、検出対象となる物体が写された複
数の画像を入力し、メモリ等に格納する。ここで、検出
対象物体が入力画像の局所的な矩形領域に含まれている
場合には、マウス等でその矩形領域を指定し、新たに部
分画像を作成した上で、この部分画像をメモリ等に格納
する。
First, the image input means 101 uses an image scanner or the like to input a plurality of images in which an object to be detected is captured, and stores the plurality of images in a memory or the like. Here, if the detection target object is included in a local rectangular area of the input image, the rectangular area is designated with a mouse or the like, a new partial image is created, and this partial image is stored in a memory or the like. To be stored.

【0015】次に、画像入力手段102は、検出対象物
体以外が写された複数の画像を入力し、メモリ等に格納
する。
Next, the image input means 102 inputs a plurality of images of objects other than the object to be detected, and stores the images in a memory or the like.

【0016】次いで、手段111〜113は、CPU上
で以下の処理を実行し、検出対象物体の認識モデルを処
理系において自動的に作成する。
Next, the means 111 to 113 execute the following processing on the CPU to automatically create a recognition model of the detection target object in the processing system.

【0017】まず、特徴ベクトル抽出処理手段111
は、画像入力手段101および102で入力された検出
対象物体およびそれ以外が写された各入力画像から色、
エッジ、テクスチャ、あるいはこれらの結合による特徴
ベクトルを抽出する。
First, feature vector extraction processing means 111
Is a color from each input image in which the object to be detected input by the image input means 101 and 102 and the others are captured,
Extract feature vectors by edges, textures, or their combination.

【0018】次いで、階層的分類処理手段112は、抽
出された検出対象物体および検出対象物体以外の両者の
特徴ベクトルの集合によって特徴空間を階層的に分類
し、分類された特徴空間の局所領域内にはこの両集合の
要素が同時に含まれないようにする。
Next, the hierarchical classification processing means 112 classifies the feature space hierarchically based on the set of the extracted feature vectors of the object to be detected and the object vector other than the object to be detected. Must not include the elements of both sets at the same time.

【0019】最後に、認識モデル作成処理手段113
は、検出対象物体の特徴ベクトルが含まれる特徴空間上
の各局所領域に対してその和集合を生成し、検出対象物
体の画像特徴の特徴付け領域として生成することで検出
対象物体の認識モデルを作成する。
Finally, recognition model creation processing means 113
Generates the union of each local region in the feature space containing the feature vector of the detection target object, and generates the union set as the characterization region of the image feature of the detection target object, thereby generating the recognition model of the detection target object. create.

【0020】次に、本発明による認識モデル作成に関す
る具体的な処理例を図2、図3を参照して説明する。
Next, a specific example of processing relating to the creation of a recognition model according to the present invention will be described with reference to FIGS.

【0021】まず、画像入力手段101により検出対象
物体が写された複数の画像を入力する。ただし、検出対
象物体が入力画像中のある局所矩形領域に含まれる場合
には、検出対象物体が含まれ、かつ背景ができるだけ含
まれないように外接矩形領域を指定し、新たに部分画像
を作成した上で、この部分画像を入力する。
First, a plurality of images of the object to be detected are input by the image input means 101. However, when the detection target object is included in a certain local rectangular area in the input image, a circumscribed rectangular area is specified so that the detection target object is included and the background is not included as much as possible, and a new partial image is created. Then, this partial image is input.

【0022】次に、画像入力手段102により検出対象
物体以外が写された複数の画像を入力する。
Next, a plurality of images, other than the object to be detected, are input by the image input means 102.

【0023】次に、特徴ベクトル抽出処理手段111に
おいて、入力された検出対象物体および検出対象物体以
外の各画像から、色、エッジ、テクスチャ、あるいはこ
れらの結合による特徴ベクトルを抽出する。
Next, the feature vector extraction processing means 111 extracts a color, an edge, a texture, or a feature vector based on a combination thereof from the input object to be detected and each image other than the object to be detected.

【0024】なお、特徴ベクトル抽出に関しては、例え
ば、「Y−I Ohta,T.Kanda and T.
Sasaki,”Color infomation
for region segmentation”,
Comp.and Img.Proc.,13:222−241
(1980)」(参考文献2)や「水野陽一、小林亜樹、吉
田俊之、酒井善則、エッジ方向特徴量による画像検索、
信学技報、IE98−62(1998)」(参考文献3)におい
て詳述されている。
As for the feature vector extraction, for example, “Y-I Ohta, T. Kanda and T.
Sasaki, “Color information
for region segmentation ”,
Comp. and Img. Proc. , 13: 222-241
(1980) "(Ref. 2) and" Yoichi Mizuno, Aki Kobayashi, Toshiyuki Yoshida, Yoshinori Sakai, Image Search by Edge Direction Feature,
IEICE Technical Report, IE 98-62 (1998) ”(reference 3).

【0025】例えば、色特徴ベクトルとしては、HSI
表色系の色相を16分割した色ヒストグラム(次元数1
6)を採用することができる。また、エッジ特徴ベクト
ルとしては、方向数が4のエッジ方向ヒストグラム(次
元数4)を採用することができる。これは、まず、画像
の各画素に対して、水平、垂直、45°、135°の4
方向に関するガウス方向微分の絶対値をそれぞれ求め、
これら4つの絶対値の最大値がある閾値を満たす場合に
その画素をエッジ点と判定し、さらに最大値を与える方
向をその画素のエッジ方向と定める。次に、水平、垂
直、45°、135°の各方向について、画像内の対応
するエッジ点の個数をカウントすることによりヒストグ
ラムを作成する。なお、色及びエッジのヒストグラムの
各成分は、画像の全画素数で割って正規化する。
For example, as a color feature vector, HSI
A color histogram obtained by dividing the color system hue into 16 (the number of dimensions is 1)
6) can be adopted. As the edge feature vector, an edge direction histogram having four directions (4 dimensions) can be adopted. This means that, for each pixel of the image, there are four horizontal, vertical, 45 °, 135 °
Find the absolute value of the Gaussian derivative in the direction,
When the maximum value of these four absolute values satisfies a certain threshold, the pixel is determined as an edge point, and the direction in which the maximum value is given is determined as the edge direction of the pixel. Next, a histogram is created by counting the number of corresponding edge points in the image in each of the horizontal, vertical, 45 °, and 135 ° directions. Each component of the color and edge histograms is normalized by dividing by the total number of pixels of the image.

【0026】次に、階層的分類処理手段112は、図2
に示すブロック構成にされ、検出対象物体の各画像から
抽出された特徴ベクトルの集合Sposと、検出対象物
体以外の各画像から抽出された特徴ベクトルの集合Sn
egとによって、以下の方法により特徴空間Vを階層的
に分類し、分類によってできる特徴空間Vの各局所領域
中にSposの要素とSnegの要素とが同時に含まれ
ないようにする。以下では、特徴空間V内の検出対象物
体の画像特徴が特徴付けられる領域を正領域、それ以外
を負領域と呼ぶことにする。
Next, the hierarchical classification processing means 112
And a set Sn of feature vectors extracted from each image other than the detection target object, which is a set Spos of feature vectors extracted from each image of the detection target object.
The feature space V is hierarchically classified according to the following method using eg, and the Spos element and the Sneg element are not simultaneously included in each local region of the characteristic space V formed by the classification. Hereinafter, a region in the feature space V where the image feature of the detection target object is characterized is referred to as a positive region, and the other region is referred to as a negative region.

【0027】まず、分割処理手段201では、特徴空間
Vの各軸を2等分して特徴空間Vを2dimV(dimVは
特徴空間Vの次元数、上記の色とエッジではdimV=
20)個の方形領域に分割する。
First, the division processing means 201 divides each axis of the feature space V into two equal parts, and sets the feature space V to 2 dimV (dimV is the number of dimensions of the feature space V, dimV =
20) Divide into square areas.

【0028】次に、正負判定処理手段202では、図3
に示すように、分割処理手段201によってできる特徴
空間Vの各方形領域に対して、以下の要領で正領域か負
領域かの判定を行なう。この判定は、 (a)方形領域が集合Sposの要素のみを含むなら
ば、その領域は正領域と定める。
Next, the positive / negative judgment processing means 202
As shown in (1), for each rectangular area in the feature space V formed by the division processing means 201, it is determined whether it is a positive area or a negative area in the following manner. This determination is as follows: (a) If the rectangular area includes only the elements of the set Spos, the area is determined as a positive area.

【0029】(b)方形領域が集合Snegの要素のみ
を含むならば、その領域は負領域と定める。集合Spo
s、Snegのいずれの要素も含まない場合も負領域と
定める。
(B) If the rectangular area includes only the elements of the set Sneg, the area is defined as a negative area. Set Spo
A negative area is also defined when neither element of s nor Sneg is included.

【0030】最後に、終了判定処理手段203では、特
徴空間Vの方形領域がすべて正負いずれかに分類されて
いるならば処理を終了する。正負に分類されていない方
形領域W1、…、Wn(集合SposとSnegの要素
を同時に含む)がある場合には、方形領域W1、…、W
nに対し、分割処理手段201と正負判定処理手段20
2に戻ってその処理を行ない、正負いずれかに分類され
るまで、方形領域W1、…、Wnを細分化していく。
Finally, the end determination processing means 203 ends the processing if all the rectangular areas of the feature space V are classified as positive or negative. Square W 1 not classified positive and negative, ..., if there is Wn (including elements of the set Spos and Sneg simultaneously) are rectangular regions W 1, ..., W
n, the division processing means 201 and the positive / negative judgment processing means 20
2, the processing is performed, and the rectangular areas W 1 ,..., Wn are subdivided until the area is classified as either positive or negative.

【0031】最後に、認識モデル作成処理手段113に
おいて、集合Sposの要素が含まれる各局所領域に対
してその和集合領域を生成し、検出対象物体の画像特徴
の特徴付け領域として生成することで、検出対象物体の
認識モデルを作成する。
Finally, in the recognition model creation processing means 113, a union area is generated for each local area including the elements of the set Spos, and is generated as a characterization area of the image feature of the detection target object. Then, a recognition model of the detection target object is created.

【0032】図4は、上述のようにして作成した認識モ
デルに基づく本発明の物体の検出装置の構成図である。
この装置構成においても実際にはコンピュータシステム
上で実現される。
FIG. 4 is a block diagram of the object detecting apparatus of the present invention based on the recognition model created as described above.
This apparatus configuration is actually realized on a computer system.

【0033】まず、未知画像入力手段301は、カメラ
や画像記録媒体等から未知画像を入力する。探索ウイン
ドウスキャン処理手段311は、入力手段301から入
力された未知画像に対し、様々なスケールの探索ウイン
ドウを画像全体にわたってスキャンして照合を行なうた
めの局所矩形領域を多数選択する。
First, the unknown image input means 301 inputs an unknown image from a camera, an image recording medium or the like. The search window scan processing unit 311 scans a search window of various scales over the entire image with respect to the unknown image input from the input unit 301 and selects a large number of local rectangular regions for matching.

【0034】次に、特徴ベクトル抽出処理手段312
は、探索ウインドウスキャン処理手段311で選択され
た各局所矩形領域から特徴ベクトルを抽出する。
Next, feature vector extraction processing means 312
Extracts a feature vector from each local rectangular area selected by the search window scan processing means 311.

【0035】最後に、認識モデル照合処理手段313
は、抽出された各特徴ベクトルと上述の認識モデル作成
装置を用いて作成し保存しておいた認識モデルとの照合
計算によって、未知画像内に検出対象物体が写っている
か否かを判定し、写っている場合にはその領域を検出す
る。
Finally, the recognition model matching processing means 313
By the collation calculation of each extracted feature vector and the recognition model created and stored using the above-described recognition model creation device, it is determined whether or not the detection target object is included in the unknown image, If it is, the area is detected.

【0036】次に、本発明の認識モデルに基づいた未知
画像からの物体の検出装置の具体的な処理例を図5を参
照して説明する。
Next, a specific processing example of the apparatus for detecting an object from an unknown image based on the recognition model of the present invention will be described with reference to FIG.

【0037】未知画像Xを入力し、探索ウインドウスキ
ャン処理手段311において、図5のように様々なスケ
ールの矩形状探索ウインドウを画像全体にわたってスキ
ャンして照合を行なうための局所矩形領域を多数選択す
る。
The unknown image X is input, and the search window scan processing means 311 scans a rectangular search window of various scales over the entire image as shown in FIG. .

【0038】次に、特徴ベクトル抽出処理手段312に
おいて、選択された各局所矩形領域から特徴ベクトルを
抽出する。ただし、未知画像内の各局所矩形領域から抽
出する特徴ベクトルは、検出対象物体の認識モデル作成
に用いた特徴ベクトルと同じものである。
Next, the feature vector extraction processing means 312 extracts a feature vector from each selected local rectangular area. However, the feature vector extracted from each local rectangular area in the unknown image is the same as the feature vector used for creating the recognition model of the detection target object.

【0039】最後に、認識モデル照合処理手段313に
おいて、検出対象物体の認識モデルとの照合計算によっ
て、未知画像Xに検出対象物体が含まれるか否かを判定
し、含まれる場合にはその局所領域を検出する。すなわ
ち、未知画像X内の選択された局所矩形領域から抽出し
た特徴ベクトルが一つでも、特徴空間のR領域、すなわ
ち検出対象物体の画像特徴の特徴付け領域に含まれる場
合には、この未知画像Xには検出対象物体が含まれると
判定し、かつR領域に含まれる特徴ベクトルの抽出元の
局所矩形領域内にこの物体は含まれるとしてその領域を
検出する。
Finally, the recognition model matching processing means 313 determines whether or not the unknown image X includes the detection target object by a comparison calculation with the recognition model of the detection target object. Detect the area. That is, if at least one feature vector extracted from the selected local rectangular area in the unknown image X is included in the R area of the feature space, that is, the characterization area of the image feature of the detection target object, this unknown image It is determined that X includes the detection target object, and the object is detected as being included in the local rectangular area from which the feature vector included in the R area is extracted.

【0040】なお、本発明は、図1、図2及び図4に示
した装置の一部又は全部をコンピュータを用いて機能さ
せることができる。また、各図の手段をコンピュータプ
ログラムで記載してそれを実行できるようにし、それを
コンピュータが読み取り可能な記録媒体、例えば、FD
(フロッピーディスク)や、MO、ROM、メモリカー
ド、CD、DVD、リムーバブルディスクなどに記録し
て提供し、配布することが可能である。
In the present invention, some or all of the apparatuses shown in FIGS. 1, 2 and 4 can be made to function using a computer. In addition, the means of each drawing is described in a computer program so that it can be executed, and the computer program can be executed by a computer-readable recording medium such as an FD.
(A floppy disk), an MO, a ROM, a memory card, a CD, a DVD, a removable disk, and the like.

【0041】[0041]

【発明の効果】以上説明したように、本発明によれば、
検出対象となる物体および検出対象物体以外が写された
複数の画像を与えることによって、処理系で、検出対象
物体の色、エッジ、テクスチャ、あるいはこれらの結合
に関する画像特徴を学習して検出対象物体の認識モデル
を自動的に作成する。色、エッジ、テクスチャ等の画像
特徴は、物体のローカルな画像特徴であるため、実際の
処理において抽出が安定かつロバストに実現される。こ
のため、未知画像からの物体の検出処理においても、未
知画像内に検出対象物体が写されている場合で、かつ向
きやオクルージョン等の見かけ上の変化が多少程度ある
場合であっても、検出対象物体を含みかつ背景をほとん
ど含まない局所矩形領域が照合対象として選択された場
合には、その領域からの所望の画像特徴の抽出が可能と
なるため、上述の方法により学習した認識モデルに基づ
いてこの領域内の物体の認識・同定が可能となる。故
に、未知画像からの検出対象物体の領域の検出も可能と
なる。
As described above, according to the present invention,
By providing a plurality of images of the object to be detected and objects other than the object to be detected, the processing system learns the image features related to the color, edge, texture, or a combination thereof of the object to be detected and detects the object to be detected. Automatically create a recognition model for Since image features such as colors, edges, and textures are local image features of the object, stable and robust extraction is achieved in actual processing. For this reason, even in the process of detecting an object from an unknown image, even when the object to be detected is captured in the unknown image and there is a slight change in the orientation, occlusion, etc. When a local rectangular area including the target object and substantially no background is selected as a target to be compared, a desired image feature can be extracted from the area. Recognition and identification of the object in the leverage region can be performed. Therefore, it is possible to detect the area of the detection target object from the unknown image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の認識モデル作成に係る処理構成図。FIG. 1 is a processing configuration diagram according to a recognition model creation of the present invention.

【図2】特徴空間を検出対象物体の画像特徴の特徴付け
領域と、それ以外の領域とに分類する処理構成図。
FIG. 2 is a processing configuration diagram for classifying a feature space into a feature area of an image feature of a detection target object and other areas.

【図3】特徴空間を検出対象物体の画像特徴の特徴付け
領域と、それ以外の領域とに分類する例。
FIG. 3 is an example in which a feature space is classified into a feature area of an image feature of a detection target object and other areas.

【図4】本発明の画像中の対象物体の検出に係る処理構
成図。
FIG. 4 is a processing configuration diagram relating to detection of a target object in an image according to the present invention.

【図5】未知画像に対象物体が含まれるか否かを判定し
て、含まれる場合にはその局所矩形領域を検出する具体
的な処理例。
FIG. 5 is a specific example of processing for determining whether or not a target object is included in an unknown image and detecting a local rectangular area when the target object is included.

【符号の説明】[Explanation of symbols]

101…検出対象物体が写された画像入力手段 102…検出対象物体以外が写された画像入力手段 111…特徴ベクトル抽出処理手段 112…階層的分類処理手段 113…認識モデル作成処理手段 201…分割処理手段 202…正負判定処理手段 203…終了判定処理手段 301…未知画像入力手段 311…探索ウインドウスキャン処理手段 312…特徴ベクトル抽出処理手段 313…認識モデル照合処理手段 101: Image input means showing an object to be detected 102: Image input means showing an object other than the object to be detected 111 ... Feature vector extraction processing means 112 ... Hierarchical classification processing means 113 ... Recognition model creation processing means 201 ... Division processing Means 202 ... Positive / negative judgment processing means 203 ... End judgment processing means 301 ... Unknown image input means 311 ... Search window scan processing means 312 ... Feature vector extraction processing means 313 ... Recognition model collation processing means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 杉村 利明 東京都新宿区西新宿3丁目19番2号 日本 電信電話株式会社内 Fターム(参考) 5L096 BA11 DA02 FA19 FA35 FA41 GA17 GA19 GA51 JA09 JA11 KA13 MA07 9A001 HH21 HH23 KK31  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Toshiaki Sugimura 3-19-2 Nishishinjuku, Shinjuku-ku, Tokyo F-term (reference) within Nippon Telegraph and Telephone Corporation 5L096 BA11 DA02 FA19 FA35 FA41 GA17 GA19 GA51 JA09 JA11 KA13 MA07 9A001 HH21 HH23 KK31

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 検出対象物体が写された複数の画像から
作成する認識モデルに基づいて、入力された未知画像内
に検出対象物体が含まれるか否かを判定し、含まれる場
合にはその物体が写っている局所領域を検出する画像中
の物体の検出装置であって、 前記認識モデルの作成手段は、 前記検出対象物体が写された複数の画像を入力する手段
と、 前記検出対象物体以外が写された複数の画像を入力する
手段と、 前記検出対象物体および検出対象物体以外の各入力画像
から色、エッジ、テクスチャ、あるいはこれらの結合に
よる特徴ベクトルを抽出する手段と、 前記抽出された検出対象物体および検出対象物体以外の
特徴ベクトルによって、特徴空間を検出対象物体の画像
特徴の特徴付け領域とそれ以外の領域とに階層的に分類
する手段と、 前記分類された特徴空間において検出対象物体の認識モ
デルを作成する手段と、を備えたことを特徴とする画像
中の物体の検出装置。
1. A method for determining whether or not a detection target object is included in an input unknown image based on a recognition model created from a plurality of images in which the detection target object is captured. An apparatus for detecting an object in an image that detects a local region in which the object is captured, wherein the recognition model creating unit includes: a unit that inputs a plurality of images in which the detection target object is captured; and the detection target object. Means for inputting a plurality of images in which the other objects have been captured, means for extracting a color, an edge, a texture, or a feature vector by combining these from the input image other than the detection target object and the detection target object; and Means for hierarchically classifying the feature space into a characteristic region of the image feature of the detection target object and a region other than the region based on the detection target object and the feature vector other than the detection target object. Means for creating a recognition model of a detection target object in the classified feature space. An apparatus for detecting an object in an image, comprising:
【請求項2】 検出対象物体が写された複数の画像から
作成する認識モデルに基づいて、入力された未知画像内
に検出対象物体が含まれるか否かを判定し、含まれる場
合にはその物体が写っている局所領域を検出する画像中
の物体の検出装置であって、 前記局所領域の検出手段は、 前記入力された未知画像に対して探索ウインドウを画像
全体にわたってスキャンして照合対象となる局所領域を
選択する手段と、 前記選択された各局所領域から特徴ベクトルを抽出する
手段と、 前記抽出された各特徴ベクトルと前記作成した検出対象
物体の認識モデルとの照合計算によって未知画像内に検
出対象物体が写っているか否かを判定し、写っている場
合にはその局所領域を検出する手段と、を備えたことを
特徴とする画像中の物体の検出装置。
2. A method for determining whether or not a detection target object is included in an input unknown image based on a recognition model created from a plurality of images in which the detection target object is captured. An apparatus for detecting an object in an image for detecting a local region in which the object is captured, wherein the local region detecting unit scans a search window for the input unknown image over the entire image and performs matching with the matching target. Means for selecting a local region, and means for extracting a feature vector from each of the selected local regions. An unknown image is obtained by a collation calculation between each of the extracted feature vectors and the created recognition model of the detection target object. A means for determining whether an object to be detected is present in the image and detecting a local area when the object is present in the image.
【請求項3】 検出対象物体が写された複数の画像から
作成する認識モデルに基づいて、入力された未知画像内
に検出対象物体が含まれるか否かを判定し、含まれる場
合にはその物体が写っている局所領域を検出する画像中
の物体の検出方法であって、 前記認識モデルの作成は、 前記検出対象物体が写された複数の画像を入力し、 前記検出対象物体以外が写された複数の画像を入力し、 前記検出対象物体および検出対象物体以外の各入力画像
から色、エッジ、テクスチャ、あるいはこれらの結合に
よる特徴ベクトルを抽出し、 前記抽出された検出対象物体および検出対象物体以外の
特徴ベクトルによって、特徴空間を検出対象物体の画像
特徴の特徴付け領域とそれ以外の領域とに階層的に分類
し、 前記分類された特徴空間において検出対象物体の認識モ
デルを作成する、ことを特徴とする画像中の物体の検出
方法。
3. It is determined whether or not a detection target object is included in an input unknown image based on a recognition model created from a plurality of images in which the detection target object is captured. A method for detecting an object in an image that detects a local region in which the object is captured, wherein the generation of the recognition model includes inputting a plurality of images in which the detection target object is captured, and capturing images other than the detection target object. A plurality of extracted images, and extracting a color, an edge, a texture, or a feature vector by a combination thereof from each of the input images other than the detection target object and the detection target object, and extracting the extracted detection target object and the detection target. The feature space is hierarchically classified into a feature area of the image feature of the detection target object and other areas by the feature vector other than the object, and the detection object is detected in the classified feature space. A method for detecting an object in an image, wherein a recognition model of the object is created.
【請求項4】 検出対象物体が写された複数の画像から
作成する認識モデルに基づいて、入力された未知画像内
に検出対象物体が含まれるか否かを判定し、含まれる場
合にはその物体が写っている局所領域を検出する画像中
の物体の検出方法であって、 前記局所領域の検出は、 前記入力された未知画像に対して探索ウインドウを画像
全体にわたってスキャンして照合対象となる局所領域を
選択し、 前記選択された各局所領域から特徴ベクトルを抽出し、 前記抽出された各特徴ベクトルと前記作成した検出対象
物体の認識モデルとの照合計算によって未知画像内に検
出対象物体が写っているか否かを判定し、写っている場
合にはその局所領域を検出する、ことを特徴とする画像
中の物体の検出方法。
4. It is determined whether or not a detection target object is included in an input unknown image based on a recognition model created from a plurality of images in which the detection target object is captured. A method for detecting an object in an image that detects a local region in which the object is captured, wherein the local region is detected by scanning a search window of the input unknown image over the entire image. A local region is selected, a feature vector is extracted from each of the selected local regions, and a detection target object is detected in an unknown image by a collation calculation between the extracted feature vectors and the created recognition model of the detection target object. A method for detecting an object in an image, comprising determining whether or not the image is captured and detecting a local region when the image is captured.
【請求項5】 請求項3または4に記載の画像中の物体
の検出方法における処理手順をコンピュータに実行させ
るためのプログラムを、該コンピュータが読み取り可能
な記録媒体に記録したことを特徴とする画像中の物体の
検出方法を記録した記録媒体。
5. An image, wherein a program for causing a computer to execute a processing procedure in the method for detecting an object in an image according to claim 3 or 4 is recorded on a recording medium readable by the computer. A recording medium that records a method of detecting an object in the medium.
JP04766199A 1999-02-25 1999-02-25 Apparatus and method for detecting an object in an image and a recording medium recording the method Expired - Lifetime JP3569641B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04766199A JP3569641B2 (en) 1999-02-25 1999-02-25 Apparatus and method for detecting an object in an image and a recording medium recording the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04766199A JP3569641B2 (en) 1999-02-25 1999-02-25 Apparatus and method for detecting an object in an image and a recording medium recording the method

Publications (2)

Publication Number Publication Date
JP2000242782A true JP2000242782A (en) 2000-09-08
JP3569641B2 JP3569641B2 (en) 2004-09-22

Family

ID=12781459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04766199A Expired - Lifetime JP3569641B2 (en) 1999-02-25 1999-02-25 Apparatus and method for detecting an object in an image and a recording medium recording the method

Country Status (1)

Country Link
JP (1) JP3569641B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005108196A (en) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd Object identification device and method, and program
WO2008151270A1 (en) * 2007-06-05 2008-12-11 Microsoft Corporation Learning object cutout from a single example
JP2011040073A (en) * 2003-02-28 2011-02-24 Aperio Technologies Inc System and method for image pattern recognition
US7920725B2 (en) 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
CN115424189A (en) * 2022-08-17 2022-12-02 扬州市职业大学(扬州开放大学) Image recognition system and method capable of recognizing object state and preventing missing detection

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011040073A (en) * 2003-02-28 2011-02-24 Aperio Technologies Inc System and method for image pattern recognition
JP2005108196A (en) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd Object identification device and method, and program
US7920725B2 (en) 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
US8184870B2 (en) 2003-09-09 2012-05-22 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
WO2008151270A1 (en) * 2007-06-05 2008-12-11 Microsoft Corporation Learning object cutout from a single example
CN115424189A (en) * 2022-08-17 2022-12-02 扬州市职业大学(扬州开放大学) Image recognition system and method capable of recognizing object state and preventing missing detection
CN115424189B (en) * 2022-08-17 2024-01-23 扬州市职业大学(扬州开放大学) An image recognition system and method that can identify object status and prevent missed detection

Also Published As

Publication number Publication date
JP3569641B2 (en) 2004-09-22

Similar Documents

Publication Publication Date Title
US9202126B2 (en) Object detection apparatus and control method thereof, and storage medium
Zarit et al. Comparison of five color models in skin pixel classification
Sandeep et al. Human Face Detection in Cluttered Color Images Using Skin Color, Edge Information.
US6661907B2 (en) Face detection in digital images
KR101615254B1 (en) Detecting facial expressions in digital images
KR100480781B1 (en) Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image
US6542625B1 (en) Method of detecting a specific object in an image signal
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
EP1452995A2 (en) Method for detecting color objects in digital images
US20010026633A1 (en) Method for detecting a face in a digital image
JP2000105829A (en) Face part detection method and apparatus
JP2010026603A (en) Image processor, image processing method and computer program
JP4729188B2 (en) Gaze detection device
JP3962517B2 (en) Face detection method and apparatus, and computer-readable medium
JP2000242782A (en) Apparatus and method for detecting object in image and recording medium recording this method
Mousavi et al. Three dimensional face recognition using svm classifier
Choi et al. Retrieval of identical clothing images based on local color histograms
JP4812743B2 (en) Face recognition device, face recognition method, face recognition program, and recording medium recording the program
Fang et al. A novel adaptive colour segmentation algorithm and its application to skin detection
JP2005209137A (en) Method and apparatus for object identification, and face direction identification apparatus
JP4789526B2 (en) Image processing apparatus and image processing method
CN115049763B (en) A face cartoonization processing method based on computer vision
JP2005071125A (en) Subject detection apparatus, subject detection method, subject data selection program, and subject position detection program
Mehta et al. Text Detection from Scene Videos having Blurriness and Text of Different Sizes
Mohankumar et al. MODFAT: Moving object detection by removing shadow based on fuzzy technique with an adaptive thresholding method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040621

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 6