[go: up one dir, main page]

JP2006318341A - 検知対象画像判定装置、検知対象画像判定方法および検知対象画像判定プログラム - Google Patents

検知対象画像判定装置、検知対象画像判定方法および検知対象画像判定プログラム Download PDF

Info

Publication number
JP2006318341A
JP2006318341A JP2005142226A JP2005142226A JP2006318341A JP 2006318341 A JP2006318341 A JP 2006318341A JP 2005142226 A JP2005142226 A JP 2005142226A JP 2005142226 A JP2005142226 A JP 2005142226A JP 2006318341 A JP2006318341 A JP 2006318341A
Authority
JP
Japan
Prior art keywords
image
detection target
target image
determination
weak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005142226A
Other languages
English (en)
Inventor
Hideto Takeuchi
英人 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005142226A priority Critical patent/JP2006318341A/ja
Publication of JP2006318341A publication Critical patent/JP2006318341A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】人物画像部分などの検知対象画像を効率良く検出判定することができる方法を提供する。
【解決手段】与えられた濃淡画像が検知対象画像であるか否かを判定する検知対象画像判定装置である。濃淡画像を構成する画素のうちの、予め学習により定められた隣接または近接する2つの位置の画素の組の複数個のそれぞれの組に対して設けられ、画素の組の2画素間の輝度値の差分を特徴量として求め、求めた特徴量に基づいて前記画素の組が検知対象画像の輪郭部分であるか否かを示す推定値を算出する弱判別手段の複数個を設ける。判定手段は、複数個の弱判別手段により算出された推定値に基づいて、与えられた濃淡画像が検知対象画像であるか否かを判定する。
【選択図】図1

Description

この発明は、例えば人物画像などの検知対象画像を、与えられた濃淡画像から検出する検知対象画像判定装置、方法およびプログラムに関する。
従来、画像中から、コンピュータにより、人物画像部分を自動的に見つける方法として、動きのある部分を人物画像部分とみなして検知する方法、人物画像を代表する部分である顔や頭部の肌色や顔部品により検知して、人物画像部分を検知したとする方法などがある。
前者の例として、予め作成した背景画像と入力される画像との差分をとることにより、変化した部分を人物画像部分として検知する手法がある(例えば、特許文献1(特開平11−311682号公報)参照)。
また、後者の例としては、顔を楕円としてモデル化し、肌色領域の楕円検知による顔検知を行なう手法がある(例えば、特許文献2(特開平11−185026号公報)参照)。
この他に、例えば特許文献3(特開2001−222719号公報)には、頭部を円としてモデル化し、テンプレートを作成し、投票により円形状の検知を行なうことで、頭部検知を行なう手法が開示されている。
また、特許文献4(特開2004−178229号公報)には、特許文献3と同様に、頭部と外側に凸な境界曲線で囲まれる形状モデルで近似し、投票によりその形状を検知し、頭部検知を行なう方法が開示されている。
上記の特許文献は、次の通りである。
特開平11−311682号公報 特開平11−185026号公報 特開2001−222719号公報 特開2004−178229号公報
しかしながら、特許文献1の発明のように、変化部分をもとめる手法では、画像上の明度が大きく変化した領域を人物画像部分とするために、照明環境変化のあった場合、椅子などの物が移動する場合でも人物として、検知してしまう問題がある。
また、特許文献2の発明の場合には、人物画像部分の肌色をさまざまな照明環境化で安定して検知することは難しい。また、楕円当て嵌めは、人物が正面を向いている顔については有効な手段であるが、人物が斜めを向いているときの検知に用いることは難しい。また、人物が後ろ向きの場合は頭部を検知できないという問題もある。
また、特許文献3の発明では、検知を行なう際に用いる投票に使用するテンプレートの形状が同心円であるために、検知に寄与しない投票が多く、処理時間が無駄になるとともに、偽の投票ピークが作られて、誤検知が発生するという問題がある。
さらに、特許文献4の発明では、頭部を外側に凸な形状と仮定してテンプレートを作成しているので、撮影方向などによっては、その仮定が成り立たず、人物画像部分の検知ができなくなるという問題がある。
この発明は、以上の問題点を軽減して、人物画像部分などの検知対象画像を効率良く検出判定することができる装置および方法を提供することを目的とする。
上記の課題を解決するために、請求項1の発明は、
与えられた濃淡画像が検知対象画像であるか否かを判定する検知対象画像判定装置であって、
前記濃淡画像を構成する画素のうちの、予め学習により定められた隣接または近接する2つの位置の画素の組の複数個のそれぞれの組に対して設けられ、前記画素の組の2画素間の輝度値の差分を特徴量として求め、前記特徴量に基づいて前記画素の組が前記検知対象画像の輪郭部分であるか否かを示す推定値を算出する弱判別手段の複数個と、
前記複数個の弱判別手段により算出された前記推定値に基づいて、前記与えられた濃淡画像が前記検知対象画像であるか否かを判定する判定手段と
を備えることを特徴とする検知対象画像判定装置を提供する。
この請求項1の発明においては、検知対象画像を判定するための特徴量として、隣接または近接する2つの画素間の輝度値の差分を用いる。この特徴量は、広義の物体輪郭情報に相当する。したがって、請求項1の発明によれば、人の頭部や肩のような大まかな輝度変化を持つ輪郭部分またはエッジ部分が優先的に検知でき、与えられた濃淡画像が、人物画像(人型画像)などの検知対象画像であるか否かを効率的に検知判定することができる。
また、請求項3の発明は、
濃淡画像中から検知対象画像を検出判定する検知対象画像判定装置であって、
前記濃淡画像を縮小し、複数の異なる大きさの画像を生成する画像縮小手段と、
前記画像縮小手段からの前記複数の異なる大きさの縮小画像のそれぞれを、固定サイズのウインドウ単位で走査する走査手段と、
前記走査手段から得られる前記ウインドウ単位の濃淡画像を構成する画素のうちの、予め学習により定められた隣接または近接する2つの位置の画素の組の複数個のそれぞれの組に対して設けられ、前記画素の組の2画素間の輝度値の差分を特徴量として求め、前記特徴量に基づいて前記画素の組が前記検知対象画像の輪郭部分であるか否かを示す推定値を算出する弱判別手段の複数個と、
前記複数個の弱判別手段により算出された前記推定値に基づいて、前記ウインドウ単位の濃淡画像が前記検知対象画像であるか否かを判定する判定手段と
を備えることを特徴とする検知対象画像判定装置を提供する。
この請求項3の発明においては、濃淡画像中に検知対象画像が含まれている場合に、予め定められた固定サイズのウインドウ単位で、前記請求項1と同様の検知対象画像の検知判定処理を行なう。この場合に、濃淡画像中の検知対象画像は、種々の大きさで含まれている可能性が大きいが、請求項3の発明では、濃淡画像を縮小して、種々のサイズの縮小画像を生成し、その縮小画像のそれぞれについて、前記固定サイズのウインドウ単位での走査を行なって、当該ウインドウ単位の画像が、検知対象画像であるか否かを判定する。
したがって、請求項3の発明によれば、効率良く、濃淡画像中に種々の大きさで含まれる検知対象画像を検知判定することができる。
この発明によれば、人の頭部や肩のような大まかな輝度変化を持つ輪郭部分またはエッジ部分が優先的に検知でき、与えられた濃淡画像が、人物画像(人型画像)などの検知対象画像であるか否かを効率的に検知判定することができる。また、濃淡画像中に種々の大きさで含まれる検知対象画像を、効率良く検知判定することができる。
以下、この発明による検知対象画像判定装置および方法の実施形態を、図を参照しながら説明する。以下に説明する実施形態は、アンサンブル学習(Ensemble learning:集団学習)を利用して、入力画像から検知対象画像を検出判定する場合である。以下の説明は、静止画を処理する場合について説明するが、動画の場合にも同様の処理が可能である。なお、動画の処理の場合には、以下に説明する検知対象画像判定装置を複数個設けて、それら複数個の検知対象画像判定装置を並列に動作させて処理を行なうこともできる。
図1は、実施形態の検知対象画像判定装置を含む対象物検出システムの構成例を示すブロック図であり、入力画像提供装置1と、実施形態の検知対象画像判定装置2と、検知対象画像の結果出力装置部3とからなる。
入力画像供給装置部1は、検知対象画像判定装置部2に対して、その入力画像として、濃淡画像を出力する。この入力画像提供装置部1は、例えば、記録紙に記録されている画像をスキャンして読み取り、濃淡画像の画像データとして出力したり、入力端子を通じて入力された画像データを取り込んで、濃淡画像の画像データとして出力したりする機能を備える。入力画像の画像データが濃淡画像の画像データではないときには、当該入力画像の画像データを濃淡画像の画像データに変換する機能も備える。
検知対象画像判定装置部2は、スケーリング部21と、走査部22と、判定部23と、処理制御部20とを備えて構成されており、与えられた画像(入力画像)中から、検知対象画像の領域を示す検知対象画像位置および検知対象画像の大きさの情報を出力する。
結果出力装置部3は、検知対象画像判定装置部2からの検知対象画像位置および検知対象画像の大きさの情報を受けて、検知対象画像位置および検知対象画像の大きさをユーザに報知する。
この例では、検知対象画像判定装置部2のスケーリング部21、走査部22、判定部23および処理制御部20は、機能ブロックとされており、検知対象画像判定装置2は、コンピュータにより構成されている。すなわち、この例の場合には、スケーリング部21、走査部22、判定部23および処理制御部20は、コンピュータが備えるメモリに格納されたプログラムが実行されることにより実現されるソフトウエア機能手段の構成とされている。
もっとも、スケーリング部21、走査部22、判別部23および処理制御部20のそれぞれを、DSP(Digital Signal Processor)などによりハードウエア構成とすることもできる。その場合には、処理制御部20は、検知対象画像判定装置2の全体を制御するマイクロコンピュータなどの構成とすることができる。
スケーリング部21は、処理制御部20の指示に基づき、入力画像を、予め設定されている複数の大きさ(サイズ)の全てに縮小または拡大し、その処理結果のスケーリング画像を走査部22に出力する。
入力画像供給装置部1からの入力画像のサイズは、固定サイズとすることもできるが、この例においては、一定とは限らない。もしも、入力画像のサイズが予め設定されているサイズの中の最大サイズあるいはそれ以上であるときには、スケーリング部21では縮小処理のみを行なって、予め設定されている全てのサイズのスケーリング画像を得ることができる。しかし、入力画像のサイズが予め設定されているサイズの中の最大サイズよりも小さいときには、画像のサイズの拡大処理が必要となる。ここで、画像の縮小処理としては、バイリニア補完を用いた画像の縮小処理などが行なわれる。
走査部22は、各サイズのスケーリング画像について、検出したい対象物の大きさのウインドウ単位で順次走査をしながら、各走査位置でのウインドウ画像を切り出し、切り出したウインドウ画像を判定部23に供給する。
判定部23は、各ウインドウ画像が、検知対象画像であるか否かを判別し、その判別結果を処理制御部20に出力する。処理制御部20は、検知対象画像であると判定した時のスケーリング画像のサイズおよびそのスケーリング画像におけるウインドウ画像位置(ウインドウ位置)の情報を結果出力装置部3に出力する。
ここで、検知対象画像判定装置部2の処理制御部20は、入力画像から複数の検知対象画像が検出された場合は、複数の領域情報を結果出力装置部3に出力する。更に、複数の領域情報のうち領域が重なりあっている領域が存在する場合は、後述する方法で最も検知対象画像とされる評価が高い領域を選択する処理も行なうことができる。
前述したように、スケーリング部21では、予め設定されている複数サイズのスケーリング画像を生成し、生成したスケーリング画像を走査部22に出力する。この実施形態においては、スケーリング部21では、最初に、全ての複数のスケーリング画像を生成してしまって、それを走査部22に出力するのではなく、所定のサイズのスケーリング画像を生成したら、その生成したスケーリング画像を走査部4に対して出力し、そのスケーリング画像についての走査処理および判定処理を終えた後、次のサイズのスケーリング画像を生成し、走査部22に渡すという処理を、全てのサイズのスケーリング画像が出力されるまで繰り返す。
この繰り返し制御を含む検知対象画像判定処理は、処理制御部20の制御により実行される。この処理制御部20における検知対象画像判定処理制御動作の概要を、図2のフローチャートを参照しながら、説明する。
まず、処理制御部20は、入力画像供給装置部1からの入力画像を検知対象画像判定装置部2に取り込む(ステップS1)。そして、処理制御部20は、スケーリング部21に、この例では、例えば最も大きい画像サイズのスケーリング画像の生成指示をする(ステップS2)。スケーリング部21は、この指示に基づいて、指示されたサイズのスケーリング画像、例えば図3のスケーリング画像10Aを生成して、走査部22に出力するようにする。ここで、例えば最も大きい画像サイズのスケーリング画像10Aは、入力画像のサイズそのものであるときには、スケーリング部21は、入力画像をそのままスケーリング画像10Aとして走査部22に出力するようにする。
次に、処理制御部20は、例えばスケーリング部21からのスケーリング画像10Aの生成完了通知に基づき、走査部22に、スケーリング画像10Aを受け取り、ウインドウによる走査およびウインドウ画像の切り出しを行なうように指示する(ステップS3)。走査部22は、この処理制御部20からの指示に基づいて、受け取ったスケーリング画像について、ウインドウによる走査およびウインドウ画像の切り出しを行なう。
この場合に、走査部22では、例えば図4に示すような固定サイズ、例えば24画素×24画素のウインドウWDを用意し、このウインドウWDを、図4に示すように、スケーリング画像の水平方向にN画素(N≧1)づつ移動させて走査させ、この水平方向の走査が終了すると、スケーリング画像の垂直方向にM画素(M≧1)だけ移動させて、水平方向の走査を繰り返すというように、ウインドウ走査を行なう。すなわち、この例では、走査部22は、いわゆるラスタースキャン型の走査を行なう。
そして、走査部22は、スケジュール画像上における各ウインドウ走査位置において、当該ウインドウWDに囲まれる領域の画像を切り出して、それをウインドウ画像として判定部23に出力するようにする。
ここで、上記N,Mの値を1画素とすると非常に精細な画像走査が可能となるが、処理すべきウインドウ画像数が増加するため、処理速度の低下を招く。また、上記N,Mの値をあまりに大きくすると、画像走査が大雑把になり、判定結果の信頼性が低下する。そこで、この例では、処理速度と判定結果の信頼性を考慮して、上記N,Mの値を設定するようにする。
ウインドウWDは、この例のように縦横のサイズが同じなくても良く、また、矩形である必要もない。例えば処理によって、ウインドウWDは、複雑な形状、例えばダイヤモンド型やフリーハンドで指定した形状であってもよい。
また、ウインドウWDの走査方法としては、上述の例では、一定の画素間隔でラスタースキャンをするようにしたが、一定の画素間隔である必要は無い。例えば、入力画像が一連の動画像である場合には、以前に検知対象画像が検知された付近では狭い間隔で、それ以外の箇所では広い間隔で走査するようにしても良い。また、スキャン方法は、垂直方向を先にスキャンして、そのスキャン位置を水平方向にずらして行くような方法でもよい。また、ラスタースキャンではなく、例えば周辺部から渦巻状に中心に向かってスキャンするようにしても良い。
次に、処理制御部20は、走査部22からの1回の走査完了通知ごとに、判定部23に、切り出されたウインドウ画像を受け取り、当該ウインドウ画像が検知対象画像であるか否かの判定を行なうように指示する(ステップS4)。
そして、判定部23でウインドウ画像についての判定結果(検知対象画像であるか否かを示す情報)を受け取ると、処理制御部20は、その判定結果を、その時のスケーリング画像のサイズおよびウインドウ位置の情報と共に一時保持した後、当該スケーリング画像におけるウインドウWDによる全走査が完了したか否か判別する(ステップS5)。このとき、この例では、処理制御部20は、処理中のスケーリング画像の画像サイズを認識しており、このため、ウインドウWDによる当該スケーリング画像における走査回数をも処理制御部20は認識しているので、ステップSで、当該スケーリング画像におけるウインドウWDによる全走査が完了したか否か判別することができる。
ステップS5で、当該スケーリング画像におけるウインドウWDによる全走査が完了してはいないと判別したときには、処理制御部20は、ステップS3に戻って、走査部22に対して、ウインドウWDを次の走査位置に移動させ、ウインドウ画像を切り出して、判定部23に出力させるようにする指示する。そして、処理制御部20は、ステップS3、ステップS4、ステップS5の処理を繰り返す。
以上のようにして、処理制御部20は、ステップS3〜ステップS5を、1つのスケーリング画像について、全ウインドウ走査位置について繰り返すように、走査部22および判定部23を制御する。
ステップS5で、当該スケーリング画像におけるウインドウWDによる全走査が完了したと判別したときには、処理制御部20は、全てのスケーリング画像についての検知対象画像の検出判定処理が終了したか否か判別し(ステップS6)、終了していないと判別したときには、ステップS2に戻り、スケーリング部21に、次の画像サイズのスケーリング画像、例えば図3の画像10Bを生成して走査部22に出力するように指示する。そして、処理制御部20は、前述したこのステップS2以降の処理を繰り返す。
ここで、図3の例では、最も大きいサイズの画像10Aから、画像10A→画像10B→画像10C→画像10D→画像10Eというように順次に画像サイズを縮小したものを示しており、スケーリング部21は、例えば、画像10Aを0.875倍して画像10Bを生成し、画像10Bを0.875倍して画像10Cを生成し、画像10Cを0.875倍して画像10Dを生成・・・というようにして、各画像サイズのスケーリング画像を生成するようにする。
この例では、ウインドウWDのサイズは一定とされ、判定部23では、この固定サイズのウインドウ画像について、それが検知対象画像であるか否かの判定をするようにするが、上述のようにして、スケーリング部21で、各画像サイズのスケジュール画像が生成されて、入力画像の画像サイズが様々なサイズに変換されるので、任意の大きさの検知対象画像についての判定をすることが可能になる。
なお、入力画像のサイズを変更するのではなく、ウインドウWDのサイズを変更することにより、上述と同様の処理結果を得ることができるが、その場合には、判定部23では、種々の大きさのウインドウ画像についての判定を行なう必要が生じ、好ましくない。
また、後述するように、この例においては、判定部23では集団学習による学習結果を反映させた判定方法が用いられるが、その場合に、ウインドウ画像の大きさが種々のものとなると、その複数個のウインドウ画像のそれぞれに対応した学習を行ない、その複数個のウインドウ画像についての学習結果をそれぞれ用いた判定処理が必要となり、処理が膨大になるという問題もある。この点、この実施形態のようにすれば、画像サイズ縮小(場合によっては画像サイズ拡大)処理を行なうだけで、ウインドウ画像は1種でよいので、全体として構成が簡単化できる。
以上のようにして、全ての画像サイズのスケーリング画像についての検知対象画像の判定処理が終了すると、ステップS6からステップS7に進み、処理制御部20は、一時保持している判定部23からの検知対象画像についての判定結果(スケーリング画像のサイズとウインドウ位置の情報を含む)を参照し、検知対象画像であると判定されたスケーリング画像のサイズおよびそのウインドウ位置の情報を結果出力装置部3に出力する。
なお、結果出力装置部3において出力する判定結果は、上述の説明の例のように、スケーリング画像のサイズと、ウインドウの位置の情報に限られるものではなく、検知されたウインドウ領域の画像を、上記の判定結果と併せてあるいは単独で表示するようにしても良い。
また、上述の説明では、判定結果は、1つの入力画像についての判定処理が終了した後に検知対象画像判定装置部2から結果出力装置部3に出力するようにしたが、検知対象画像が検出される毎に、その判定結果を検知対象画像判定装置部2から結果出力装置部3に出力するようにしてもよい。また、出力時に、検知対象画像の判定結果について、判定領域に重なりがある場合には、検知対象画像判定装置部2に重複を取り除く処理を追加して、重なり部分を無くして出力するようにすることもできる。
[判定部23の構成例]
この実施形態における判定部23は、アンサンブル学習(集団学習)を利用して、その入力画像(ウインドウ画像)が検知対象画像であるか否かを判定する。なお、この判定部23は、請求項1の発明の実施形態を構成するものである。
集団学習によって得られる学習機械は、多数の弱仮説と、これらを組み合わせる結合機(combiner)とからなる。ここで、入力によらず、固定した重みで弱仮説の出力を統合する結合機の一例としてブースティングがある。ブースティングは、前に生成した弱仮説の学習結果を使用して、間違いを苦手とする学習サンプル(例題)の重みを増すように、学習サンプルが従う分布を加工し、この分布に基づき新たな弱仮説の学習を行なう。
これにより不正解が多く、検知対象画像として判別が難しい学習サンプルの重みが相対的に上昇し、結果的に、重みが大きい、即ち判別が難しい学習サンプルを正解させるような弱判別器が逐次選択される。すなわち、学習における弱仮説の生成は逐次的に行われるものであり、後から生成された弱仮説は、その前に生成された弱仮説に依存することになる。
検知対象画像を検出する際には、上述のようにして、学習により逐次生成された多数の弱仮説の判別結果を使用する。例えばアダブースト(AdaBoost)の場合は、この学習により生成された弱仮説(以下、弱判別器という。)の全ての判別結果(検知対象画像であれば1、非検知対象画像であれば−1)が結合機に供給され、結合機は、全判別結果に対して、対応する弱判別器毎に学習時に算出された信頼度を重み付け加算し、その重み付き多数決の結果を出力し、結合機の出力値を評価することで、入力された画像が検知対象画像か否かを判定するものである。
弱判別器は、なんらかの特徴量を使用して、検知対象画像か、又は非検知対象画像であるかの判定を行なうものである。なお、後述するように、弱判別器の出力は、検知対象画像か否かを確定的に出力してもよく、また、検知対象画像らしさを確率密度などで確率的に出力してもよい。
ここで、この実施形態においては、2つの画素(ピクセル)間の輝度値の差という極めて簡単な特徴量(以下、ピクセル間差分特徴量という。)を使用して、検知対象画像か否かを判別する弱判別器を使用した集団学習装置を利用することで、検知対象画像の検出処理を高速化するものである。しかも、この実施形態では、ウインドウ画像中における全ての2画素間のピクセル間差分特徴量を用いるのではなく、例えば検知対象画像となる頭部や人の肩において大まかな輝度変化を持つ輪郭部分あるいはエッジ部分を優先的に検知して、より効率的な検知対象画像の検知判定を可能にしている。
すなわち、この実施形態では、ウインドウ画像内の全ての2画素間の差分を用いるのではなく、図5に示すように、検知対象画像の輪郭部分あるいはエッジ部分となる互いに隣接する、あるいは近接する2画素P1,P2間の輝度値I1,I2の差のみを、判定のための特徴量(以下、制約ピクセル間差分特徴量と呼ぶ)として用いる。
図6は、この実施形態の判定部23の構成例を示すブロック図である。すなわち、判定部23は、後述するアンサンブル学習により得られた複数の弱判別器20t(t=1〜T)と、これら複数の弱判別器20tの出力のそれぞれに対して、重み付け係数Wt(i=1〜n)を乗算して重み付け処理する複数個の係数乗算器21t(t=1〜T)と、係数乗算器21tからの重み付け判定出力を受けて、重み付き多数決を求める加算器220と、その加算器220からの重み付き多数決の値に応じて検知対象画像であるか否かを判定する判定出力部230を有する。判定出力部230からの判定出力は、処理制御部20に供給される。
複数個の弱判別器20tを求めると共に、重み付け係数Wtを求めるために、この実施形態では、処理制御部20には、処理機能部として構成される集団学習機部24が設けられる。この集団学習機部24は、この例では、集団学習により、弱判別器20tおよび重み付け係数Wtを求める。この場合、集団学習としては、複数の判別器の結果を多数決にて求めることができるものであれば、具体的にはどんな手法でも適用可能である。例えば、データの重み付けを行って、重み付き多数決を行なう前述したアダブーストなどのブースティングを用いた集団学習を適用することができる。
前述したように、各弱判別器20tは、判別のための特徴量として、制約ピクセル間差分特徴量を使用する。そして、判別には、予め学習された検知対象画像か非検知対象画像であるかのラベリングがされた複数の濃淡画像からなる学習サンプルにより予め学習された特徴量と、入力されたウインドウ画像の特徴量とを比較し、ウインドウ画像が検知対象画像であるか否かを推定するための推定値を確定的又は確率的に出力する。
ここで、アダブーストでは、複数の弱判別器20tは、順次推定値を算出し、これに伴い重み付き係数Wtの値が逐次更新されていく。これら複数の弱判別器20tは、集団学習機部24により、後述するアルゴリズムに従い、上述の学習サンプルを使用して集団学習により逐次的に生成されたものであり、例えばその生成順に上記推定値を算出する。また、重み付き多数決の重み係数Wt(信頼度)は、弱判別器20tを生成する後述する学習工程にて学習されるものである。
弱判別器20tは、例えばアダブーストのように弱判別器が2値出力を行なうべきものである場合は、制約ピクセル間差分特徴量を閾値で二分することで、検知対象画像であるかどうかの判別を行なう。閾値による判別方法は、複数の閾値を用いてもよい。
また、弱判別器20tは、例えばリアル・アダブースト(Real−AdaBoost)のように制約ピクセル間差分特徴量から対象物体かどうかを表す度合いの連続値を確率的に出力してもよい。これら弱判別器20tが必要とする判別のための特徴量(閾値)なども学習時に上記アルゴリズムに従って学習されるものである。
さらに、この実施形態では、重み付き多数決の処理を行なう際、全ての弱判別器20tの計算結果を待たず、計算途中であってもその値によっては検知対象画像でないと判断して計算を打ち切りする。このための打ち切りの閾値も、学習時に学習する。この打ち切り処理によって、検出処理における演算量を大幅に削減することが可能となる。これにより、全ての弱判別器20tの計算結果を待たず、計算途中で次のウインドウ画像の判別処理に移ることができる。
このように、判定部23は、ウインドウ画像が検知対象画像か否かを判定するための評価値として重み付き多数決の値を算出し、その評価値(重み付け多数決の値)に基づき、ウインドウ画像が検知対象画像か否かを判定する判定手段としての機能する。また、判定部23は、前述したように、請求項1の検知対象判定装置の実施形態とされている。
さらに、判定部23は、予め学習により生成された複数の弱判別器20tが推定値を順次算出して出力し、前記推定値が算出される毎にその推定値に対して、学習により得られた各弱判別器20tに対する重み付け係数Wtを乗算して加算した重み付き多数決の値を更新し、この重み付き多数決の値(評価値)が更新される毎に、上記打ち切り閾値を利用して推定値の算出を打ち切るか否かをも制御することができるものである。
この判定部23は、集団学習機部24において、学習サンプルを使用し、所定のアルゴリズムに従って集団学習することにより生成される。ここでは先ず、集団学習機部24における集団学習方法について説明し、次に、その集団学習により学習されて得られた判定部23を使用し、入力画像から検知対象画像を判別する方法について説明する。
[集団学習機部24]
ブースティングアルゴリズムを用いて集団学習する集団学習機部24は、上述したように複数の弱判別器を複数個組み合わせ、結果的に強い判定結果が得られるよう学習するものである。
弱判別器は、1つ1つは、極めて簡単な構成とし、1つでは、検知対象画像か否か、例えば顔か顔でないかの判別能力も低いものである。しかし、弱判別器を、例えば数百〜数千個組み合わせることで、高い判別能力を持たせることができる。
この集団学習機部24は、例えば数千の学習サンプルといわれる予め正解付け(ラベリング)された検知対象画像と非検知対象画像、例えば顔画像と、非顔画像とからならなるサンプル画像を使用し、多数の学習モデル(仮説の組み合わせ)から所定の学習アルゴリズムに従って1つの仮説を選択(学習)することで弱判別器を生成し、生成した弱判別器の組み合わせ方を決定していく。
前述したように、弱判別器は、それ自体では判別性能が低いものであるが、これらの選別、組み合わせ方により結果的に判別能力が高い判別器を得ることができるため、集団学習機部23では、弱判別器の組み合わせ方、即ち弱判別器の選別及びそれらの出力値を重み付き多数決処理する際の重み付け係数Wtなどの学習をする。
次に、適切な弱判別器を学習アルゴリズムに従って多数組み合わせた判定部23を得るための集団学習機部24の学習方法について説明する。ここで、集団学習機部24の学習方法の説明に先立ち、集団学習にて学習する学習データのうちで、この実施の形態において特徴量となる学習データ、具体的には弱判別器を構成するための制約ピクセル間差分特徴量、および判別工程(検出工程)において検出を途中で打ち切るための打ち切り閾値について説明しておく。
[弱判別器の構成]
この実施の形態における判定部23は、これを構成する複数個の弱判別器20tが、当該複数個の弱判別器20tに入力される画像に含まれる全画素において選択された、隣接するまたは近接する2つの画素の輝度値の差分(制約ピクセル間差分特徴量)により、検知対象画像例えば顔か否かを判別する極めて簡単な構成とすることで、判別工程において弱判別器20tの判別結果の算出を高速化するものである。弱判別器20tに入力される画像は、学習工程では、学習サンプルであり、判別工程では、スケーリング画像から切り出されたウインドウ画像である。
前述したように、この実施形態では、図5に示したように、隣接するまたは近接する任意の2つの画素の輝度値の差、図5の例では、画素P1の輝度値I1と、画素P2の輝度値I2との差を、次の(式a)に示すように制約ピクセル間差分特徴量と定義する。すなわち、
制約ピクセル間差分特徴量:d=I1−I2 ・・・(式a)
と定義する。
ここで、どの制約ピクセル間差分特徴量を、検知対象画像検出に使用するかが弱判別器の能力となる。したがって、ウインドウWDによる切り出し画像に含まれる隣接するまたは近接する任意の2画素の組み合わせ(フィルタ又は弱仮説ともいう。)から、弱判別器に使用するピクセル位置の組を選択する必要がある。
例えばアダブーストでは、弱判別器に、+1(検知対象画像である)か、−1(非検知対象画像)であるかの確定的な出力を要求する。そこで、アダブーストにおいては、隣接するまたは近接する或る任意の画素位置において、その制約ピクセル間差分特徴量を、1又は複数の閾値を利用して二分割(+1又は−1)することをもって弱判別器とすることができる。
また、このような2値出力ではなく、学習サンプルの確率分布を示す連続値(実数値)を確率的に出力するような例えばリアル・アダブースト(Real−AdaBoost)又はジェントルブースト(Gentle Boost)などのブースティングアルゴリズムの場合、弱判別器は、入力された画像が対象物である確からしさ(確率)を出力する。弱判別器の出力は、このように確定的であっても、確率的であってもよい。先ず、これら2種類の弱判別器について説明する。
<2値出力の弱判別器>
確定的な2値出力をする弱判別器は、制約ピクセル間差分特徴量の値に応じて、検知対象画像か否かの2クラス判別を行なう。対象画像領域(ウインドウ画像)中のある隣接するまたは近接する2つのピクセルの輝度値をI1、I2とし、制約ピクセル間差分特徴量により検知対象画像か否かを判別するための閾値をThとすると、
I1−I2>Th ・・・(式b)
を満たすか否かで、いずれのクラスに属するかを決定することができる。
ここで、弱判別器を構成するには、隣接するまたは近接する2つのピクセル位置と、その閾値を決定する必要があるが、その決定方法については後述する。上記(式b)の閾値判定は最も単純な場合である。また、閾値判定には、
Th1>I1−I2>Th2 ・・・(式c)
I1−I2>Th1 and Th2>I1−I2 ・・・(式d)
でそれぞれ表わされる(式c)又は(式d)に示す2つの閾値を用いることもできる。
図7(A)、図7(B)、図7(C)は、縦軸に頻度をとり、横軸に制約ピクセル間差分特徴量をとって、それぞれ上記(式b)、(式c)、(式d)に示した3つの判別方法を、検知対象画像データおよび非検知対象画像データの頻度分布の特徴的なケースに合わせて説明するための模式図である。
ここで、図7(A)、図7(B)、図7(C)において、yiは弱判別器の出力を示しており、それぞれ破線で示す曲線は、yi=−1(非検知対象画像の場合)である全学習サンプルの頻度分布を示し、それぞれ実線で示す曲線は、yi=1(検知対象画像の場合)である全学習サンプルの頻度分布を示す。
検知対象画像が例えば顔画像として場合、多数の顔画像、非顔画像からなる学習サンプルに対し、同一の制約ピクセル間差分特徴量に対する頻度を取ると、図7(A)、図7(B)、図7(C)に示すヒストグラム分布が得られる。
図7(A)に示すように、ヒストグラム分布が、例えば、破線で示す非検知対象画像の場合と、実線で示す検知対象画像の場合とで、それぞれ同様な形状の正規分布曲線のような分布を示すが、その正規分布曲線のピーク位置がずれるような場合には、2つの正規分布曲線の境の制約ピクセル間差分特徴量を閾値Thとし、上記(式b)によって、検知対象画像か否かを判別することができる。
例えばアダブーストにおいては、弱判別器の出力をf(x)としたとき、入力ウインドウ画像を検知対象画像であると判別すると、出力f(x)=1となり、また、入力ウインドウ画像を非検知対象画像であると判定すると、出力f(x)=−1となる。図7(A)では、制約ピクセル間差分特徴量が閾値Thより大きい場合に検知対象画像であると判定され、弱判別器の出力がf(x)=1となる例を示している。
また、図7(B)または図7(C)に示すように、破線で示す非検知対象画像の場合と、実線で示す検知対象画像の場合とで、それぞれの正規分布曲線のピーク位置が同じような位置にあって、そのヒストグラム分布の幅が異なるような場合、分布が狭い方の制約ピクセル間差分特徴量の下限値近傍の値Th1および上限値近傍の値Th2を閾値として、上記(式c)または(式d)により検知対象画像か否かを判別することができる。
図7(B)は、分布が狭い方を検知対象画像と判定される例を示し、図7(C)は、分布の幅が広い方から分布の幅が狭い方を除いたものが検知対象画像と判定されて、弱判別器の出力がf(x)=1となる例を示している。
弱判別器は、ある制約ピクセル間差分特徴量と、その閾値とを決定することにより構成されるが、その判定によって誤り率ができるだけ小さくなるような、即ち判別率が高い制約ピクセル間差分特徴量を選択する必要がある。
例えば、閾値は、隣接するまたは近接する2つの画素位置を決め、正解付けされた学習サンプルに対して図7に示したヒストグラムを求め、最も正解率が高く、非正解率(誤り率)が最も小さくなるような閾値を検索することで、求めることができる。また、隣接するまたは近接する2つの画素位置は、閾値と共に得られる誤り率が最も小さいものを選択するなどすればよい。
ただし、アダブーストにおいては、判別の難易度を反映した重み(データ重み)が各学習サンプルに付けられており、適切な制約ピクセル間差分特徴量(どの位置の隣接するまたは近接する2つの画素の輝度値を特徴値とするか)が、後述する重み付き誤り率を最小にするように学習される。
<連続値出力の弱判別器>
確率的な出力をする弱判別器としては、上述した如く、例えばリアル・アダブースト(Real−AdaBoost)やジェントルブースト(Gentle Boost)などのように弱判別器が連続値を出力するものがある。この場合は、或る決められた一定値(閾値)により判別問題を解き、2値出力(f(x)=1又は−1)ではなく、入力された画像が検知対象画像である度合いを、例えば確率密度関数として出力する。
このような、検知対象画像である度合い(確率)を示す確率的な出力は、制約ピクセル間差分特徴量dを入力としたとき、Pp(x)を学習サンプルの検知対象画像の確率密度関数、Pn(x)を学習サンプルの非検知対象画像の確率密度関数とすると、図Aの(式e)に示す関数f(x)とすることができる。
図8(A)は、縦軸に確率密度をとり、横軸に制約ピクセル間差分特徴量をとって、データの頻度分布の特徴的なケースを示す図である。また、図8(B)は、縦軸に前記(式e)の関数f(x)の値をとり、横軸に制約ピクセル間差分特徴量をとって、図8(A)に示すデータ分布における関数f(x)値の特性を示す図である。
図8(A)において、破線が非検知対象画像であることを示す確率密度、実線が検知対象画像であることを示す確率密度を示す。前記(式e)から関数f(x)を求めると、図8(B)に示すグラフが得られる。
この場合、弱判別器は、判別工程において、入力されるウインドウ画像から得られた前記(式a)に示した制約ピクセル間差分特徴量dに対応する関数f(x)を出力する。この関数f(x)は、検知対象画像らしさの度合いを示すものであって、例えば非検知対象画像を−1、検知対象画像を1としたとき、−1〜1までの連続値を取るものとすることができる。
例えば制約ピクセル間差分特徴量dと、それに対応する関数f(x)とからなるテーブルを記憶し、入力に応じてテーブルから関数値f(x)を読出し出力する。したがって、一定値である閾値Th又はTh1、Th2を記憶する場合より若干記憶量が大きくなるが、判別性能が向上する。
これら複数の推定方法(判別方法)は、アンサンブル学習中に組み合わせて使用することで、判別性能が向上することが期待できる。また、いずれか単一の判別方法のみを利用すれば、実行速度性能を引き出すことができる。
この実施の形態において使用する弱判別器は、使用する特徴量(制約ピクセル間差分特徴量)が非常に単純であるために、上述したように極めて高速に検知対象画像の判別を行なうことができる点が特長である。
検知対象画像として例えば顔検出する場合には、制約ピクセル間差分特徴量を、上述の判別方法のうち最も単純な(式b)に示す閾値判定を用いても、極めてよい判別結果が得られるが、どのような判別方法により弱判別器が有効に機能するかは、対象とする問題によって異なり、その閾値設定方法などを適宜選択すればよい。
また、問題によっては、隣接するまたは近接する2つの画素の輝度値の差ではなく、隣接するまたは近接する2以上の複数個の画素間における輝度値の差を特徴量としたり、それらを組み合わせた特徴量を使用したりしてもよい。
<打ち切り閾値>
次に、打ち切り閾値について説明する。ブースティングを用いた集団学習機においては、通常は、上述したように判定部23を構成する全ての弱判別器の出力の重み付き多数決により、ウインドウ画像が検知対象画像か否かを判別する。重み付き多数決は、弱判別器の判別結果(推定値)を逐次足し合わせていくことで算出される。例えば、弱判別器20tのそれぞれに対応する多数決の重み(信頼度)を前述したようにWt、各弱判別器の出力をft(x)としたとき、アダブーストにおける重み付き多数決の値F(x)は、図Aの(式f)により求めることができる。
図9は、横軸に、判定部23を構成する弱判別器の数をとり、縦軸に前記(式f)に示す重み付き多数決の値F(x)をとって、入力される画像が検知対象画像か否かに応じた重み付き多数決の値F(x)の変化を示すグラフ図である。
この図9において、破線で示すデータD1〜D4は、検知対象画像としてラベリングされている画像(学習サンプル)を入力として弱判別器により算出した推定値f(x)を逐次算出し、その重み付き多数決の値F(x)を逐次求めたものである。このデータD1〜D4に示すように、検知対象画像を入力画像とすると、ある程度の個数の弱判別器の判別によりその重み付き多数決の値F(x)はプラスになる。
ここで、この実施の形態においては、通常のブースティングアルゴリズムとは異なる手法を導入する。すなわち、弱判別器の判別結果を逐次足し合わせていく過程において、全ての弱判別器の結果を得る前であっても、明らかに検知対象画像ではないと判別できるウインドウ画像については、その判別を中止するものである。この際、判別を中止するか否かを決定する閾値を学習工程にて学習しておく。以下、判別を中止するか否かの判定に用いる閾値を打ち切り閾値という。
この打ち切り閾値により、判定部23では、全てのウインドウ画像について、全弱判別器の出力結果を用いなくとも、非検知対象画像であることが確実に推定できる場合、弱判別器の推定値f(x)の演算を途中で中止することができ、これにより、全ての弱判別器を使用した重み付き多数決を行なうのに比して格段に演算量を低減することができる。
この打ち切り閾値としては、ラベリングされている学習サンプルのうち、検出検知対象画像を示す学習サンプルの判別結果の重み付き多数決の値が取り得る最小値を用いることができる。
判別工程において、ウインドウ画像の弱判別器による結果が逐次重み付きされて出力される、即ち、重み付き多数決の値が逐次更新されていくが、この更新されていく値と、上記打ち切り閾値とを更新の度、すなわち、1つの弱判別器が判別結果を出力する毎に比較し、更新された重み付き多数決の値が打ち切り閾値を下回る場合には当該ウインドウ画像は検知対象画像ではないとし、計算を打ち切ることができ、これにより無駄な演算を省いて、さらに判別処理を高速化することができる。
すなわち、K番目の弱判別器の出力f(x)の打ち切り閾値Rは、学習サンプルxi(=x1〜xN;i=1〜N)のうち、検知対象画像である学習サンプルxj(=x1〜xJ;j=1〜J)を使用したときの重み付き多数決の値の最小値とされ、図Aの(式g)のように定義される。
この(式g)に示すように、検知対象画像である学習サンプルx1〜xJの重み付き多数決の値の最小値が0を上回る場合には、打ち切り閾値Rには0が設定される。なお、0を上回らないようにするのは、0を閾値にして判別を行なうアダブーストの場合であり、ここは集団学習の手法により異なる場合がありうる。
アダブーストの場合においては、打ち切り閾値は、図9において太線で示すように、入力画像として検知対象画像を入力した場合の全データD1〜D4のうち、取り得る最小値に設定され、全てのデータD1〜D4の最小値が0を超えた場合は、打ち切り閾値が0に設定される。
この実施の形態においては、弱判別器が生成される毎に打ち切り閾値Rtを学習しておくことで、後述する判別工程において、例えばデータD5のように、複数の弱判別器により推定値が逐次出力され、重み付き多数決の値が逐次更新されていくが、この値が上記打ち切り閾値を下回った時点で、後段の弱判別器による判別を行なう処理を終了する。
すなわち、この打ち切り閾値Rtを学習しておくことにより、弱判別器の推定値を計算する毎に次の弱判別器の計算を行なうか否かを決定でき、明らかに検知対象画像ではないとされる場合には、全ての弱判別器の判別結果を待たずに非検知対象画像であることが判定でき、演算を途中で打ち切りことにより検出処理を高速化することができる。
[学習の方法]
次に、集団学習機部24における学習方法について説明する。与えられたデータが、例えば顔か否かを判別する問題など、一般的な2クラス判別のパターン認識問題の前提として、予め人手によりラベリング(正解付け)された学習サンプルとなる画像(訓練データ)を用意する。学習サンプルは、検出したい検知対象画像の領域を切り出した画像群(検知対象画像群)と、検出したい検知対象画像とは全く関係のない例えば風景画などを切り出したランダムな画像群(非検知対象画像群)とからなる。
これらの学習サンプルを基に学習アルゴリズムを適用し、判別時に用いる学習データを生成する。判別時に用いる学習データとは、この実施の形態においては、上述した学習データを含む以下の4つの学習データである。すなわち、
(A)隣接するまたは近接する2つのピクセル位置の組(T個)
(B)弱判別器の閾値(T個)
(C)重み付き多数決の重み(弱判別器の信頼度)(T個)
(D)打ち切り閾値(T個)
である。
次に、上述したような多数の学習サンプルから、上記(A)〜(D)に示す4種類の学習データを学習するアルゴリズムを説明する。
図10は、集団学習機部24における学習方法を示すフローチャートである。なお、ここでは、学習アルゴリズムとして、弱判別の際の閾値として一定の値を使用するアルゴリズム(アダブースト(AdaBoost))に従った学習について説明するが、閾値として正解の確からしさ(確率)を示す連続値を使用する例えばリアル・アダブースト(Real−AdaBoost)など、弱判別器を複数結合するために集団学習するものであれば、学習アルゴリズムはアダブーストに限らない。
(準備処理) 学習サンプルのラベリング
図10の処理フローに先立ち、上述のように、予め検知対象画像又は非検知対象画像であることがラベリングされた学習サンプル(xi,yi)を用意する。
ここで、
学習サンプル(xi,yi):(x1,y1),・・・,(xN,yN)
xi∈X,yi∈{−1,1}
X:学習サンプルのデータ
Y:学習サンプルのラベル(正解)
N:学習サンプル数
をそれぞれ示す。
すなわち、xiは、学習サンプル画像の全輝度値からなる特徴ベクトルを示す。また、yi=−1は、学習サンプルが非検知対象画像としてラベリングされている場合を示し、yi=1は、学習サンプルが検知対象画像としてラベリングされていることを示す。
(ステップS11) データ重みの初期化
ブースティングにおいては、各学習サンプルの重み(データ重み)を異ならせ、判別が難しい学習サンプルに対するデータ重みを相対的に大きくしていく。判別結果は、弱判別器を評価する誤り率(エラー)の算出に使用されるが、判別結果にデータ重みを乗算することで、より難しい学習サンプルの判別を誤った弱判別器の評価が実際の判別率より下まわることになる。データ重みは、後述する方法によって逐次更新されるが、先ず最初にこの学習サンプルのデータ重みの初期化を行なう。学習サンプルのデータ重みの初期化は、全学習サンプルの重みを一定にすることにより行なわれ、図Bの(式1)に示すように定義される。
ここで、(式1)の学習サンプルのデータ重みD1,iは、繰り返し回数t=1回目の学習サンプルxi(=x1〜xN)のデータ重みを示す。Nは学習サンプル数である。
(ステップS12〜S17) 繰り返し処理
次に、以下に示すステップS12〜ステップS17の処理を繰り返すことで判定部23を生成する。ここで、繰り返し処理回数をt=1,2,・・・,Tとする。1回の繰り返し処理を行う毎に1つの弱判別器、すなわち、隣接または近接する1組の画素と、その組の制約ピクセル間差分特徴量が学習され、従って繰り返し処理回数(T回)分、弱判別器が生成されて、T個の弱判別器からなる判定部23が生成されることになる。
なお、通常、数百〜数千個の繰り返し処理により、数百〜数千個の弱判別器が生成されるが、繰り返し処理回数(弱判別器の個数)は、要求される判別性能、判別する問題(検知対象画像)に応じて適宜設定すればよい。
(ステップS12) 弱判別器の学習
ステップS12では、弱判別器の学習(生成)を行うが、この学習方法については後述する。この実施の形態においては、1回の繰り返し処理毎に、1つの弱判別器を、後述する方法に従って生成する。
(ステップS13) 重み付き誤り率eの算出
次に、ステップS12にて生成された弱判別器の重み付き誤り率eを、図Bの(式2)により算出する。
(式2)に示すように、重み付き誤り率eは、学習サンプルのうち、弱判別器の判別結果が誤っているもの(ft(xi)≠yi)である学習サンプルのデータ重みのみを加算したものとなり、上述したように、データ重みDt,iが大きい(判別が難しい)学習サンプルの判別を間違えると、重み付き誤り率eが大きくなるよう算出される。なお、重み付き誤り率eは0.5未満となるが、この理由は後述する。
(ステップS14) 重み付き多数決の重み(弱判別器の信頼度)の算出
次に、上述の(式2)に示す重み付き誤り率eに基づき、重み付き多数決の重みWtを、図Bの(式3)により算出する。この、重み付き多数決の重みWtは、繰り返し回数t回目に生成された弱判別器の信頼度を示す。以下、この重み付き多数決の重みWtを、信頼度Wtという。
上述の(式3)に示すように、重み付き誤り率eが小さいものほど、その弱判別器の信頼度Wtが大きくなる。
(ステップS15) 学習サンプルのデータ重み更新
次に、上記(式3)にて得られた信頼度Wtを使用して、図Bの(式4)により学習サンプルのデータ重みDt,iを更新する。データ重みDt,iは、通常全部足し合わせると1になるよう正規化されており、図Bの(式5)はデータ重みDt,iを正規化するためのものである。
(ステップS16) 打ち切り閾値Rの算出
次に、上述したように、判別工程にて、各弱判別器20tの段階で判別を打ち切るための打ち切り閾値Rを算出する。打ち切り閾値Rは、上述した図Aの(式g)に従って、検知対象画像である学習サンプル(ポジディブな学習サンプル)x1〜xJの重み付き多数決の値又は0のうち最も小さい値が選択される。なお、上述したように、最小値又は0を打ち切り閾値に設定するのは、0を閾値 にして判別を行なうアダブーストの場合である。いずれにせよ、打ち切り閾値Rは、少なくとも全てのポジティブな学習サンプルが通過できる最大の値となるよう設定する。
(ステップS17) 繰り返し処理
ステップS17においては、所定回数(=T回)のブースティングが行われたか否かを判別し、行なわれていないと判別した場合は、ステップS17からステップS12に戻り、上述したステップS12〜ステップS17の処理を繰り返す。所定回数の学習が終了したと判別した場合は、図10の学習処理を終了する。この実施の形態では、学習サンプルなどの与えられる画像から、検出対象とする検知対象画像を十分判別できる数の弱判別器を学習すると終了するものとする。
[弱判別器の生成]
次に、上述したステップS12における弱判別器の学習方法(生成方法)について説明する。弱判別器の生成は、弱判別器が2値出力の場合と、図Aの(式e)に示した関数f(x)として連続値を出力する場合とで異なる。また、2値出力の場合においても、前述の(式b)に示したような1つの閾値Thで判別する場合と、前述の(式c)、(式d)に示したような2つの閾値Th1、Th2で判別する場合とで処理が若干異なる。
ここでは、1つの閾値Thで2値出力する弱判別器の学習方法(生成方法)を説明する。図11は、1つの閾値Thで2値出力する弱判別器の学習方法(生成方法)を説明するためのフローチャートであり、弱判別器のパラメータ決定手順に相当する。
(ステップS21) 画素の選択
ここでは、学習サンプルにおける全画素から隣接または近接する任意の2つの画素を選択する。例えば24×24画素の学習サンプルを使用する場合に、その全ての2画素の組ではなく、隣接または近接する2つの画素の組の1つをランダムに選択する。
この実施形態では、差分特徴量つまりエッジ強度を特徴として判別に利用するため、このような隣接または近接する2画素の組を用いる。前述の図5に示したように、選択された2つの画素をP1、P2、その輝度値をそれぞれI1、I2としたとき、この差分特徴量を求めるための2画素P1、P2は、ウインドウWD内で、例えば、図18の(式6)に従うように選ばれる。この(式6)において、(x1,y1)は画素P1の位置を、(x2,y2)は画素P2の位置を、θは閾値を示している。
この画素選択により、ある1画素に対して例えば上下左右に隣接するいわゆる4近傍や、また、4近傍画素に加えて斜め方向に近接する画素を含む周囲8画素からなる8近傍などの、隣接または近接する2画素が選択される。
このステップS21では、学習サンプルの全ての2画素の組から隣接または近接する2つの画素の組の群(M個)を選択しておき、その画素の組の群の中からランダムに、1つの隣接または近接する2つの画素を選択するようにする。ここで、ランダムに選択する理由は、学習の効果を上げるためである。
ここで、例えば人の頭部および肩部の人型の検知に使用する際の2画素の組み合わせ例を、図12に示す。この例は、ウインドウサイズが24画素×24画素(図では簡略化して12画素×12画素で表現)の場合であり、黒丸で示したものが選択された弱判別器で使用される2画素である。この図12は、上位8個の弱判別器で使用される隣接または近接2画素の組み合わせを示したものであり、実際のアンサンブル学習では、さらに多くの弱判別器を用いることになる。
参考のため、検知対象である人の頭部および肩部のエッジ形状の例を図13に示す。この図13は、複数枚の頭部画像にエッジ検出処理を施し、その平均を取ったものである。実際の学習過程においては事前にエッジ検出処理を行なわないので、ここでは参考に留めるが、前記のようにして選択された隣接または近接2画素の組を累積していくと、ほぼこの平均画像と同様の形状になっていく。
(ステップS22) 頻度分布作成
次に、全ての学習サンプルに対して、ステップS21にて選択した隣接または近接した2つの画素の輝度値の差(I1−I2)として、制約ピクセル間差分特徴量dを求め、図7(A)に示したようなヒストグラム(頻度分布)を求める。
(ステップS23) 閾値Thminの算出
次に、ステップS22にて求めた頻度分布から、前記図17の(式2)に示した重み付き誤り率eを、その最小値eminにする閾値Thminを求める。
(ステップS24) 閾値Thmaxの算出
次に、ステップS22にて求めた頻度分布から、前記図17の(式2)に示した重み付き誤り率eを、その最大値emaxにする閾値Thmaxを求め、図18の(式7)に示す方法によって閾値を反転する。すなわち、弱判別器は1つの閾値Thより大きいか否かで正解か不正解かの2つの値を出力するものであり、したがって、重み付き誤り率eが0.5未満である場合は、閾値を反転することで、重み付き誤り率を0.5以上にすることができる。
(ステップS25) パラメータ決定
次に、上述のeminとemax’とから、弱判別器を構成する各パラメータ、すなわち、隣接または近接する2つの画素P1、P2の位置と、その閾値Thとを決定する。すなわち、
emin<emax’の場合:P1、P2、Thmin、
emin>emax’の場合:P1’(=P2)、P2’(=P1)、Thmin、
とする。
(ステップS26) 繰り返し処理
そして、ステップS26において、学習サンプルについて隣接または近接する2つの画素の組の全ての数M分について、ステップS21〜25の処理を繰り返したか否かを判別し、全ての画素の組数Mについて、未だステップS21〜25を繰り返してはいない判別したときには、ステップS21に戻り、ステップS21〜ステップS26の処理を繰り返す。このように、1つの弱判別器の生成にあたって、m(=1,2,・・・,M)回の繰り返し処理が行われる。
(ステップS27) 弱判別器の選択
ステップS26で、全ての画素の組数Mについて、未だステップS21〜25を繰り返したと判別したときには、ステップS27に進み、M回の繰り返し処理にて生成された弱判別器のうち、誤り率eが最も小さかった弱判別器のパラメータ候補を最終的な弱判別器のパラメータとして採用する。そして、この図11の処理を終了し、図10に示したステップS13に進む。
ここで、ステップS27では、弱判別器は、図18の(式8)を基に判別が行なわれる。この(式8)において、k,kは、画素I1,I2の位置、xはウインドウ画像の輝度値、θは閾値である。
なお、説明の都合上、図10に示したステップS13において重み付き誤り率eを算出するものとして説明したが、ステップS27において、誤り率eが最も小さい弱判別器を選択した時点で、ステップS13に示す誤り率eが自動的に得られる。
なお、この実施の形態においては、前回の繰り返し処理においてステップS15にて求めたデータ重みDt,iを使用し、複数の弱判別器の特徴量を学習し、これらの弱判別器(弱判別器候補)の中から前記図17の(式2)に示した重み付き誤り率eが最も小さいものを選択することで、1つの弱判別器を生成する場合について説明したが、上述のステップS12において、例えば予め用意又は学習した複数の画素位置から任意の画素位置を選択して弱判別器を生成するようにしてもよい。
また、上述のステップS12〜ステップS17までの繰り返し処理に使用する学習サンプルとは異なる学習サンプルを使用して弱判別器を生成してもよい。また、交差検定(cross−validation)法又はジャックナイフ(jack-knife)法などの評価などのように、学習サンプルとは別のサンプルを用意して、生成された弱判別器や判定部23の評価を行うようにしてもよい。
ここで、交差検定法とは、学習サンプルを均等にL個に分割し、その中から1つ以外を使用して学習を行い、当該1つを使用して学習結果を評価する作業をL回繰り返して学習結果の評価を行う手法である。
以上は、弱判別器が1つの閾値Thを有する場合であるが、前述した(式c)または(式d)に示すように、弱判別器が2つの閾値Th1、Th2を有するような場合には、図11に示したステップS23〜ステップS25の処理が若干異なる。
すなわち、前記(式b)に示したように、1つの閾値Thの場合は、反転することにより、重み付き誤り率が0.5より大きい場合に、その誤り率を反転させることができたが、(式c)に示したように、制約ピクセル間差分特徴量が、閾値Th2より大きく、かつ、閾値Th1より小さい場合が正解の判別結果である場合、これを反転すると、(式d)に示すように、閾値Th2より小さいか、閾値Th1より大きい場合が、正解の判別結果になる。すなわち、(式c)の反転は、(式d)となり、(式d)の反転は、(式c)となる。
弱判別器が2つの閾値Th1、Th2を有して判別結果を出力するような場合は、図11に示すステップS22において、制約ピクセル間差分特徴量における頻度分布を求め、重み付き誤り率eを最小にする閾値Th1、Th2を求める。そして、ステップS26で所定回数M回、繰り返したことを判別した後、ステップS27で、生成された弱判別器の中で、重み付き誤り率eが最も小さい弱判別器を採用する。
また、前記(式e)に示したように、2値出力ではなく、連続値を出力する弱判別器の場合、図11のステップS21と同様にして、先ず、隣接または近接2画素群の中から、2つの画素をランダムに選択する。そして、ステップS22と同様にして、全学習サンプルにおける頻度分布を求める。そして、得られた頻度分布に基づき、(式e)に示した関数f(x)を求める。
そして、弱判別器の出力として検知対象画像である度合い(正解である度合い)を出力するような所定の学習アルゴリズムに従って誤り率を算出するという一連の処理を所定回数M回繰り返し、誤り率が最も小さい(正答率が高い)パラメータを選択することで弱判別器を生成する。
以上のようにして、繰り返し回数の最大数繰り返す、すなわち、生成し得る最大数の弱判別器を生成し、それらの中から誤り率が最も小さいものを弱判別器として採用すると、性能が高い弱判別器を生成することができるが、最大回数未満の例えば数百回繰り返し処理を行って、その中から最も誤り率が小さいものを採用してもよい。
なお、上述の説明では、ウインドウWDは、例えば24画素×24画素の図14(A)に示すような矩形形状としたが、前述もしたように、ウインドウWDの形状およびサイズは、これに限られるものではなく、例えば、検知対象画像の輪郭形状特徴に併せたウインドウ形状としてもよい。例えば前述した人の頭部および肩部の人型を検知対象とする場合には、図14(B)に示すように、黒く塗り潰した領域をマスク領域として、その領域を使用せず、有効な領域のみで、隣接または近接する2画素を抽出して、学習に用いるようにしても良い。
[検知対象画像の検出判定方法]
次に、図1に示した検知対象画像検出装置における検知対象画像検出方法の実施形態について説明する。図15は、検知対象画像検出方法の実施形態を示すフローチャートであり、図2に示した処理のフローチャートよりは、詳細な処理説明図である。
検出時(判別工程)においては、上述のようにして生成された弱判別器群201〜20Tを利用した判定部23を使用し、所定のアルゴリズムに従って、入力画像供給装置部からの入力画像中から検知対象画像を検出する。なお、この図15の例は、入力画像供給装置部からの入力画像が、最大のサイズのスケーリング画像となっている場合である。
(ステップS31) スケーリング画像生成
先ず、図1に示した検知対象画像判定装置部2では、スケーリング部21が、入力画像供給装置部1から与えられた濃淡画像(入力画像)を一定の割合で縮小スケーリングする。この場合、入力画像供給装置部1は、入力画像として濃淡画像が入力されたものをそのまま検知対象画像判定装置部2に出力するようにしてもよく、また、入力画像供給装置部2にて、その入力画像を濃淡画像に変換した後、検知対象画像判定装置部2に出力するようにしてもよい。
スケーリング部21は、最初は、入力画像供給装置部1から与えられる画像をスケール変換せずに出力し、次のタイミング以降で縮小スケーリングしたスケーリング画像を出力する。ここで、次のスケーリング画像を生成するタイミングは、前に出力したスケーリング画像の全領域についての検知対象画像の検出判定が終了した時点とする。
そして、この例では、スケーリング画像が、ウインドウ画像より小さくなった時点で、入力画像の1枚分についての検知対象画像の検出判定処理が終了したとして、次の入力画像(動画の場合には、次のフレームの画像)の処理に移る。ただし、図15は、1枚の入力画像についての検知対象画像の検出判定処理となっており、図15の処理が、入力画像の1枚ごとに行なわれるものである。
(ステップS32)
走査部22は、スケーリング部22からのスケーリング画像の情報を受け取り、当該スケーリング画像上において、ウインドウWDの位置を縦横に走査し、各走査位置におけるウインドウ画像を判定部23に出力する。
(ステップS33、34) 評価値sの算出
判定部23は、走査部22から出力されるウインドウ画像が検知対象画像であるか否かを判定する。判定部23は、ウインドウ画像に対して、上述した複数の弱判別器20t(=201〜20T)の推定値ft(x)を、逐次、重み付き加算し、その重み付け加算値(重み付き多数決の値の更新値)を評価値sとして算出する。そして、この評価値sに基づき、ウインドウ画像が検知対象画像か否か、及び判別を打ち切るか否かを判定する。
なお、実際的には、判定部23は、評価値sを処理制御部20に出力し、処理制御部20が、ウインドウ画像が検知対象画像か否か、及び判別を打ち切るか否かを判定するようにする。
判定部23は、先ず、ウインドウ画像が入力されると、その評価値s=0に初期化する。判定部23の初段の弱判別器201は、制約ピクセル間差分特徴量dを算出する(ステップS33)。そして、この弱判別器201が出力する推定値を上記評価値sに反映させる(ステップS34)。
ここで、上述した(式b)、(式c)、(式d)により、2値の推定値を出力する弱判別器と、(式e)に示す関数f(x)を推定値として出力する弱判別器とでは、その推定値の評価値sへの反映の仕方が異なる。
先ず、前記(式b)を弱判別器20tに利用し、2値の値を推定値として出力する場合、評価値sは、図18の(式9)に示すようなものとなる。
また、前記(式c)を弱判別器20tに利用し、2値の値を推定値として出力する場合、評価値sは、図18の(式10)に示すようなものとなる。
また、前記(式d)を弱判別器20tに利用し、2値の値を推定値として出力する場合、評価値sは、図18の(式11)に示すようなものとなる。
また、前記(式e)を弱判別器20tに利用し、関数fを推定値として出力する場合、評価値sは、図18の(式12)に示すようなものとなる。
(ステップS35、S36、S37、S38) 検出判定および打ち切り判定
そして、判定部23(または処理制御部20)は、上述に示した例えば4つの方法の何れかにより得られた(更新された)評価値sが、打ち切り閾値Rより大きいか否かを判定する(ステップS35)。このステップS35で評価値sが打ち切り閾値Rより大きいと判別された場合は、所定回数(=T回)繰り返したか否かを判別し(ステップS36)、T回繰り返していないと判別したときには、ステップS33に戻り、このステップS33からステップS36までの処理を繰り返す。
また、ステップS36で、所定回数(=T回)繰り返していると判別したときには、判定部23は、得られている評価値sが0より大きいか否かにより、ウインドウ画像が検知対象画像であるか否かの判定をして、検知対象画像であると判定した場合は、処理制御部20は、現在のスケーリング画像サイズおよびウインドウ位置を記憶する(ステップS37)。そして、ステップS37の次には、ステップS38に進む。
また、ステップS35で、評価値sが打ち切り閾値Rより小さいと判別されたときにも、ステップS38に進む。ステップS38では、処理制御部20が、次の探索ウインドウがあるか否かを判別し、次の探索ウインドウがあると判別したときには、ステップS32に戻り、このステップS32からの処理を繰り返す。
また、ステップS38で、次の探索ウインドウがないと判別したときには、処理制御部20は、ステップS39に進み、次のスケーリング画像があるか否かを判別し、次のスケーリング画像があると判別した場合は、ステップS31に戻って、このステップS31からの処理を繰り返す。前述したように、ステップS21のスケーリング処理は、ウインドウ画像よりスケーリング画像が小さくなった時点で終了する。
(ステップS40〜S42) 重なり領域の削除
ステップS39で、次のスケーリング画像がなくなったと判別したときには、検知対象画像であると検知判定されたウインドウ画像領域についての重なり領域の有無を判定し、重なり領域があるときには、当該重なり領域の削除処理を実行する。
すなわち、ステップS39で、1枚の入力画像に対して、全てのスケーリング画像の処理が終了したと判別すると、検出判定された検知対象画像の領域(ウインドウ画像の領域)について、重なりがあるか否か判別する(ステップS40)。
ステップS40で、互いに重なっている領域が在ると判別したときには、当該互いに重なっている2つのウインドウ領域を取り出し(ステップS41)、この2つのウインドウ領域のうち、評価値sが小さい領域は信頼度が低いとみなし削除し、評価値sの大きい領域を真の検知対象画像の領域であると選択する(ステップS42)。
そして、ステップS42からステップS40に戻り、互いに重なっている領域がなくなるまで、ステップS40からステップS42までの処理を繰り返す。そして、ステップS40で、互いに重なっている領域がないとは判別されると、この図15の処理ルーチンを終了する。これにより、複数個の重複領域が検出されても、最も評価値sが高い領域1枚のみが選択される。
以上のように、この実施の形態における検知対象画像検出方法によれば、制約ピクセル間差分特徴量により弱判別する弱判別器を集団学習により学習した判定部を使用して検知対象画像を検出するため、ウインドウ画像において、対応する2つの画素の輝度値を読み出し、その差を算出するのみで、上記ステップS33における検知対象画像の特徴量の算出工程が終了し、極めて高速に検知対象画像の検出処理することができるため、リアルタイムな人型などの検出が可能である。
また、制約ピクセル間差分特徴量から判別した判別結果(推定値)と、判別に使用した弱判別器に対する信頼度とを乗算した値を加算して評価値sを逐次更新する毎に打ち切り閾値Rtと比較し、弱判別器の推定値の演算を続けるか否かを判定する。そして、打ち切り閾値Rtを評価値sが下回った場合に弱判別器の演算を打ち切り、次のウインドウ画像の処理に移ることにより、無駄な演算を飛躍的に低減して、更に高速に検知対象画像の検出が可能となる。
すなわち、入力画像及びそれを縮小スケーリングした、またスケーリング画像の全ての領域を走査してウインドウ画像を切り出した場合、それらのウインドウ画像のうち検知対象画像である確率は小さく、ほとんどが非検知対象画像である。この非検知対象画像であるウインドウ画像の判別を、途中で打ち切ることで、判別工程を極めて高効率化することができる。
なお、逆に検出すべき検知対象画像が多数含まれるような場合、上述した打ち切り閾値と同様の手法にて、検知対象画像であることが明らかなウインドウ画像の演算を、途中で打ち切るような閾値も設けてもよい。さらに、入力画像をスケーリング部にて、種々のサイズにスケーリングすることで、固定サイズのウインドウを用いるものであっても、実質的に任意の大きさの探索ウインドウを設定したのと等価となり、任意の大きさの検知対象画像を検出することができる。
また、例えば顔を検知対象画像とする場合に、目、鼻、口などを詳細に検知判別する場合には、ウインドウWD内の全ての2画素の組み合わせについて、ピクセル間差分特徴量を求めることで、それを検知判別することができるが、全ての2ピクセル間差分特徴量を求める必要がある分、演算量が多くなる。
これに対して、この実施形態の場合には、全ての2ピクセル間差分特徴量を求めるのではなく、上述した隣接または近接する2画素のみを用いた制約ピクセル間差分特徴量を用いるものであり、特に、例えば、顔の目、鼻、口などの詳細部分は検知する必要がない人型の検知を行なう場合に好適であり、有効である。何故なら、人の頭部、肩部にかけての輪郭形状は、一般に特徴的なΩ型であり、見る方向によらずΩ型に見えるから、全ての2画素間の特徴量を用いるよりも、効率的で有効な検知判別が可能となる。
すなわち、この実施形態によれば、一般に行われる画像マッチングのような詳細なパターンの比較ではなく、大体の輪郭の類似性から検知対象物体を検知できるようになるため、個体や見る方向などによる違いを吸収した検知を行なうことが可能である。
前述したように、人の頭部肩部にかけての輪郭形状は、一般に特徴的なΩ型である。ただし、ある特定の形状テンプレートを用いてそのΩ型を表現し、人を検知することは、個人個人の体型、髪型を含む特徴の違いにより難しい。これに対して、この実施形態の手法は、輪郭形状を表す制約ピクセル間差分特徴量を判別特徴量としているために、人のようなΩ型を検知するのに有利である。
そして、例えばΩ型を特徴量とした場合、顔の表情、メガネ、マスクの着用、顔の向きに寄らない検知が可能である。さらに、後頭部からの検知など、顔検知には不可能な向きからの検知も可能になる。
さらに、この実施形態の制約ピクセル間差分特徴量を用いたアンサンブル学習法型検知判定装置は、弱判別器を終結した判定装置であるため、ひとつの判別器からなるような判別手法よりも、個人個人の輪郭形状の差異に対してロバストな検知を行なうことができる。また、実際の人型を学習してテンプレートを作るようにするため、勝手に定義された特定形状テンプレートを用いる他の手段よりもロバストな検知が行なえる。
この発明による検知対象画像検出装置の実施形態における処理機能を示す機能ブロック図である。 図1の実施形態における検知対象画像の検知判定処理動作を説明するためのフローチャートである。 図1の実施形態におけるスケーリング部21にてスケール変換された画像を示す模式図である。 図1の実施形態における走査部22が探索ウインドウを走査する様子を示す図である。 制約ピクセル間差分特徴量を説明するための画像を示す模式図である。 図1の実施形態における判定部23の構成例を示す図である。 図1の実施形態における検知対象画像の検知判定方法と、閾値との関係を説明するための図である。 図1の実施形態における検知対象画像の他の検知判定方法と、閾値との関係を説明するための図である。 横軸に弱判別器の数をとり、縦軸に重み付き多数決の値F(x)をとって、入力される画像が検知対象画像か否かに応じた重み付き多数決の値F(x)の変化を示す図である。 図1の実施形態における判定部23を構成する複数個の弱判別器を得るための集団学習機の学習方法の一例を示すフローチャートである。 1つの閾値Thで2値出力する弱判別器の学習方法(生成方法)の一例を示すフローチャートである。 図11の学習方法で生成される弱判別器で用いる2画素の組の例を示す図である。 この発明の実施形態で使用される学習サンプルの一例を説明するための図である。 この発明の実施形態における走査部22で使用されるウインドウの他の例を説明するための図である。 この発明の実施形態における検知対象画像検出方法の一例を示すフローチャートである。 この発明の実施形態の説明に用いる式を示す図である。 この発明の実施形態の説明に用いる式を示す図である。 この発明の実施形態の説明に用いる式を示す図である。
符号の説明
1…入力画像提供装置部、2…検知対象画像検出装置部、3…結果出力装置部、20…処理制御部、21…スケーリング部、22…走査部、23…判定部、24…集団学習機部、201〜20T…弱判別器、210…加算器

Claims (10)

  1. 与えられた濃淡画像が検知対象画像であるか否かを判定する検知対象画像判定装置であって、
    前記濃淡画像を構成する画素のうちの、予め学習により定められた隣接または近接する2つの位置の画素の組の複数個のそれぞれの組に対して設けられ、前記画素の組の2画素間の輝度値の差分を特徴量として求め、前記特徴量に基づいて前記画素の組が前記検知対象画像の輪郭部分であるか否かを示す推定値を算出する弱判別手段の複数個と、
    前記複数個の弱判別手段により算出された前記推定値に基づいて、前記与えられた濃淡画像が前記検知対象画像であるか否かを判定する判定手段と
    を備えることを特徴とする検知対象画像判定装置。
  2. 請求項1に記載の検知対象画像判定装置において、
    前記複数個の弱判別手段のそれぞれからの前記推定値に対して、前記学習により求められた重み付け係数を乗算する重み付け付与手段と、
    前記判定手段は、前記重み付け付与手段からの前記重み付けが付与された前記推定値に基づいて、前記与えられた濃淡画像が前記検知対象画像であるか否かを判定する
    ことを特徴とする検知対象画像判定装置。
  3. 濃淡画像中から検知対象画像を検出判定する検知対象画像判定装置であって、
    前記濃淡画像を縮小し、複数の異なる大きさの画像を生成する画像縮小手段と、
    前記画像縮小手段からの前記複数の異なる大きさの縮小画像のそれぞれを、固定サイズのウインドウ単位で走査する走査手段と、
    前記走査手段から得られる前記ウインドウ単位の濃淡画像を構成する画素のうちの、予め学習により定められた隣接または近接する2つの位置の画素の組の複数個のそれぞれの組に対して設けられ、前記画素の組の2画素間の輝度値の差分を特徴量として求め、前記特徴量に基づいて前記画素の組が前記検知対象画像の輪郭部分であるか否かを示す推定値を算出する弱判別手段の複数個と、
    前記複数個の弱判別手段により算出された前記推定値に基づいて、前記ウインドウ単位の濃淡画像が前記検知対象画像であるか否かを判定する判定手段と
    を備えることを特徴とする検知対象画像判定装置。
  4. 請求項3に記載の検知対象画像判定装置において、
    前記複数個の弱判別手段のそれぞれからの前記推定値に対して、前記学習により求められた重み付け係数を乗算する重み付け付与手段と、
    前記判定手段は、前記重み付け付与手段からの前記重み付けが付与された前記推定値に基づいて、前記与えられた濃淡画像が前記検知対象画像であるか否かを判定する
    ことを特徴とする検知対象画像判定装置。
  5. 与えられた濃淡画像が検知対象画像であるか否かを判定する検知対象画像判定方法であって、
    前記濃淡画像を構成する画素のうちの、予め学習により定められた隣接または近接する2つの位置の画素の組の複数個のそれぞれの組に対して行なうものであって、前記画素の組の2画素間の輝度値の差分を特徴量として求め、前記特徴量に基づいて前記画素の組が前記検知対象画像の輪郭部分であるか否かを示す推定値を、前記複数個の画素の組のそれぞれについて算出する弱判別工程と、
    前記弱判別工程で算出された前記複数個の推定値に基づいて、前記与えられた濃淡画像が前記検知対象画像であるか否かを判定する判定工程と
    を備えることを特徴とする検知対象画像判定方法。
  6. 請求項5に記載の検知対象画像判定方法において、
    前記弱判別工程で算出された前記複数個の推定値のそれぞれに対して、前記学習により求められた重み付け係数を乗算する重み付け付与工程と、
    前記判定工程では、前記重み付け付与工程で前記重み付けが付与された前記推定値に基づいて、前記ウインドウ単位の濃淡画像が前記検知対象画像であるか否かを判定する
    ことを特徴とする検知対象画像判定方法。
  7. 濃淡画像中から検知対象画像を検出判定する検知対象画像判定方法であって、
    前記濃淡画像を縮小し、複数の異なる大きさの縮小画像を生成する画像縮小工程と、
    前記画像縮小工程で生成された前記複数の異なる大きさの縮小画像のそれぞれを、固定サイズのウインドウ単位で走査する走査工程と、
    前記走査工程で得られる前記ウインドウ単位の濃淡画像を構成する画素のうちの、予め学習により定められた隣接または近接する2つの位置の画素の組の複数個のそれぞれの組に対して行なうものであって、前記画素の組の2画素間の輝度値の差分を特徴量として求め、前記特徴量に基づいて前記画素の組が前記検知対象画像の輪郭部分であるか否かを示す推定値を、前記複数個の画素の組のそれぞれについて算出する弱判別工程と、
    前記弱判別工程で算出された前記複数個の推定値に基づいて、前記ウインドウ単位の濃淡画像が前記検知対象画像であるか否かを判定する判定工程と
    を備えることを特徴とする検知対象画像判定方法。
  8. 請求項7に記載の検知対象画像判定方法において、
    前記弱判別工程で算出された前記複数個の推定値のそれぞれに対して、前記学習により求められた重み付け係数を乗算する重み付け付与工程と、
    前記判定工程では、前記重み付け付与工程で前記重み付けが付与された前記推定値に基づいて、前記ウインドウ単位の濃淡画像が前記検知対象画像であるか否かを判定する
    ことを特徴とする検知対象画像判定方法。
  9. 与えられた濃淡画像が検知対象画像であるか否かを判定するためにコンピュータを、
    前記濃淡画像を構成する画素のうちの、予め学習により定められた隣接または近接する2つの位置の画素の組の複数個のそれぞれの組に対して設けられ、前記画素の組の2画素間の輝度値の差分を特徴量として求め、前記特徴量に基づいて前記画素の組が前記検知対象画像の輪郭部分であるか否かを示す推定値を算出する弱判別手段の複数個、および、
    前記複数個の弱判別手段により算出された前記推定値に基づいて、前記与えられた濃淡画像が前記検知対象画像であるか否かを判定する判定手段
    として機能させるための検知対象画像判定プログラム。
  10. 濃淡画像中から検知対象画像を検出判定するためにコンピュータを、
    前記濃淡画像を縮小し、複数の異なる大きさの画像を生成する画像縮小手段と、
    前記画像縮小手段からの前記複数の異なる大きさの縮小画像のそれぞれを、固定サイズのウインドウ単位で走査する走査手段、
    前記走査手段から得られる前記ウインドウ単位の濃淡画像を構成する画素のうちの、予め学習により定められた隣接または近接する2つの位置の画素の組の複数個のそれぞれの組に対して設けられ、前記画素の組の2画素間の輝度値の差分を特徴量として求め、前記特徴量に基づいて前記画素の組が前記検知対象画像の輪郭部分であるか否かを示す推定値を算出する弱判別手段の複数個、および、
    前記複数個の弱判別手段により算出された前記推定値に基づいて、前記ウインドウ単位の濃淡画像が前記検知対象画像であるか否かを判定する判定手段
    として機能させるための検知対象画像判定プログラム。
JP2005142226A 2005-05-16 2005-05-16 検知対象画像判定装置、検知対象画像判定方法および検知対象画像判定プログラム Pending JP2006318341A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005142226A JP2006318341A (ja) 2005-05-16 2005-05-16 検知対象画像判定装置、検知対象画像判定方法および検知対象画像判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005142226A JP2006318341A (ja) 2005-05-16 2005-05-16 検知対象画像判定装置、検知対象画像判定方法および検知対象画像判定プログラム

Publications (1)

Publication Number Publication Date
JP2006318341A true JP2006318341A (ja) 2006-11-24

Family

ID=37538945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005142226A Pending JP2006318341A (ja) 2005-05-16 2005-05-16 検知対象画像判定装置、検知対象画像判定方法および検知対象画像判定プログラム

Country Status (1)

Country Link
JP (1) JP2006318341A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009038146A1 (ja) * 2007-09-20 2009-03-26 Canon Kabushiki Kaisha 画像検出装置および画像検出方法
JP2010009517A (ja) * 2008-06-30 2010-01-14 Canon Inc パターン検出器の学習装置、学習方法及びプログラム
JP2012043077A (ja) * 2010-08-17 2012-03-01 Fuji Xerox Co Ltd 文字画像識別装置、文字画像識別方法およびプログラム
CN102375987A (zh) * 2010-08-17 2012-03-14 国基电子(上海)有限公司 图像处理设备及图像特征向量提取与图像匹配方法
JP2012108689A (ja) * 2010-11-17 2012-06-07 Nippon Hoso Kyokai <Nhk> 文字領域検出装置およびそのプログラム
JP2013016168A (ja) * 2011-06-30 2013-01-24 Fujitsu Ltd 画像におけるテキスト領域を位置決めする方法及び装置
JP2013041312A (ja) * 2011-07-19 2013-02-28 Fujifilm Corp 高速判別装置および高速判別装置を高速化する方法、並びに高速判別装置プログラム
JP2013058162A (ja) * 2011-09-09 2013-03-28 Sumitomo Electric Ind Ltd 特徴量抽出装置、対象物検出システム、コンピュータプログラム及び特徴量抽出方法
US8577151B2 (en) 2008-04-04 2013-11-05 Fujifilm Corporation Method, apparatus, and program for detecting object
JP2014013469A (ja) * 2012-07-04 2014-01-23 Mitsubishi Electric Corp 画像処理装置
JP2014197306A (ja) * 2013-03-29 2014-10-16 株式会社メガチップス 画像処理回路及び画像検出装置
CN111598883A (zh) * 2020-05-20 2020-08-28 重庆工程职业技术学院 获取云数据医学影像的标定标签设备和工作方法
JP2020135659A (ja) * 2019-02-22 2020-08-31 東京エレクトロンデバイス株式会社 パラメータ決定方法、パラメータ決定装置、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318331A (ja) * 2003-04-14 2004-11-11 Fuji Photo Film Co Ltd 連続画像の被写体特徴部分抽出方法及びそのプログラム並びにデジタルカメラ
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318331A (ja) * 2003-04-14 2004-11-11 Fuji Photo Film Co Ltd 連続画像の被写体特徴部分抽出方法及びそのプログラム並びにデジタルカメラ
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8437553B2 (en) 2007-09-20 2013-05-07 Canon Kabushiki Kaisha Image detection device and image detection method
CN101681513A (zh) * 2007-09-20 2010-03-24 佳能株式会社 图像检测装置和图像检测方法
WO2009038146A1 (ja) * 2007-09-20 2009-03-26 Canon Kabushiki Kaisha 画像検出装置および画像検出方法
US8577151B2 (en) 2008-04-04 2013-11-05 Fujifilm Corporation Method, apparatus, and program for detecting object
JP2010009517A (ja) * 2008-06-30 2010-01-14 Canon Inc パターン検出器の学習装置、学習方法及びプログラム
CN102375987B (zh) * 2010-08-17 2014-04-02 国基电子(上海)有限公司 图像处理设备及图像特征向量提取与图像匹配方法
CN102375987A (zh) * 2010-08-17 2012-03-14 国基电子(上海)有限公司 图像处理设备及图像特征向量提取与图像匹配方法
JP2012043077A (ja) * 2010-08-17 2012-03-01 Fuji Xerox Co Ltd 文字画像識別装置、文字画像識別方法およびプログラム
JP2012108689A (ja) * 2010-11-17 2012-06-07 Nippon Hoso Kyokai <Nhk> 文字領域検出装置およびそのプログラム
JP2013016168A (ja) * 2011-06-30 2013-01-24 Fujitsu Ltd 画像におけるテキスト領域を位置決めする方法及び装置
JP2013041312A (ja) * 2011-07-19 2013-02-28 Fujifilm Corp 高速判別装置および高速判別装置を高速化する方法、並びに高速判別装置プログラム
JP2013058162A (ja) * 2011-09-09 2013-03-28 Sumitomo Electric Ind Ltd 特徴量抽出装置、対象物検出システム、コンピュータプログラム及び特徴量抽出方法
JP2014013469A (ja) * 2012-07-04 2014-01-23 Mitsubishi Electric Corp 画像処理装置
JP2014197306A (ja) * 2013-03-29 2014-10-16 株式会社メガチップス 画像処理回路及び画像検出装置
JP2020135659A (ja) * 2019-02-22 2020-08-31 東京エレクトロンデバイス株式会社 パラメータ決定方法、パラメータ決定装置、及びプログラム
JP7240199B2 (ja) 2019-02-22 2023-03-15 東京エレクトロンデバイス株式会社 パラメータ決定方法、パラメータ決定装置、及びプログラム
CN111598883A (zh) * 2020-05-20 2020-08-28 重庆工程职业技术学院 获取云数据医学影像的标定标签设备和工作方法
CN111598883B (zh) * 2020-05-20 2023-05-26 重庆工程职业技术学院 获取云数据医学影像的标定标签设备和工作方法

Similar Documents

Publication Publication Date Title
JP4517633B2 (ja) 対象物検出装置及び方法
JP4482796B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP4553044B2 (ja) 集団学習装置及び方法
JP4556891B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP5025893B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP4628882B2 (ja) 判別器の学習方法、顔判別方法および装置並びにプログラム
JP4712563B2 (ja) 顔検出方法および装置並びにプログラム
JP4708909B2 (ja) デジタル画像の対象物検出方法および装置並びにプログラム
JP2011013732A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2007226512A (ja) 特定向き顔判定方法および装置並びにプログラム
JP2007213182A (ja) 対象物状態認識方法および装置並びにプログラム
JP2006318341A (ja) 検知対象画像判定装置、検知対象画像判定方法および検知対象画像判定プログラム
JP2005242567A (ja) 動作評価装置及び方法
JP2009140369A (ja) 集団学習装置及び集団学習方法、対象物検出装置及び対象物検出方法、並びにコンピュータ・プログラム
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
CN106778574A (zh) 用于人脸图像的检测方法和装置
JP4624889B2 (ja) 顔検出方法および装置並びにプログラム
JP4708948B2 (ja) 顔向き特定方法、顔判別方法および装置並びにプログラム
JP4749884B2 (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
JP2011170890A (ja) 顔検出方法および装置並びにプログラム
JP4757598B2 (ja) 顔検出方法および装置並びにプログラム
Jetomo et al. Comparing persistent homology-based classifiers for Filipino sign language recognition
JP2006244385A (ja) 顔判別装置およびプログラム並びに顔判別装置の学習方法
Hotta Support Vector Machine with Weighted Summation Kernel Obtained by Adaboost
JP2005234811A (ja) 検出装置、検出方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080409

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090810

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110104