[go: up one dir, main page]

JP5715132B2 - 画像解析に関する方法及びシステム - Google Patents

画像解析に関する方法及びシステム Download PDF

Info

Publication number
JP5715132B2
JP5715132B2 JP2012525231A JP2012525231A JP5715132B2 JP 5715132 B2 JP5715132 B2 JP 5715132B2 JP 2012525231 A JP2012525231 A JP 2012525231A JP 2012525231 A JP2012525231 A JP 2012525231A JP 5715132 B2 JP5715132 B2 JP 5715132B2
Authority
JP
Japan
Prior art keywords
image
images
analysis
sequence
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012525231A
Other languages
English (en)
Other versions
JP2013502633A (ja
Inventor
ヴィンセント ジャンヌ
ヴィンセント ジャンヌ
イホル オレホヴィチ キレンコ
イホル オレホヴィチ キレンコ
ジョヴァンニ チェンニーニ
ジョヴァンニ チェンニーニ
リン シャオ
リン シャオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2013502633A publication Critical patent/JP2013502633A/ja
Application granted granted Critical
Publication of JP5715132B2 publication Critical patent/JP5715132B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30076Plethysmography

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像解析の方法、画像解析のためのシステム及びコンピュータプログラムに関する。本発明は、遠隔フォトプレチスモグラフ解析を可能にする方法及びシステムにも関する。
米国特許出願公開第2009/0027493A1号は、攻撃者が目的を達成することを防止するため、公共空間に入り行動を取る人々のリアルタイムでの監視を自動化する方法を開示する。この方法は、視野からカムフラージュされる場所への高解像度ビデオカメラの戦略的な設置を含む。カメラは、記録される映像を監視する中央制御室に陸上線又は無線で接続される。日常的なモニタリングは、大部分が自動的であり、コンピュータ制御される。コンピュータモニタリングは、人々の挙動、表情、通常でない動きなどの解析を含む。疑わしいノイズ、語又はボリュームは、そのサイトでのイベントに集中するよう訓練された人員に警告するため、コンピュータプログラムにアラートを出させる。可能な場合には、心拍速度又は瞳孔拡張といったより複雑な要素の解析が、サブスクリーン上で監視及び表示されることができる。
既知の方法の問題は、疑わしい挙動の解析に使用されるビデオ映像を用いて、心拍速度又は瞳孔拡張を得る方法及び斯かる要素を表すデータを同期化させる方法を開示しない点にある。
画像のシーケンスにおいて表される対象物の活動の比較的信頼性が高い分類を得るために効率的に実現されることができる方法、システム及びコンピュータプログラムを与えることが望ましい。
この目的は、本発明による方法により実現される。この方法は、
画像のシーケンスを得るステップと、
上記画像に表される対象物の状態を分類するためのデータを得るべく、上記画像のシーケンスの少なくとも1つに関し視野ベースの解析(vision-based analysis)を実行するステップと、
上記画像のシーケンスの少なくともいくつかに表される生体の生理的パラメータの少なくとも1つの値を決定するステップであって、上記生理的パラメータの少なくとも1つの値が、上記視野ベースの解析が実行される上記少なくとも1つの画像が撮られる画像の同じシーケンスからの画像データの解析を介して決定される、ステップと、
上記視野ベースの解析で得られるデータ及び上記生理的パラメータの少なくとも1つの値を用いて、上記対象物の状態を分類するステップとを有する。
本書における行動という用語は、生体、例えば人間の表情及び挙動を含む1つ又は複数の行動のセットを表すものとして用いられる。従って、ここでの分類は、例えば「走っている」という行動に、「笑っている」という表情に、又は、「動揺している」又は「疑っている」という挙動に、あるタイプを割り当てることができる。視野ベースの解析は、空間的及び時間空間的な解析の少なくとも1つを含む。
画像において表される対象物の少なくとも1つの行動を分類するためのデータを得るべく、画像のシーケンスの少なくとも1つに関し視野ベースの解析を実行することにより、及び画像のシーケンスの少なくともいくつかで表される生体の生理的パラメータの少なくとも1つの値を決定することにより、人間の行動の自動的な分類に関するデータを得るための2つの比較的独立した方法論が用いられる。各々は、それらの1つだけが適用されるとき結果として生じる曖昧さを解決する。例えば、高い心拍は、走っている又は泳いでいるといった行動を伴う。ランニング及びジョギングは、視野ベースの解析を用いて容易に区別されることができない似たような姿勢を含む。視野ベースの解析が実行される少なくとも1つの画像が撮られる画像の同じシーケンスからの画像データの解析を介して、生理的パラメータの少なくとも1つの値が決定されるので、この方法は比較的効率的である。画像のシーケンスを得る少なくとも1つのカメラに加えて、別のセンサが必要とされることはない。更に、画像の同じシーケンスを使用することから、センサ信号を画像と同期化させる手段も必要とされない。追加的な効果は、生理的パラメータが目立たない態様で決定される点にある。視野ベースの解析のように、測定は非接触で行われる。その結果、この方法は対象者の行動に影響を及ぼさない。追加的な効果は、この方法が、比較的小さい追加的な労力で、1人以上の人(ただし、その人たちは、画像のシーケンスにおいて表されていることを前提とする)の行動を分類するために拡張化されることができる点にある。
ある実施形態において、対象物の状態を分類するステップが、対象物により行われる行動を分類するステップを有する。
これはこの方法の有益な実現である。なぜなら、異なる行動はしばしば、類似する姿勢により特徴づけられる。その結果、人間の行動だけによる視野ベースの画像解析はしばしば、間違った分類結果をもたらすことになる。言い換えると、視野ベースの解析システムはしばしば、異なるタイプの行動、例えばランニング及びジョギングの間を区別することができない。
ある実施形態において、別々の分類器が、上記生理的パラメータの値に基づかれるデータ及び上記視野ベースの解析を実行することにより得られるデータに適用される。
上記生理的パラメータの値に基づかれるデータ及び上記視野ベースの解析を実行することにより得られるデータに関して別々の分類器を提供する効果は、2つのタイプの解析の1つだけを他方なしで使用することが可能である点にある。多くの状態において、2つの方法の1つが曖昧でない結果を与えるという点で、これは計算的により効率的である。これがそうでない場合にのみ、他の分類器に加えて、最終的な結果を生み出す両方の分類器の結果を利用する追加的な分類器が使用される。
別の実施形態において、単一の分類器が、上記生理的パラメータの値に基づかれるデータ及び上記視野ベースの解析を実行することにより得られるデータの組合せに適用される。
これは、生理的パラメータの値と視野ベースの解析を実行することにより得られるデータとの間の相関が分類処理において用いられることができるという効果を持つ。単一の分類器は、組み合わせられたデータセット(即ち、生理的パラメータの値と視野ベースの解析を実行することにより得られるデータの両方)に関してトレーニングされることができる。
ある実施形態において、上記画像のシーケンスの少なくともいくつかに表される生体の生理的パラメータの少なくとも1つの値が、遠隔フォトプレチスモグラフィ解析を用いて得られる。
特に、フォトプレチスモグラフィ解析が、可視周波数範囲において実行される場合、通常のカメラ、例えばCCD又はCMOSセンサアレイを有するカメラが画像のシーケンスを得るために用いられることができる。これも有益である。なぜなら、視野ベースの画像解析が一般に、エッジの検出に依存するからである。このエッジは、例えば熱画像には存在することができない。更に、遠隔フォトプレチスモグラフィ解析の基本的な形式を実現するのに、特別な方向を向く光源が必要とされることもない。
ある実施形態は、可視スペクトルの限定されたサブ範囲において光を放出するよう構成される光源を用いて生態の少なくとも一部を照射するステップを含む。
画像センサを用いてリモートで心拍を検出する最良の波長範囲が500nm周辺(可視スペクトルの緑の部分)に配置されることが分かっている。従って、この範囲における対象物の反射に関する追加的な光を提供することは、心拍の遠隔測定が実行されるときの信号を最大にすることになる。画像のシーケンスを得るために使用されるカメラのチャネルは、向きを変えることができる光源が光を放出するよう構成される波長範囲に対応する波長範囲にチューニングされることができる。このチャネルのみでの画素データが、測定ゾーンにおける少なくとも複数の関連付けられる画像点での画素値の組合せの時間変化する値における少なくとも変動を表す信号を得るために用いられることができる。代替的に、このチャネルにおける画素データは、複数のチャネルからの画素データの加重和において過重(overweight)されることができる。他方、視野ベースの画像解析は、向きを変えることができる光源の波長範囲に対応する波長範囲にチューニングされるチャネルがわずかに過小加重(underweight)であるような複数のチャネルからの画素データの重み付けされた組合せを有する画素データに関して実行されることができる。その結果、追加的な照射の効果は少なくされる。
変形例において、遠隔フォトプレチスモグラフィ解析は、
複数の画像点を含む少なくとも1つの測定ゾーンを選択するステップであって、各画像が、上記シーケンス画像の各々における少なくとも1つの関連付けられる画素値を持つ、ステップと、
上記測定ゾーンにおける少なくとも複数の関連付けられる画像点での画素値の組合せの時間変化する値における少なくとも変動を表す信号を得るステップとを含む。
この変形例は、比較的ノイズが少なく、皮膚反射率における変動を表す比較的強い信号要素を持つ信号が得られるという効果を持つ。この信号要素は、例えば、画像のシーケンスにおいて表される対象物の心拍及び/又は呼吸速度を決定するのに使用することができる。
ある実施形態は、画像のシーケンスにおいて表される選択された対象物の少なくとも一部を追跡するため画像のシーケンスに関し視野ベースの画像解析を実行するステップと、選択された対象物の少なくともの部分を照射する向きを変えることができる光源を制御するステップとを含む。
画像のシーケンスにおいて表される選択された対象物の少なくとも一部を追跡するため画像のシーケンスに関し視野ベースの画像解析を実行するステップ、及び選択された対象物の少なくとも一部を照射する向きを変えることができる光源を制御するステップは、陰影を回避することを可能にする。なぜなら、光源が、測定ゾーンを有する生体の部分に向けられることができるからである。更に、画像のシーケンスにおいて表される複数の生体が存在する場合、それらの少なくとも1つの選択的な照射が、それらの1つだけの生理的パラメータの値を決定するのに使用される信号を提供することに貢献する。
この方法の実施形態は、画像のシーケンスの少なくとも1つを表す画素データの少なくともいくつかを解析することにより、選択された対象物の部分を選択するステップを含む。
この解析は、生理的パラメータの値を決定する解析、挙動のタイプを検出する解析、及び例えば露出した体部分の表情の存在を検出する解析の少なくとも1つとすることができる。この変形例は、完全に自動化されたシステムが、追加的な照射のため適切なターゲットを決定することを可能にする。この場合、例えば遠隔フォトプレチスモグラフィ及び視野ベースの解析を用いて、行動分類が実行される。例えば、異常な心拍を持つ誰か又は特定の種類の挙動を示す誰かが、画像のシーケンスに表されることをシステムが検出し、彼又は彼女の行動を決定するため、この人を追跡することができる。
別の側面によれば、本発明による画像解析に関するシステムが、
画像のシーケンスを得るインタフェースであって、各画像が画素データにより表される、インタフェースと、
上記画像において表される対象物の少なくとも1つの行動を分類するためのデータを得るべく、上記画像のシーケンスの少なくとも1つに関し視野ベースの解析を実行する第1の画像解析システムと、
上記画像のシーケンスの少なくともいくつかに表される生体の生理的パラメータの少なくとも1つの値を決定するシステムであって、上記生理的パラメータの上記少なくとも1つの値を決定するシステムが、上記視野ベースの解析が実行される上記少なくとも1つの画像が撮られる画像の同じシーケンスからの画像データの解析を用いて、上記生理的パラメータの少なくとも1つの値を決定する第2の画像解析システムを有する、上記生理的パラメータの少なくとも1つの値を決定するシステムとを有し、上記画像解析に関するシステムが、上記第1の画像解析システムにより提供されるデータ及び上記生理的パラメータの少なくとも1つの値を用いて、上記対象物の活動を分類するよう構成される。
ある実施形態において、このシステムは、本発明による方法を実行するよう構成される。
本発明の別の側面によれば、機械読み出し可能な媒体に組み込まれるとき、情報処理能力を持つシステムに本発明による方法を実行させることができる命令セットを含むコンピュータプログラムが提供される。
陰影を回避するため光源で人を追跡すること
Verkruysseらによる「Remote photoplethysmographic imaging using ambient light」、Optics Express 16 (26), December 2008, pp. 21434-21445は、源として通常の環境光を用いて、簡単なデジタルの消費者レベルの光学カメラを動画モードにして、フォトプレチスモグラフィ信号が人の顔に関してリモートで測定される方法を開示する。毎秒15又は30フレームで、ピクセル分解能が640x480又は320x240で記録されるカラー動画が、カメラによりAVIフォーマットでセーブされ、パソコンに転送される。ソフトウェアを用いて、赤、緑及び青チャネルに関する画素値が、各動画フレームに関して読み出され、PV(x,y,t)のセットを提供する。ここで、x及びyは水平及び垂直位置であり、tはフレームレートに対応する時間である。グラフィックユーザインターフェイスを用いて、関心領域(ROI)が静止画において選択され、raw信号PVraw(t)が、ROIにおけるすべての画素値の平均として計算される。パワー及び位相スペクトルを決定するため、高速フーリエ変換が実行される。
既知の方法の問題は、環境照射がフォトプレチスモグラフィ解析に用いられる領域における陰をもたらす場合がある点にある。これは、信頼性の低い結果をもたらすか又は追加的な画像処理を必要とする。
請求項13における方法及び請求項15におけるシステムは、画像に表される個人の脈拍数又は呼吸速度といった生理的パラメータが決定されることができる、比較的強い及びはっきりした要素を持つ、フォトプレチスモグラフィ解析に関する信号を提供する。
本発明の更なる側面によれば、この方法は、
少なくとも1つのカメラから画像のシーケンスを得るステップであって、各画像が、少なくとも波長の限定された範囲における反射された環境光を表す画素データにより表される、ステップと、
少なくとも1つの測定ゾーンに関して、生理的パラメータの少なくとも1つの値を決定するのに使用される上記測定ゾーンにおける少なくとも複数の画像点での画素値の組合せの時間変化する値における少なくとも変動を表す信号を提供するステップと、
上記画像のシーケンスにおいて表される選択された対象物の少なくとも一部を追跡するステップと、上記選択された対象物の少なくとも一部を照射する向きを変えることができる光源を制御するステップとを有する。
視野ベースの解析は、空間的及び時間空間的解析の少なくとも1つを含む。
少なくとも1つのカメラから画像のシーケンスを得るステップであって、各画像が、少なくとも波長の限定された範囲における反射された環境光を表す画素データにより表される、ステップと、少なくとも1つの測定ゾーンに関して、生理的パラメータの少なくとも1つの値を決定するのに使用される上記測定ゾーンにおける少なくとも複数の画像点での画素値の組合せの時間変化する値における少なくとも変動を表す信号を提供するステップとにより、この方法は、生体の皮膚の反射率における変動を決定するのに、例えばCCD又はCMOSベースのカメラといったカメラの使用を可能にする。従って、この方法は、変調された照射信号を提供する必要もないし、センサからの信号から、反射された変調照射信号だけを分離する必要もない。画像のシーケンスにおいて表される選択された対象物の少なくとも一部を追跡するステップ及び選択された対象物の少なくとも一部を照射する向きを変えることができる光源を制御するステップが、陰影を回避することを可能にする。なぜなら、光源は、関心領域を有する生体の部分に向けられることができるからである。更に、画像のシーケンスにおいて表される複数の生体がある場合、それらの1つの少なくとも一部の選択的な照射が、それらの1つだけの生理的パラメータの値を決定するのに使用される信号を提供することに貢献する。更に、光源は、フォトプレチスモグラフィに特に適したスペクトルの範囲において光を放出するよう構成されることができる。こうしてより強い信号が提供される。
生理的パラメータを決定するため、光の変調されたビームを用いて人を追跡し、光の反射された変調されたビームをキャプチャすることが知られている。この場合、すべての非変調光は、キャプチャされた信号から除去される。従って、環境光が、光のビームに加えて用いられるものではない。このビームの割り込みは、この方法の一時的な故障をもたらすことになる。また、光の反射されたビームをキャプチャするために、特別な感度の良いセンサが一般に用いられる。本発明の方法は、(周期的な)生理的現象を特徴づけるパラメータの値を決定するのに十分強い信号を得るため、カメラ及び画素値の組合せを用いる。
ある実施形態では、向きを変えることができる光源が、光のスペクトルの可視部分の限定されたサブ範囲において光を放出するよう構成される。
皮膚反射率は、特定の周波数に関する血液潅流変化に伴いより強く変化する。カラーの光源を使用することは、皮膚反射率に伴い変化する要素がより強くなるような強度信号を得るための方法を最適化することを可能にする。
変形例において、画像データは、限定されたサブ範囲にチューニングされるチャネルの1つを持つカメラから複数のチャネルにおいて受信される。
こうして、生理的パラメータの少なくとも1つの値を決定するのに使用される測定ゾーンにおける少なくとも複数の画像点での画素値の組合せの時間変化する値における少なくとも変動を表す信号を提供するステップは、(i)チューニングされたチャネルから画素値だけを用いるステップ、又は(ii)異なるチャネルからの画素値の重み付けされた組合せとして和を形成するステップの1つを有することができる。ここで、チューニングされたチャネルからの画素値は、過重される。これは、変化する皮膚反射率値を表す強い要素を持つ強度信号を得ることを可能にする。
ある実施形態は、選択された対象物の少なくとも一部を選択するため、画像のシーケンスの少なくとも1つを解析するステップを含む。
この解析は、特定の基準に基づき、少なくとも1つの、しかし全部ではない対象物を選択するため、画像のシーケンスに表されるすべての対象物の生理的パラメータ値を決定する解析とすることができる。この解析は、特定の姿勢、形状又は運動パターンを持つ体又は体部分を特定する視野ベースの解析とすることもできる。この種の解析は、自動化されることができる。その結果、この実施形態は、例えば医療又はセキュリティ目的での自動監視システムに適している。
ある実施形態において、選択された対象物の少なくとも一部を追跡するステップが、画像のシーケンスにおいて選択された対象物の少なくとも一部を表す領域の位置を追うため、画像に関し視野ベースの解析を実行することを含む。
効果は、単一の移動する測定ゾーンが用いられることができる点にある。その結果、画素値の組合せの時間変化する値における少なくとも変動を表す1つの強度信号だけが得られることを必要とする。これは、選択された対象物だけの生理的パラメータの値が決定されることを確実にするため、画像において測定ゾーンのグリッドをオーバレイする必要がない。
ある実施形態において、向きを変えることができる光源は、カメラに対して適切な位置に固定され、向きを変えることができる光源を制御するステップが、カメラの表示方向を変化させるデバイスを制御するステップを含む。
この実施形態の効果は、表示方向を変化させることが、光源により放出される光の方向を変化させる点にある。こうして、ほとんどの光が、カメラの方向に後退反射される。これは、ほとんど陰影がないことを意味し、皮膚反射率における変動を表す比較的強い信号が得られることを意味する。カメラの表示方向は、カメラの支持部に対してカメラの筐体を動かすことにより制御される。ここで、向きを変えることができる光源は、筐体に対して適切な位置に固定される。
別の側面によれば、本発明による遠隔フォトプレチスモグラフィ解析を可能にするシステムが、
少なくとも1つのカメラから画像のシーケンスを得る少なくとも1つのカメラインタフェースであって、各画像が、少なくとも波長の限定された範囲における反射された環境光を表す画素データにより表される、少なくとも1つのカメラインタフェースと、
少なくとも1つの測定ゾーンに関して、生理的パラメータの少なくとも1つの値を決定するのに使用される上記測定ゾーンにおける少なくとも複数の画像点での画素値の組合せの時間変化する値における少なくとも変動を表す信号を提供するよう構成される、上記画素データを処理するシステムと、
上記画像のシーケンスにおいて表される選択された対象物の少なくとも一部を追跡するシステムと、
上記選択された対象物の少なくとも一部を照射する向きを変えることができる光源を制御するシステムとを有する。
ある実施形態において、このシステムは、本発明による方法を実行するよう構成される。
本発明の別の側面によれば、機械読み出し可能な媒体に組み込まれるとき、情報処理能力を持つシステムに本発明による方法を実行させることができる命令セットを含むコンピュータプログラムが提供される。
画像のシーケンスにおいて表される個人の行動の状態を分類するシステムの概略的なブロック図である。 図1のシステムにより実行される方法の概要を与えるフローチャートである。 図2の方法における分類ステップを詳述するフローチャートである。 図2の方法における分類ステップの代替的な実現を詳述するフローチャートである。 生理的パラメータの値を得るシステムのある実施形態において実行されるステップを示すフローチャートである。 生理的パラメータの値を得るステップの代替的なシーケンスを示すフローチャートである。
本発明が以下、添付の図面を参照してより詳細に説明される。
生体の状態を分類するシステム1が、コンピュータ2、カメラ3及び向きを変えることができる光源4を有する例を介して示される。
コンピュータ2は、それがカメラインタフェース5及び光源4に対するインタフェース6を具備する点を除けば、例えばパーソナルコンピュータといった任意のタイプのコンピュータデバイスとすることができる。こうして、コンピュータ2は、データ処理ユニット7、ワーキングメモリ8及び不揮発性データ記憶デバイス9を有する。少なくとも1つの音声及び可視出力を与える出力デバイス11に対するインタフェース10に出力が与えられる。ユーザ入力は、例えばキーボード、タッチスクリーン又はポインタデバイスといったユーザ入力デバイス13に対するインタフェース12を介して得られる。カメラインタフェース5は、コンピュータ2が、カメラ3によりキャプチャされる画像のシーケンスを表すデジタルデータを得て、カメラ3に制御信号を送信することを可能にする。光源インタフェース6は、コンピュータ2が光源4を制御することを可能にする。画像は、画素データにより表される。
ある実施形態(図示省略)において、向きを変えることができる光源4は、1つ又は複数のランプに関する筐体と、この筐体に接続される支持部と、この支持部に対してこの筐体を動かす1つ又は複数のアクチュエータとを有するデバイスである。支持部は、光源4をある位置に固定する台又はブラケットとすることができる。コンピュータ2からの制御信号は、アクチュエータを制御する。別の実施形態では、筐体は移動しない。しかし、光源4において生成される光のビームを所望の位置に向ける反射及び/又は屈折光学要素が与えられる。
ある実施形態において、光源4は、カメラ3に対してある位置に固定される。カメラ3は、支持部(例えば台又はブラケット)に対して移動可能である。斯かる実施形態においては、光源4は、カメラ3も向けられるポイントに光のビームを向けるよう構成される。
ある実施形態において、光源4は、電磁スペクトルの可視範囲において光を発する、より詳細には、この範囲のサブ範囲においてだけエネルギーの大部分(例えば70%、80%又は更には90%)を持つ光を発するよう構成される。ある実施形態において、このサブ範囲は人間の観察者により緑として知覚される周波数を含む。これは、即ち450〜570nmの波長に対応する周波数である。特定の実施形態において、光源4のスペクトルは、480〜520nmの間の範囲に含まれる最大を持つ。この効果は、カメラ3によりキャプチャされるシーンに存在する生体の心拍をシステム1がより高い精度で決定することが可能である点にある。
カメラ3は、少なくとも電磁スペクトルの可視範囲における画像をキャプチャするよう構成される任意のタイプのデジタルカメラとすることができる。ある実施形態では、カメラが、複数のチャネル、例えば3つのチャネルにおいて画像を与えるよう構成される。チャネルの1つは、光源4が光を発するよう構成されるサブ範囲に対応する可視スペクトルの制限されたサブ範囲へとチューニングされる。このため、カメラ3は、そのチャネルに関する適切な光学フィルタを具備する。当業者には既知であるように、チャネルは、カラー画像を形成するためのモノクロ画像である。チューニングされたチャネルに加えて、例えば、赤及び青のチャネルが存在することができる。
他の全ての点において、カメラ3は、例えばCCD又はCMOS技術に基づかれる従来のデジタルビデオカメラとすることができる。
図2に表されるように、システム1、より詳細にはコンピュータ2は、カメラ3によりキャプチャされるシーンに表される1つ又は複数の生体を選択するよう構成される(ステップ14)。コンピュータがシーンに表される体部分(例えば、顔又は露出した皮膚を持つ任意の体部分で、オプションで1つ又は複数の基準を満たす)を選択するという点で、選択は黙示的でありえる。ある実施形態において、人間のオペレータは、入力デバイス13を介して適切なユーザ入力を与えることにより選択を実行する。1つ又は複数の画像のシーケンスが、この処理においてオペレータを誘導するため、出力デバイス11に表示されることができる。別の実施形態では、コンピュータ2は、個人又は個人の部分を選択するため、画像のシーケンスのうちの少なくとも1つを解析する。例えば、コンピュータ2は、画像セグメント化を実行することができ、それが生体の皮膚表面を表すセグメントであるかどうか、各セグメントについて決定するのに1つ又は複数の分類アルゴリズムを使用する。これは、候補セグメントのセットを与える。1つの変形例において、生体の皮膚表面に対応するよう決定された候補セグメントの1つ又は複数を選択するために、追加的な基準が評価される。別の変形例において、ほとんど均一的な候補セグメントが選択される。更に別の変形例において、生体の部分を表すものとして検出された候補セグメントの1つが、ランダムに選択される。候補セグメントを選択するのに他のタイプの視野ベースの解析が用いられることができる点に留意されたい。
別の実施形態では、移動する対象物に対応する領域を決定するのに、動き検知が用いられる。これは、追跡に関する1つ又は複数の候補領域を再度与える。この1つ又は複数の領域は、ランダムに又は追加的な基準を用いて選択されることができる。
代替的に、コンピュータ2は、生体を特徴づける生理的パラメータの1つ又は複数の値のシーケンスを決定するよう、及び追跡される生体を選択するためにこの値を用いるよう構成されることができる。例えば、特定の範囲に含まれる値の心拍又は呼吸速度を持つ生体が、追跡のために選択されることができる。これらの方法の組合せが可能である。例えば、人間のオペレータが生体の選択を確定することを可能にするため、生理的パラメータの1つ又は複数の値に基づき選択される生体が、スクリーン上で強調されることができる。
一旦生体又は生体の部分が選択されると、この対象物が移動するとき、カメラ3によりキャプチャされる画像において表される選択された対象物の少なくとも一部を照射するよう、向きを変えることができる光源4が制御される(ステップ15)。同時に、カメラ3によりキャプチャされ、コンピュータ2に渡される画像が、視野ベースの解析及び対象物を特徴づける生理的パラメータの少なくとも1つの値の決定を用いて、対象物の状態を分類するために解析される(ステップ16)。
既に述べたように、ある実施形態において向きを変えることができる光源を制御するステップ15は、カメラ3をこれに付けられる光源4と共に動かすステップを含む。その結果、光源4からのビームが一般に、選択された対象物の少なくとも一部上に固定された状態で残る。本実施形態において、対象物の選択された部分は、視野ベースの解析を用いて追跡され、カメラ3は、この部分がカメラ3によりキャプチャされる各画像において一般に同じ位置にとどまることを確実にするよう制御される。
別の実施形態では、光源4及びカメラ3は、異なる位置に配置される。カメラ3及び光源4の環境をモデル化し、コンピュータ2が1つのモデルにおける位置を他のモデルにおける位置にマッピングすることを可能にする式を得るため、較正パターンが用いられる。コンピュータ2は、視野ベースの画像解析を用いて対象物の選択された部分を追跡し、対象物による運動を光源4からのビームを方向付ける命令へと変換する。
更に別の実施形態において、光源4が光を放出するよう構成されるサブ範囲に対応する可視スペクトルの限定されたサブ範囲へとチューニングされる映像信号のチャネルが使用される。本実施形態において、ビームスポットの位置が、画像において、少なくともチューニングされたチャネルにおける画像のフレーム形成要素において追跡されるという点で、閉ループ制御の形式が実現される。追跡される対象物の選択された部分も特定され、ビームスポットが選択された部分の上に横たわるよう光源4が制御される。
画像の選択された部分を追跡するための視野ベースの画像解析は、複数の既知の技術の任意の1つを用いて実行されることができる。例えば、De Haan, G.らによる「True motion estimation with 3D-recursive search block-matching」、IEEE Trans, on Circ. and Syst. from Video Techn., Vol. 3, Oct. 1993, pp. 368-388にて説明される。
ある実施形態において、画像を解析し、行動の状態を分類するステップ16は、図3に基づき実現される。この実施形態において、コンピュータ2は、画像において表される生体の状態を分類するデータを得るため、カメラ3によりキャプチャされる画像のシーケンスの少なくとも1つに関して、視野ベースの解析を実行する。コンピュータは、同じ源、即ち、カメラ3から画像を用いて、生体の生理的パラメータの少なくとも1つの値を決定する。コンピュータ2は、あるタイプの状態、より詳細には対象物により取られるあるタイプの行動を示す入力及び出力データとして、視野ベースの解析を適用することにより得られるデータと生理的パラメータの値に基づかれるデータとの両方を考慮する分類アルゴリズムを実現する。
図3に示されるように、新しい画像がカメラ3から受信されるとき(ステップ17)、この方法は継続的に実行される。最近受信された画像から形成されるサブシーケンスが、解析に用いられる。この方法は、新しい画像が受信されるたびではなく、特定の数の画像が受信されるたびに、実行されることもできる。
図示される実施形態において、Niebles, J.C.らによる「Unsupervised learning of human action categories using spatial-temporal words」、Int. J. Comp. Vision, 79 (3), Sept. 2008, pp. 299-318にて説明されるあるタイプの時間空間解析が使用される(ステップ18)。この方法では、画像のシーケンスは、時空関心点を抽出することにより時空単語の集合として表される。図3の実施形態において、斯かる単語のセットが、第1の特徴ベクトル19へと組み立てられる(ステップ20)。
画像が平行ステップ18において解析される画像の同じシーケンスからの画像を用いて(画像が同一である必要はない。画像の源が同一であり、画像が同じ時間間隔から生じるという同期性があればよい)、強度信号が図5及び6の方法の1つを用いて抽出される(ステップ21)。この方法は、以下に詳細に述べられる。強度信号は、測定ゾーンにおける少なくとも複数の画像点での画素値の組合せの時間変化する値における少なくとも変動を表す。測定ゾーンは、追跡される領域であって、少なくとも図2の方法において照射される領域に配置される。
人間の皮膚は、少なくとも2つの層を持つ対象物としてモデル化されることができる。1つは、表皮(薄い表面層)であり、もう1つは真皮(表皮の下のより厚い層)である。入力光線の約5%は表皮において反射される。これは、すべての波長及び皮膚カラーにあてはまる。残りの光は、体反射として知られる現象により、2つの皮膚層内で散乱及び吸収される(二色性反射モデルにおいて説明される)。表皮は、光学フィルタのようにふるまい、主に光を吸収する。真皮において、光は、散乱及び吸収される。吸収は、血液組成に依存する。その結果、吸収は血流変動に敏感である。真皮の光学特性は一般に、すべての人間に対して同じである。真皮は、大人の総血管ネットワークの約10%である、血管の密集したネットワークを含む。これらの血管は、体内の血流に基づき収縮する。それらは結果的に、真皮の構造を変化させる。これは、皮膚層の反射率に影響を与える。結果的に、心拍が、皮膚反射率の変動から決定されることができる。
第2の特徴ベクトル22を構築するのに、強度信号が用いられる(ステップ23)。この特徴ベクトル22は例えば、強度信号を表す値のシーケンス、又は強度信号の優位周波数及びこの優位周波数の値における変化の推定の少なくとも1つに対応する1つ又は複数の値を有することができる。ある実施形態において、この値は、時間における連続点に対応する。ある実施形態において、強度信号のスペクトルの異なるサブ範囲における複数の優位周波数が、特徴ベクトル22に入られる。こうして、2つ又はこれ以上の周期的な生理的現象を特徴づける値が、生体(人間)の状態を決定するための基礎として用いられる。
すると、第1の特徴ベクトル19及び第2の特徴ベクトル22は、分類アルゴリズムへの入力として使用される共同特徴ベクトル25を形成するために連結される(ステップ24)。追跡される対象物の状態、特にこの対象物によりとられる行動を決定するため、このアルゴリズムが続いて適用される(ステップ26)。
ある実施形態において、分類アルゴリズムは、サポートベクトルマシンにより実現される。別の実施形態では、AdaBoostが分類アルゴリズムとして用いられる。他の任意のタイプの機械学習アルゴリズムが用いられることができる。このアルゴリズムは、ここでは詳細に説明されない処理において、トレーニングビデオ及び人間分類器を用いて、最初にトレーニングされる。図3に示される処理は、ユーザの状態を決定するため、生理的信号と時空的な係数との間の相関を用いることもできる分類器を用いる。
これは、図4に示される代替的な方法に必ずしもあてはまるわけではない。しかしながら、図4の方法は、より高速で、計算的により効率的でありえる。この方法では、例えばNiebles, J.C.らによる「Unsupervised learning of human action categories using spatial-temporal words」、Int. J. Comp. Vision, 79 (3), Sept. 2008, pp. 299-318にて説明される方法を用いて、画像のシーケンスが再び形成され(ステップ27)、時空的な係数が得られる(ステップ28)。すると、第1の特徴ベクトル29が再び構築される(ステップ30)。
次に、第1の、別々の分類器が、第1の特徴ベクトル29に適用される(ステップ31)。この分類器は、少なくとも1つの機械学習アルゴリズムにも基づかれる。特定の場合において、それは、曖昧な結果を得る場合がある。例えば、単に視野ベースの解析を用いるだけでは、画像のシーケンスにおいて表される人がランニングしているか又はジョギングしているかを決定することが比較的困難である。個別の画像における人の姿勢は、いずれの場合も似ていることになる。第1の分類ステップ31が結果として少なくとも1つの所定のクラスのいずれかを与える場合、これは、特定のクラスに関する不確定度を示し、所定のクラスのサブクラスを決定するため追加的なステップ32〜34が実行される。従って、第1の分類ステップ31が「ランニング又はジョギングしているかのどちらか」という結果を与える場合、2つのクラスのどちらが正確かを決定するため追加的なステップ32〜34が実行されることになる。これらの追加的なステップ32〜34の第1のステップ32において、図5及び6に概説される方法の1つを用いて強度信号が抽出される。すると、生理的パラメータの少なくとも1つの値は、強度信号を表すデータに基づき決定される(ステップ33)。その後、例えば規則のセットを用いて、正確な状態が決定される(ステップ34)。別の実施形態において、機械学習アルゴリズムが、強度信号に基づき特徴ベクトルに適用され、アルゴリズムの結果が、第1の分類ステップ31の結果と組み合わせられ、最終的な結果となる。
ここで図5を参照すると、強度信号を抽出するステップ21,32の第1の実現が更に詳細に説明される。図示された実施形態は、初期化フェーズを含む。これは、システム1が起動されるとき、実行されることができる。この初期化フェーズにおいて、カメラ3に関する適切な設定が決定される(ステップ35)。このため、コンピュータ2は、デジタル画像のシーケンスがキャプチャされる間、カメラ3のフレームレート、露出時間、画素クロック(画素値が取得されるレートを決定する)及びカメラチャネルのゲインの少なくとも1つが変化されることをもたらす。シーケンスの各画像の少なくとも一部の(空間的な)平均輝度が決定され、平均輝度における周期的変動の大きさが設定の各新しい値に対して決定される。バックグラウンド変動が少なくとも極小を示すそれらの設定が、後続の使用のために選択される。少なくとも画像の一部の空間平均輝度を決定する代わりに、個別のピクセルの輝度変動が決定されることができる。カメラ3の設定を選択する効果は、周期的なバックグラウンド照明変動が、この方法の残りが適用される画像のシーケンスから最大限無くなる点にある。
次のステップ36において、画像のシーケンス37がカメラ3から得られる。画像のシーケンス37は、時間における連続的な点でキャプチャされたシーンを表す。この点は、規則的な又は不規則な間隔とすることができる。
次のステップ38において、画像37は、非周期的バックグラウンド信号を除去するよう処理される。このため、画像37の一部又は全部の時間変化する平均輝度に対応する訂正信号が形成される。図示される実施形態において、画像37の画素データが訂正信号から相関分離される。非線形相互相関を打ち消すアルゴリズムは、それ自体知られている。例えばカメラ運動を補償するため、追加的な画像処理がこのステージ38で行われることができる。
図2の第1のステップ14がすでに実行されたと仮定される。その結果、追跡される領域39が特定されている。この領域の位置が得られる(ステップ40)。
続いて、各選択及び追跡された領域39に関して、領域39内の測定ゾーン41が選択される(ステップ42)。測定ゾーン41は、シーケンス37の各画像において特定される。従って、画像の各々のどのピクセルが、測定ゾーンを形成するすべての画像点に関して測定ゾーン41の特定の画像点に対応するかが決定される。
次に、測定ゾーン41の画像点に対応するピクセルの時間変化する平均輝度を表す信号44が生成される(ステップ43)。シーケンス37の各画像に対して、測定ゾーン41に含まれると決定されるピクセルの平均輝度が形成される。シーケンス37の各画像が時間における点を表すので、時間変化する(離散時間)信号がこうして得られる。別の実施形態では、特定の画像点が放棄される。その結果、測定ゾーン41におけるすべての画像点より少ない画素値の和がとられる。ある実施形態では、他のチャネルとは異なる重みを持つ少なくとも1つのチャネルを用いて、画素値の加重和が用いられる。これは、光源4が光を放出するよう構成される可視スペクトルのサブ範囲にチューニングされるチャネルの重みを過重にすることを可能にする。別の実施形態では、そのチャネルからの値だけが用いられる。
すると信号44は、測定ゾーン41の画像点に対応するピクセルの時間変化する平均輝度を表す追加的な信号46を生み出すため、その平均値に中心化される(ステップ45)。これは、そこでの変動をよりよく観測することを可能にする。変形例において、このステップ45は、ステップ38に代替的に含まれる訂正信号との相関分離も有する。異なる変形例において、このステップ45は、フィルタリング処理、例えば信号の微分に対応するフィルタリング処理を有する。小さな振幅を持つ時間変動を抽出する他の変形例も可能である。
最終的に、心拍又は呼吸速度を表す情報を追加的な信号46から抽出するための基本的な信号処理技術が使用される(ステップ47)。それぞれ、呼吸速度及び心拍に通常関連付けられる範囲に含まれる優位周波数を決定することにより、これらのいずれか又は両方が抽出されることができる。
図6は、生理的パラメータの少なくとも1つの値を決定するのに使用される強度信号を抽出するステップ21,32の代替的な実現を示す。
初期ステップ48〜50は、図5の方法の対応するステップ35,36,38に類似する。こうして、画像のシーケンス51が得られ(ステップ49)、及び訂正される(ステップ50)。
しかしながら、次のステップ52において、グリッドが、各画像51にオーバーレイされる。このグリッドは、複数の測定ゾーン又は可能性としての測定ゾーンへと各画像を分割する。各測定ゾーンは、複数の画像点、即ち複数のピクセル位置を含む。
すると、少なくとも1つの、しかし一般にはすべての測定ゾーンが選択され(ステップ53)、各測定ゾーンに関して、その測定ゾーンの画像点に対応する画像51におけるピクセルの輝度値の時間変化する空間平均に対応する個別の信号54a〜nが確立される。
すると、関連付けられる測定ゾーンの画像点に対応するピクセルの時間変化する平均輝度を表す追加的な信号56a〜nを与えるため、各第1の信号54a〜nが、その平均値に中心化される(ステップ55)。これは、そこにおける変動をよりよく観測することを可能にする。変形例において、このステップ55は、画像51に訂正を適用する初期のステップ50において代替的に含まれる訂正信号との相関分離も有する。異なる変形例において、このステップ55は、フィルタリング処理、例えば信号の微分に対応するフィルタリング処理を有する。小さな振幅を持つ時間変動を抽出する他の変形例も可能である。
その後、信号56a〜nのスペクトルが特定の範囲内に局所最大を持つ周波数が決定される(ステップ57)。この場合も、このステップ57は、2つの個別の範囲における優位周波数を決定するステップを含むことができる。その結果、例えば、心拍及び呼吸速度の値が決定される。
この実施形態において、例えば測定ゾーンごとに決定される優位周波数を比較することにより又は異なる強度信号54a〜nの間の位相差を検出することにより、1人以上の人が画像のシーケンス51に存在するかどうかを検出することが可能である。1つの生体が向きを変えることができる光源4で追跡されることになるので、最も強い強度信号54a〜nが、特徴ベクトルを構築するステップ23(図3)において、又は図4の方法における生理的パラメータの少なくとも1つの値を決定するステップ33において使用される信号である。
画像のシーケンス51において表されるすべての対象物の生理的パラメータの値を決定する可能性は、図6の方法を図2の方法における第1のステップ14を実現するのに適したものとする。なぜなら、状態が決定されることになる人を選択する基準として生理的パラメータの値を用いることが可能であるからである。従って、ある実施形態において、図6の方法が、図2における第1のステップ14において用いられ、図5の方法は、後続の解析ステップ16において用いられる。
こうして、上述の方法は、画像のシーケンス37,51に表される人の状態の完全に自動的な決定を可能にする。これは、人の挙動の決定とすることができる。ここで、より長い時間の幅が、シーケンス37,51又は行動により覆われる。この方法は、その目立たない性質からみて、セキュリティ目的での監視システムに適している。この方法は、例えば、誰かが脳卒中等に苦しんでいるかどうかを検出するため、医療目的の監視システムとしても使用可能である。
上述された実施形態は本発明を限定するものではなく説明するものであり、当業者であれば、添付された請求項の範囲から逸脱することなく、多くの代替的な実施形態をデザインすることができることになることに留意されたい。請求項において、括弧内に配置されるいかなる参照符号も請求項を限定するものとして解釈されるべきではない。「有する」という語は、請求項に記載される以外の要素又はステップの存在を除外するものではない。ある要素に先行する「a」又は「an」という語は、斯かる要素が複数存在することを除外するものではない。特定の手段が相互に異なる従属項に記載されるという単なる事実は、これらの手段の組み合わせが有利に使用されることができないことを示すものではない。
ある実施形態では、光源4を用いて、実際には全体の光源4を用いて画像のシーケンスに表される選択された対象物の部分を追跡するステップ15が省略される。代わりに、コンピュータ2は、そこに表される生体の状態を分類するため、画像のシーケンスを解析する。この解析は、リアルタイムに実行されることができるか、又は記録された画像のシーケンスに関して実行されることができる。

Claims (11)

  1. 画像解析の方法において、
    画像のシーケンスを得るステップと、
    前記画像に表される対象物の状態を分類するためのデータを得るべく、前記画像のシーケンスの少なくとも1つに関し視野ベースの解析を実行するステップと、
    前記画像のシーケンスの少なくともいくつかに表される生体の生理的パラメータの少なくとも1つの値を決定するステップであって、前記生理的パラメータの少なくとも1つの値が、前記視野ベースの解析が実行される前記少なくとも1つの画像が撮られる画像の同じシーケンスからの画像データの解析を介して決定される、ステップと、
    前記視野ベースの解析で得られるデータ及び前記生理的パラメータの少なくとも1つの値を用いて、前記対象物の状態を分類するステップとを有し、
    前記画像のシーケンスの少なくともいくつかに表される生体の生理的パラメータの少なくとも1つの値が、遠隔フォトプレチスモグラフィ解析を用いて得られる、方法。
  2. 前記対象物の状態を分類するステップが、前記対象物により行われる行動を分類するステップを有する、請求項1に記載の方法。
  3. 別々の分類器が、前記生理的パラメータの値に基づかれるデータ及び前記視野ベースの解析を実行することにより得られるデータに適用される、請求項1に記載の方法。
  4. 単一の分類器が、前記生理的パラメータの値に基づかれるデータ及び前記視野ベースの解析を実行することにより得られるデータの組合せに適用される、請求項1に記載の方法。
  5. 可視スペクトルの限定されたサブ範囲において光を放出するよう構成される光源を用いて、前記生体の少なくとも一部を照射するステップを有する、請求項に記載の方法。
  6. 前記遠隔フォトプレチスモグラフィ解析が、
    複数の画像点を含む少なくとも1つの測定ゾーンを選択するステップであって、各画像が、画素データにより表され、各画像が、前記画像のシーケンスの各々における少なくとも1つの関連付けられる画素値を持つ、ステップと、
    前記測定ゾーンにおける少なくとも複数の関連付けられる画像点での画素値の組合せの時間変化する値における少なくとも変動を表す信号を得るステップとを含む、請求項に記載の方法。
  7. 前記画像のシーケンスにおいて表される選択された対象物の少なくとも一部を追跡するため前記画像のシーケンスに関し視野ベースの画像解析を実行するステップと、
    前記選択された対象物の少なくとも一部を照射する向きを変えることができる光源を制御するステップとを有する、請求項1に記載の方法。
  8. 前記画像のシーケンスの少なくとも1つを表す画素データの少なくともいくつかを解析することにより、前記選択された対象物の部分を選択するステップを有し、各画像が、画素データにより表される、請求項に記載の方法。
  9. 画像解析に関するシステムであって、
    画像のシーケンスを得るインタフェースと、
    前記画像において表される対象物の少なくとも1つの行動を分類するためのデータを得るべく、前記画像のシーケンスの少なくとも1つに関し視野ベースの解析を実行する第1の画像解析システムと、
    前記画像のシーケンスの少なくともいくつかに表される生体の生理的パラメータの少なくとも1つの値を決定するシステムであって、前記生理的パラメータの少なくとも1つの値を決定するシステムが、前記視野ベースの解析が実行される前記少なくとも1つの画像が撮られる画像の同じシーケンスからの画像データの解析を用いて、前記生理的パラメータの少なくとも1つの値を決定する第2の画像解析システムを有する、前記生理的パラメータの少なくとも1つの値を決定するシステムとを有し、
    前記画像解析に関するシステムが、前記第1の画像解析システムにより提供されるデータ及び前記生理的パラメータの少なくとも1つの値を用いて、前記対象物の行動を分類するよう構成され
    前記画像のシーケンスの少なくともいくつかに表される生体の生理的パラメータの少なくとも1つの値が、遠隔フォトプレチスモグラフィ解析を用いて得られる、システム。
  10. 請求項1乃至のいずれか一項に記載の方法を実行するよう構成される、請求項に記載のシステム。
  11. 機械読み出し可能な媒体に組み込まれるとき、情報処理能力を持つシステムに請求項1乃至の任意の一項に記載の方法を実行させることができる命令セットを含むコンピュータプログラム。
JP2012525231A 2009-08-20 2010-08-09 画像解析に関する方法及びシステム Active JP5715132B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP09168238.5 2009-08-20
EP09168238 2009-08-20
PCT/IB2010/053588 WO2011021128A2 (en) 2009-08-20 2010-08-09 Method and system for image analysis

Publications (2)

Publication Number Publication Date
JP2013502633A JP2013502633A (ja) 2013-01-24
JP5715132B2 true JP5715132B2 (ja) 2015-05-07

Family

ID=43066646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012525231A Active JP5715132B2 (ja) 2009-08-20 2010-08-09 画像解析に関する方法及びシステム

Country Status (6)

Country Link
US (1) US8634591B2 (ja)
EP (2) EP2467805B1 (ja)
JP (1) JP5715132B2 (ja)
KR (1) KR20120048021A (ja)
CN (2) CN102473238B (ja)
WO (1) WO2011021128A2 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LV14514B (lv) * 2010-10-06 2012-08-20 Latvijas Universitāte Iekārta un metode sirdsdarbības parametru optiskai bezkontakta kontrolei
EP2691020A2 (en) 2011-03-30 2014-02-05 Koninklijke Philips N.V. Contactless sleep disorder screening system
EP2699146B1 (en) 2011-04-21 2018-12-26 Koninklijke Philips N.V. Device and method for vital sign measurement of a person
GB201114406D0 (en) 2011-08-22 2011-10-05 Isis Innovation Remote monitoring of vital signs
EP2748762B1 (en) * 2011-08-26 2019-05-15 Koninklijke Philips N.V. Distortion reduced signal detection
WO2013038326A1 (en) 2011-09-13 2013-03-21 Koninklijke Philips Electronics N.V. Distortion reduced signal detection
WO2013046082A2 (en) 2011-09-29 2013-04-04 Koninklijke Philips Electronics N.V. Distortion reduced signal detection
JP5822651B2 (ja) * 2011-10-26 2015-11-24 株式会社ソニー・コンピュータエンタテインメント 個体判別装置および個体判別方法
US10542925B2 (en) 2012-02-28 2020-01-28 Koninklijke Philips N.V. Device and method for monitoring vital signs
RU2625947C2 (ru) 2012-05-01 2017-07-19 Конинклейке Филипс Н.В. Устройство и способ для извлечения информации из дистанционно обнаруживаемых характеристических сигналов
CN104507382B (zh) * 2012-07-30 2017-10-13 皇家飞利浦有限公司 用于提取生理信息的设备和方法
JP6422865B2 (ja) * 2012-08-02 2018-11-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 生理学的情報を抽出する装置及び方法
JP6306022B2 (ja) 2012-09-21 2018-04-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 遠隔的に検出された電磁放射線から導出可能なデータを処理する装置及び方法
JP2015532164A (ja) * 2012-10-23 2015-11-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 生物のバイタルサイン情報を取得するためのデバイス及び方法
CN103054569B (zh) * 2012-12-20 2015-04-22 Tcl集团股份有限公司 基于可见光图像测量人体心率的方法、装置及手持设备
BR112015014945A2 (pt) * 2012-12-21 2017-07-11 Koninklijke Philips Nv sistema de monitoramento remoto de fotoplestimografia, método de monitoramento remoto de fotoplestimografia, e programa de computador
RU2697291C2 (ru) * 2013-03-06 2019-08-13 Конинклейке Филипс Н.В. Система и способ определения информации об основных показателях состояния организма
EP2967377A1 (en) * 2013-03-14 2016-01-20 Koninklijke Philips N.V. Device and method for obtaining vital sign information of a subject
JP6423807B2 (ja) * 2013-03-14 2018-11-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 対象のバイタルサインを決定する装置及び方法
US10238292B2 (en) 2013-03-15 2019-03-26 Hill-Rom Services, Inc. Measuring multiple physiological parameters through blind signal processing of video parameters
CN105473060B (zh) * 2013-08-06 2019-12-03 皇家飞利浦有限公司 用于从远程检测到的电磁辐射中提取生理信息的系统和方法
US9418279B2 (en) 2013-11-19 2016-08-16 Qualcomm Incorporated Detection of an object's varying features with a non-stationary device
KR102176001B1 (ko) * 2014-02-06 2020-11-09 한국전자통신연구원 생체 정보 측정장치 및 측정방법
CN106102564B (zh) * 2014-03-06 2019-10-01 皇家飞利浦有限公司 生理特性确定装置
CN106413533B (zh) * 2014-06-06 2020-12-22 皇家飞利浦有限公司 用于检测对象的呼吸暂停的设备、系统和方法
US9609385B2 (en) * 2014-08-28 2017-03-28 The Nielsen Company (Us), Llc Methods and apparatus to detect people
WO2016069788A1 (en) 2014-10-29 2016-05-06 Spectral Md, Inc. Reflective mode multi-spectral time-resolved optical imaging methods and apparatuses for tissue classification
US10438215B2 (en) 2015-04-10 2019-10-08 International Business Machines Corporation System for observing and analyzing customer opinion
US10677736B2 (en) * 2015-05-11 2020-06-09 Arcelormittal Method of determining a chemical composition of a slag portion
US10970590B2 (en) * 2015-06-05 2021-04-06 Schlumberger Technology Corporation Image-based wellsite equipment health monitoring
KR101788850B1 (ko) * 2015-08-24 2017-10-20 상명대학교산학협력단 영상 피부색 증폭을 통한 심박 신호 측정 방법
CN108471989B (zh) 2016-01-15 2022-04-26 皇家飞利浦有限公司 用于生成承载对象的生命体征信息的光体积描记图像的设备、系统和方法
GB201601143D0 (en) * 2016-01-21 2016-03-09 Oxehealth Ltd Method and apparatus for health and safety monitoring of a subject in a room
GB201601142D0 (en) 2016-01-21 2016-03-09 Oxehealth Ltd Method and apparatus for estimating breathing rate
GB201601140D0 (en) 2016-01-21 2016-03-09 Oxehealth Ltd Method and apparatus for estimating heart rate
GB201601217D0 (en) 2016-01-22 2016-03-09 Oxehealth Ltd Signal processing method and apparatus
US9928403B2 (en) * 2016-02-09 2018-03-27 Molecular Devices, Llc System and method for image analysis of multi-dimensional data
US10335045B2 (en) 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
GB201615899D0 (en) 2016-09-19 2016-11-02 Oxehealth Ltd Method and apparatus for image processing
WO2018087528A1 (en) 2016-11-08 2018-05-17 Oxehealth Limited Method and apparatus for image processing
WO2018160963A1 (en) * 2017-03-02 2018-09-07 Spectral Md, Inc. Machine learning systems and techniques for multispectral amputation site analysis
GB201706449D0 (en) 2017-04-24 2017-06-07 Oxehealth Ltd Improvements in or realting to in vehicle monitoring
CN107451553B (zh) * 2017-07-26 2019-08-02 北京大学深圳研究生院 一种基于超图转变的视频中暴力事件检测方法
KR102151710B1 (ko) * 2017-11-06 2020-09-04 주식회사 베이바이오텍 이미지 분석 결과 및 학습된 피부 인식기에 기초하여 피부의 상태를 평가하는 방법 및 프로그램
GB201803508D0 (en) 2018-03-05 2018-04-18 Oxehealth Ltd Method and apparatus for monitoring of a human or animal subject
US10783632B2 (en) 2018-12-14 2020-09-22 Spectral Md, Inc. Machine learning systems and method for assessment, healing prediction, and treatment of wounds
US10740884B2 (en) 2018-12-14 2020-08-11 Spectral Md, Inc. System and method for high precision multi-aperture spectral imaging
EP3893733A4 (en) 2018-12-14 2022-10-12 Spectral MD, Inc. Machine learning systems and methods for assessment, healing prediction, and treatment of wounds
CN113260835B (zh) 2018-12-14 2025-04-08 光谱Md公司 用于高精度多孔径光谱成像的系统和方法
KR102167052B1 (ko) * 2018-12-14 2020-10-19 한국철도기술연구원 무임 승객 정보 관리 시스템 및 그 방법
GB201900032D0 (en) 2019-01-02 2019-02-13 Oxehealth Ltd Method and apparatus for monitoring of a human or animal subject
GB201900034D0 (en) 2019-01-02 2019-02-13 Oxehealth Ltd Method and apparatus for monitoring of a human or animal subject
GB201900033D0 (en) 2019-01-02 2019-02-13 Oxehealth Ltd Mrthod and apparatus for monitoring of a human or animal subject
CN111192141A (zh) * 2020-01-06 2020-05-22 深圳壹账通智能科技有限公司 基于远程光体积描述术的风险评估方法、装置及存储介质
TWI865049B (zh) * 2023-09-18 2024-12-01 英業達股份有限公司 週期性事件之事件發生週期偵測系統

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8628698D0 (en) 1986-12-01 1987-01-07 Kon Israel Pulse rate detector
US4958638A (en) 1988-06-30 1990-09-25 Georgia Tech Research Corporation Non-contact vital signs monitor
US5203328A (en) 1991-07-17 1993-04-20 Georgia Tech Research Corporation Apparatus and methods for quantitatively measuring molecular changes in the ocular lens
CA2183886C (en) 1994-03-24 2007-01-09 David W. Osten Biometric, personal authentication system
US5507291A (en) * 1994-04-05 1996-04-16 Stirbl; Robert C. Method and an associated apparatus for remotely determining information as to person's emotional state
WO1999032030A1 (en) 1997-12-22 1999-07-01 Btg International Limited Artefact reduction in photoplethysmography
US6067399A (en) 1998-09-02 2000-05-23 Sony Corporation Privacy mode for acquisition cameras and camcorders
WO2000044274A2 (en) 1999-01-29 2000-08-03 Pougatchev Vadim I Personal physiological monitor
US7904139B2 (en) 1999-08-26 2011-03-08 Non-Invasive Technology Inc. Optical examination of biological tissue using non-contact irradiation and detection
AU2001242127A1 (en) 2000-03-16 2001-09-24 Cedara Software Corp. System and method for processing an image sequence
US6996256B2 (en) 2000-06-08 2006-02-07 Honeywell International Inc. Detection system and method using thermal image analysis
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
WO2003088648A1 (en) 2002-04-17 2003-10-23 Matsushita Electric Industrial Co., Ltd. Motion detector, image processing system, motion detecting method, program, and recording medium
JP4200687B2 (ja) * 2002-05-13 2008-12-24 株式会社日立製作所 生体認証装置および該装置実現のためのプログラム
US20050054940A1 (en) 2003-04-23 2005-03-10 Almen Adam J. Apparatus and method for monitoring heart rate variability
US20050054935A1 (en) 2003-09-08 2005-03-10 Rice Robert R. Hyper-spectral means and method for detection of stress and emotion
US7388971B2 (en) 2003-10-23 2008-06-17 Northrop Grumman Corporation Robust and low cost optical system for sensing stress, emotion and deception in human subjects
GB0327100D0 (en) 2003-11-21 2003-12-24 King S College Hospital Nhs Tr Blood flow monitoring equipment
US8285359B2 (en) 2003-11-26 2012-10-09 General Electric Company Method and system for retrospective gating using multiple inputs
US20050113673A1 (en) 2003-11-26 2005-05-26 Avinash Gobal B. Method and system to reduce motion-related image artifacts during breath holding
JP2006034576A (ja) * 2004-07-27 2006-02-09 Matsushita Electric Ind Co Ltd 乗り物酔い対策装置および乗り物酔い対策方法
CN1613425A (zh) 2004-09-15 2005-05-11 南京大学 司机疲劳预警生物识别的方法和系统
CN100509083C (zh) 2005-01-31 2009-07-08 重庆微海软件开发有限公司 利用呼吸信号控制图像同步的方法及其装置
US7706683B2 (en) * 2005-05-31 2010-04-27 Brainlab Ag Self adjusting operation lamp system
JP2007034664A (ja) * 2005-07-27 2007-02-08 Sony Corp 感情推定装置および方法、記録媒体、および、プログラム
CN2817730Y (zh) * 2005-08-18 2006-09-20 中国人民解放军军事医学科学院卫生装备研究所 呼吸感应体积描记传感装置
US7840246B1 (en) 2005-09-20 2010-11-23 Pacesetter, Inc. Implantable self-calibrating optical sensors
CN101299967B (zh) 2005-11-04 2010-06-02 株式会社东芝 呼吸监视装置、呼吸监视系统、医疗处理系统、呼吸监视方法、呼吸监视程序
CN101006915A (zh) * 2006-01-26 2007-08-01 香港中文大学 非接触式关键生理参数测量方法
US8155729B1 (en) * 2006-02-17 2012-04-10 General Electric Company Method and apparatus to compensate imaging data with simultaneously acquired motion data
CN101032395A (zh) * 2006-03-08 2007-09-12 香港中文大学 基于光电容积描记信号周期域特征参量的血压测量方法
CA2655782A1 (en) 2006-06-13 2007-12-21 Elfi-Tech Ltd. System and method for measurement of biological parameters of a subject
US8360986B2 (en) 2006-06-30 2013-01-29 University Of Louisville Research Foundation, Inc. Non-contact and passive measurement of arterial pulse through thermal IR imaging, and analysis of thermal IR imagery
US20100056887A1 (en) 2006-11-27 2010-03-04 Pioneer Corporation Emission sensor device and bioinformation detecting method
US20080260212A1 (en) * 2007-01-12 2008-10-23 Moskal Michael D System for indicating deceit and verity
US8557583B2 (en) 2007-03-15 2013-10-15 Dai Nippon Printing Co., Ltd. Cell culture support and manufacture thereof
WO2008125995A1 (en) 2007-04-12 2008-10-23 Koninklijke Philips Electronics, N.V. Image capture in combination with vital signs bedside monitor
CN101657845A (zh) 2007-04-18 2010-02-24 皇家飞利浦电子股份有限公司 为医疗患者呈现个人经历的装置和方法
US20080294012A1 (en) 2007-05-22 2008-11-27 Kurtz Andrew F Monitoring physiological conditions
EP2170206B1 (en) 2007-07-13 2018-03-07 C-rad Positioning Ab Patient monitoring at radiation machines
US20090027493A1 (en) 2007-07-24 2009-01-29 Ahron Amar Method and device for security in public places
CN101112307A (zh) 2007-08-30 2008-01-30 复旦大学 利用高速ccd测量斑马鱼心率的方法
US8149273B2 (en) 2007-11-30 2012-04-03 Fuji Xerox Co., Ltd. System and methods for vital sign estimation from passive thermal video
CN101527034B (zh) 2008-03-07 2013-01-23 深圳迈瑞生物医疗电子股份有限公司 自适应帧相关的方法和装置
US20100158357A1 (en) 2008-12-19 2010-06-24 Qualcomm Incorporated Image processing method and system of skin color enhancement
US8542877B2 (en) 2009-03-06 2013-09-24 Koninklijke Philips N.V. Processing images of at least one living being
US8600100B2 (en) * 2009-04-16 2013-12-03 Sensory Logic, Inc. Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
JP5856960B2 (ja) 2009-10-06 2016-02-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 第1の信号の少なくとも一つの周期的成分を特徴付けるための分析のため第1の信号を得るための方法及びシステム
US20110251493A1 (en) 2010-03-22 2011-10-13 Massachusetts Institute Of Technology Method and system for measurement of physiological parameters

Also Published As

Publication number Publication date
CN102473238A (zh) 2012-05-23
EP2467805A2 (en) 2012-06-27
WO2011021128A2 (en) 2011-02-24
EP2546780A1 (en) 2013-01-16
JP2013502633A (ja) 2013-01-24
KR20120048021A (ko) 2012-05-14
CN104123536A (zh) 2014-10-29
WO2011021128A3 (en) 2011-08-25
US20120141000A1 (en) 2012-06-07
EP2467805B1 (en) 2020-08-05
CN104123536B (zh) 2018-09-21
US8634591B2 (en) 2014-01-21
CN102473238B (zh) 2014-08-06

Similar Documents

Publication Publication Date Title
JP5715132B2 (ja) 画像解析に関する方法及びシステム
JP5676492B2 (ja) 生体の存在を検出するデバイス及びシステムの機能を制御する方法
EP2404283B1 (en) Processing images of at least one living being
CN106999116B (zh) 用于皮肤检测的设备和方法
JP6290248B2 (ja) 遠隔検出された電磁放射線から生理学的情報を抽出するシステム及び方法
US20150297142A1 (en) Device and method for extracting physiological information
US9842392B2 (en) Device, system and method for skin detection
JP2018510669A (ja) 皮膚検出に関するデバイス、システム、及び方法
JP6817782B2 (ja) 脈拍検出装置及び脈拍検出方法
Heinrich et al. Video based actigraphy and breathing monitoring from the bedside table of shared beds
JP2014135683A (ja) 撮像制御装置、撮像制御方法および撮像制御プログラム
Deng Remote Liveness and Heart Rate Detection from Video
EP4002365A1 (en) Device and method for controlling a camera
KR et al. SS MMk kTk StSTTTCTT

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140410

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140709

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150312

R150 Certificate of patent or registration of utility model

Ref document number: 5715132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250