JP6248780B2 - Pulse wave detection device, pulse wave detection method, and pulse wave detection program - Google Patents
Pulse wave detection device, pulse wave detection method, and pulse wave detection program Download PDFInfo
- Publication number
- JP6248780B2 JP6248780B2 JP2014087553A JP2014087553A JP6248780B2 JP 6248780 B2 JP6248780 B2 JP 6248780B2 JP 2014087553 A JP2014087553 A JP 2014087553A JP 2014087553 A JP2014087553 A JP 2014087553A JP 6248780 B2 JP6248780 B2 JP 6248780B2
- Authority
- JP
- Japan
- Prior art keywords
- pulse wave
- image
- waveform
- wave detection
- roi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
本発明は、脈波検出装置、脈波検出方法及び脈波検出プログラムに関する。 The present invention relates to a pulse wave detection device, a pulse wave detection method, and a pulse wave detection program.
血液の体積の変動、いわゆる脈波を検出する技術の一例として、利用者が撮影された画像から心拍を測定する心拍測定方法が提案されている。かかる心拍測定方法では、Webカメラによって撮像された画像から顔の領域を認識し、顔の領域内の輝度平均値をRGB成分ごとに算出する。そして、心拍測定方法では、RGBごとの輝度平均値の時系列データにICA(Independent Component Analysis)を適用した上でICA後の3つの成分波形のうち1つの成分波形にFFT(Fast Fourier Transform)を適用する。その上で、心拍測定方法では、FFTで求めたピーク周波数から心拍数を推定する。 As an example of a technique for detecting a change in blood volume, that is, a so-called pulse wave, a heartbeat measuring method for measuring a heartbeat from an image taken by a user has been proposed. In such a heartbeat measuring method, a face area is recognized from an image captured by a Web camera, and an average luminance value in the face area is calculated for each RGB component. In the heart rate measuring method, after applying ICA (Independent Component Analysis) to the time series data of the luminance average value for each RGB, FFT (Fast Fourier Transform) is applied to one of the three component waveforms after ICA. Apply. In addition, in the heart rate measurement method, the heart rate is estimated from the peak frequency obtained by FFT.
しかしながら、上記の技術では、以下に説明するように、脈波の検出精度の向上に自ずから限界がある。 However, as described below, the above-described technique has a limit in improving the detection accuracy of the pulse wave.
すなわち、上記の心拍測定方法では、顔の領域の認識に顔器官の検出が用いられるが、必ずしも心拍の測定に用いられる全ての画像から良好な検出結果が得られるとは限らず、画像上で顔ではない領域が顔と誤認識される場合がある。この場合、顔と誤認識された領域には心拍の成分が含まれないので、心拍の検出精度が低下する。このように、上記の心拍測定方法は、心拍の検出精度が顔の認識精度に依存するので、顔認識の精度が悪化するにしたがって心拍の検出精度も低下する。 That is, in the above heart rate measurement method, facial organ detection is used for recognition of a face region, but a good detection result is not always obtained from all images used for heart rate measurement. An area that is not a face may be misrecognized as a face. In this case, since the heart rate component is not included in the region erroneously recognized as the face, the heart rate detection accuracy is lowered. Thus, in the above heart rate measurement method, since the heartbeat detection accuracy depends on the face recognition accuracy, the heartbeat detection accuracy also decreases as the face recognition accuracy deteriorates.
1つの側面では、本発明は、脈波の検出精度を向上させることができる脈波検出装置、脈波検出方法及び脈波検出プログラムを提供することを目的とする。 In one aspect, an object of the present invention is to provide a pulse wave detection device, a pulse wave detection method, and a pulse wave detection program that can improve the detection accuracy of a pulse wave.
一態様の脈波検出装置は、カメラによって撮像された画像を取得する取得部と、取得された複数の画像ごとに当該画像内で脈波の検出に用いる関心領域を走査する走査部と、画像ごとに走査された関心領域を複数の画像の間で組み合わされた組合せごとに当該組合せに含まれる関心領域が持つ画素値から第1の脈波波形を複数生成する生成部と、複数生成された第1の脈波波形と、基準として設定された第2の脈波波形との間で類似度を算出する算出部と、前記第2の脈波波形との間で前記類似度が最も高い第1の脈波波形を選択する選択部とを有する。 An aspect of the pulse wave detection device includes an acquisition unit that acquires an image captured by a camera, a scanning unit that scans a region of interest used for pulse wave detection in the acquired image, and an image A plurality of generation units for generating a plurality of first pulse wave waveforms from pixel values of a region of interest included in the combination for each combination in which the region of interest scanned for each image is combined between a plurality of images; The calculation unit that calculates the similarity between the first pulse wave waveform and the second pulse wave waveform set as a reference, and the highest similarity between the second pulse wave waveform and the second pulse wave waveform And a selection unit for selecting one pulse wave waveform.
脈波の検出精度を向上させることができる。 The detection accuracy of the pulse wave can be improved.
以下に添付図面を参照して本願に係る脈波検出装置、脈波検出方法及び脈波検出プログラムについて説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Hereinafter, a pulse wave detection device, a pulse wave detection method, and a pulse wave detection program according to the present application will be described with reference to the accompanying drawings. Note that this embodiment does not limit the disclosed technology. Each embodiment can be appropriately combined within a range in which processing contents are not contradictory.
[脈波検出装置の構成]
まず、本実施例に係る脈波検出装置の機能的構成について説明する。図1は、実施例1に係る脈波検出装置の機能的構成を示すブロック図である。図1に示す脈波検出装置10は、太陽光や室内光などの一般の環境光の下で人体に計測器具を接触させずに、生体が撮影された画像を用いて人体の脈波、すなわち心臓の拍動に伴う血液の体積の変動を検出する脈波検出処理を実行するものである。
[Configuration of pulse wave detector]
First, the functional configuration of the pulse wave detection device according to the present embodiment will be described. FIG. 1 is a block diagram illustrating a functional configuration of the pulse wave detection device according to the first embodiment. The pulse
かかる脈波検出装置10は、一態様として、上記の脈波検出処理がパッケージソフトウェアやオンラインソフトウェアとして提供される脈波検出プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、スマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末のみならず、タブレット端末やスレート端末などを含む携帯端末装置に上記の脈波検出プログラムをインストールさせる。これによって、携帯端末装置を脈波検出装置10として機能させることができる。なお、ここでは、一例として、脈波検出装置10が携帯端末装置として実装される場合を例示して以下の説明を行うが、パーソナルコンピュータを始めとする据置き型の端末装置に脈波検出プログラムをインストールさせることもできる。
Such a pulse
図1に示すように、脈波検出装置10は、カメラ11aと、ジャイロセンサ11bと、眼検出部12と、ROI(Region of Interest)設定部13と、基準波形生成部14と、基準波形記憶部14aとを有する。さらに、脈波検出装置10は、推定部15と、ROI走査部16と、入力波形生成部17と、類似度算出部18と、検出部19とを有する。
As shown in FIG. 1, the pulse
この脈波検出装置10は、図1に示した機能部以外にも既知のコンピュータが有する各種の機能部を有することとしてもかまわない。例えば、脈波検出装置10が据置き端末として実装される場合には、キーボード、マウスやディスプレイなどの入出力デバイスをさらに有することとしてもよい。また、脈波検出装置10がタブレット端末やスレート端末として実装される場合には、加速度センサをさらに有することとしてもよい。また、脈波検出装置10が移動体通信端末として実装される場合には、アンテナ、移動体通信網に接続する無線通信部、GPS(Global Positioning System)受信機などの機能部をさらに有していてもかまわない。
The pulse
カメラ11aは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を搭載する撮像装置である。
The
一実施形態として、カメラ11aには、R(red)、G(green)、B(blue)など3種以上の受光素子を搭載することができる。かかるカメラ11aの実装例としては、デジタルカメラやWebカメラを外部端子を介して接続することとしてもよい。また、他の実装例としては、インカメラやアウトカメラのように、カメラが出荷時から搭載されている場合にはそのカメラを流用できる。なお、ここでは、脈波検出装置10がカメラ11aを搭載する場合を例示したが、ネットワークまたは記憶デバイスを経由して画像を取得できる場合には、必ずしも脈波検出装置10がカメラ11aを有さずともよい。
As one embodiment, the
ここで、以下では、生体の一例として、顔が撮影されるとともに、カメラ11aの一実装例として、インカメラが用いられる場合を想定する。このようにカメラ11aを用いて顔を撮影させる場合には、図示しない表示デバイス、例えばタッチパネル等による表示や図示しない音声出力デバイスからの音声出力などを通じて、脈波を検出し易い画像がカメラ11aによって撮像されるように画像の撮影操作を案内することができる。例えば、上記の脈波検出プログラムは、カメラ11aを起動し、カメラ11aにカメラ11aの撮影範囲に収容された被写体の撮影を開始させる。このとき、脈波検出プログラムは、カメラ11aが撮像する画像をディスプレイに表示しつつ、脈波検出装置10の利用者の鼻を映す目標位置を照準として表示させることもできる。これによって、利用者の眼、耳、鼻や口などの顔パーツの中でも利用者の鼻が撮影範囲の中心部分に収まった画像が撮影できるようにする。そして、カメラ11aは、顔が撮像された画像を後段の機能部へ出力する。
Here, in the following, it is assumed that a face is photographed as an example of a living body and an in-camera is used as an example of implementation of the
また、上記の脈波検出プログラムは、上記のガイダンスを必ずしも実行せずともよく、他のプログラム、例えばオペレーティングシステムやアプリケーションプログラムによる表示のバックグラウンドで利用者の顔を撮影させることもできる。例えば、ディスプレイに表示されたテキスト、文書、静止画や動画などを閲覧する利用者の顔を撮影することもできる。この場合には、利用者に撮影を意識させずに、日常の生活の中で画像を採取することができる。 In addition, the above-described pulse wave detection program does not necessarily execute the above-described guidance, and can capture a user's face in the background of display by another program such as an operating system or an application program. For example, it is possible to photograph the face of a user who browses text, documents, still images, moving images, and the like displayed on the display. In this case, an image can be collected in daily life without making the user aware of shooting.
ジャイロセンサ11bは、角速度を検出するセンサであり、ジャイロあるいは角速度センサとも呼ばれることがある。
The
一実施形態として、ジャイロセンサ11bには、ピッチ(X軸)、ロール(Y軸)、ヨー(Z軸)の3軸のジャイロセンサを採用することができる。図2は、ピッチ、ロール及びヨーの3軸を示す図である。図2に示すように、ジャイロセンサ11bは、スクリーンの左右を軸とする回転の角速度、スクリーンの前後を軸とする回転の角速度およびスクリーンの上下を軸とする回転の角速度を検出する。一例として、ジャイロセンサ11bが測定する角速度の単位は「deg/s」であることとし、角速度の正負の符号は右手系に従うこととする。なお、ここでは、3軸のジャイロセンサを採用する場合を例示したが、1軸または2軸のジャイロセンサを採用することとしてもかまわない。
As an embodiment, a three-axis gyro sensor of pitch (X axis), roll (Y axis), and yaw (Z axis) can be adopted as the
ここで、図1に示すカメラ11a及びジャイロセンサ11b以外の機能部は、基準脈波波形に関する処理を実行する第1の処理系と、基準脈波波形と比較する入力脈波波形に関する処理を実行する第2の処理系とに大別できる。
Here, the functional units other than the
上記の「基準脈波波形」とは、入力脈波波形のレファレンスとする脈波波形を指す。例えば、基準脈波波形は、脈波検出装置10が安定状態である場合にカメラ11aによって撮像された一連の画像から生成される。一方、上記の「入力脈波波形」とは、基準脈波波形と比較される脈波波形を指す。例えば、入力脈波波形は、カメラ11aから入力される一連の画像から生成される。このとき、一連の画像からは、複数の入力脈波波形が生成される。詳細は後述するが、各々の入力脈波波形の間では、脈波波形の生成に用いるROIの位置が一連の画像に含まれる少なくとも1つの画像で互いに異なる。
The above-mentioned “reference pulse waveform” refers to a pulse waveform used as a reference for the input pulse waveform. For example, the reference pulse wave waveform is generated from a series of images captured by the
以下、第1の処理系に含まれる各機能部を説明してから第2の処理系に含まれる各機能部についての説明を行うこととする。なお、図1には、第1の処理系及び第2の処理系の両方が1つの装置に実装される場合を例示したが、いずれか一方の処理系だけを実装することとしてもかまわない。 Hereinafter, each functional unit included in the first processing system will be described, and then each functional unit included in the second processing system will be described. Although FIG. 1 illustrates the case where both the first processing system and the second processing system are mounted on one apparatus, only one of the processing systems may be mounted.
第1の処理系には、眼検出部12、ROI設定部13、基準波形生成部14及び基準波形記憶部14aなどが含まれる。
The first processing system includes an
眼検出部12は、画像から眼を検出する処理部である。
The
一実施形態として、眼検出部12は、カメラ11aによって撮像された画像に対し、テンプレートマッチング等の画像処理を実行することによって利用者の眼、例えば瞳の中心の座標を検出する。このとき、眼検出部12は、画像に顔検出を実行することによって処理の実行範囲を顔領域に絞り込んでから眼検出を実行することもできる。なお、ここでは、一例として、眼を検出する場合を例示するが、眼以外の顔パーツ、例えば眉、鼻や口などを検出することとしてもよいし、顔領域を検出することとしてもかまわない。
As one embodiment, the
ROI設定部13は、ROI、いわゆる関心領域を設定する処理部である。
The
一実施形態として、ROI設定部13は、ジャイロセンサ11bによって検出されるセンサ値が閾値以下であるか否かを判定する。このとき、ROI設定部13は、ピッチ、ロール及びヨーの3軸全てのセンサ値を判定に用いることもできるし、一部の軸のセンサ値に絞って判定に用いることもできる。複数の軸の各センサ値を判定に用いる場合には、全てのセンサ値が閾値以下であるかをAND条件で判定するのが好ましい。また、上記の判定に用いる閾値の一例としては、スクリーンにタッチ操作がなされていないとみなすことができる程度の値が設定される。
As one embodiment, the
そして、センサ値が閾値以下である場合、ROI設定部13は、閾値以下のセンサ値が検出される期間が所定期間にわたって継続したか否かをさらに判定する。以下では、閾値以下のセンサ値が検出される期間のことを「安定期間」と記載する場合がある。また、上記の所定期間の一例としては、一拍分の周期を包含できる程度の長さが設定される。一般に、脈拍数は、遅くとも40bpm(beat per minute)程度である。そして、40bpmの1周期は、1.5秒間に相当する。このことから、一例として、所定期間を1.5秒に設定できる。これによって、安定期間が1.5秒にわたって継続した場合には、安定期間の間に撮像された一連の画像の中に利用者の一拍分の輝度変化が収まっていると見做すことができる。
When the sensor value is equal to or smaller than the threshold value, the
ここで、安定期間が所定期間にわたって継続した場合、ROI設定部13は、安定期間の間に撮像された一連の画像に対し、眼検出を実行するように眼検出部12へ指示する。この結果、一連の画像に眼検出が実行されると、ROI設定部13は、一連の画像の間で左右の瞳孔の代表位置を算出する。例えば、ROI設定部13は、一連の画像の間で瞳孔の座標を左右の眼ごとに平均することによって得た瞳孔の平均座標を各画像の瞳孔を代表する位置として求めることができる。かかる平均値以外にも、最頻値の座標を代表位置としたり、中央値の座標を代表位置として算出することもできる。そして、ROI設定部13は、瞳孔の代表位置から一連の画像に適用するROIを設定する。例えば、ROI設定部13は、左右の瞳孔の間隔Lを算出する。その上で、ROI設定部13は、一例として、両眼の中心位置を重心とし、瞳孔の間隔Lを高さ及び幅とする矩形状の領域をROIとして設定する。
Here, when the stable period continues for a predetermined period, the
図3は、時間及びセンサ値の関係の一例を示す図である。図4は、ROIの一例を示す図である。図3に示すグラフの縦軸は、角速度の振幅を指し、グラフの横軸は、時刻を指す。図3には、ピッチ角における振幅の時間変化を実線で示すとともにロール角における振幅の時間変化を破線で示し、判定に用いる閾値を一点鎖線で示す。 FIG. 3 is a diagram illustrating an example of the relationship between time and sensor value. FIG. 4 is a diagram illustrating an example of the ROI. The vertical axis of the graph shown in FIG. 3 indicates the angular velocity amplitude, and the horizontal axis of the graph indicates time. In FIG. 3, the time change of the amplitude at the pitch angle is indicated by a solid line, the time change of the amplitude at the roll angle is indicated by a broken line, and the threshold value used for the determination is indicated by a dashed line.
図3に示す例で言えば、時刻t1よりも前の区間では、一時的にピッチ角及びロール角の角速度が閾値以下になったとしても、所定期間が経過するまでの間にピッチ角及びロール角ともに閾値を超える角速度が検出される。この場合、利用者がスクリーン上でタッチ操作を行っていたり、利用者がスクリーンを見ずに脈波検出装置10を動かしていたりする可能性が高い。この結果、画像にそもそも顔が映っていなかったり、顔が映っていても揺れが原因となって顔や眼の検出に失敗する可能性も高まる。よって、時刻t1よりも前の区間には、ROIの設定は実行されず、基準脈波波形の生成も実行されない。
In the example shown in FIG. 3, in the section before time t1, even if the angular velocity of the pitch angle and roll angle temporarily falls below the threshold value, the pitch angle and roll until the predetermined period elapses. An angular velocity that exceeds the threshold for both angles is detected. In this case, there is a high possibility that the user performs a touch operation on the screen, or the user moves the pulse
一方、時刻t1の時点でピッチ角及びロール角の角速度が閾値以下になってからは、時刻t1から所定期間、すなわち1.5秒にわたって両軸の角速度は閾値を超えていない。このため、時刻t1から1.5秒が経過して時刻t2になった時点で、時刻t1から時刻t2までの安定期間の間に撮像された一連の画像に対し、眼検出が実行される。これを受けて、一連の画像の間で左右の瞳孔の代表位置が算出される。その後、図4に示すように、画像20における右の瞳孔の代表位置IR及び左の瞳孔の代表位置ILの座標から瞳孔の間隔Lが算出されるとともに、両眼の中心位置ICが算出される。その上で、両眼の中心位置ICを重心とし、瞳孔の間隔Lを高さ及び幅とする矩形状の領域、図4に示された太枠の矩形がROIとして設定される。かかるROIの設定によって、体動が含まれやすい口元などをROIから除外できる結果、一連の画像に含まれる各ROIから良好な基準脈波波形を得ることを期待できる。
On the other hand, after the angular velocities of the pitch angle and the roll angle become equal to or less than the threshold at time t1, the angular velocities of both axes do not exceed the threshold for a predetermined period from time t1, that is, 1.5 seconds. Therefore, eye detection is performed on a series of images captured during the stable period from time t1 to time t2 when 1.5 seconds have elapsed from time t1 and time t2 has been reached. In response to this, the representative positions of the left and right pupils are calculated between a series of images. Thereafter, as shown in FIG. 4, the pupil interval L is calculated from the coordinates of the representative position IR of the right pupil and the representative position IL of the left pupil in the
基準波形生成部14は、ROI設定部13によって設定されたROIの輝度変化から基準脈波波形を生成する処理部である。
The reference
一実施形態として、基準波形生成部14は、一連の画像に含まれる各画像ごとに、当該画像のうちROIに含まれる各画素が持つ画素値に所定の統計処理を実行する。例えば、基準波形生成部14は、ROI内の各画素のR成分の輝度値を平均する。この他、平均以外にも、中央値や最頻値を計算することとしてもよく、また、平均以外にも任意の平均処理、例えば加重平均や移動平均などを実行することもできる。また、R成分以外のG成分またはB成分の輝度値を用いることとしてもよいし、RGBの各波長成分の輝度値を用いることとしてもかまわない。これによって、画像ごとにROIを代表するR成分の輝度値が得られる。以下では、ROIを代表するR成分の輝度値のことを「R成分の代表輝度値」と記載する場合がある。このとき、R成分の代表輝度値の時系列データを基準脈波波形とすることもできるが、カメラ11aのフレーム周波数が低い場合には、サンプリング点が少なく脈波波形の形状が再現しきれないケースも考えられる。このため、基準波形生成部14は、一例として、R成分の代表輝度値の時系列データにスプライン補間等を実行することによってリサンプリングすることもできる。かかるリサンプリングによって、基準脈波波形が生成されることになる。
As one embodiment, the reference
図5は、基準脈波波形の一例を示す図である。図5に示すグラフの縦軸は、振幅を指し、グラフの横軸は、時刻を指す。図5に示すグラフ上にプロットされた点は、一連の画像から得られたR成分の代表輝度値を指す。図5に示すように、カメラ11aのフレーム周波数にしたがって得られたR成分の代表輝度値は、一例として、3次のスプライン補間によって所定のサンプリング周波数を持つ正弦波の信号波形として補間される。このようにリサンプリングされた基準脈波信号が出力された後、基準脈波波形が基準波形記憶部14aに記憶される。例えば、スプライン補間によってリサンプリングされた補間時刻ごとにスプライン補間によって得られた補間後のR成分の代表輝度値が対応付けて基準波形記憶部14aに登録される。
FIG. 5 is a diagram illustrating an example of a reference pulse wave waveform. The vertical axis of the graph shown in FIG. 5 indicates amplitude, and the horizontal axis of the graph indicates time. The points plotted on the graph shown in FIG. 5 indicate the representative luminance values of the R component obtained from a series of images. As shown in FIG. 5, the representative luminance value of the R component obtained according to the frame frequency of the
続いて、第2の処理系について説明する。第2の処理系には、推定部15、ROI走査部16、入力波形生成部17、類似度算出部18及び検出部19などが含まれる。
Next, the second processing system will be described. The second processing system includes an
推定部15は、ジャイロセンサ11bを用いて、顔領域を推定する処理部である。
The
一実施形態として、推定部15は、カメラ11aによって所定期間、例えば1.5秒間にわたって画像が撮像される度に、一連の画像の各フレーム間で移動する移動後の顔領域を推定する。例えば、推定部15は、ジャイロセンサ11bによって出力されるピッチ角、ロール角及びヨー角の各センサ値の正負から顔領域の移動方向を推定するとともに、各センサ値の大きさから顔領域の移動量を推定する。このとき、推定部15は、基準脈波波形の生成時に検出された顔領域の位置を基準とし、そこからの移動方向および移動量を推定することができる。
As an embodiment, the
図6は、顔領域の推定方法の一例を示す図である。図6に示すように、利用者がスクリーンに表示された画像を閲覧する場合には、通常、顔とスクリーンの面を正対させる。例えば、基準脈波波形が生成される場合、すなわち脈波検出装置10が安定状態にある場合には、上記の通常の姿勢がなされていると推定できる。これを基準として、ピッチ角及びロール角の各センサ値の正負から顔領域の移動方向が推定される。なお、図6には、顔領域の移動方向の推定にピッチ角及びロール角の各センサ値を用いる場合を例示するが、ヨー角のセンサ値をさらに用いることもできる。
FIG. 6 is a diagram illustrating an example of a face area estimation method. As shown in FIG. 6, when a user views an image displayed on the screen, the face and the screen surface are usually faced to each other. For example, when the reference pulse wave waveform is generated, that is, when the pulse
例えば、ピッチ角の角速度が正の値を計測する場合、すなわち図示の+p角の場合には、利用者が正対時よりもスクリーンを奥方向に倒した状態で閲覧していることがわかる。この場合、利用者の顔は、正対時にインカメラによって撮像される場合の顔の位置よりも下方向に顔が映ることが推定できる。また、ピッチ角の角速度が負の値を計測する場合、すなわち図示の−p角の場合には、利用者が正対時よりもスクリーンを手前方向に傾けた状態で閲覧していることがわかる。この場合、利用者の顔は、正対時にインカメラによって撮像される場合の顔の位置よりも上方向に顔が映ることが推定できる。 For example, when the angular velocity of the pitch angle is a positive value, that is, in the case of the + p angle shown in the figure, it can be seen that the user is browsing in a state where the screen is tilted away from the front. In this case, it can be estimated that the user's face is projected downward from the position of the face when captured by the in-camera at the time of facing. Further, when the angular velocity of the pitch angle is a negative value, that is, in the case of the -p angle shown in the figure, it can be seen that the user is browsing with the screen tilted toward the front than when facing the front. . In this case, it can be estimated that the face of the user is reflected upward from the position of the face when captured by the in-camera at the time of facing.
また、ロール角の角速度が正の値を計測する場合、すなわち図示の+r角の場合には、利用者が正対時よりもスクリーンを右方向に傾けた状態で閲覧していることがわかる。この場合、利用者の顔は、正対時にインカメラによって撮像される場合の顔の位置よりも右方向に顔が映ることが推定できる。また、ロール角の角速度が負の値を計測する場合、すなわち図示の−r角の場合には、利用者が正対時よりもスクリーンを左方向に傾けた状態で閲覧していることがわかる。この場合、利用者の顔は、正対時にインカメラによって撮像される場合の顔の位置よりも左方向に顔が映ることが推定できる。 Further, when the angular velocity of the roll angle is measured as a positive value, that is, in the case of the + r angle shown in the figure, it can be seen that the user is browsing with the screen tilted to the right than when facing the front. In this case, it can be estimated that the face of the user is reflected in the right direction from the position of the face when captured by the in-camera at the time of facing. In addition, when the negative angular velocity of the roll angle is measured, that is, in the case of the illustrated -r angle, it can be seen that the user is browsing with the screen tilted to the left rather than at the front. . In this case, it can be estimated that the user's face is reflected in the left direction from the position of the face when captured by the in-camera at the time of facing.
これらの対応関係から、ピッチ角及びロール角の各センサ値の正負から顔領域の移動方向を推定し、各センサ値の多寡によって移動量を推定できる。 From these correspondences, the movement direction of the face region can be estimated from the positive and negative values of the sensor values of the pitch angle and the roll angle, and the movement amount can be estimated by the amount of each sensor value.
ROI走査部16は、ROIを走査する処理部である。
The
一実施形態として、ROI走査部16は、推定部15によって一連の画像から推定された顔領域ごとに当該顔領域内でROIを移動させる。このとき、ROI走査部16は、ROIの一例として、ROI設定部13によって設定されたROI、すなわち瞳孔の間隔Lを高さ及び幅とする矩形状の領域を用い、ラスタースキャン等の手法にしたがって顔領域内でROIを移動させることができる。
As one embodiment, the
入力波形生成部17は、入力脈波波形を生成する処理部である。
The input
一実施形態として、入力波形生成部17は、一連の画像の間でROI走査部16によって顔領域ごとに走査されるROIをカップリングする。例えば、一連の画像の数をnとし、一連の画像に含まれる1つの画像の顔領域で走査されるROIの数をSとしたとき、全ての組合せにわたってROIをカップリングする場合には、Sn通りの組合せが得られることになる。このように、全ての組合せにわたってROIをカップリングすることもできるが、一連の画像に含まれる各顔領域の間で同一の相対位置を持つROI同士をカップリングすることによってカップリング数をS通りまで低減することもできる。
As one embodiment, the input
図7は、カップリングの一例を示す図である。図7には、一連の画像に含まれる画像のうち3つが抜粋して図示されている。図7に示す符号30、符号31及び符号32は、いずれも一連の画像に含まれる画像である。また、図7に示す画像30〜32のうち、画像30は、時刻tに撮像されたものであり、画像31は、時刻t+1に撮像されたものであり、また、画像32は、時刻t+2に撮像されたものである。また、図7に示す符号30A、符号31A及び符号32Aは、いずれも推定部15によって推定された顔領域の推定結果を指す。さらに、図7に示す塗りつぶしは、顔領域30A〜32Aの間で同一の相対位置を持つROIを指す。図7に示すように、顔領域30A〜32Aで走査されるROIをカップリングする場合には、顔領域30A〜32Aの間で同一の相対位置を持つROI同士をカップリングすることができる。これによって、全ての組合せにわたってROIをカップリングする場合よりも以降の処理で演算量を低減できる。
FIG. 7 is a diagram illustrating an example of the coupling. FIG. 7 shows three extracted images included in the series of images.
その後、入力波形生成部17は、ROIがカップリングされる度に、当該カップリングの組合せに含まれるROIごとに、当該ROIに含まれる各画素が持つ画素値に所定の統計処理を実行する。例えば、入力波形生成部17は、ROI内の各画素のR成分の輝度値を平均する。この他、平均以外にも、中央値や最頻値を計算することとしてもよく、また、平均以外にも任意の平均処理、例えば加重平均や移動平均などを実行することもできる。また、R成分以外のG成分またはB成分の輝度値を用いることとしてもよいし、RGBの各波長成分の輝度値を用いることとしてもかまわない。これによって、画像ごとに「R成分の代表輝度値」が得られる。このとき、R成分の代表輝度値の時系列データを入力脈波波形とすることもできるが、上記の基準脈波波形と同様に、R成分の代表輝度値の時系列データにスプライン補間等を実行することによってリサンプリングすることもできる。かかるリサンプリングによって、入力脈波波形が生成されることになる。
Thereafter, every time the ROI is coupled, the input
このように、入力波形生成部17は、一連の画像に含まれる各顔領域の間で同一の相対位置を持つROI同士をカップリングすることによってS通りの入力脈波波形を生成する。
As described above, the input
類似度算出部18は、基準脈波波形と入力脈波波形の類似度を算出する処理部である。
The
一実施形態として、類似度算出部18は、上記の類似度の一例として、基準脈波波形と入力脈波波形の間で相関係数を算出する。かかる相関係数は、一例として、下記の式(1)にしたがって算出することができる。下記の式(1)における「x」は、入力脈波波形のR成分の代表輝度値を指し、「y」は、基準脈波波形のR成分の代表輝度値を指す。また、下記の式(1)における「N」は、入力脈波波形及び基準脈波波形のデータ数、すなわちサンプリング数を指す。また、下記の式(1)における「x」及び「y」に付された上付きのバーは、その平均値を指す。このように、類似度算出部18は、基準脈波波形とS個の入力脈波波形との間で各々の類似度を算出する。これによって、S個の入力脈波波形ごとに類似度が得られることになる。
As an embodiment, the
検出部19は、入力脈波波形から脈波を検出する処理部である。
The
一実施形態として、検出部19は、入力波形生成部17によって生成された入力脈波波形のうち類似度算出部18によって算出された類似度が最高である入力脈波波形を選択する。その上で、検出部19は、脈波の検出結果の一態様として、先に選択を行った入力脈波波形をそのまま出力することもできるし、入力脈波波形から求めた脈拍数を出力することもできる。例えば、脈拍数を計算する方法の一例として、入力脈波波形の振幅値が出力される度に、入力脈波波形のピーク検出、例えば微分波形のゼロクロス点の検出などを実行する。このとき、検出部19は、ピーク検出によって入力脈波波形のピークが検出された場合に、当該ピーク、すなわち極大点が検出されたサンプリング時間を図示しない内部メモリに保存する。その上で、検出部19は、ピークが出現した時点で、所定のパラメータn個前の極大点との時刻差を求め、それをnで除算することによって脈拍数を検出することができる。なお、ここでは、ピーク間隔によって脈拍数を検出する場合を例示したが、入力脈波波形を周波数成分へ変換することによって脈波に対応する周波数帯、例えば40bpm以上180bpm以下の周波数帯でピークをとる周波数から脈拍数を算出することもできる。
As one embodiment, the
このようにして得られる脈拍数や脈波波形は、脈波検出装置10が有する図示しない表示デバイスを始め、任意の出力先へ出力することができる。例えば、脈拍数や脈拍周期のゆらぎから自律神経の働きを診断したり、脈波波形から心疾患等を診断したりする診断プログラムが脈波検出装置10にインストールされている場合には、診断プログラムを出力先とすることができる。また、診断プログラムをWebサービスとして提供するサーバ装置などを出力先とすることもできる。さらに、脈波検出装置10を利用する利用者の関係者、例えば介護士や医者などが使用する端末装置を出力先とすることもできる。これによって、院外、例えば在宅や在席のモニタリングサービスも可能になる。なお、診断プログラムの測定結果や診断結果も、脈波検出装置10を始め、関係者の端末装置に表示させることができるのも言うまでもない。
The pulse rate and pulse wave waveform obtained in this way can be output to an arbitrary output destination including a display device (not shown) included in the pulse
なお、上記の眼検出部12、ROI設定部13、基準波形生成部14、推定部15、ROI走査部16、入力波形生成部17、類似度算出部18及び検出部19は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などに脈波検出プログラムを実行させることによって実現できる。また、上記の各機能部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
The
また、上記の基準波形記憶部14aや内部メモリには、半導体メモリ素子や記憶装置を採用できる。例えば、半導体メモリ素子の一例としては、フラッシュメモリ(Flash Memory)、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)などが挙げられる。また、記憶装置の一例としては、ハードディスク、光ディスクなどの記憶装置が挙げられる。
Further, a semiconductor memory element or a storage device can be adopted as the reference
[具体例]
続いて、図8〜図14を用いて、脈波検出の具体例を説明する。図8、図9及び図11は、データ管理表の一例を示す図である。図10は、基準脈波波形の一例を示す図である。図12は、補間前の入力脈波波形の一例を示す図である。図13は、補間後の入力脈波波形の一例を示す図である。図14は、脈拍数管理表の一例を示す図である。これら図8〜図14の例では、説明の便宜上、カメラ11aのフレームレートを500msとし、所定期間を1.5秒とし、基準脈波波形の生成および脈拍数の検出を実行する場合を例示するが、各パラメータは任意に変更できる。
[Concrete example]
Subsequently, a specific example of pulse wave detection will be described with reference to FIGS. 8, FIG. 9 and FIG. 11 are diagrams showing an example of the data management table. FIG. 10 is a diagram illustrating an example of a reference pulse wave waveform. FIG. 12 is a diagram illustrating an example of an input pulse wave waveform before interpolation. FIG. 13 is a diagram illustrating an example of an input pulse wave waveform after interpolation. FIG. 14 is a diagram showing an example of a pulse rate management table. 8 to 14 exemplify the case where the frame rate of the
脈波検出の処理内容を説明する前に、データ管理表に含まれる項目について説明する。図8、図9及び図11に示すデータ管理表には、時刻、画像ID、ジャイロセンサ値、状態変化フラグ、瞳孔間隔、ROI、ROI内部の平均R値及び顔領域などの項目が対応付けられたテーブルが採用される。なお、ここでは、1人の利用者のデータ管理表を例示するが、脈波検出装置10の利用者ごとにデータ管理表を作成することもできる。
Before explaining the processing contents of pulse wave detection, items included in the data management table will be explained. The data management tables shown in FIGS. 8, 9, and 11 are associated with items such as time, image ID, gyro sensor value, state change flag, pupil interval, ROI, average R value inside ROI, and face area. A table is adopted. In addition, although the data management table | surface of one user is illustrated here, a data management table | surface can also be produced for every user of the pulse-
上記の「時刻」には、一例として、「hh:mm:ss」を採用できるが、日次管理を行う場合には、年月日をさらに追加することもできる。また、時刻は、脈波検出装置10が計測するローカルな経過時間であってもかまわない。かかる「時刻」の間隔は、カメラ11aのフレームレートに従うこととする。また、「画像ID」は、画像を識別する識別情報を指す。ここでは、カメラ11aによって画像が撮像される度に、シーケンス番号、いわゆる通し番号が採番される場合を想定するが、各画像を識別することができればよく、任意のIDの採番形態を採用できる。
As an example of the “time”, “hh: mm: ss” can be adopted. However, in the case of performing daily management, a date can also be added. Further, the time may be a local elapsed time measured by the pulse
また、「ジャイロセンサ値」とは、ジャイロセンサ11bによって測定されたセンサ値を指し、例えば、ピッチ角及びロール角の角速度(deg)が「(rol,pit)」と記述される。また、「状態変化フラグ」とは、脈波検出装置10の状態変化の有無を表すフラグである。ここでは、一例として、ジャイロセンサ11bのセンサ値が所定の閾値、例えば(10,10)未満である場合には「1」が設定される一方で、(10,10)以上である場合には「0」が設定されることとする。
The “gyro sensor value” refers to a sensor value measured by the
また、「瞳孔間隔」とは、カメラ11aによって撮像された画像から検出された左右の瞳孔の間隔を指し、例えば、ピクセル数によって表される。また、「ROI」とは、画像のうち脈波検出に用いる関心領域を指し、上述のように、両眼の中心位置を重心とし、瞳孔の間隔Lを高さ及び幅とする矩形状の領域が設定される。ここでは、一例として、ROIの左上の頂点が持つ座標、ROIの高さ及びROIの幅によってROIが規定される場合を例示する。また、「ROI内部の平均R値」とは、ROI内部にある各画素のR成分の代表輝度値を指す。また、「顔領域」とは、画像のうち利用者の顔と推定された領域である。
The “pupil interval” refers to the interval between the left and right pupils detected from the image captured by the
このようなデータ管理表が準備された状況の下、カメラ11aによって画像が撮像される度に、当該画像が撮像された時刻、当該画像に採番された画像IDおよびジャイロセンサ値がデータ管理表に記録される。すると、各時刻のジャイロセンサ値と閾値(10,10)とを比較することによって状態変化フラグが設定される。図8に示す例で言えば、ロール角またはピッチ角のいずれかの角速度の絶対値が10deg/sec以上を計測する画像ID「2」、「6」及び「8」のレコードには、状態変化フラグに「0」が設定される一方で、それ以外の画像IDのレコードには、状態変化フラグに「1」が設定される。なお、瞳孔間隔には、ROI設定部13よって各画像から算出された瞳孔の間隔がそのまま保存される。
Each time an image is captured by the
そして、状態変化フラグ「1」が3つ連続する場合、すなわち安定期間が1.5秒にわたって継続した場合には、状態変化フラグ「1」が連続する3つのレコードを対象に、基準脈波波形の生成が開始される。図8に示す例で言えば、画像ID「3」〜「5」の一連の画像の間で瞳孔の座標を左右の眼ごとに平均することによって得た瞳孔の平均座標から瞳孔の間隔Lを求め、両眼の中心座標を基準にROIが設定される。すなわち、ROIの左上の頂点が持つ座標(50,200)、ROIの高さ「100」及びROIの幅「100」がROIとして設定される。その後、画像ID「3」〜「5」の一連の画像の各々に含まれるROIごとにR成分の代表輝度値「200」、「210」、「205」が記録されるとともに、眼検出部12によって各画像から検出された顔領域の左上の頂点が持つ座標と、顔領域の高さ及び幅とが記録される。
When three state change flags “1” continue, that is, when the stable period continues for 1.5 seconds, the reference pulse wave waveform is targeted for three records where the state change flag “1” continues. Generation is started. In the example shown in FIG. 8, the pupil distance L is calculated from the average coordinates of the pupils obtained by averaging the coordinates of the pupils for the left and right eyes between a series of images with the image IDs “3” to “5”. The ROI is determined based on the center coordinates of both eyes. That is, the coordinates (50, 200) of the upper left vertex of the ROI, the ROI height “100”, and the ROI width “100” are set as the ROI. Thereafter, the representative luminance values “200”, “210”, and “205” of the R component are recorded for each ROI included in each of the series of images with the image IDs “3” to “5”, and the
続いて、画像ID「3」〜「5」におけるR成分の代表輝度値の時系列データに対し、スプライン補間が実行される。これによって、サンプリング間隔が0.02秒であるR成分の代表輝度値の時系列データにリサンプリングされる。このようにしてリサンプリングされたR成分の代表輝度値の時系列データが図10に示す基準脈波波形として記録される。 Subsequently, spline interpolation is performed on the time-series data of the R component representative luminance values in the image IDs “3” to “5”. As a result, re-sampling is performed to time-series data of representative luminance values of the R component whose sampling interval is 0.02 seconds. The time series data of the representative luminance value of the R component resampled in this manner is recorded as the reference pulse wave waveform shown in FIG.
そして、図10に示すように、画像ID「3」〜「5」の区間、すなわちαの区間で基準脈波波形が生成された後に、画像ID「6」以降の区間、すなわちβの区間で脈波を検出する処理が開始される。かかるβの区間では、αの区間、すなわち基準脈波波形の生成が実行される画像ID「3」〜「5」の区間で得られた瞳孔間隔からROIの高さおよび幅として記入される。 Then, as shown in FIG. 10, after the reference pulse wave waveform is generated in the section of image IDs “3” to “5”, that is, the section of α, the section after image ID “6”, that is, the section of β. Processing for detecting a pulse wave is started. In the section of β, the height and width of the ROI are entered from the pupil interval obtained in the section of α, that is, the section of the image IDs “3” to “5” where the generation of the reference pulse wave waveform is executed.
続いて、図11に示すように、βの区間、例えば画像ID「6」〜「8」の区間でジャイロセンサ値から顔領域が推定される。すなわち、画像ID「6」〜「8」のジャイロセンサ値の正負から移動方向を推定するとともに、ジャイロセンサ値の多寡によって前フレームからの移動量を推定する。例えば、画像ID「6」の例で言えば、ロール角の角速度の符号が「正」である一方で、ピッチ角の角速度の符号が「負」であるので、画像ID「6」における顔領域は、画像ID「5」における顔領域よりも右上の方向に移動していると推定できる。さらに、例えば、ジャイロセンサ値に10の変化があれば、顔領域を50画素移動させる(ジャイロセンサ値:画素=1:5)。この場合、画像ID「5」における顔領域の左上頂点の座標(160,280)に対し、xの値に100(=20×5)を加える一方でyの値から−100(−20×5)減算することによって画像ID「6」における顔領域の左上頂点の座標(260,180)が算出される。また、顔移動の高さ及び幅については、αの区間、すなわち脈波検出装置10が安定状態にある区間に取得した平均値が用いられる。このようにして推定された画像ID「6」〜「8」の区間における顔領域がデータ管理表に記録される。
Subsequently, as shown in FIG. 11, the face area is estimated from the gyro sensor value in the section of β, for example, the section of the image IDs “6” to “8”. That is, the moving direction is estimated from the sign of the gyro sensor values of the image IDs “6” to “8”, and the moving amount from the previous frame is estimated based on the gyro sensor value. For example, in the example of the image ID “6”, the sign of the angular velocity of the roll angle is “positive”, while the sign of the angular velocity of the pitch angle is “negative”. Can be estimated as moving in the upper right direction with respect to the face area in the image ID “5”. Further, for example, if there is a change of 10 in the gyro sensor value, the face area is moved by 50 pixels (gyro sensor value: pixel = 1: 5). In this case, 100 (= 20 × 5) is added to the value of x with respect to the coordinates (160,280) of the upper left vertex of the face area in the image ID “5”, while −100 (−20 × 5) is subtracted from the value of y. As a result, the coordinates (260, 180) of the upper left vertex of the face area in the image ID “6” are calculated. For the height and width of the face movement, an average value acquired in the section α, that is, the section in which the pulse
続いて、画像ID「6」〜「8」の区間における顔領域ごとに当該顔領域内でROIが移動される。例えば、2画素ずつROIを走査し、当該ROIからR成分の代表輝度値が算出される。その上で、画像ID「6」〜「8」の区間に含まれる各顔領域の間で同一の相対位置を持つROI同士をカップリングする。これによって、図12に示すように、S個のR成分の代表輝度値の時系列データが得られる。これが補間前の入力脈波波形として記録される。その後、補間前の入力脈波波形にスプライン補間が実行される。これによって、図13に示すように、サンプリング間隔が0.02秒へ補間された補間後の入力脈波波形が記録される。そして、補間後の入力脈波波形、すなわち図13に示す脈波ID「01」〜「0S」の全ての脈波IDの入力脈波波形ごとに脈拍数の算出が実行されると、図14に示すように、脈波ID「01」〜「0S」ごとの脈拍数が基準脈波波形との間で算出される相関係数とともに脈拍数管理表に記録される。その後、図14に示す脈拍数管理表に記録された脈拍数のうち相関係数が最も高い脈波IDを持つ脈拍数を選択する。 Subsequently, the ROI is moved within the face area for each face area in the section of the image IDs “6” to “8”. For example, the ROI is scanned every two pixels, and the representative luminance value of the R component is calculated from the ROI. Then, ROIs having the same relative position are coupled between the face areas included in the sections of the image IDs “6” to “8”. As a result, as shown in FIG. 12, time series data of representative luminance values of S R components is obtained. This is recorded as the input pulse wave waveform before interpolation. Thereafter, spline interpolation is performed on the input pulse wave waveform before interpolation. As a result, as shown in FIG. 13, the input pulse wave waveform after interpolation in which the sampling interval is interpolated to 0.02 seconds is recorded. When the pulse rate calculation is executed for each input pulse wave waveform of the input pulse wave waveform after interpolation, that is, all the pulse wave IDs of pulse wave IDs “01” to “0S” shown in FIG. As shown, the pulse rate for each of the pulse wave IDs “01” to “0S” is recorded in the pulse rate management table together with the correlation coefficient calculated with the reference pulse wave waveform. Thereafter, a pulse rate having a pulse wave ID having the highest correlation coefficient is selected from the pulse rates recorded in the pulse rate management table shown in FIG.
このように、複数の入力脈波波形から最も高い相関係数の入力脈波波形を選択することによってROIの位置補正を実現できる。このため、画像の移動および眼の誤検出に関わらず、複数の入力脈波波形を用いてROIの位置補正を実現できるので、時間的に連続する顔画像から肌領域を安定して取得でき、入力脈波波形へ変換する時にS/N比が改善される。したがって、脈波の検出精度を向上させることができる。さらに、脈波検出装置10の操作時による画像の移動および眼の誤検出に関わらず、顔の移動先を推定し、推定した顔の移動先に絞ってROIを走査するので、探索時間も短縮できる。
Thus, ROI position correction can be realized by selecting the input pulse wave waveform having the highest correlation coefficient from a plurality of input pulse wave waveforms. For this reason, since the position correction of ROI can be realized using a plurality of input pulse wave waveforms regardless of the movement of the image and the erroneous detection of the eyes, the skin region can be stably acquired from the temporally continuous face image, The S / N ratio is improved when converting to an input pulse wave waveform. Therefore, the pulse wave detection accuracy can be improved. In addition, the face movement destination is estimated regardless of the image movement and eye misdetection caused by the operation of the pulse
[処理の流れ]
続いて、本実施例に係る脈波検出装置の処理の流れについて説明する。なお、ここでは、脈波検出装置10によって実行される(1)基準波形生成処理を説明してから(2)脈波検出処理について説明することとする。
[Process flow]
Subsequently, the flow of processing of the pulse wave detection device according to the present embodiment will be described. Here, (1) the reference waveform generation process executed by the pulse
(1)基準波形生成処理
図15は、実施例1に係る基準脈波生成処理の手順を示すフローチャートである。この処理は、脈波検出プログラムがアクティブな状態にある場合に実行することもできるし、脈波検出プログラムがバックグラウンドで動作している場合にも実行することができる。なお、本処理は、後述の脈波検出処理と並行して実行することも可能である。
(1) Reference Waveform Generation Processing FIG. 15 is a flowchart illustrating a procedure of reference pulse wave generation processing according to the first embodiment. This process can be executed when the pulse wave detection program is in an active state, and can also be executed when the pulse wave detection program is operating in the background. This process can also be executed in parallel with the pulse wave detection process described later.
図15に示すように、カメラ11aによって撮像された画像が取得されるとともに、当該画像が撮像された時にジャイロセンサ11bによって測定された角速度が取得される(ステップS101及びステップS102)。
As shown in FIG. 15, the image captured by the
すると、ROI設定部13は、ステップS102で取得されたセンサ値が閾値以下であるか否かを判定する(ステップS103)。そして、センサ値が閾値以下である場合(ステップS103Yes)、ROI設定部13は、閾値以下のセンサ値が検出される期間、すなわち安定期間が所定期間にわたって継続したか否かをさらに判定する(ステップS104)。
Then, the
ここで、安定期間が所定期間にわたって継続した場合(ステップS104Yes)、眼検出部12は、安定期間の間に撮像された一連の画像に対し、眼検出を実行する(ステップS105)。その後、ROI設定部13は、ステップS105で画像ごとに得られた瞳孔の座標を用いて一連の画像の間で瞳孔の代表位置を左右の眼ごとに算出し、左右の眼の瞳孔の代表位置から一連の画像に適用するROIを設定する(ステップS106)。
Here, when the stable period continues for a predetermined period (step S104 Yes), the
その後、基準波形生成部14は、一連の画像に含まれる各画像ごとに、当該画像に含まれるROI内部でR成分の代表輝度値を算出することによって基準脈波波形を生成し(ステップS107)、当該基準脈波波形を基準波形記憶部14aへ登録し、処理を終了する。
Thereafter, the reference
(2)脈波検出処理
図16は、実施例1に係る脈波検出処理の手順を示すフローチャートである。この処理は、脈波検出プログラムがアクティブな状態にある場合に実行することもできるし、脈波検出プログラムがバックグラウンドで動作している場合にも実行することができる。なお、本処理は、上記の基準脈波生成処理と並行して実行することも可能である。
(2) Pulse Wave Detection Process FIG. 16 is a flowchart illustrating the procedure of the pulse wave detection process according to the first embodiment. This process can be executed when the pulse wave detection program is in an active state, and can also be executed when the pulse wave detection program is operating in the background. This process can be executed in parallel with the above-described reference pulse wave generation process.
図16に示すように、カメラ11aによって撮像された画像が取得されるとともに、当該画像が撮像された時にジャイロセンサ11bによって測定された角速度が取得される(ステップS301及びステップS302)。
As shown in FIG. 16, an image captured by the
そして、前回に脈波の検出を実行してから所定期間、例えば1.5秒間が経過した場合(ステップS303Yes)には、推定部15は、ステップS302で所定期間にわたって測定されたセンサ値を用いて、一連の画像に含まれる画像ごとに当該画像の顔領域を推定する(ステップS304)。
When a predetermined period, for example, 1.5 seconds has elapsed since the last pulse wave detection (Yes at Step S303), the
続いて、ROI走査部16は、ステップS304で一連の画像から推定された顔領域ごとに当該顔領域内でROIを走査する(ステップS305)。その後、入力波形生成部17は、ステップS305で走査されたROI、すなわち同一の相対位置を持つROIをカップリングする(ステップS306)。そして、入力波形生成部17は、ステップS306でカップリングされた組合せに含まれるROIごとに、当該ROI内部でR成分の代表輝度値を算出することによって入力脈波波形を生成する(ステップS307)。
Subsequently, the
その後、ROIの全組合せ、例えばS通りの組合せを対象に入力脈波波形を生成するまで(ステップS308No)、上記のステップS305〜ステップS307の処理を繰り返し実行する。 Thereafter, until the input pulse wave waveform is generated for all ROI combinations, for example, S combinations (No in step S308), the processes in steps S305 to S307 are repeated.
そして、ROIの全組合せを対象に入力脈波波形を生成すると(ステップS308Yes)、類似度算出部18は、基準波形記憶部14aに記憶された基準脈波波形と、入力波形生成部17によって生成された入力脈波波形との間で類似度を算出する(ステップS309)。
When the input pulse waveform is generated for all combinations of ROIs (step S308 Yes), the
その後、全ての入力脈波波形について類似度を算出するまで(ステップS310No)、上記のステップS309の処理を繰り返し実行する。そして、全ての入力脈波波形について類似度を算出すると(ステップS310Yes)、検出部19は、類似度が最高である入力脈波波形を選択する(ステップS311)。その後、検出部19は、ステップS311で選択された入力脈波波形から脈拍数を検出する(ステップS312)。
Thereafter, until the similarity is calculated for all input pulse wave waveforms (No in step S310), the process of step S309 is repeatedly executed. When the similarity is calculated for all the input pulse wave waveforms (Yes in step S310), the
そして、上記のステップS301に戻り、ステップS301〜ステップS312までの処理を繰り返し実行する。 And it returns to said step S301 and repeats the process from step S301 to step S312.
[実施例1の効果]
上述してきたように、本実施例に係る脈波検出装置10は、カメラ11aから入力される画像から複数の入力脈波波形を生成し、複数の入力脈波波形のうち端末安定時に生成された基準脈波波形との間で類似度が最高の入力脈波波形を選択する。したがって、本実施例に係る脈波検出装置10によれば、脈波の検出精度を向上させることができる。
[Effect of Example 1]
As described above, the pulse
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。 Although the embodiments related to the disclosed apparatus have been described above, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, another embodiment included in the present invention will be described below.
[入力信号]
上記の実施例1では、入力信号としてRGB信号を用いる場合を例示したが、異なる複数の光波長成分を持つ信号であれば任意の種類の信号および任意の数の信号を入力信号とすることができる。例えば、HSV信号を用いることとしてもよいし、あるいはIRおよびNIRなどの信号を2つ用いることもできるし、また、3つ以上用いることもできる。
[input signal]
In the first embodiment, an example in which an RGB signal is used as an input signal is illustrated. However, any type of signal and any number of signals may be used as an input signal as long as the signals have a plurality of different light wavelength components. it can. For example, an HSV signal may be used, two signals such as IR and NIR may be used, or three or more signals may be used.
[ROIの応用例]
上記の実施例1では、両眼の中心位置を重心とし、瞳孔の間隔Lを高さ及び幅とする矩形状の領域をROIとして例示したが、ROIには任意の形状や大きさを設定することができる。図17〜図20は、ROIの応用例を示す図である。例えば、図17に示すように、顎から頭頂までの頭部全体をROIとして設定することもできるし、図18に示すように、眉毛よりも上部の所定の範囲、例えば前髪等にかかりにくい範囲までをROIとして設定することもできる。また、図19に示すように、上下は鼻から眉のあたりまで、左右は鼻の幅によって規定される範囲をROIとして設定することもできるし、図20に示すように、頬の一部をROIとして設定することもできる。
[Application example of ROI]
In the first embodiment, a rectangular region having the center position of both eyes as the center of gravity and the distance L between the pupils as the height and width is exemplified as the ROI. However, an arbitrary shape and size are set for the ROI. be able to. 17 to 20 are diagrams showing application examples of ROI. For example, as shown in FIG. 17, the entire head from the jaw to the top of the head can be set as the ROI, and as shown in FIG. 18, a predetermined range above the eyebrows, for example, a range that is difficult to be applied to the bangs, etc. Can be set as ROI. Further, as shown in FIG. 19, the range defined by the nose to the eyebrows can be set as the ROI, and the range defined by the width of the nose can be set as the ROI. As shown in FIG. It can also be set as an ROI.
[基準脈波波形の更新]
基準脈波波形は、固定のデータではなく、任意の契機で更新することもできる。一例としては、図15に示す処理で最新の基準脈波波形に更新することもできる。他の一例としては、図16に示す処理で類似度が最高である入力脈波波形を基準脈波波形として更新することもできる。この場合、類似度が所定の閾値以上である場合、例えば相関係数が0.9以上である場合などに限って基準脈波波形を更新することもできる。
[Update of reference pulse waveform]
The reference pulse wave waveform is not fixed data and can be updated at an arbitrary timing. As an example, the latest reference pulse wave waveform can be updated by the processing shown in FIG. As another example, the input pulse wave waveform having the highest similarity in the process shown in FIG. 16 can be updated as the reference pulse wave waveform. In this case, the reference pulse wave waveform can be updated only when the similarity is equal to or higher than a predetermined threshold, for example, when the correlation coefficient is equal to or higher than 0.9.
[他の実装例]
上記の実施例1では、脈波検出装置10が上記の脈波検出処理をスタンドアローンで実行する場合を例示したが、クライアントサーバシステムとして実装することもできる。例えば、脈波検出装置10は、脈波検出サービスを提供するWebサーバとして実装することとしてもよいし、アウトソーシングによって脈波検出サービスを提供するクラウドとして実装することとしてもかまわない。このように、脈波検出装置10がサーバ装置として動作する場合には、スマートフォンや携帯電話機等の携帯端末装置やパーソナルコンピュータ等の情報処理装置をクライアント端末として収容することができる。これらクライアント端末からネットワークを介して被験者の顔が映った画像が取得された場合に脈波検出処理を実行し、心拍の検出結果や検出結果を用いてなされた診断結果をクライアント端末へ応答することによって脈波検出サービスを提供できる。
[Other implementation examples]
In the first embodiment, the case where the pulse
[脈波検出プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図21を用いて、上記の実施例と同様の機能を有する脈波検出プログラムを実行するコンピュータの一例について説明する。
[Pulse wave detection program]
The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation. Therefore, in the following, an example of a computer that executes a pulse wave detection program having the same function as in the above embodiment will be described with reference to FIG.
図21は、実施例1及び実施例2に係る脈波検出プログラムを実行するコンピュータの一例について説明するための図である。図21に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110〜180の各部はバス140を介して接続される。
FIG. 21 is a schematic diagram illustrating an example of a computer that executes a pulse wave detection program according to the first and second embodiments. As illustrated in FIG. 21, the
HDD170には、図21に示すように、上記の実施例1で示した眼検出部12、ROI設定部13、基準波形生成部14、推定部15、ROI走査部16、入力波形生成部17、類似度算出部18及び検出部19と同様の機能を発揮する脈波検出プログラム170aが予め記憶される。この脈波検出プログラム170aについては、図1に示した各々の眼検出部12、ROI設定部13、基準波形生成部14、推定部15、ROI走査部16、入力波形生成部17、類似度算出部18及び検出部19の各構成要素と同様、適宜統合又は分離しても良い。すなわち、HDD170に格納される各データは、常に全てのデータがHDD170に格納される必要はなく、処理に必要なデータのみがHDD170に格納されれば良い。
As shown in FIG. 21, the
そして、CPU150が、脈波検出プログラム170aをHDD170から読み出してRAM180に展開する。これによって、図21に示すように、脈波検出プログラム170aは、脈波検出プロセス180aとして機能する。この脈波検出プロセス180aは、HDD170から読み出した各種データを適宜RAM180上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、脈波検出プロセス180aは、図1に示した眼検出部12、ROI設定部13、基準波形生成部14、推定部15、ROI走査部16、入力波形生成部17、類似度算出部18及び検出部19にて実行される処理、例えば図15や図16に示す処理を含む。また、CPU150上で仮想的に実現される各処理部は、常に全ての処理部がCPU150上で動作する必要はなく、処理に必要な処理部のみが仮想的に実現されれば良い。
Then, the
なお、上記の脈波検出プログラム170aについては、必ずしも最初からHDD170やROM160に記憶させておく必要はない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。
Note that the pulse
10 脈波検出装置
11a カメラ
11b ジャイロセンサ
12 眼検出部
13 ROI設定部
14 基準波形生成部
14a 基準波形記憶部
15 推定部
16 ROI走査部
17 入力波形生成部
18 類似度算出部
19 検出部
DESCRIPTION OF
Claims (5)
取得された複数の画像ごとに当該画像内で脈波の検出に用いる関心領域を走査する走査部と、
画像ごとに走査された関心領域を複数の画像の間で組み合わされた組合せごとに当該組合せに含まれる関心領域が持つ画素値から第1の脈波波形を複数生成する生成部と、
複数生成された第1の脈波波形と、基準として設定された第2の脈波波形との間で類似度を算出する算出部と、
前記第2の脈波波形との間で前記類似度が最も高い第1の脈波波形を選択する選択部と
を有することを特徴とする脈波検出装置。 An acquisition unit for acquiring an image captured by the camera;
A scanning unit that scans a region of interest used for detecting a pulse wave in each of the plurality of acquired images;
A generator that generates a plurality of first pulse wave waveforms from pixel values of a region of interest included in the combination for each combination in which the region of interest scanned for each image is combined between the plurality of images;
A calculation unit for calculating a similarity between a plurality of generated first pulse wave waveforms and a second pulse wave waveform set as a reference;
A pulse wave detection device, comprising: a selection unit that selects the first pulse wave waveform having the highest degree of similarity with the second pulse wave waveform.
前記画像から生体領域を抽出する抽出部と、
前記移動量取得部によって取得された移動量が所定の閾値以下であった画像から生体領域の位置と、前記複数の画像の撮像時に各画像から取得された移動量とを用いて、前記複数の画像ごとに当該画像に含まれる生体領域を推定する推定部とをさらに有し、
前記走査部は、前記推定部によって推定された生体領域内で前記関心領域を走査することを特徴とする請求項1に記載の脈波検出装置。 A movement amount acquisition unit for acquiring a movement amount of the pulse wave detection device;
An extraction unit for extracting a biological region from the image;
Using the position of the living body region from the image in which the movement amount acquired by the movement amount acquisition unit is equal to or less than a predetermined threshold, and the movement amount acquired from each image when the plurality of images are captured, An estimation unit that estimates a living body region included in the image for each image;
The pulse wave detection device according to claim 1, wherein the scanning unit scans the region of interest within a living body region estimated by the estimation unit.
カメラによって撮像された画像を取得し、
取得された複数の画像ごとに当該画像内で脈波の検出に用いる関心領域を走査し、
画像ごとに走査された関心領域を複数の画像の間で組み合わされた組合せごとに当該組合せに含まれる関心領域が持つ画素値から第1の脈波波形を複数生成し、
複数生成された第1の脈波波形と、基準として設定された第2の脈波波形との間で類似度を算出し、
前記第2の脈波波形との間で前記類似度が最も高い第1の脈波波形を選択する
処理を実行することを特徴とする脈波検出方法。 Computer
Get the image taken by the camera,
Scan the region of interest used for pulse wave detection in the acquired images for each of the plurality of images,
A plurality of first pulse wave waveforms are generated from pixel values of regions of interest included in the combination for each combination in which the region of interest scanned for each image is combined between the plurality of images,
A similarity is calculated between a plurality of generated first pulse wave waveforms and a second pulse wave waveform set as a reference,
A pulse wave detection method, comprising: performing a process of selecting a first pulse wave waveform having the highest degree of similarity with the second pulse wave waveform.
カメラによって撮像された画像を取得し、
取得された複数の画像ごとに当該画像内で脈波の検出に用いる関心領域を走査し、
画像ごとに走査された関心領域を複数の画像の間で組み合わされた組合せごとに当該組合せに含まれる関心領域が持つ画素値から第1の脈波波形を複数生成し、
複数生成された第1の脈波波形と、基準として設定された第2の脈波波形との間で類似度を算出し、
前記第2の脈波波形との間で前記類似度が最も高い第1の脈波波形を選択する
処理を実行させることを特徴とする脈波検出プログラム。 On the computer,
Get the image taken by the camera,
Scan the region of interest used for pulse wave detection in the acquired images for each of the plurality of images,
A plurality of first pulse wave waveforms are generated from pixel values of regions of interest included in the combination for each combination in which the region of interest scanned for each image is combined between the plurality of images,
A similarity is calculated between a plurality of generated first pulse wave waveforms and a second pulse wave waveform set as a reference,
A pulse wave detection program for executing a process of selecting a first pulse wave waveform having the highest similarity with the second pulse wave waveform.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014087553A JP6248780B2 (en) | 2014-04-21 | 2014-04-21 | Pulse wave detection device, pulse wave detection method, and pulse wave detection program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014087553A JP6248780B2 (en) | 2014-04-21 | 2014-04-21 | Pulse wave detection device, pulse wave detection method, and pulse wave detection program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2015205050A JP2015205050A (en) | 2015-11-19 |
| JP6248780B2 true JP6248780B2 (en) | 2017-12-20 |
Family
ID=54602440
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014087553A Expired - Fee Related JP6248780B2 (en) | 2014-04-21 | 2014-04-21 | Pulse wave detection device, pulse wave detection method, and pulse wave detection program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6248780B2 (en) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6724603B2 (en) * | 2015-11-27 | 2020-07-15 | 株式会社リコー | Pulse wave measuring device, pulse wave measuring program, pulse wave measuring method and pulse wave measuring system |
| JP2020162873A (en) * | 2019-03-29 | 2020-10-08 | 株式会社エクォス・リサーチ | Pulse wave detection device and pulse wave detection program |
| WO2021044571A1 (en) | 2019-09-05 | 2021-03-11 | 株式会社日立国際電気 | Pulse rate estimation method, device, and system |
| JP6816239B1 (en) * | 2019-10-25 | 2021-01-20 | 西日本電信電話株式会社 | Pulse wave detection device and pulse wave detection system |
| JP2021097287A (en) * | 2019-12-16 | 2021-06-24 | シャープ株式会社 | Portable terminal, moving image acquisition method, and moving image acquisition program |
| JP7518631B2 (en) * | 2020-02-25 | 2024-07-18 | シャープ株式会社 | Biometric information processing device and biological information processing method |
| JP7514521B2 (en) * | 2020-08-07 | 2024-07-11 | 株式会社イー・ライフ | HEART RATE MEASUREMENT SYSTEM, HEART RATE MEASUREMENT METHOD, AND HEART RATE MEASUREMENT PROGRAM |
| JP7074817B2 (en) * | 2020-09-09 | 2022-05-24 | 西日本電信電話株式会社 | Vital data measuring device, vital data measuring method and computer program |
| US20240138692A1 (en) * | 2021-03-30 | 2024-05-02 | Harman Becker Automotive System Gmbh | Method and system for heart rate extraction from rgb images |
| CN115191960B (en) * | 2022-07-13 | 2025-05-30 | 深圳市大数据研究院 | A method and device for detecting the Cun, Guan, and Chi positions of pulse waves based on vision |
| WO2024136002A1 (en) * | 2022-12-22 | 2024-06-27 | 주식회사 뷰노 | Method for measuring biometric information |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2009150793A1 (en) * | 2008-06-09 | 2009-12-17 | パナソニック株式会社 | Imaging device and imaging method |
| CN102549621B (en) * | 2009-10-06 | 2016-08-31 | 皇家飞利浦电子股份有限公司 | For processing the method and system of the signal of the component including at least the periodic phenomena represented in biology |
| US20110251493A1 (en) * | 2010-03-22 | 2011-10-13 | Massachusetts Institute Of Technology | Method and system for measurement of physiological parameters |
| JP5672144B2 (en) * | 2011-05-20 | 2015-02-18 | 富士通株式会社 | Heart rate / respiration rate detection apparatus, method and program |
-
2014
- 2014-04-21 JP JP2014087553A patent/JP6248780B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2015205050A (en) | 2015-11-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6248780B2 (en) | Pulse wave detection device, pulse wave detection method, and pulse wave detection program | |
| US20170112382A1 (en) | Pulse-wave detection method, pulse-wave detection device, and computer-readable recording medium | |
| EP2979631B1 (en) | Blood flow index calculation method, blood flow index calculation program and blood flow index calculation device | |
| JP6098304B2 (en) | Pulse wave detection device, pulse wave detection method, and pulse wave detection program | |
| JP6125188B2 (en) | Video processing method and apparatus | |
| US9898664B2 (en) | Image processing device, image processing method, and information storage device | |
| CN109803589B (en) | Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and recording medium | |
| US20170273634A1 (en) | Meal estimation method, meal estimation apparatus, and recording medium | |
| JP5920465B2 (en) | Vital sign detection method, vital sign detection device, and vital sign detection program | |
| JP6115263B2 (en) | Pulse wave detection device, pulse wave detection method, and pulse wave detection program | |
| JP6052005B2 (en) | Pulse wave detection device, pulse wave detection method, and pulse wave detection program | |
| JP6142664B2 (en) | Pulse wave detection device, pulse wave detection program, pulse wave detection method, and content evaluation system | |
| JP2017093760A (en) | Device and method for measuring periodic variation interlocking with heart beat | |
| JP2016077426A (en) | Pulse wave propagation speed calculation system, pulse wave propagation speed calculation method, and pulse wave propagation speed calculation program | |
| JP7266599B2 (en) | Devices, systems and methods for sensing patient body movement | |
| JPWO2016147678A1 (en) | Vital sign measurement device, vital sign measurement method, and vital sign measurement program | |
| JP6393984B2 (en) | Pulse measuring device, pulse measuring method and pulse measuring program | |
| JP6020015B2 (en) | Pulse wave detection device, pulse wave detection program, and pulse wave detection method | |
| JP2015156937A (en) | Image processing device, image processing method, and program | |
| JP6135255B2 (en) | Heart rate measuring program, heart rate measuring method and heart rate measuring apparatus | |
| JP6417697B2 (en) | Information processing apparatus, pulse wave measurement program, and pulse wave measurement method | |
| JP6488722B2 (en) | Pulse wave detection device, pulse wave detection method, and pulse wave detection program | |
| JP6846678B2 (en) | Cognitive function evaluation support device, cognitive function evaluation support method and program | |
| CN118338853A (en) | Computer program, information processing method, and information processing apparatus | |
| Schneider et al. | Preliminary investigation of walking motion using a combination of image and signal processing |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170110 |
|
| TRDD | Decision of grant or rejection written | ||
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171018 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171106 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6248780 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |