JP2010072723A - Tracking device and tracking method - Google Patents
Tracking device and tracking method Download PDFInfo
- Publication number
- JP2010072723A JP2010072723A JP2008236746A JP2008236746A JP2010072723A JP 2010072723 A JP2010072723 A JP 2010072723A JP 2008236746 A JP2008236746 A JP 2008236746A JP 2008236746 A JP2008236746 A JP 2008236746A JP 2010072723 A JP2010072723 A JP 2010072723A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- person
- candidate
- information
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000001514 detection method Methods 0.000 claims abstract description 131
- 230000008569 process Effects 0.000 claims description 61
- 238000012545 processing Methods 0.000 abstract description 76
- 230000010354 integration Effects 0.000 description 35
- 230000006870 function Effects 0.000 description 14
- 230000008859 change Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、動画像中の人物の動きを追跡し記録する技術に関する。 The present invention relates to a technique for tracking and recording the movement of a person in a moving image.
監視カメラや店内カメラなどで得られた動画像を用いて、その動画像に写る不特定多数の人物の動きを自動で追跡し記録する技術が注目されている。この種の技術では、一般に、人の顔が検出・追跡の対象として用いられるが、顔が障害物や他人の陰に隠れてしまった場合や、顔が横又は後ろを向いてしまった場合などには、顔の検出や追跡が困難になるという課題がある。 A technique for automatically tracking and recording the movements of an unspecified number of people appearing in a moving image using a moving image obtained by a surveillance camera, a camera in a store, or the like has attracted attention. In this type of technology, the human face is generally used as a target for detection and tracking, but when the face is hidden behind an obstacle or another person, or when the face turns sideways or back Has a problem that face detection and tracking becomes difficult.
このような課題を解決するための一手法として、本出願人は、追跡過程で追跡対象の顔が見えなくなった場合に、顔の周囲の情報(服の色や形など)から顔の位置を推定し、その推定位置を用いて追跡を継続するという方法を提案している(特許文献1参照)。 As a technique for solving such a problem, the present applicant determines the position of the face from the information around the face (such as the color and shape of clothes) when the face to be tracked becomes invisible during the tracking process. A method of estimating and continuing tracking using the estimated position is proposed (see Patent Document 1).
しかしながら、従来の方法は、追跡中の人物をいかに見失わないようにするかという点に注目したものであるため、次のようなケースに対応できない。 However, since the conventional method focuses on how to keep track of the person being tracked, it cannot deal with the following cases.
ある人物が動画像に写り始めたとしても、その人物の追跡が直ちに開始されるとは限らない。顔が隠れていたり、正面を向いていなかったり、小さかったりすると、顔を検出することができず、新たな追跡対象者が動画像に現れたことを装置が認識できないからである。このような場合は、その人物の顔がはっきりと認識されるようになってはじめて追跡処理がスタートするため、その人物の登場から顔検出に成功するまでの間の動き情報を捉えることができない。特に、多数の人物が写る画像では、顔の隠れが起こる可能性が大きいため、このような動き情報の欠落が顕著になる。なお、顔検出の判定を甘くすればある程度早い段階で顔を検出することも可能になるが、その場合には、誤検出及び誤追跡が増加してしまうため装置自体の信頼性が低下するという弊害が生じる。
本発明は上記実情に鑑みてなされたものであって、その目的とするところは、動画像中の人物の追跡処理を可及的に早い段階から高い信頼性をもって実行可能な技術を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique capable of performing tracking processing of a person in a moving image with high reliability from the earliest possible stage. It is in.
上記目的を達成するため、本発明は以下のような手段ないし処理を採用する。 In order to achieve the above object, the present invention employs the following means or processing.
本発明に係る追跡装置は、動画像中の人物の動きを追跡し記録する追跡装置であって、順次入力される各フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出する検出手段と、人物を追跡対象とする追跡処理を実行する人物追跡手段と、候補を追跡対象とする追跡処理を実行する候補追跡手段と、追跡対象とされた人物の位置情報を記録した追跡情報と、追跡対象とされた候補の位置情報を記録した追跡情報とを記憶する記憶手段と、前記記憶手段の追跡情報を更新する更新手段と、を備え、前記更新手段は、前記検出手段によって検出された人物の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物が存在した場合に、前記記憶手段に記憶されている当該候補の追跡情報を人物の追跡情報へと変更する。 The tracking device according to the present invention is a tracking device that tracks and records the movement of a person in a moving image, and from each frame image that is sequentially input, a person and a candidate that cannot be determined whether or not the person is Detection means for detecting a person, tracking means for performing tracking processing for tracking a person, candidate tracking means for executing tracking processing for tracking a candidate, and position information of a person to be tracked are recorded Storage means for storing the tracking information recorded and the tracking information in which the position information of the candidate to be tracked is recorded, and update means for updating the tracking information in the storage means, wherein the update means includes the detection When there is a person who is evaluated as the same target as the candidate tracked by the candidate tracking means among the persons detected by the means, the tracking information of the candidate stored in the storage means The person To change between the tracking information.
この構成によれば、明らかに人と判る対象(「人物」)だけでなく、顔が隠れているなどして人か否かの判別が難しいグレーゾーンの対象(「候補」)についても、直ちに追跡処理が開始され、追跡情報の記録が行われる。そして、「候補」として追跡している最中に、その「候補」が「人物」であったと判明した時点で、「候補」の追跡情報として記録していた情報が「人物」の追跡情報へと変更される。以降は、「人物」として追跡処理が継続されることとなる。したがって、人か否かの判別が難しい時点から、当該人物の動きを追跡し記録することが可能となる。なお、人以外のものが「候補」として検出され、追跡処理が行われることもあるが、その場合は、「候補」から「人物」へと転じることがないため、「人物」の追跡情報の信頼性を低下させることはない。すなわち、本発明の構成によると、追跡処理を可及的に早い段階から開始し、且つ、誤検出や誤追跡による信頼性低下は抑制する、という相反する目的を同時満足することが可能となる。 According to this configuration, not only an object that is clearly identified as a person ("person"), but also a gray zone object ("candidate") that is difficult to determine whether it is a person due to a hidden face or the like. The tracking process is started and tracking information is recorded. Then, when the “candidate” is tracked as “candidate”, when the “candidate” is found to be “person”, the information recorded as the “candidate” tracking information becomes the tracking information of “person”. And changed. Thereafter, the tracking process is continued as “person”. Therefore, it is possible to track and record the movement of the person from the time when it is difficult to determine whether or not the person is a person. Something other than a person is detected as a “candidate” and tracking processing may be performed, but in that case, since “candidate” does not change to “person”, the tracking information of “person” Reliability is not reduced. That is, according to the configuration of the present invention, it is possible to simultaneously satisfy the conflicting purpose of starting the tracking process from the earliest possible stage and suppressing the decrease in reliability due to erroneous detection or mistracking. .
前記更新手段は、現在のフレームの画像から前記検出手段によって検出された人物の中に、前記人物追跡手段により追跡対象とされている人物と同一の対象と評価される人物が存在した場合に、当該人物の現在のフレームにおける位置情報を前記記憶手段の追跡情報に追加することが好ましい。 The update means, when there is a person evaluated as the same target as the person tracked by the person tracking means among the persons detected by the detection means from the image of the current frame, It is preferable to add the position information of the person in the current frame to the tracking information of the storage means.
従来は、現在のフレームにおける追跡が成功したら、当該人物の追跡情報を更新することが一般的であった。これに対して、本発明では、現在のフレームの画像に対して追跡処理と検出処理の両方を行い、追跡対象の人物について追跡と検出の両方が成功した場合に、当該人物の追跡情報を更新する構成を採用している。したがって、従来よりも誤追跡の少ない、信頼性の高い追跡結果を提供することができる。 Conventionally, when the tracking in the current frame is successful, the tracking information of the person is generally updated. In contrast, in the present invention, both tracking processing and detection processing are performed on the image of the current frame, and when both tracking and detection are successful for the tracking target person, the tracking information of the person is updated. The structure to be adopted is adopted. Therefore, it is possible to provide a highly reliable tracking result with less mistracking than in the past.
また、前記更新手段は、現在のフレームの画像から前記検出手段によって検出された人物及び候補の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物又は候補が存在した場合に、当該候補の現在のフレームにおける位置情報を前記記憶手段の追跡情報に追加することが好ましい。 In addition, the updating unit may include a person or a candidate evaluated as the same target as the candidate to be tracked by the candidate tracking unit among the persons and candidates detected by the detection unit from the image of the current frame. In the case where there is, it is preferable to add the position information of the candidate in the current frame to the tracking information of the storage means.
このように、候補の追跡の場合についても、現在のフレームの画像に対して追跡処理と検出処理の両方を行い、当該候補について追跡と検出の両方が成功した場合に、当該候補の追跡情報を更新する構成を採用することで、誤追跡の少ない、信頼性の高い追跡結果を提供することができる。 Thus, also in the case of tracking a candidate, if both tracking processing and detection processing are performed on the image of the current frame, and both tracking and detection are successful for the candidate, tracking information of the candidate is displayed. By adopting a configuration for updating, it is possible to provide a highly reliable tracking result with less mistracking.
前記更新手段は、前記検出手段により検出された位置を用いて、前記記憶手段の追跡情報に追加する位置情報を求めることが好ましい。 Preferably, the update means obtains position information to be added to the tracking information of the storage means using the position detected by the detection means.
追跡処理によって特定される人物(又は候補)の位置(追跡位置)と、検出処理によって特定される人物(又は候補)の位置(検出位置)とのあいだに多少の差が存在することがある。一般には、追跡位置よりも検出位置のほうが精度を期待できる。そこで、本発明のように、検出位置を用いて追跡情報に記録する位置情報を決定することにより、追跡結果の信頼性を向上することができる。 There may be a slight difference between the position (tracking position) of the person (or candidate) specified by the tracking process and the position (detection position) of the person (or candidate) specified by the detection process. In general, the detection position can be expected to be more accurate than the tracking position. Therefore, the reliability of the tracking result can be improved by determining the position information to be recorded in the tracking information using the detected position as in the present invention.
前記検出手段は、検出した対象をその検出結果の信頼度とともに出力する検出器を複数種類備えており、少なくともいずれか1つの検出器の検出結果の信頼度が閾値以上の場合に前記検出した対象が人物であると判定し、すべての検出器の検出結果の信頼度が閾値より小さい場合に前記検出した対象が候補であると判定することが好ましい。 The detection means includes a plurality of types of detectors that output the detected object together with the reliability of the detection result, and the detected object is detected when the reliability of the detection result of at least one of the detectors is equal to or greater than a threshold value. It is preferable to determine that the detected object is a candidate when the reliability of detection results of all detectors is smaller than a threshold.
複数種類の検出器を用いることにより、人物の可能性がある対象を漏れなく検出できるようになるものと期待できる。 By using a plurality of types of detectors, it can be expected that an object that may be a person can be detected without omission.
前記検出手段は、前記複数種類の検出器を1つずつ順番に実行し、閾値以上の信頼度をもつ検出結果が得られた時点で検出処理を止めることが好ましい。 It is preferable that the detection means sequentially execute the plurality of types of detectors one by one and stop the detection process when a detection result having a reliability equal to or higher than a threshold is obtained.
これにより、検出器の実行回数を可及的に少なくできるので、検出処理に要する時間を短縮することができる。 As a result, the number of executions of the detector can be reduced as much as possible, and the time required for the detection process can be shortened.
前記複数種類の検出器は、頭部を検出する検出器と顔を検出する検出器を含んでおり、前記頭部を検出する検出器が前記顔を検出する検出器よりも先に実行されることが好ましい。 The plurality of types of detectors include a detector that detects a head and a detector that detects a face, and the detector that detects the head is executed before the detector that detects the face. It is preferable.
顔検出よりも処理時間の短い頭部検出を先に実行することで、頭部検出の結果のみで人物と判定可能なものについての顔検出処理を省略できるため、検出処理に要する時間の短縮が可能となる。 By performing head detection with a shorter processing time than face detection first, it is possible to omit face detection processing for those that can be determined as a person only from the result of head detection, thereby reducing the time required for detection processing. It becomes possible.
前記候補追跡手段は、前記候補が最初に検出されたフレームから所定期間後に該候補の追跡処理を止めることが好ましい。 Preferably, the candidate tracking unit stops the tracking process of the candidate after a predetermined period from a frame in which the candidate is first detected.
つまり、所定期間のあいだに「候補」から「人物」への変更が行われなかった場合には、その「候補」は人以外のものであるとみなされ、追跡対象から除かれるのである。これにより無駄な追跡処理を減らし、処理時間の短縮を図ることができる。 In other words, if the change from “candidate” to “person” is not performed during a predetermined period, the “candidate” is regarded as something other than a person and is excluded from the tracking target. Thereby, useless tracking processing can be reduced and processing time can be shortened.
なお、本発明は、上記手段の少なくとも一部を含む追跡装置または追跡システムとして捉えてもよいし、上記処理の少なくとも一部を含む追跡方法またはその追跡方法をコンピュータに実行させるためのプログラムやそのプログラムを記録したコンピュータ読み取り可能な記録媒体として捉えることもできる。上記手段及び上記処理は、可能な限りどのような組み合わせをとることもできる。 The present invention may be regarded as a tracking device or a tracking system including at least a part of the above means, a tracking method including at least a part of the above processing, or a program for causing a computer to execute the tracking method, or a program thereof It can also be understood as a computer-readable recording medium on which the program is recorded. Any combination of the above means and the above processing can be taken as much as possible.
例えば、本発明に係る追跡方法は、動画像中の人物の動きを追跡し記録する追跡方法であって、コンピュータが、第1フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出するステップと、前記第1フレームの画像で検出された人物を追跡対象とし、前記第1フレームの後の第2フレームの画像に対して追跡処理を実行するステップと、前記第1フレームの画像で検出された候補を追跡対象とし、前記第2フレームの画像に対して追跡処理を実行するステップと、追跡対象とされた人物の位置情報を含む追跡情報と、追跡対象とされた候補の位置情報を含む追跡情報とを記憶装置に記録するステップと、前記第2フレームの画像から人物を検出するステップと、前記第2フレームの画像から検出された人物の中に、前記第2フレームにおいて追跡対象とされている候補と同一の対象と評価される人物が存在した場合、前記記憶装置に記憶されている当該候補の追跡情報を人物の追跡情報へと変更するステップと、を実行することを特徴とする。 For example, the tracking method according to the present invention is a tracking method for tracking and recording the movement of a person in a moving image, and the computer cannot determine whether a person is a person or not from the first frame image. A candidate is detected; a person detected in the image of the first frame is set as a tracking target; a tracking process is performed on an image of a second frame after the first frame; and the first The candidate detected in the image of the frame is set as the tracking target, the tracking process is performed on the image of the second frame, the tracking information including the position information of the person who is the tracking target, and the tracking target Recording tracking information including candidate position information in a storage device, detecting a person from the second frame image, and detecting a person from the second frame image, A step of changing the tracking information of the candidate stored in the storage device to the tracking information of the person when there is a person evaluated as the same target as the tracking target in the second frame; , Is executed.
本発明によれば、動画像中の人物の追跡処理を可及的に早い段階から高い信頼性をもって実行することができる。 According to the present invention, tracking processing of a person in a moving image can be executed with high reliability from the earliest possible stage.
以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。 Exemplary embodiments of the present invention will be described in detail below with reference to the drawings.
(全体構成)
図1は本発明の実施形態に係る追跡装置の機能構成を示すブロック図である。まずは図1を用いて、追跡装置の機能構成を説明する。
(overall structure)
FIG. 1 is a block diagram showing a functional configuration of a tracking device according to an embodiment of the present invention. First, the functional configuration of the tracking device will be described with reference to FIG.
この追跡装置は、カメラや記録媒体(いずれも不図示)から動画像(入力画像)を取り込み、その動画像に写る不特定の人物の動きを自動で追跡し記録するための装置である。動画像中に複数の人物が写っている場合には、人物毎にIDが付与され、各人物の動きの情報が個別に追跡・記録される。このような追跡装置は、例えば、監視カメラの映像から侵入者や入場者の動きや数を解析する装置、店内カメラの映像から顧客の動線を解析する装置など、様々な用途に応用可能である。 This tracking device is a device for capturing a moving image (input image) from a camera or a recording medium (both not shown) and automatically tracking and recording the movement of an unspecified person appearing in the moving image. When a plurality of persons are captured in the moving image, an ID is assigned to each person, and movement information of each person is individually tracked and recorded. Such a tracking device can be applied to various applications such as a device that analyzes the movement and number of intruders and visitors from the video of the surveillance camera, and a device that analyzes the flow of the customer from the video of the in-store camera. is there.
追跡装置は、図1に示すように、その機能として、検出処理部10、追跡処理部20、統合処理部30、追跡情報データベース40を備えている。図示しないが、動画像を撮影するためのカメラや、動画像及び追跡結果を出力するための表示部などを設けることも好ましい。これらの機能要素は、演算処理装置(コンピュータ)がソフトウエア(プログラム)を実行し、必要に応じて、カメラ、メモリ、ディスプレイなどのハードウエア資源を制御することで実現される。ただし、これらの機能要素の少なくとも一部を専用のチップで構成しても構わない。
As shown in FIG. 1, the tracking device includes a
(検出処理部)
検出処理部10は、順次入力される各フレームの画像から「人物」と「候補」とを検出する機能(検出手段)である。ここで「人物」とは、検出処理部10によって検出される対象のうち、人(人間)であると判定された対象をいい、「候補」とは、人物か否かを確定できない対象をいう。
(Detection processing unit)
The
検出処理部10は、頭部検出器11、顔検出器12、上半身検出器13の3種類の検出器を備えている。これらの検出器11〜13は互いに異なるアルゴリズム(あるいは特徴量)を用いて、人物検出処理を行う機能である。各検出器は、画像の中から、人物の可能性がある対象(領域)をすべて検出し、その検出した対象を検出結果の信頼度とともに出力する。信頼度とは、その検出した対象が人物である確率(人物らしさ)を表すスコアであり、信頼度が大きいほど人物である可能性が高いことを示している。本実施形態においては、複数種類の検出器11〜13を用い、少なくとも1つの検出器で高い信頼度の検出結果が得られたら「人物」と判定し、すべての検出器の信頼度が低い場合に「候補」と判定する。これにより、人物の可能性がある対象を漏れなく検出することができる。
The
ここで、3つの検出器11〜13は同時に(並列に)実行されるのではなく、図1に示すように、頭部検出器11→顔検出器12→上半身検出器13の順番で1つずつ実行される。もしいずれかの検出器で「人物」と判定されたら、その時点で検出処理を止め、残りの検出器の処理は省略する。これにより、検出器の実行回数を可及的に少なくし、検出処理に要する時間を短縮する。
Here, the three
検出器の処理順は、各検出器の特性を考慮して決定する。混雑や顔の向き変化による人体の隠れが発生する状況において、人物の中で最も検出しやすい部位は頭部である。例えば、帽子やサングラスをつけていたり、顔が横を向いていたり、照明の具合により顔器官がはっきり写っていなかったりすると、顔の検出は困難である。また人体が重なっている場合には上半身の検出ができないこともある。しかし、そのような画像であっても、頭部の輪郭が明瞭に写っていれば頭部検出が可能である。また頭部検出のアルゴリズムは比較的単純であり、処理時間も短いという利点がある。そこで本実施形態では、まず頭部検出器11による頭部検出処理を実行する。頭部検出で得られた信頼度が十分に高い場合は、頭部検出の結果のみで「人物」であると判断する。ただし、頭部検出は、楕円形状の物体などを頭部として誤検出しやすい傾向にあるので、「人物」か否かを判断する閾値は高めに設定することが好ましい。
The processing order of the detectors is determined in consideration of the characteristics of each detector. In a situation where the human body is hidden due to congestion or a change in the orientation of the face, the most easily detected part of the person is the head. For example, it is difficult to detect a face when wearing a hat or sunglasses, when the face is facing sideways, or when the facial organ is not clearly shown due to lighting conditions. In addition, when the human bodies overlap, the upper body may not be detected. However, even such an image can be detected if the outline of the head is clearly visible. The head detection algorithm is relatively simple and has the advantage of a short processing time. Therefore, in the present embodiment, first, head detection processing by the
顔検出器12は、顔器官の特徴などを用いて顔か否かを検出する機能であり、画像に顔
が鮮明に写っている場合には3つの検出器の中で最も誤検出が少ないという利点がある。ただし、頭部検出に比べて処理時間を要すること、また照明や顔の向きなどの条件に影響を受けやすいことなどから、頭部検出の信頼性が低い場合にのみ実行する2次的な検出器として用いる。
The
上半身検出器13は、上半身の輪郭などに着目して人体か否かを検出する機能である。頭部検出と同様、アルゴリズムは比較的単純であり、処理時間も短いという利点がある。また、画像中の人物のサイズが小さい場合や、帽子や顔の向きや照明条件などにより顔の判別がつきづらい場合でも、上半身の検出は可能なことが多い。そこで、本実施形態では、顔検出の信頼性が低い場合に実行する3次的な検出器として上半身検出器13を用いる。
The
なお、用いる検出器の種類(アルゴリズム)、数、順番などは、本実施形態で示したものに限らず、適宜変更してもかまわない。例えば、頭部検出器と顔検出器の2種類だけを用いてもよいし、4種類以上の検出器を組み合わせてもよい。また処理時間よりも検出精度を優先するのであれば、信頼度の高低によらずすべての検出器を実行し、それらの検出結果を総合して「人物」か「候補」かの判断をしてもよい。 Note that the type (algorithm), number, and order of detectors to be used are not limited to those shown in this embodiment, and may be changed as appropriate. For example, only two types of head detectors and face detectors may be used, or four or more types of detectors may be combined. If the detection accuracy is prioritized over the processing time, all detectors are executed regardless of the reliability, and the result of the detection is combined to determine whether the person is a candidate. Also good.
検出器の具体的なアルゴリズムや検出器の作成手法に関しては、従来公知の技術を利用することができる。例えば、数多くのサンプル画像(頭部検出器であれば、頭部が写っている画像と、頭部が写っていない画像を用意する)を用いて、Real AdaBoostのようなBoosting手法により特徴量の傾向を学習することで、検出器が作成される。特徴量としては、例えば、HoG(Histogram of Gradient)特徴量、Sparse特徴量、Haar特徴量などどのような種類の特徴量も用いることができる。また学習手段も、Boosting手法のほか、SVM(サポートベクタマシン)、ニューラルネットワークなどを利用することも可能である。 For a specific algorithm of the detector and a method for creating the detector, a conventionally known technique can be used. For example, using a large number of sample images (in the case of a head detector, prepare an image that shows the head and an image that does not show the head) and use the Boosting method such as Real AdaBoost to calculate the feature amount. A detector is created by learning the trend. As the feature amount, for example, any type of feature amount such as a HoG (Histogram of Gradient) feature amount, a Sparse feature amount, or a Haar feature amount can be used. In addition to the boosting method, the learning means can also use an SVM (support vector machine), a neural network, or the like.
検出処理部10の検出結果は、追跡情報DB40内の検出情報DB41に記録される。検出結果には、検出された対象ごとに、画像中の位置及びサイズ、信頼度、人物フラグ(人物の場合にON、候補の場合にOFF)が含まれる。
The detection result of the
(追跡処理部)
追跡処理部20は、「人物」を追跡対象とする追跡処理を実行する人物追跡器21(人物追跡手段)と、「候補」を追跡対象とする追跡処理を実行する候補追跡器22(候補追跡手段)とから構成される。
(Tracking processing part)
The
人物追跡器21が追跡対象とする人物の情報(追跡人物情報)は、追跡情報DB40内の追跡人物情報DB42に記録されている。この追跡人物情報には、追跡対象のID、画像中の位置及びサイズ(追跡が続いているフレーム数分の移動履歴が蓄積される)、特徴量、人物フラグが含まれる。
Information of the person to be tracked by the person tracker 21 (tracked person information) is recorded in the tracked
人物追跡器21は、追跡人物情報を参照しつつ、各追跡対象に対する追跡処理を実行する。追跡処理とは、現在のフレームの画像の中から、前のフレームにおける追跡対象と位置、サイズ、特徴量などが類似する対象(領域)を探索する処理である。追跡処理がフレーム間の類似性を利用して追跡対象を探索するのに対し、前述の検出処理は1つのフレームの画像から頭部、顔、上半身などを探索する処理である点で、両者は異なっている。
The
一方、候補追跡器22が追跡対象とする候補の情報(追跡候補情報)は、追跡情報DB40内の追跡候補情報DB43に記録されている。この追跡候補情報には、追跡対象のID、画像中の位置及びサイズ、特徴量、人物フラグが含まれる。なお、追跡対象IDは、
人物であるか候補であるかにかかわらず、一意の番号が振られるようにする。
On the other hand, information on candidates to be tracked by the candidate tracker 22 (tracking candidate information) is recorded in the tracking
A unique number is assigned regardless of whether it is a person or a candidate.
候補追跡器22は、追跡候補情報を参照しつつ、各追跡対象に対する追跡処理を実行する。追跡対象が異なるだけで、具体的な追跡アルゴリズムは人物追跡器21と共通である。ただし、候補追跡器22は、候補の追跡処理を所定期間(例えば、当該候補が最初に検出されたフレームから10フレーム)しか継続しないこととする。このような制限を設けたのは、人物以外のものに対する無駄な追跡処理を減らし、処理時間の短縮を図るためである。なお、後述するように、この10フレーム期間の間に、当該候補が人物であったことが判明した場合は、処理が人物追跡器21に引き継がれるため、追跡処理が継続される。
The
追跡器の具体的なアルゴリズムや追跡器の作成手法に関しては、従来公知の技術を利用することができる。例えば、追跡方法としては、Particle Filter、mean shift、Online Boostingなどを利用することができる。フレーム間の比較には、前のフレームで得られたテンプレート、色情報、検出器から得られた特徴量などを利用できる。 For a specific algorithm of the tracker and a method for creating the tracker, a conventionally known technique can be used. For example, as a tracking method, particle filter, mean shift, online boosting, or the like can be used. For comparison between frames, a template obtained in the previous frame, color information, a feature amount obtained from a detector, and the like can be used.
(統合処理部)
統合処理部30は、検出処理部10の検出結果と追跡処理部20の追跡結果とを統合し、追跡情報DB40内の追跡人物情報DB42及び追跡候補情報DB43の内容を更新する機能(更新手段)である。統合処理部30は、図1に示すように、検出−人物追跡結果統合部31、検出−候補追跡結果統合部32、人物−候補結果統合部33を備えている。
(Integrated processing department)
The
検出−人物追跡結果統合部31の主な機能は、検出処理部10によって検出された「人物」と人物追跡器21により追跡中の「人物」とを同定する機能、追跡人物情報DB42に記録されている追跡人物情報を更新する機能、検出処理部10によって新しく検出された「人物」を追跡人物情報DB42に登録する機能である。また、検出−候補追跡結果統合部32の主な機能は、検出処理部10によって検出された対象(「人物」と「候補」の両方を含む)と候補追跡器22により追跡中の「候補」とを同定する機能、追跡候補情報DB43に記録されている追跡候補情報を更新する機能、検出処理部10によって新しく検出された「候補」を追跡候補情報DB43に登録する機能である。また、人物−候補結果統合部33の主な機能は、追跡人物情報DB42と追跡候補情報DB43への重複登録を解消する機能、追跡中の「候補」が「人物」であったことが判明した場合に追跡候補情報を追跡人物情報へ変更する機能などである。これらの機能の詳細については後述する。
The main function of the detection-person tracking
(追跡処理の例)
では、フローチャートと画像例を参照して、本実施形態の追跡装置における追跡処理の流れを説明する。以下に述べる(1)検出処理、(2)追跡処理、及び、(3)統合処理は、フレーム毎に実行される。
(Example of tracking process)
Now, the flow of the tracking process in the tracking device of the present embodiment will be described with reference to a flowchart and an image example. The following (1) detection process, (2) tracking process, and (3) integration process are executed for each frame.
(1)検出処理
図2は、検出処理の流れを示すフローチャートである。あるフレームの画像が入力されると、まず頭部検出器11が入力画像から頭部を検出する(S30)。そして、S32〜S39の処理が、検出されたN個の頭部のそれぞれについて実行される(S31)。S32では、頭部nIに関して、頭部検出の信頼度Conf1が閾値TH1と比較される。頭部検出の信頼度Conf1が高い場合(S32;NO)は、頭部nIの人物フラグをONに設定し(S33)、検出結果(画像中の位置・サイズ、信頼度、人物フラグ)を検出情報DB41へ記録する(S34)。
(1) Detection Processing FIG. 2 is a flowchart showing the flow of detection processing. When an image of a certain frame is input, the
S32において、頭部検出の信頼度Conf1が閾値TH1より低かった場合には、顔
検出器12が、頭部nIを中心とする所定範囲の中から、顔の検出を行う(S35)。ここで顔検出範囲を頭部nIの近傍に制限することにより、顔検出処理に要する時間を短縮できる。次に、S36において、顔検出の信頼度Conf2が閾値TH2と比較される。信頼度Conf2が高い場合(S36;NO)は、人物フラグをONに設定し(S33)、検出結果を検出情報DB41へ記録する(S34)。
If the head detection reliability Conf1 is lower than the threshold value TH1 in S32, the
S36において、顔検出の信頼度Conf2が閾値TH2より低かった場合には、上半身検出器13が、頭部nIを基準とする所定範囲の中から、上半身の検出を行う(S37)。ここでも上半身検出範囲を制限することで、処理時間の短縮を図っている。S38において、上半身検出の信頼度Conf3が閾値TH3と比較される。信頼度Conf3が高い場合(S38;NO)は、人物フラグをONに設定し(S33)、検出結果を検出情報DB41へ記録する(S34)。
If the face detection reliability Conf2 is lower than the threshold value TH2 in S36, the
S38において、上半身検出の信頼度Conf3が閾値TH3より低かった場合には、人物フラグをOFFに設定し(S39)、検出結果を検出情報DB41へ記録する(S34)。 In S38, when the upper body detection reliability Conf3 is lower than the threshold value TH3, the person flag is set to OFF (S39), and the detection result is recorded in the detection information DB 41 (S34).
上記フローにより、入力画像に含まれるすべての「人物」及び「候補」の検出結果が検出情報DB41に記録される。図3は、入力画像と検出結果の一例を示している。この画像には二人の人物が写っている。前方の人物Aは「人物」(人物フラグ=ON)として認識されているが、後方の人物Bは体の一部が隠れている関係で「候補」(人物フラグ=OFF)となっている。また、人間以外の物体Cも「候補」として検出されている。
Through the above flow, detection results of all “persons” and “candidates” included in the input image are recorded in the
(2)追跡処理
図4は、人物追跡処理の流れを示すフローチャートである。画像が入力されると、人物追跡器21は追跡人物情報DB42から追跡人物情報を取得する(S50)。そして、S52〜S56の処理が、追跡対象とされている人物の数だけ繰り返される(S51)。図3の例では、追跡対象の数Mは1(追跡対象ID:001)である。
(2) Tracking Process FIG. 4 is a flowchart showing the flow of the person tracking process. When the image is input, the
S52では、人物追跡器21が、追跡対象nJの追跡処理を実行する。具体的には、追跡人物情報DB42から読み込んだ追跡対象nJの位置、サイズ、特徴量(これらは1つ前のフレームの画像から得られた情報である)をもとに、現在のフレームの画像の中から追跡対象nJを探索する。追跡が成功した場合は(S53;YES)、追跡成功フラグをONに設定し(S54)、追跡結果として現在のフレームにおける位置、追跡成功フラグなどの情報を出力する(S56)。一方、追跡が失敗した場合は(S53;NO)、追跡成功フラグをOFFに設定し(S55)、追跡結果を出力する(S56)。ここで出力された追跡結果は、後述する検出−人物追跡結果統合部31の統合処理に利用される。
In S52, the
図5は、候補追跡処理の流れを示すフローチャートである。画像が入力されると、候補追跡器22は追跡候補情報DB43から追跡候補情報を取得する(S60)。そして、S62〜S67の処理が、追跡対象とされている候補の数だけ繰り返される(S61)。図3の例では、追跡対象の数Pは2(追跡対象ID:002,003)である。
FIG. 5 is a flowchart showing the flow of candidate tracking processing. When the image is input, the
S62では、候補追跡器22が、追跡対象nKの追跡回数を調べる。追跡回数は、例えば、追跡候補情報に記録された位置の履歴数などから簡単に調べることができる。もし追跡回数が10回に達していたら(S62;NO)、候補追跡器22は追跡処理を実行せずに、追跡対象nKの追跡成功フラグをOFFに設定する(S66)。これにより候補の追跡を最大でも10フレームの期間に制限している。
In S62, the
S63では、候補追跡器22が、追跡対象nKの追跡処理を実行する。具体的には、追
跡候補情報DB43から読み込んだ追跡対象nKの位置、サイズ、特徴量(これらは1つ前のフレームの画像から得られた情報である)をもとに、現在のフレームの画像の中から追跡対象nKを探索する。追跡が成功した場合は(S64;YES)、追跡成功フラグをONに設定し(S65)、追跡結果(現在のフレームにおける位置、追跡成功フラグなど)を出力する(S67)。一方、追跡が失敗した場合は(S64;NO)、追跡成功フラグをOFFに設定し(S66)、追跡結果を出力する(S67)。ここで出力された追跡結果は、後述する検出−候補追跡結果統合部32の統合処理に利用される。
In S63, the
上記フローにより、追跡対象とされているすべての「人物」(追跡対象ID:001)及び「候補」(追跡対象ID:002,003)について、追跡処理が実行される。なお図4の処理と図5の処理は並列に実行されてもよいし、順番に実行されてもよい。 With the above flow, the tracking processing is executed for all “persons” (tracking target ID: 001) and “candidates” (tracking target ID: 002, 003) that are tracked. Note that the processing in FIG. 4 and the processing in FIG. 5 may be executed in parallel or in order.
(3)統合処理
図6は、検出−人物追跡結果統合処理の流れを示すフローチャートである。
(3) Integration Processing FIG. 6 is a flowchart showing the flow of detection-person tracking result integration processing.
検出−人物追跡結果統合部31は、人物追跡器21から出力された人物追跡結果(図4のS56参照)を受け取ると、各追跡対象の追跡成功フラグを調べ、追跡成功フラグがOFFの追跡対象の情報を追跡人物情報DB42から削除する(S71)。
Upon receiving the person tracking result (see S56 in FIG. 4) output from the
次に、検出−人物追跡結果統合部31は、検出情報DB41から検出結果を取得する(S72)。そして、人物フラグがONの検出結果(つまり、検出処理部10によって検出された「人物」のそれぞれ)に対して、S75〜S78の処理が繰り返される(S73、S74)。
Next, the detection-person tracking
S75では、検出された人物nIと、追跡成功フラグがONの追跡対象(人物)との同定が行われる。例えば、検出処理によって特定された人物nIの位置と人物追跡処理によって特定された追跡対象の位置とのあいだの距離が所定の閾値より小さい場合に、両者が同一の対象であると判断すればよい。また位置だけでなく、サイズの比較や、特徴量の比較を行ってもよい。 In S75, the detected person nI and the tracking target (person) whose tracking success flag is ON are identified. For example, if the distance between the position of the person nI specified by the detection process and the position of the tracking target specified by the person tracking process is smaller than a predetermined threshold, it is sufficient to determine that both are the same target. . Further, not only the position but also size comparison and feature amount comparison may be performed.
同一の対象が存在した場合(S76;YES)、検出−人物追跡結果統合部31は、当該追跡対象の現在のフレームにおける位置情報を追跡人物情報DB42に追加する(S77)。このとき、人物追跡によって特定された位置(追跡位置)をそのまま記録するのではなく、検出処理によって特定された位置(検出位置)を用いてDBに記録する位置情報を求めるとよい。具体的には、検出位置を記録してもよいし、あるいは、検出位置と追跡位置の平均(中間点)を記録してもよい。一般に、追跡位置と検出位置とのあいだに多少の差が存在するが、追跡位置よりも検出位置のほうが精度を期待できるからである。本実施形態のように検出位置を用いて追跡対象の位置を決定(あるいは補正)することにより、追跡の成功率および追跡結果の信頼性を向上することができる。
When the same target exists (S76; YES), the detection-person tracking
一方、同一の対象が存在しなかった場合(S76;NO)、検出−人物追跡結果統合部31は、人物nIに新規の追跡対象IDを振り当てて、追跡人物情報DB42に新規登録する(S78)。
On the other hand, when the same target does not exist (S76; NO), the detection-person tracking
図7は、検出−候補追跡結果統合処理の流れを示すフローチャートである。 FIG. 7 is a flowchart showing a flow of detection-candidate tracking result integration processing.
検出−候補追跡結果統合部32は、候補追跡器22から出力された候補追跡結果(図5のS67参照)を受け取ると、各追跡対象の追跡成功フラグを調べ、追跡成功フラグがOFFの追跡対象の情報を追跡候補情報DB43から削除する(S81)。
Upon receiving the candidate tracking result (see S67 in FIG. 5) output from the
次に、検出−候補追跡結果統合部32は、検出情報DB41から検出結果を取得する(S82)。そして、すべての検出結果(つまり、検出処理部10によって検出された「人物」及び「候補」のそれぞれ)に対して、S84〜S88の処理が繰り返される(S83)。
Next, the detection-candidate tracking
S84では、検出された対象(人物又は候補)nIと、追跡成功フラグがONの追跡対象(候補)との同定が行われる。この場合も、図6のS75と同様、位置、サイズ、特徴量などを比較することにより、同一の対象か否かを判断すればよい。 In S84, the detected target (person or candidate) nI and the tracking target (candidate) whose tracking success flag is ON are identified. Also in this case, as in S75 of FIG. 6, it is only necessary to determine whether or not they are the same target by comparing the position, size, feature amount, and the like.
同一の対象が存在した場合(S85;YES)、検出−候補追跡結果統合部32は、当該追跡対象の現在のフレームにおける位置情報を追跡候補情報DB43に追加する(S86)。この場合も、追跡位置をそのまま記録するのではなく、検出位置、あるいは、検出位置と追跡位置の平均を記録するとよい。さらに、検出−候補追跡結果統合部32は、対象nIの人物フラグにあわせて、追跡候補情報DB43の人物フラグも更新する。ここで、対象nIの人物フラグがONであるということは、今まで「候補」として追跡していた対象が「人物」であったことが判明したということを意味する。このようなケースは、例えば、人物の位置関係が図3の状態から図8の状態に変化し、後方の人物の顔や上半身がはっきりと認識できるようになった場合などに起こり得る。
When the same target exists (S85; YES), the detection-candidate tracking
一方、同一の対象が存在しなかった場合(S85;NO)、検出−候補追跡結果統合部32は、対象nIの人物フラグを調べ(S87)、人物フラグがOFFの場合に新規の追跡対象IDを振り当てて、追跡候補情報DB43に新規登録する(S88)。
On the other hand, when the same target does not exist (S85; NO), the detection-candidate tracking
図9は、人物−候補結果統合処理の流れを示すフローチャートである。 FIG. 9 is a flowchart showing the flow of the person-candidate result integration process.
人物−候補結果統合部33は、追跡人物情報DB42から追跡対象とされている各人物の情報を取得し(S100)、追跡候補情報DB43から追跡対象とされている各候補の情報を取得する(S101)。そして、各候補nKについて、S103〜S106の処理が繰り返される(S102)。 The person-candidate result integration unit 33 acquires information about each person that is a tracking target from the tracking person information DB 42 (S100), and acquires information about each candidate that is a tracking target from the tracking candidate information DB 43 (S100). S101). And the process of S103-S106 is repeated about each candidate nK (S102).
S103では、候補nKと、S100で取得した追跡対象とされている人物との同定が行われる。この場合も図6のS75と同様、位置、サイズ、特徴量などを比較することにより、同一の対象か否かを判断すればよい。 In S103, identification of the candidate nK and the person to be tracked acquired in S100 is performed. In this case as well, as in S75 of FIG. 6, it is only necessary to determine whether or not they are the same target by comparing the position, size, feature amount, and the like.
候補nKと同一の人物が追跡人物情報DB42に存在した場合(S104;YES)、追跡候補情報DB43から当該候補nKの情報が削除される(S105)。このようなケースは、例えば、誤検出または誤追跡により同一人物が両方のDBに重複登録されてしまった場合や、二人の人が互いに近づいていき一方の人が他方の人の後ろに完全に隠れてしまった場合などに、起こり得る。 When the same person as the candidate nK exists in the tracking person information DB 42 (S104; YES), the information on the candidate nK is deleted from the tracking candidate information DB 43 (S105). Such cases include, for example, when the same person is registered in both databases due to false detection or tracking, or when two people approach each other and one person is completely behind the other. This can happen if you're hiding in
一方、S106では、人物−候補結果統合部33が、候補nKの人物フラグを調べる。候補nKの人物フラグがONの場合、つまり、図7のS84〜S86で「人物」であることが判明した「候補」の場合には、その候補nKの情報が追跡候補情報DB43から追跡人物情報DB42へと移される(S107)。これにより、候補として追跡し記録されていた情報が、人物の追跡情報へと変更される(図8参照)。候補nKは、次のフレームの処理から、「人物」として追跡処理が続行されることになる。 On the other hand, in S106, the person-candidate result integration unit 33 checks the person flag of the candidate nK. When the candidate nK person flag is ON, that is, in the case of a “candidate” that is found to be “person” in S84 to S86 in FIG. It moves to DB42 (S107). Thereby, the information tracked and recorded as a candidate is changed into the tracking information of a person (refer FIG. 8). For the candidate nK, the tracking processing is continued as “person” from the processing of the next frame.
なお、図6の処理と図7の処理は並列に実行されてもよいし、順番に実行されてもよい。図9の処理は図6の処理と図7の処理が終了した後に実行されるものである。 Note that the process of FIG. 6 and the process of FIG. 7 may be executed in parallel or in order. The processing in FIG. 9 is executed after the processing in FIG. 6 and the processing in FIG. 7 are completed.
(本装置の利点)
上記構成によれば、明らかに人と判る対象(「人物」)だけでなく、顔が隠れているなどして人か否かの判別が難しいグレーゾーンの対象(「候補」)についても、直ちに追跡処理が開始され、追跡情報の記録が行われる。そして、「候補」として追跡している最中に、その「候補」が「人物」であったと判明した時点で、「候補」の追跡情報として記録していた情報が「人物」の追跡情報へと変更される。以降は、「人物」として追跡処理が継続されることとなる。したがって、人か否かの判別が難しい時点から、当該人物の動きを追跡し記録することが可能となる。なお、人以外のものが「候補」として検出され、追跡処理が行われることもあるが、その場合は、「候補」から「人物」へと転じることがないため、「人物」の追跡情報の信頼性を低下させることはない。すなわち、本装置の構成によると、追跡処理を可及的に早い段階から開始し、且つ、誤検出や誤追跡による信頼性低下は抑制する、という相反する目的を同時満足することが可能となる。
(Advantages of this device)
According to the above configuration, not only an object that is clearly identified as a person ("person") but also a gray zone object ("candidate") that is difficult to determine whether it is a person due to a hidden face or the like. The tracking process is started and tracking information is recorded. Then, when the “candidate” is tracked as “candidate”, when the “candidate” is found to be “person”, the information recorded as the “candidate” tracking information becomes the tracking information of “person”. And changed. Thereafter, the tracking process is continued as “person”. Therefore, it is possible to track and record the movement of the person from the time when it is difficult to determine whether or not the person is a person. Something other than a person is detected as a “candidate” and tracking processing may be performed, but in that case, since “candidate” does not change to “person”, the tracking information of “person” Reliability is not reduced. That is, according to the configuration of the present apparatus, it is possible to simultaneously satisfy the conflicting purpose of starting the tracking process as early as possible and suppressing the decrease in reliability due to erroneous detection and tracking. .
また、フレーム毎に検出処理と追跡処理を実行し、検出と追跡の両方が成功した場合にのみ、当該追跡対象の追跡情報を更新するため、従来よりも誤追跡の少ない、信頼性の高い追跡結果を提供することができる。 In addition, the detection process and the tracking process are executed for each frame, and only when both the detection and the tracking are successful, the tracking information of the tracking target is updated. Results can be provided.
なお上記構成は本発明の一具体例を示したものにすぎない。本発明の範囲は上記構成に限定されることはなく、その技術思想の範囲内で種々の変形が可能である。 The above configuration is only a specific example of the present invention. The scope of the present invention is not limited to the above configuration, and various modifications are possible within the scope of the technical idea.
10 検出処理部
11 頭部検出器
12 顔検出器
13 上半身検出器
20 追跡処理部
21 人物追跡器
22 候補追跡器
30 統合処理部
31 検出−人物追跡結果統合部
32 検出−候補追跡結果統合部
33 人物−候補結果統合部
33 候補結果統合
40 追跡情報DB
41 検出情報DB
42 追跡人物情報DB
43 追跡候補情報DB
DESCRIPTION OF
41 Detection information DB
42 Tracking person information DB
43 Tracking candidate information DB
Claims (10)
順次入力される各フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出する検出手段と、
人物を追跡対象とする追跡処理を実行する人物追跡手段と、
候補を追跡対象とする追跡処理を実行する候補追跡手段と、
追跡対象とされた人物の位置情報を記録した追跡情報と、追跡対象とされた候補の位置情報を記録した追跡情報とを記憶する記憶手段と、
前記記憶手段の追跡情報を更新する更新手段と、を備え、
前記更新手段は、前記検出手段によって検出された人物の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物が存在した場合に、前記記憶手段に記憶されている当該候補の追跡情報を人物の追跡情報へと変更することを特徴とする追跡装置。 A tracking device that tracks and records the movement of a person in a moving image,
Detecting means for detecting a person and a candidate that cannot be determined whether or not a person from images of each frame sequentially input;
A person tracking means for performing a tracking process for tracking a person,
Candidate tracking means for executing a tracking process for tracking candidates,
Storage means for storing tracking information that records position information of a person who is a tracking target, and tracking information that records position information of a candidate that is a tracking target;
Updating means for updating the tracking information of the storage means,
The update means is stored in the storage means when a person evaluated by the candidate tracking means as the same target as the candidate tracked by the candidate tracking means exists among the persons detected by the detection means. A tracking device, wherein the tracking information of the candidate is changed to tracking information of a person.
コンピュータが、
第1フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出するステップと、
前記第1フレームの画像で検出された人物を追跡対象とし、前記第1フレームの後の第
2フレームの画像に対して追跡処理を実行するステップと、
前記第1フレームの画像で検出された候補を追跡対象とし、前記第2フレームの画像に対して追跡処理を実行するステップと、
追跡対象とされた人物の位置情報を含む追跡情報と、追跡対象とされた候補の位置情報を含む追跡情報とを記憶装置に記録するステップと、
前記第2フレームの画像から人物を検出するステップと、
前記第2フレームの画像から検出された人物の中に、前記第2フレームにおいて追跡対象とされている候補と同一の対象と評価される人物が存在した場合、前記記憶装置に記憶されている当該候補の追跡情報を人物の追跡情報へと変更するステップと、
を実行することを特徴とする追跡方法。 A tracking method for tracking and recording the movement of a person in a moving image,
Computer
Detecting from a first frame image a person and a candidate that is a subject that cannot be determined whether or not it is a person;
Performing tracking on a person detected in the image of the first frame as a tracking target and performing an image on a second frame after the first frame;
Subjecting the candidate detected in the first frame image to a tracking target and executing a tracking process on the second frame image;
Recording tracking information including position information of a person to be tracked and tracking information including position information of a candidate to be tracked in a storage device;
Detecting a person from the image of the second frame;
If there is a person who is evaluated as the same target as the tracking target in the second frame among the persons detected from the image of the second frame, the person stored in the storage device Changing candidate tracking information to person tracking information;
The tracking method characterized by performing.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008236746A JP5077164B2 (en) | 2008-09-16 | 2008-09-16 | Tracking device and tracking method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008236746A JP5077164B2 (en) | 2008-09-16 | 2008-09-16 | Tracking device and tracking method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010072723A true JP2010072723A (en) | 2010-04-02 |
| JP5077164B2 JP5077164B2 (en) | 2012-11-21 |
Family
ID=42204477
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008236746A Active JP5077164B2 (en) | 2008-09-16 | 2008-09-16 | Tracking device and tracking method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5077164B2 (en) |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011035765A (en) * | 2009-08-04 | 2011-02-17 | Canon Inc | Image processing apparatus and method |
| WO2012144195A1 (en) * | 2011-04-18 | 2012-10-26 | パナソニック株式会社 | Image capture device, image capture device focus control method, and integrated circuit |
| CN102970557A (en) * | 2011-08-31 | 2013-03-13 | 株式会社东芝 | Object search device, video display device, and object search method |
| JP2013098746A (en) * | 2011-10-31 | 2013-05-20 | Jvc Kenwood Corp | Imaging apparatus, imaging method, and program |
| JP2013158007A (en) * | 2013-03-18 | 2013-08-15 | Canon Inc | Imaging apparatus and imaging method |
| WO2013136395A1 (en) * | 2012-03-12 | 2013-09-19 | 日本電気株式会社 | Sensor device, sensing method, and recording medium storing program |
| WO2013145948A1 (en) * | 2012-03-30 | 2013-10-03 | 株式会社メガチップス | Object detection device |
| WO2015129152A1 (en) * | 2014-02-26 | 2015-09-03 | 株式会社ソシオネクスト | Image recognition system and semiconductor integrated circuit |
| JP2016111576A (en) * | 2014-12-08 | 2016-06-20 | キヤノン株式会社 | Imaging apparatus |
| JP2017182600A (en) * | 2016-03-31 | 2017-10-05 | トヨタ自動車株式会社 | Object recognition device |
| JP2019159391A (en) * | 2018-03-07 | 2019-09-19 | オムロン株式会社 | Object detection device, object detection method, and program |
| WO2019180917A1 (en) * | 2018-03-23 | 2019-09-26 | 日本電気株式会社 | Object tracking device, object tracking method, and object tracking program |
| JPWO2020213099A1 (en) * | 2019-04-17 | 2020-10-22 | ||
| JPWO2020217369A1 (en) * | 2019-04-25 | 2020-10-29 | ||
| JP2022503373A (en) * | 2019-09-29 | 2022-01-12 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | Data processing methods, devices and storage media |
| JP7548079B2 (en) | 2021-03-12 | 2024-09-10 | オムロン株式会社 | OBJECT TRACKING DEVICE AND OBJECT TRACKING METHOD |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108509896B (en) * | 2018-03-28 | 2020-10-13 | 腾讯科技(深圳)有限公司 | Trajectory tracking method and device and storage medium |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000105835A (en) * | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | Object recognition method and object tracking monitoring device |
| JP2003216951A (en) * | 2001-12-03 | 2003-07-31 | Microsoft Corp | Method and system for automatic detection and tracking of multiple individuals using multiple cues |
| JP2003250150A (en) * | 2002-02-26 | 2003-09-05 | Oki Electric Ind Co Ltd | Person tracking device using moving images |
| JP2003346159A (en) * | 2002-05-28 | 2003-12-05 | Oki Electric Ind Co Ltd | Person tracking method and person tracking device |
-
2008
- 2008-09-16 JP JP2008236746A patent/JP5077164B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000105835A (en) * | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | Object recognition method and object tracking monitoring device |
| JP2003216951A (en) * | 2001-12-03 | 2003-07-31 | Microsoft Corp | Method and system for automatic detection and tracking of multiple individuals using multiple cues |
| JP2003250150A (en) * | 2002-02-26 | 2003-09-05 | Oki Electric Ind Co Ltd | Person tracking device using moving images |
| JP2003346159A (en) * | 2002-05-28 | 2003-12-05 | Oki Electric Ind Co Ltd | Person tracking method and person tracking device |
Cited By (31)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011035765A (en) * | 2009-08-04 | 2011-02-17 | Canon Inc | Image processing apparatus and method |
| JP5829679B2 (en) * | 2011-04-18 | 2015-12-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | IMAGING DEVICE, FOCUSING CONTROL METHOD OF IMAGING DEVICE, AND INTEGRATED CIRCUIT |
| WO2012144195A1 (en) * | 2011-04-18 | 2012-10-26 | パナソニック株式会社 | Image capture device, image capture device focus control method, and integrated circuit |
| CN103210332A (en) * | 2011-04-18 | 2013-07-17 | 松下电器产业株式会社 | Camera device, focus control method of camera device, and integrated circuit |
| US8842213B2 (en) | 2011-04-18 | 2014-09-23 | Panasonic Corporation | Image capture device, image capture device focus control method, and integrated circuit |
| CN102970557A (en) * | 2011-08-31 | 2013-03-13 | 株式会社东芝 | Object search device, video display device, and object search method |
| JP2013050912A (en) * | 2011-08-31 | 2013-03-14 | Toshiba Corp | Object search device, video display device, and object search method |
| JP2013098746A (en) * | 2011-10-31 | 2013-05-20 | Jvc Kenwood Corp | Imaging apparatus, imaging method, and program |
| WO2013136395A1 (en) * | 2012-03-12 | 2013-09-19 | 日本電気株式会社 | Sensor device, sensing method, and recording medium storing program |
| WO2013145948A1 (en) * | 2012-03-30 | 2013-10-03 | 株式会社メガチップス | Object detection device |
| JP2013210705A (en) * | 2012-03-30 | 2013-10-10 | Mega Chips Corp | Object detector |
| JP2013158007A (en) * | 2013-03-18 | 2013-08-15 | Canon Inc | Imaging apparatus and imaging method |
| JPWO2015129152A1 (en) * | 2014-02-26 | 2017-03-30 | 株式会社ソシオネクスト | Image recognition system and semiconductor integrated circuit |
| WO2015129152A1 (en) * | 2014-02-26 | 2015-09-03 | 株式会社ソシオネクスト | Image recognition system and semiconductor integrated circuit |
| US10074187B2 (en) | 2014-02-26 | 2018-09-11 | Socionext Inc. | Image recognition system and semiconductor integrated circuit |
| JP2016111576A (en) * | 2014-12-08 | 2016-06-20 | キヤノン株式会社 | Imaging apparatus |
| JP2017182600A (en) * | 2016-03-31 | 2017-10-05 | トヨタ自動車株式会社 | Object recognition device |
| JP2019159391A (en) * | 2018-03-07 | 2019-09-19 | オムロン株式会社 | Object detection device, object detection method, and program |
| WO2019180917A1 (en) * | 2018-03-23 | 2019-09-26 | 日本電気株式会社 | Object tracking device, object tracking method, and object tracking program |
| JPWO2019180917A1 (en) * | 2018-03-23 | 2020-12-10 | 日本電気株式会社 | Object tracking device, object tracking method, and object tracking program |
| US11494922B2 (en) | 2018-03-23 | 2022-11-08 | Nec Corporation | Object tracking device, object tracking method, and object tracking program |
| US20220180536A1 (en) * | 2019-04-17 | 2022-06-09 | Nec Corporation | Object detection/tracking device, method, and program recording medium |
| JPWO2020213099A1 (en) * | 2019-04-17 | 2020-10-22 | ||
| WO2020213099A1 (en) * | 2019-04-17 | 2020-10-22 | 日本電気株式会社 | Object detection/tracking device, method, and program recording medium |
| US11948312B2 (en) | 2019-04-17 | 2024-04-02 | Nec Corporation | Object detection/tracking device, method, and program recording medium |
| JPWO2020217369A1 (en) * | 2019-04-25 | 2020-10-29 | ||
| US11875518B2 (en) | 2019-04-25 | 2024-01-16 | Nec Corporation | Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium |
| WO2020217369A1 (en) * | 2019-04-25 | 2020-10-29 | 日本電気株式会社 | Object feature quantity extraction device, object feature quantity extraction method, and non-transitory computer-readable medium |
| US11335098B2 (en) | 2019-09-29 | 2022-05-17 | Beijing Sensetime Technology Development Co., Ltd. | Data processing methods, apparatuses and storage media |
| JP2022503373A (en) * | 2019-09-29 | 2022-01-12 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | Data processing methods, devices and storage media |
| JP7548079B2 (en) | 2021-03-12 | 2024-09-10 | オムロン株式会社 | OBJECT TRACKING DEVICE AND OBJECT TRACKING METHOD |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5077164B2 (en) | 2012-11-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5077164B2 (en) | Tracking device and tracking method | |
| JP7726357B2 (en) | Information processing device, information processing method, information processing program, and information processing system | |
| JP7375101B2 (en) | Information processing device, information processing method and program | |
| De Geest et al. | Online action detection | |
| US11270108B2 (en) | Object tracking method and apparatus | |
| US10242266B2 (en) | Method and system for detecting actions in videos | |
| WO2020017190A1 (en) | Image analysis device, person search system, and person search method | |
| JP6032921B2 (en) | Object detection apparatus and method, and program | |
| JP6018674B2 (en) | System and method for subject re-identification | |
| JP6013241B2 (en) | Person recognition apparatus and method | |
| CN113963445A (en) | A Pedestrian Fall Action Recognition Method and Device Based on Pose Estimation | |
| US10467461B2 (en) | Apparatus for searching for object and control method thereof | |
| US8731238B2 (en) | Multiple view face tracking | |
| JP6385419B2 (en) | Object detection device | |
| TW201005656A (en) | Object matching for tracking, indexing, and search | |
| JP2014093023A (en) | Object detection device, object detection method and program | |
| Martínez-Martín et al. | Robust motion detection in real-life scenarios | |
| US10592687B2 (en) | Method and system of enforcing privacy policies for mobile sensory devices | |
| JP7434914B2 (en) | Pedestrian object detection device and method, electronic equipment | |
| KR20220074482A (en) | Method and apparatus for automatically recognizing clothes in video | |
| CN114780796B (en) | Track association method, track association device, electronic equipment and machine-readable storage medium | |
| JP7540500B2 (en) | GROUP IDENTIFICATION DEVICE, GROUP IDENTIFICATION METHOD, AND PROGRAM | |
| Brauer | Camera based human localization and recognition in smart environments | |
| JP2011043863A (en) | Apparatus, method, program for determining/tracking object region, and apparatus for determining object region | |
| JP2016207106A (en) | Method and apparatus for reducing false detection in object detection |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110216 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120321 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120327 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120510 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120731 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120813 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150907 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5077164 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |