[go: up one dir, main page]

JP2010072723A - Tracking device and tracking method - Google Patents

Tracking device and tracking method Download PDF

Info

Publication number
JP2010072723A
JP2010072723A JP2008236746A JP2008236746A JP2010072723A JP 2010072723 A JP2010072723 A JP 2010072723A JP 2008236746 A JP2008236746 A JP 2008236746A JP 2008236746 A JP2008236746 A JP 2008236746A JP 2010072723 A JP2010072723 A JP 2010072723A
Authority
JP
Japan
Prior art keywords
tracking
person
candidate
information
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008236746A
Other languages
Japanese (ja)
Other versions
JP5077164B2 (en
Inventor
Takayoshi Yamashita
隆義 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2008236746A priority Critical patent/JP5077164B2/en
Publication of JP2010072723A publication Critical patent/JP2010072723A/en
Application granted granted Critical
Publication of JP5077164B2 publication Critical patent/JP5077164B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique executing tracking processing of a person in a moving picture with high reliability from a stage as early as possible. <P>SOLUTION: The tracking device for tracking and recording movement of a person in a moving picture includes: a detection means which detects, from an image of each of successively input frames, a person and a candidate that is an object which cannot be determined to be the person; a person tracking means which executes tracking processing with the person as tracking object; a candidate tracking means which executes tracking processing with the candidate as tracking object; a storage means which stores tracking information recording position information of the person of the tracking object and tracking information recording position information of the candidate of the tracking object; and an update means which updates the tracking information in the storage means. The update means changes, when a person who is evaluated as the same object as the candidate taken as the tracking object by the candidate tracking means is present among persons detected by the detection means, the tracking information of the candidate stored in the storage means to the tracking information of the person. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、動画像中の人物の動きを追跡し記録する技術に関する。   The present invention relates to a technique for tracking and recording the movement of a person in a moving image.

監視カメラや店内カメラなどで得られた動画像を用いて、その動画像に写る不特定多数の人物の動きを自動で追跡し記録する技術が注目されている。この種の技術では、一般に、人の顔が検出・追跡の対象として用いられるが、顔が障害物や他人の陰に隠れてしまった場合や、顔が横又は後ろを向いてしまった場合などには、顔の検出や追跡が困難になるという課題がある。   A technique for automatically tracking and recording the movements of an unspecified number of people appearing in a moving image using a moving image obtained by a surveillance camera, a camera in a store, or the like has attracted attention. In this type of technology, the human face is generally used as a target for detection and tracking, but when the face is hidden behind an obstacle or another person, or when the face turns sideways or back Has a problem that face detection and tracking becomes difficult.

このような課題を解決するための一手法として、本出願人は、追跡過程で追跡対象の顔が見えなくなった場合に、顔の周囲の情報(服の色や形など)から顔の位置を推定し、その推定位置を用いて追跡を継続するという方法を提案している(特許文献1参照)。   As a technique for solving such a problem, the present applicant determines the position of the face from the information around the face (such as the color and shape of clothes) when the face to be tracked becomes invisible during the tracking process. A method of estimating and continuing tracking using the estimated position is proposed (see Patent Document 1).

しかしながら、従来の方法は、追跡中の人物をいかに見失わないようにするかという点に注目したものであるため、次のようなケースに対応できない。   However, since the conventional method focuses on how to keep track of the person being tracked, it cannot deal with the following cases.

ある人物が動画像に写り始めたとしても、その人物の追跡が直ちに開始されるとは限らない。顔が隠れていたり、正面を向いていなかったり、小さかったりすると、顔を検出することができず、新たな追跡対象者が動画像に現れたことを装置が認識できないからである。このような場合は、その人物の顔がはっきりと認識されるようになってはじめて追跡処理がスタートするため、その人物の登場から顔検出に成功するまでの間の動き情報を捉えることができない。特に、多数の人物が写る画像では、顔の隠れが起こる可能性が大きいため、このような動き情報の欠落が顕著になる。なお、顔検出の判定を甘くすればある程度早い段階で顔を検出することも可能になるが、その場合には、誤検出及び誤追跡が増加してしまうため装置自体の信頼性が低下するという弊害が生じる。
特開2007−42072号公報
Even if a person begins to appear in a moving image, tracking of the person is not always started immediately. This is because if the face is hidden, not facing the front, or small, the face cannot be detected, and the apparatus cannot recognize that a new tracking target person has appeared in the moving image. In such a case, since the tracking process starts only after the person's face is clearly recognized, the motion information from the appearance of the person to the successful face detection cannot be captured. In particular, in an image in which a large number of persons are photographed, there is a high possibility that face hiding will occur, and such lack of motion information becomes significant. In addition, if the detection of face detection is made sweet, it is possible to detect a face at a certain early stage, but in that case, false detection and mistracking increase, and the reliability of the device itself decreases. Bad effects occur.
JP 2007-42072 A

本発明は上記実情に鑑みてなされたものであって、その目的とするところは、動画像中の人物の追跡処理を可及的に早い段階から高い信頼性をもって実行可能な技術を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique capable of performing tracking processing of a person in a moving image with high reliability from the earliest possible stage. It is in.

上記目的を達成するため、本発明は以下のような手段ないし処理を採用する。   In order to achieve the above object, the present invention employs the following means or processing.

本発明に係る追跡装置は、動画像中の人物の動きを追跡し記録する追跡装置であって、順次入力される各フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出する検出手段と、人物を追跡対象とする追跡処理を実行する人物追跡手段と、候補を追跡対象とする追跡処理を実行する候補追跡手段と、追跡対象とされた人物の位置情報を記録した追跡情報と、追跡対象とされた候補の位置情報を記録した追跡情報とを記憶する記憶手段と、前記記憶手段の追跡情報を更新する更新手段と、を備え、前記更新手段は、前記検出手段によって検出された人物の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物が存在した場合に、前記記憶手段に記憶されている当該候補の追跡情報を人物の追跡情報へと変更する。   The tracking device according to the present invention is a tracking device that tracks and records the movement of a person in a moving image, and from each frame image that is sequentially input, a person and a candidate that cannot be determined whether or not the person is Detection means for detecting a person, tracking means for performing tracking processing for tracking a person, candidate tracking means for executing tracking processing for tracking a candidate, and position information of a person to be tracked are recorded Storage means for storing the tracking information recorded and the tracking information in which the position information of the candidate to be tracked is recorded, and update means for updating the tracking information in the storage means, wherein the update means includes the detection When there is a person who is evaluated as the same target as the candidate tracked by the candidate tracking means among the persons detected by the means, the tracking information of the candidate stored in the storage means The person To change between the tracking information.

この構成によれば、明らかに人と判る対象(「人物」)だけでなく、顔が隠れているなどして人か否かの判別が難しいグレーゾーンの対象(「候補」)についても、直ちに追跡処理が開始され、追跡情報の記録が行われる。そして、「候補」として追跡している最中に、その「候補」が「人物」であったと判明した時点で、「候補」の追跡情報として記録していた情報が「人物」の追跡情報へと変更される。以降は、「人物」として追跡処理が継続されることとなる。したがって、人か否かの判別が難しい時点から、当該人物の動きを追跡し記録することが可能となる。なお、人以外のものが「候補」として検出され、追跡処理が行われることもあるが、その場合は、「候補」から「人物」へと転じることがないため、「人物」の追跡情報の信頼性を低下させることはない。すなわち、本発明の構成によると、追跡処理を可及的に早い段階から開始し、且つ、誤検出や誤追跡による信頼性低下は抑制する、という相反する目的を同時満足することが可能となる。   According to this configuration, not only an object that is clearly identified as a person ("person"), but also a gray zone object ("candidate") that is difficult to determine whether it is a person due to a hidden face or the like. The tracking process is started and tracking information is recorded. Then, when the “candidate” is tracked as “candidate”, when the “candidate” is found to be “person”, the information recorded as the “candidate” tracking information becomes the tracking information of “person”. And changed. Thereafter, the tracking process is continued as “person”. Therefore, it is possible to track and record the movement of the person from the time when it is difficult to determine whether or not the person is a person. Something other than a person is detected as a “candidate” and tracking processing may be performed, but in that case, since “candidate” does not change to “person”, the tracking information of “person” Reliability is not reduced. That is, according to the configuration of the present invention, it is possible to simultaneously satisfy the conflicting purpose of starting the tracking process from the earliest possible stage and suppressing the decrease in reliability due to erroneous detection or mistracking. .

前記更新手段は、現在のフレームの画像から前記検出手段によって検出された人物の中に、前記人物追跡手段により追跡対象とされている人物と同一の対象と評価される人物が存在した場合に、当該人物の現在のフレームにおける位置情報を前記記憶手段の追跡情報に追加することが好ましい。   The update means, when there is a person evaluated as the same target as the person tracked by the person tracking means among the persons detected by the detection means from the image of the current frame, It is preferable to add the position information of the person in the current frame to the tracking information of the storage means.

従来は、現在のフレームにおける追跡が成功したら、当該人物の追跡情報を更新することが一般的であった。これに対して、本発明では、現在のフレームの画像に対して追跡処理と検出処理の両方を行い、追跡対象の人物について追跡と検出の両方が成功した場合に、当該人物の追跡情報を更新する構成を採用している。したがって、従来よりも誤追跡の少ない、信頼性の高い追跡結果を提供することができる。   Conventionally, when the tracking in the current frame is successful, the tracking information of the person is generally updated. In contrast, in the present invention, both tracking processing and detection processing are performed on the image of the current frame, and when both tracking and detection are successful for the tracking target person, the tracking information of the person is updated. The structure to be adopted is adopted. Therefore, it is possible to provide a highly reliable tracking result with less mistracking than in the past.

また、前記更新手段は、現在のフレームの画像から前記検出手段によって検出された人物及び候補の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物又は候補が存在した場合に、当該候補の現在のフレームにおける位置情報を前記記憶手段の追跡情報に追加することが好ましい。   In addition, the updating unit may include a person or a candidate evaluated as the same target as the candidate to be tracked by the candidate tracking unit among the persons and candidates detected by the detection unit from the image of the current frame. In the case where there is, it is preferable to add the position information of the candidate in the current frame to the tracking information of the storage means.

このように、候補の追跡の場合についても、現在のフレームの画像に対して追跡処理と検出処理の両方を行い、当該候補について追跡と検出の両方が成功した場合に、当該候補の追跡情報を更新する構成を採用することで、誤追跡の少ない、信頼性の高い追跡結果を提供することができる。   Thus, also in the case of tracking a candidate, if both tracking processing and detection processing are performed on the image of the current frame, and both tracking and detection are successful for the candidate, tracking information of the candidate is displayed. By adopting a configuration for updating, it is possible to provide a highly reliable tracking result with less mistracking.

前記更新手段は、前記検出手段により検出された位置を用いて、前記記憶手段の追跡情報に追加する位置情報を求めることが好ましい。   Preferably, the update means obtains position information to be added to the tracking information of the storage means using the position detected by the detection means.

追跡処理によって特定される人物(又は候補)の位置(追跡位置)と、検出処理によって特定される人物(又は候補)の位置(検出位置)とのあいだに多少の差が存在することがある。一般には、追跡位置よりも検出位置のほうが精度を期待できる。そこで、本発明のように、検出位置を用いて追跡情報に記録する位置情報を決定することにより、追跡結果の信頼性を向上することができる。   There may be a slight difference between the position (tracking position) of the person (or candidate) specified by the tracking process and the position (detection position) of the person (or candidate) specified by the detection process. In general, the detection position can be expected to be more accurate than the tracking position. Therefore, the reliability of the tracking result can be improved by determining the position information to be recorded in the tracking information using the detected position as in the present invention.

前記検出手段は、検出した対象をその検出結果の信頼度とともに出力する検出器を複数種類備えており、少なくともいずれか1つの検出器の検出結果の信頼度が閾値以上の場合に前記検出した対象が人物であると判定し、すべての検出器の検出結果の信頼度が閾値より小さい場合に前記検出した対象が候補であると判定することが好ましい。   The detection means includes a plurality of types of detectors that output the detected object together with the reliability of the detection result, and the detected object is detected when the reliability of the detection result of at least one of the detectors is equal to or greater than a threshold value. It is preferable to determine that the detected object is a candidate when the reliability of detection results of all detectors is smaller than a threshold.

複数種類の検出器を用いることにより、人物の可能性がある対象を漏れなく検出できるようになるものと期待できる。   By using a plurality of types of detectors, it can be expected that an object that may be a person can be detected without omission.

前記検出手段は、前記複数種類の検出器を1つずつ順番に実行し、閾値以上の信頼度をもつ検出結果が得られた時点で検出処理を止めることが好ましい。   It is preferable that the detection means sequentially execute the plurality of types of detectors one by one and stop the detection process when a detection result having a reliability equal to or higher than a threshold is obtained.

これにより、検出器の実行回数を可及的に少なくできるので、検出処理に要する時間を短縮することができる。   As a result, the number of executions of the detector can be reduced as much as possible, and the time required for the detection process can be shortened.

前記複数種類の検出器は、頭部を検出する検出器と顔を検出する検出器を含んでおり、前記頭部を検出する検出器が前記顔を検出する検出器よりも先に実行されることが好ましい。   The plurality of types of detectors include a detector that detects a head and a detector that detects a face, and the detector that detects the head is executed before the detector that detects the face. It is preferable.

顔検出よりも処理時間の短い頭部検出を先に実行することで、頭部検出の結果のみで人物と判定可能なものについての顔検出処理を省略できるため、検出処理に要する時間の短縮が可能となる。   By performing head detection with a shorter processing time than face detection first, it is possible to omit face detection processing for those that can be determined as a person only from the result of head detection, thereby reducing the time required for detection processing. It becomes possible.

前記候補追跡手段は、前記候補が最初に検出されたフレームから所定期間後に該候補の追跡処理を止めることが好ましい。   Preferably, the candidate tracking unit stops the tracking process of the candidate after a predetermined period from a frame in which the candidate is first detected.

つまり、所定期間のあいだに「候補」から「人物」への変更が行われなかった場合には、その「候補」は人以外のものであるとみなされ、追跡対象から除かれるのである。これにより無駄な追跡処理を減らし、処理時間の短縮を図ることができる。   In other words, if the change from “candidate” to “person” is not performed during a predetermined period, the “candidate” is regarded as something other than a person and is excluded from the tracking target. Thereby, useless tracking processing can be reduced and processing time can be shortened.

なお、本発明は、上記手段の少なくとも一部を含む追跡装置または追跡システムとして捉えてもよいし、上記処理の少なくとも一部を含む追跡方法またはその追跡方法をコンピュータに実行させるためのプログラムやそのプログラムを記録したコンピュータ読み取り可能な記録媒体として捉えることもできる。上記手段及び上記処理は、可能な限りどのような組み合わせをとることもできる。   The present invention may be regarded as a tracking device or a tracking system including at least a part of the above means, a tracking method including at least a part of the above processing, or a program for causing a computer to execute the tracking method, or a program thereof It can also be understood as a computer-readable recording medium on which the program is recorded. Any combination of the above means and the above processing can be taken as much as possible.

例えば、本発明に係る追跡方法は、動画像中の人物の動きを追跡し記録する追跡方法であって、コンピュータが、第1フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出するステップと、前記第1フレームの画像で検出された人物を追跡対象とし、前記第1フレームの後の第2フレームの画像に対して追跡処理を実行するステップと、前記第1フレームの画像で検出された候補を追跡対象とし、前記第2フレームの画像に対して追跡処理を実行するステップと、追跡対象とされた人物の位置情報を含む追跡情報と、追跡対象とされた候補の位置情報を含む追跡情報とを記憶装置に記録するステップと、前記第2フレームの画像から人物を検出するステップと、前記第2フレームの画像から検出された人物の中に、前記第2フレームにおいて追跡対象とされている候補と同一の対象と評価される人物が存在した場合、前記記憶装置に記憶されている当該候補の追跡情報を人物の追跡情報へと変更するステップと、を実行することを特徴とする。   For example, the tracking method according to the present invention is a tracking method for tracking and recording the movement of a person in a moving image, and the computer cannot determine whether a person is a person or not from the first frame image. A candidate is detected; a person detected in the image of the first frame is set as a tracking target; a tracking process is performed on an image of a second frame after the first frame; and the first The candidate detected in the image of the frame is set as the tracking target, the tracking process is performed on the image of the second frame, the tracking information including the position information of the person who is the tracking target, and the tracking target Recording tracking information including candidate position information in a storage device, detecting a person from the second frame image, and detecting a person from the second frame image, A step of changing the tracking information of the candidate stored in the storage device to the tracking information of the person when there is a person evaluated as the same target as the tracking target in the second frame; , Is executed.

本発明によれば、動画像中の人物の追跡処理を可及的に早い段階から高い信頼性をもって実行することができる。   According to the present invention, tracking processing of a person in a moving image can be executed with high reliability from the earliest possible stage.

以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。   Exemplary embodiments of the present invention will be described in detail below with reference to the drawings.

(全体構成)
図1は本発明の実施形態に係る追跡装置の機能構成を示すブロック図である。まずは図1を用いて、追跡装置の機能構成を説明する。
(overall structure)
FIG. 1 is a block diagram showing a functional configuration of a tracking device according to an embodiment of the present invention. First, the functional configuration of the tracking device will be described with reference to FIG.

この追跡装置は、カメラや記録媒体(いずれも不図示)から動画像(入力画像)を取り込み、その動画像に写る不特定の人物の動きを自動で追跡し記録するための装置である。動画像中に複数の人物が写っている場合には、人物毎にIDが付与され、各人物の動きの情報が個別に追跡・記録される。このような追跡装置は、例えば、監視カメラの映像から侵入者や入場者の動きや数を解析する装置、店内カメラの映像から顧客の動線を解析する装置など、様々な用途に応用可能である。   This tracking device is a device for capturing a moving image (input image) from a camera or a recording medium (both not shown) and automatically tracking and recording the movement of an unspecified person appearing in the moving image. When a plurality of persons are captured in the moving image, an ID is assigned to each person, and movement information of each person is individually tracked and recorded. Such a tracking device can be applied to various applications such as a device that analyzes the movement and number of intruders and visitors from the video of the surveillance camera, and a device that analyzes the flow of the customer from the video of the in-store camera. is there.

追跡装置は、図1に示すように、その機能として、検出処理部10、追跡処理部20、統合処理部30、追跡情報データベース40を備えている。図示しないが、動画像を撮影するためのカメラや、動画像及び追跡結果を出力するための表示部などを設けることも好ましい。これらの機能要素は、演算処理装置(コンピュータ)がソフトウエア(プログラム)を実行し、必要に応じて、カメラ、メモリ、ディスプレイなどのハードウエア資源を制御することで実現される。ただし、これらの機能要素の少なくとも一部を専用のチップで構成しても構わない。   As shown in FIG. 1, the tracking device includes a detection processing unit 10, a tracking processing unit 20, an integrated processing unit 30, and a tracking information database 40 as its functions. Although not shown, it is also preferable to provide a camera for capturing a moving image, a display unit for outputting the moving image and tracking results, and the like. These functional elements are realized by an arithmetic processing unit (computer) executing software (program) and controlling hardware resources such as a camera, a memory, and a display as necessary. However, at least some of these functional elements may be configured by a dedicated chip.

(検出処理部)
検出処理部10は、順次入力される各フレームの画像から「人物」と「候補」とを検出する機能(検出手段)である。ここで「人物」とは、検出処理部10によって検出される対象のうち、人(人間)であると判定された対象をいい、「候補」とは、人物か否かを確定できない対象をいう。
(Detection processing unit)
The detection processing unit 10 is a function (detection means) that detects “person” and “candidate” from images of respective frames that are sequentially input. Here, “person” refers to an object detected by the detection processing unit 10 that is determined to be a person (human), and “candidate” refers to an object that cannot be determined whether or not it is a person. .

検出処理部10は、頭部検出器11、顔検出器12、上半身検出器13の3種類の検出器を備えている。これらの検出器11〜13は互いに異なるアルゴリズム(あるいは特徴量)を用いて、人物検出処理を行う機能である。各検出器は、画像の中から、人物の可能性がある対象(領域)をすべて検出し、その検出した対象を検出結果の信頼度とともに出力する。信頼度とは、その検出した対象が人物である確率(人物らしさ)を表すスコアであり、信頼度が大きいほど人物である可能性が高いことを示している。本実施形態においては、複数種類の検出器11〜13を用い、少なくとも1つの検出器で高い信頼度の検出結果が得られたら「人物」と判定し、すべての検出器の信頼度が低い場合に「候補」と判定する。これにより、人物の可能性がある対象を漏れなく検出することができる。   The detection processing unit 10 includes three types of detectors: a head detector 11, a face detector 12, and an upper body detector 13. These detectors 11 to 13 have a function of performing person detection processing using different algorithms (or feature amounts). Each detector detects all objects (regions) that may be a person from the image, and outputs the detected objects together with the reliability of the detection result. The reliability is a score representing the probability (likeness of person) that the detected object is a person, and indicates that the higher the reliability, the higher the possibility of being a person. In this embodiment, when a plurality of types of detectors 11 to 13 are used and a detection result with high reliability is obtained with at least one detector, it is determined as “person” and the reliability of all detectors is low. Are determined as “candidates”. As a result, it is possible to detect an object that may be a person without omission.

ここで、3つの検出器11〜13は同時に(並列に)実行されるのではなく、図1に示すように、頭部検出器11→顔検出器12→上半身検出器13の順番で1つずつ実行される。もしいずれかの検出器で「人物」と判定されたら、その時点で検出処理を止め、残りの検出器の処理は省略する。これにより、検出器の実行回数を可及的に少なくし、検出処理に要する時間を短縮する。   Here, the three detectors 11 to 13 are not executed simultaneously (in parallel), but one in the order of the head detector 11 → the face detector 12 → the upper body detector 13 as shown in FIG. It is executed one by one. If any one of the detectors is determined to be “person”, the detection processing is stopped at that time, and the processing of the remaining detectors is omitted. Thereby, the number of executions of the detector is reduced as much as possible, and the time required for the detection process is shortened.

検出器の処理順は、各検出器の特性を考慮して決定する。混雑や顔の向き変化による人体の隠れが発生する状況において、人物の中で最も検出しやすい部位は頭部である。例えば、帽子やサングラスをつけていたり、顔が横を向いていたり、照明の具合により顔器官がはっきり写っていなかったりすると、顔の検出は困難である。また人体が重なっている場合には上半身の検出ができないこともある。しかし、そのような画像であっても、頭部の輪郭が明瞭に写っていれば頭部検出が可能である。また頭部検出のアルゴリズムは比較的単純であり、処理時間も短いという利点がある。そこで本実施形態では、まず頭部検出器11による頭部検出処理を実行する。頭部検出で得られた信頼度が十分に高い場合は、頭部検出の結果のみで「人物」であると判断する。ただし、頭部検出は、楕円形状の物体などを頭部として誤検出しやすい傾向にあるので、「人物」か否かを判断する閾値は高めに設定することが好ましい。   The processing order of the detectors is determined in consideration of the characteristics of each detector. In a situation where the human body is hidden due to congestion or a change in the orientation of the face, the most easily detected part of the person is the head. For example, it is difficult to detect a face when wearing a hat or sunglasses, when the face is facing sideways, or when the facial organ is not clearly shown due to lighting conditions. In addition, when the human bodies overlap, the upper body may not be detected. However, even such an image can be detected if the outline of the head is clearly visible. The head detection algorithm is relatively simple and has the advantage of a short processing time. Therefore, in the present embodiment, first, head detection processing by the head detector 11 is executed. When the reliability obtained by the head detection is sufficiently high, it is determined that the person is a “person” only from the result of the head detection. However, since head detection tends to erroneously detect an elliptical object or the like as a head, it is preferable to set a high threshold for determining whether or not it is a “person”.

顔検出器12は、顔器官の特徴などを用いて顔か否かを検出する機能であり、画像に顔
が鮮明に写っている場合には3つの検出器の中で最も誤検出が少ないという利点がある。ただし、頭部検出に比べて処理時間を要すること、また照明や顔の向きなどの条件に影響を受けやすいことなどから、頭部検出の信頼性が低い場合にのみ実行する2次的な検出器として用いる。
The face detector 12 is a function for detecting whether or not the face is a feature using the features of the facial organs. When the face is clearly shown in the image, the detection error is the smallest among the three detectors. There are advantages. However, secondary detection that is performed only when the reliability of head detection is low due to the fact that processing time is longer than head detection and that it is easily affected by conditions such as lighting and face orientation. Use as a container.

上半身検出器13は、上半身の輪郭などに着目して人体か否かを検出する機能である。頭部検出と同様、アルゴリズムは比較的単純であり、処理時間も短いという利点がある。また、画像中の人物のサイズが小さい場合や、帽子や顔の向きや照明条件などにより顔の判別がつきづらい場合でも、上半身の検出は可能なことが多い。そこで、本実施形態では、顔検出の信頼性が低い場合に実行する3次的な検出器として上半身検出器13を用いる。   The upper body detector 13 has a function of detecting whether or not the human body is focused on the outline of the upper body. Similar to head detection, the algorithm is relatively simple and has the advantage of a short processing time. Even when the size of a person in the image is small, or when it is difficult to discriminate a face due to a hat, face orientation, lighting conditions, or the like, the upper body can often be detected. Therefore, in the present embodiment, the upper body detector 13 is used as a tertiary detector that is executed when the reliability of face detection is low.

なお、用いる検出器の種類(アルゴリズム)、数、順番などは、本実施形態で示したものに限らず、適宜変更してもかまわない。例えば、頭部検出器と顔検出器の2種類だけを用いてもよいし、4種類以上の検出器を組み合わせてもよい。また処理時間よりも検出精度を優先するのであれば、信頼度の高低によらずすべての検出器を実行し、それらの検出結果を総合して「人物」か「候補」かの判断をしてもよい。   Note that the type (algorithm), number, and order of detectors to be used are not limited to those shown in this embodiment, and may be changed as appropriate. For example, only two types of head detectors and face detectors may be used, or four or more types of detectors may be combined. If the detection accuracy is prioritized over the processing time, all detectors are executed regardless of the reliability, and the result of the detection is combined to determine whether the person is a candidate. Also good.

検出器の具体的なアルゴリズムや検出器の作成手法に関しては、従来公知の技術を利用することができる。例えば、数多くのサンプル画像(頭部検出器であれば、頭部が写っている画像と、頭部が写っていない画像を用意する)を用いて、Real AdaBoostのようなBoosting手法により特徴量の傾向を学習することで、検出器が作成される。特徴量としては、例えば、HoG(Histogram of Gradient)特徴量、Sparse特徴量、Haar特徴量などどのような種類の特徴量も用いることができる。また学習手段も、Boosting手法のほか、SVM(サポートベクタマシン)、ニューラルネットワークなどを利用することも可能である。   For a specific algorithm of the detector and a method for creating the detector, a conventionally known technique can be used. For example, using a large number of sample images (in the case of a head detector, prepare an image that shows the head and an image that does not show the head) and use the Boosting method such as Real AdaBoost to calculate the feature amount. A detector is created by learning the trend. As the feature amount, for example, any type of feature amount such as a HoG (Histogram of Gradient) feature amount, a Sparse feature amount, or a Haar feature amount can be used. In addition to the boosting method, the learning means can also use an SVM (support vector machine), a neural network, or the like.

検出処理部10の検出結果は、追跡情報DB40内の検出情報DB41に記録される。検出結果には、検出された対象ごとに、画像中の位置及びサイズ、信頼度、人物フラグ(人物の場合にON、候補の場合にOFF)が含まれる。   The detection result of the detection processing unit 10 is recorded in the detection information DB 41 in the tracking information DB 40. The detection result includes the position and size in the image, reliability, and a person flag (ON for a person, OFF for a candidate) for each detected object.

(追跡処理部)
追跡処理部20は、「人物」を追跡対象とする追跡処理を実行する人物追跡器21(人物追跡手段)と、「候補」を追跡対象とする追跡処理を実行する候補追跡器22(候補追跡手段)とから構成される。
(Tracking processing part)
The tracking processing unit 20 includes a person tracking unit 21 (person tracking unit) that performs tracking processing for “person” as a tracking target, and a candidate tracking unit 22 (candidate tracking) that performs tracking processing for “candidate” as a tracking target. Means).

人物追跡器21が追跡対象とする人物の情報(追跡人物情報)は、追跡情報DB40内の追跡人物情報DB42に記録されている。この追跡人物情報には、追跡対象のID、画像中の位置及びサイズ(追跡が続いているフレーム数分の移動履歴が蓄積される)、特徴量、人物フラグが含まれる。   Information of the person to be tracked by the person tracker 21 (tracked person information) is recorded in the tracked person information DB 42 in the tracking information DB 40. The tracked person information includes the ID of the tracked object, the position and size in the image (a movement history corresponding to the number of frames that are being tracked is accumulated), a feature amount, and a person flag.

人物追跡器21は、追跡人物情報を参照しつつ、各追跡対象に対する追跡処理を実行する。追跡処理とは、現在のフレームの画像の中から、前のフレームにおける追跡対象と位置、サイズ、特徴量などが類似する対象(領域)を探索する処理である。追跡処理がフレーム間の類似性を利用して追跡対象を探索するのに対し、前述の検出処理は1つのフレームの画像から頭部、顔、上半身などを探索する処理である点で、両者は異なっている。   The person tracker 21 performs tracking processing for each tracking target while referring to the tracked person information. The tracking process is a process of searching for an object (region) whose position, size, feature amount, and the like are similar to the tracking target in the previous frame from the image of the current frame. While the tracking process searches for a tracking target using the similarity between frames, the detection process described above is a process of searching the head, face, upper body, etc. from an image of one frame. Is different.

一方、候補追跡器22が追跡対象とする候補の情報(追跡候補情報)は、追跡情報DB40内の追跡候補情報DB43に記録されている。この追跡候補情報には、追跡対象のID、画像中の位置及びサイズ、特徴量、人物フラグが含まれる。なお、追跡対象IDは、
人物であるか候補であるかにかかわらず、一意の番号が振られるようにする。
On the other hand, information on candidates to be tracked by the candidate tracker 22 (tracking candidate information) is recorded in the tracking candidate information DB 43 in the tracking information DB 40. This tracking candidate information includes a tracking target ID, a position and size in the image, a feature amount, and a person flag. The tracking target ID is
A unique number is assigned regardless of whether it is a person or a candidate.

候補追跡器22は、追跡候補情報を参照しつつ、各追跡対象に対する追跡処理を実行する。追跡対象が異なるだけで、具体的な追跡アルゴリズムは人物追跡器21と共通である。ただし、候補追跡器22は、候補の追跡処理を所定期間(例えば、当該候補が最初に検出されたフレームから10フレーム)しか継続しないこととする。このような制限を設けたのは、人物以外のものに対する無駄な追跡処理を減らし、処理時間の短縮を図るためである。なお、後述するように、この10フレーム期間の間に、当該候補が人物であったことが判明した場合は、処理が人物追跡器21に引き継がれるため、追跡処理が継続される。   The candidate tracker 22 performs tracking processing for each tracking target while referring to the tracking candidate information. The specific tracking algorithm is the same as that of the person tracker 21 except that the tracking target is different. However, the candidate tracker 22 continues the candidate tracking process only for a predetermined period (for example, 10 frames from the frame in which the candidate is first detected). The reason why such a restriction is provided is to reduce useless tracking processing for things other than a person and shorten processing time. As will be described later, when it is determined that the candidate is a person during the 10-frame period, the process is taken over by the person tracker 21, and the tracking process is continued.

追跡器の具体的なアルゴリズムや追跡器の作成手法に関しては、従来公知の技術を利用することができる。例えば、追跡方法としては、Particle Filter、mean shift、Online Boostingなどを利用することができる。フレーム間の比較には、前のフレームで得られたテンプレート、色情報、検出器から得られた特徴量などを利用できる。   For a specific algorithm of the tracker and a method for creating the tracker, a conventionally known technique can be used. For example, as a tracking method, particle filter, mean shift, online boosting, or the like can be used. For comparison between frames, a template obtained in the previous frame, color information, a feature amount obtained from a detector, and the like can be used.

(統合処理部)
統合処理部30は、検出処理部10の検出結果と追跡処理部20の追跡結果とを統合し、追跡情報DB40内の追跡人物情報DB42及び追跡候補情報DB43の内容を更新する機能(更新手段)である。統合処理部30は、図1に示すように、検出−人物追跡結果統合部31、検出−候補追跡結果統合部32、人物−候補結果統合部33を備えている。
(Integrated processing department)
The integration processing unit 30 integrates the detection result of the detection processing unit 10 and the tracking result of the tracking processing unit 20, and updates the contents of the tracking person information DB 42 and the tracking candidate information DB 43 in the tracking information DB 40 (update means). It is. As illustrated in FIG. 1, the integration processing unit 30 includes a detection-person tracking result integration unit 31, a detection-candidate tracking result integration unit 32, and a person-candidate result integration unit 33.

検出−人物追跡結果統合部31の主な機能は、検出処理部10によって検出された「人物」と人物追跡器21により追跡中の「人物」とを同定する機能、追跡人物情報DB42に記録されている追跡人物情報を更新する機能、検出処理部10によって新しく検出された「人物」を追跡人物情報DB42に登録する機能である。また、検出−候補追跡結果統合部32の主な機能は、検出処理部10によって検出された対象(「人物」と「候補」の両方を含む)と候補追跡器22により追跡中の「候補」とを同定する機能、追跡候補情報DB43に記録されている追跡候補情報を更新する機能、検出処理部10によって新しく検出された「候補」を追跡候補情報DB43に登録する機能である。また、人物−候補結果統合部33の主な機能は、追跡人物情報DB42と追跡候補情報DB43への重複登録を解消する機能、追跡中の「候補」が「人物」であったことが判明した場合に追跡候補情報を追跡人物情報へ変更する機能などである。これらの機能の詳細については後述する。   The main function of the detection-person tracking result integration unit 31 is recorded in the tracking person information DB 42, the function of identifying the “person” detected by the detection processing unit 10 and the “person” being tracked by the person tracker 21. And a function of registering “person” newly detected by the detection processing unit 10 in the tracking person information DB 42. Further, the main function of the detection-candidate tracking result integration unit 32 is the “candidate” being tracked by the object (including both “person” and “candidate”) detected by the detection processing unit 10 and the candidate tracker 22. , A function for updating the tracking candidate information recorded in the tracking candidate information DB 43, and a function for registering “candidate” newly detected by the detection processing unit 10 in the tracking candidate information DB 43. Further, the main function of the person-candidate result integration unit 33 is a function for eliminating duplicate registration in the tracking person information DB 42 and the tracking candidate information DB 43, and the “candidate” being tracked was “person”. In this case, the tracking candidate information is changed to tracking person information. Details of these functions will be described later.

(追跡処理の例)
では、フローチャートと画像例を参照して、本実施形態の追跡装置における追跡処理の流れを説明する。以下に述べる(1)検出処理、(2)追跡処理、及び、(3)統合処理は、フレーム毎に実行される。
(Example of tracking process)
Now, the flow of the tracking process in the tracking device of the present embodiment will be described with reference to a flowchart and an image example. The following (1) detection process, (2) tracking process, and (3) integration process are executed for each frame.

(1)検出処理
図2は、検出処理の流れを示すフローチャートである。あるフレームの画像が入力されると、まず頭部検出器11が入力画像から頭部を検出する(S30)。そして、S32〜S39の処理が、検出されたN個の頭部のそれぞれについて実行される(S31)。S32では、頭部nIに関して、頭部検出の信頼度Conf1が閾値TH1と比較される。頭部検出の信頼度Conf1が高い場合(S32;NO)は、頭部nIの人物フラグをONに設定し(S33)、検出結果(画像中の位置・サイズ、信頼度、人物フラグ)を検出情報DB41へ記録する(S34)。
(1) Detection Processing FIG. 2 is a flowchart showing the flow of detection processing. When an image of a certain frame is input, the head detector 11 first detects the head from the input image (S30). And the process of S32-S39 is performed about each of the detected N heads (S31). In S32, for head nI, head detection reliability Conf1 is compared with threshold value TH1. When the head detection reliability Conf1 is high (S32; NO), the person flag of the head nI is set to ON (S33), and the detection result (position / size in the image, reliability, person flag) is detected. It records in information DB41 (S34).

S32において、頭部検出の信頼度Conf1が閾値TH1より低かった場合には、顔
検出器12が、頭部nIを中心とする所定範囲の中から、顔の検出を行う(S35)。ここで顔検出範囲を頭部nIの近傍に制限することにより、顔検出処理に要する時間を短縮できる。次に、S36において、顔検出の信頼度Conf2が閾値TH2と比較される。信頼度Conf2が高い場合(S36;NO)は、人物フラグをONに設定し(S33)、検出結果を検出情報DB41へ記録する(S34)。
If the head detection reliability Conf1 is lower than the threshold value TH1 in S32, the face detector 12 detects a face from a predetermined range centered on the head nI (S35). Here, by limiting the face detection range to the vicinity of the head nI, the time required for the face detection process can be shortened. In step S36, the face detection reliability Conf2 is compared with a threshold value TH2. When the reliability Conf2 is high (S36; NO), the person flag is set to ON (S33), and the detection result is recorded in the detection information DB 41 (S34).

S36において、顔検出の信頼度Conf2が閾値TH2より低かった場合には、上半身検出器13が、頭部nIを基準とする所定範囲の中から、上半身の検出を行う(S37)。ここでも上半身検出範囲を制限することで、処理時間の短縮を図っている。S38において、上半身検出の信頼度Conf3が閾値TH3と比較される。信頼度Conf3が高い場合(S38;NO)は、人物フラグをONに設定し(S33)、検出結果を検出情報DB41へ記録する(S34)。   If the face detection reliability Conf2 is lower than the threshold value TH2 in S36, the upper body detector 13 detects the upper body from a predetermined range based on the head nI (S37). Again, the processing time is reduced by limiting the upper body detection range. In S38, the reliability Conf3 of upper body detection is compared with the threshold value TH3. When the reliability Conf3 is high (S38; NO), the person flag is set to ON (S33), and the detection result is recorded in the detection information DB 41 (S34).

S38において、上半身検出の信頼度Conf3が閾値TH3より低かった場合には、人物フラグをOFFに設定し(S39)、検出結果を検出情報DB41へ記録する(S34)。   In S38, when the upper body detection reliability Conf3 is lower than the threshold value TH3, the person flag is set to OFF (S39), and the detection result is recorded in the detection information DB 41 (S34).

上記フローにより、入力画像に含まれるすべての「人物」及び「候補」の検出結果が検出情報DB41に記録される。図3は、入力画像と検出結果の一例を示している。この画像には二人の人物が写っている。前方の人物Aは「人物」(人物フラグ=ON)として認識されているが、後方の人物Bは体の一部が隠れている関係で「候補」(人物フラグ=OFF)となっている。また、人間以外の物体Cも「候補」として検出されている。   Through the above flow, detection results of all “persons” and “candidates” included in the input image are recorded in the detection information DB 41. FIG. 3 shows an example of the input image and the detection result. Two people are shown in this image. The front person A is recognized as “person” (person flag = ON), but the rear person B is “candidate” (person flag = OFF) because a part of the body is hidden. Further, a non-human object C is also detected as a “candidate”.

(2)追跡処理
図4は、人物追跡処理の流れを示すフローチャートである。画像が入力されると、人物追跡器21は追跡人物情報DB42から追跡人物情報を取得する(S50)。そして、S52〜S56の処理が、追跡対象とされている人物の数だけ繰り返される(S51)。図3の例では、追跡対象の数Mは1(追跡対象ID:001)である。
(2) Tracking Process FIG. 4 is a flowchart showing the flow of the person tracking process. When the image is input, the person tracking device 21 acquires the tracking person information from the tracking person information DB 42 (S50). And the process of S52-S56 is repeated by the number of persons made into the tracking object (S51). In the example of FIG. 3, the number M of tracking targets is 1 (tracking target ID: 001).

S52では、人物追跡器21が、追跡対象nJの追跡処理を実行する。具体的には、追跡人物情報DB42から読み込んだ追跡対象nJの位置、サイズ、特徴量(これらは1つ前のフレームの画像から得られた情報である)をもとに、現在のフレームの画像の中から追跡対象nJを探索する。追跡が成功した場合は(S53;YES)、追跡成功フラグをONに設定し(S54)、追跡結果として現在のフレームにおける位置、追跡成功フラグなどの情報を出力する(S56)。一方、追跡が失敗した場合は(S53;NO)、追跡成功フラグをOFFに設定し(S55)、追跡結果を出力する(S56)。ここで出力された追跡結果は、後述する検出−人物追跡結果統合部31の統合処理に利用される。   In S52, the person tracker 21 performs the tracking process of the tracking target nJ. Specifically, based on the position, size, and feature amount of the tracking target nJ read from the tracking person information DB 42 (these are information obtained from the image of the previous frame), the image of the current frame The tracking target nJ is searched from the list. If the tracking is successful (S53; YES), the tracking success flag is set to ON (S54), and information such as the position in the current frame and the tracking success flag is output as the tracking result (S56). On the other hand, when tracking fails (S53; NO), the tracking success flag is set to OFF (S55), and the tracking result is output (S56). The tracking result output here is used for the integration process of the detection-person tracking result integration unit 31 described later.

図5は、候補追跡処理の流れを示すフローチャートである。画像が入力されると、候補追跡器22は追跡候補情報DB43から追跡候補情報を取得する(S60)。そして、S62〜S67の処理が、追跡対象とされている候補の数だけ繰り返される(S61)。図3の例では、追跡対象の数Pは2(追跡対象ID:002,003)である。   FIG. 5 is a flowchart showing the flow of candidate tracking processing. When the image is input, the candidate tracker 22 acquires the tracking candidate information from the tracking candidate information DB 43 (S60). And the process of S62-S67 is repeated by the number of candidates made into the tracking object (S61). In the example of FIG. 3, the number P of tracking targets is 2 (tracking target ID: 002, 003).

S62では、候補追跡器22が、追跡対象nKの追跡回数を調べる。追跡回数は、例えば、追跡候補情報に記録された位置の履歴数などから簡単に調べることができる。もし追跡回数が10回に達していたら(S62;NO)、候補追跡器22は追跡処理を実行せずに、追跡対象nKの追跡成功フラグをOFFに設定する(S66)。これにより候補の追跡を最大でも10フレームの期間に制限している。   In S62, the candidate tracker 22 checks the number of tracking of the tracking target nK. The number of times of tracking can be easily checked from the number of history of positions recorded in the tracking candidate information, for example. If the number of times of tracking has reached 10 (S62; NO), the candidate tracker 22 does not execute the tracking process and sets the tracking success flag of the tracking target nK to OFF (S66). This limits candidate tracking to a period of at most 10 frames.

S63では、候補追跡器22が、追跡対象nKの追跡処理を実行する。具体的には、追
跡候補情報DB43から読み込んだ追跡対象nKの位置、サイズ、特徴量(これらは1つ前のフレームの画像から得られた情報である)をもとに、現在のフレームの画像の中から追跡対象nKを探索する。追跡が成功した場合は(S64;YES)、追跡成功フラグをONに設定し(S65)、追跡結果(現在のフレームにおける位置、追跡成功フラグなど)を出力する(S67)。一方、追跡が失敗した場合は(S64;NO)、追跡成功フラグをOFFに設定し(S66)、追跡結果を出力する(S67)。ここで出力された追跡結果は、後述する検出−候補追跡結果統合部32の統合処理に利用される。
In S63, the candidate tracker 22 performs the tracking process of the tracking target nK. Specifically, based on the position, size, and feature amount of the tracking target nK read from the tracking candidate information DB 43 (these are information obtained from the image of the previous frame), the image of the current frame Search the tracking target nK. If the tracking is successful (S64; YES), the tracking success flag is set to ON (S65), and the tracking result (position in the current frame, tracking success flag, etc.) is output (S67). On the other hand, if tracking fails (S64; NO), the tracking success flag is set to OFF (S66), and the tracking result is output (S67). The tracking result output here is used for the integration process of the detection-candidate tracking result integration unit 32 described later.

上記フローにより、追跡対象とされているすべての「人物」(追跡対象ID:001)及び「候補」(追跡対象ID:002,003)について、追跡処理が実行される。なお図4の処理と図5の処理は並列に実行されてもよいし、順番に実行されてもよい。   With the above flow, the tracking processing is executed for all “persons” (tracking target ID: 001) and “candidates” (tracking target ID: 002, 003) that are tracked. Note that the processing in FIG. 4 and the processing in FIG. 5 may be executed in parallel or in order.

(3)統合処理
図6は、検出−人物追跡結果統合処理の流れを示すフローチャートである。
(3) Integration Processing FIG. 6 is a flowchart showing the flow of detection-person tracking result integration processing.

検出−人物追跡結果統合部31は、人物追跡器21から出力された人物追跡結果(図4のS56参照)を受け取ると、各追跡対象の追跡成功フラグを調べ、追跡成功フラグがOFFの追跡対象の情報を追跡人物情報DB42から削除する(S71)。   Upon receiving the person tracking result (see S56 in FIG. 4) output from the person tracker 21, the detection-person tracking result integration unit 31 checks the tracking success flag of each tracking target, and the tracking target whose tracking success flag is OFF. Is deleted from the tracking person information DB 42 (S71).

次に、検出−人物追跡結果統合部31は、検出情報DB41から検出結果を取得する(S72)。そして、人物フラグがONの検出結果(つまり、検出処理部10によって検出された「人物」のそれぞれ)に対して、S75〜S78の処理が繰り返される(S73、S74)。   Next, the detection-person tracking result integration unit 31 acquires a detection result from the detection information DB 41 (S72). And the process of S75-S78 is repeated with respect to the detection result (namely, each of the "person" detected by the detection process part 10) of a person flag (S73, S74).

S75では、検出された人物nIと、追跡成功フラグがONの追跡対象(人物)との同定が行われる。例えば、検出処理によって特定された人物nIの位置と人物追跡処理によって特定された追跡対象の位置とのあいだの距離が所定の閾値より小さい場合に、両者が同一の対象であると判断すればよい。また位置だけでなく、サイズの比較や、特徴量の比較を行ってもよい。   In S75, the detected person nI and the tracking target (person) whose tracking success flag is ON are identified. For example, if the distance between the position of the person nI specified by the detection process and the position of the tracking target specified by the person tracking process is smaller than a predetermined threshold, it is sufficient to determine that both are the same target. . Further, not only the position but also size comparison and feature amount comparison may be performed.

同一の対象が存在した場合(S76;YES)、検出−人物追跡結果統合部31は、当該追跡対象の現在のフレームにおける位置情報を追跡人物情報DB42に追加する(S77)。このとき、人物追跡によって特定された位置(追跡位置)をそのまま記録するのではなく、検出処理によって特定された位置(検出位置)を用いてDBに記録する位置情報を求めるとよい。具体的には、検出位置を記録してもよいし、あるいは、検出位置と追跡位置の平均(中間点)を記録してもよい。一般に、追跡位置と検出位置とのあいだに多少の差が存在するが、追跡位置よりも検出位置のほうが精度を期待できるからである。本実施形態のように検出位置を用いて追跡対象の位置を決定(あるいは補正)することにより、追跡の成功率および追跡結果の信頼性を向上することができる。   When the same target exists (S76; YES), the detection-person tracking result integration unit 31 adds the position information of the tracking target in the current frame to the tracking person information DB 42 (S77). At this time, instead of directly recording the position specified by person tracking (tracking position), it is preferable to obtain position information to be recorded in the DB using the position specified by the detection process (detection position). Specifically, the detection position may be recorded, or the average (intermediate point) of the detection position and the tracking position may be recorded. In general, there is a slight difference between the tracking position and the detection position, but the detection position can be expected to be more accurate than the tracking position. By determining (or correcting) the position of the tracking target using the detection position as in this embodiment, the success rate of tracking and the reliability of the tracking result can be improved.

一方、同一の対象が存在しなかった場合(S76;NO)、検出−人物追跡結果統合部31は、人物nIに新規の追跡対象IDを振り当てて、追跡人物情報DB42に新規登録する(S78)。   On the other hand, when the same target does not exist (S76; NO), the detection-person tracking result integration unit 31 assigns a new tracking target ID to the person nI and newly registers it in the tracking person information DB 42 (S78). ).

図7は、検出−候補追跡結果統合処理の流れを示すフローチャートである。   FIG. 7 is a flowchart showing a flow of detection-candidate tracking result integration processing.

検出−候補追跡結果統合部32は、候補追跡器22から出力された候補追跡結果(図5のS67参照)を受け取ると、各追跡対象の追跡成功フラグを調べ、追跡成功フラグがOFFの追跡対象の情報を追跡候補情報DB43から削除する(S81)。   Upon receiving the candidate tracking result (see S67 in FIG. 5) output from the candidate tracker 22, the detection-candidate tracking result integration unit 32 checks the tracking success flag of each tracking target, and the tracking target whose tracking success flag is OFF. Is deleted from the tracking candidate information DB 43 (S81).

次に、検出−候補追跡結果統合部32は、検出情報DB41から検出結果を取得する(S82)。そして、すべての検出結果(つまり、検出処理部10によって検出された「人物」及び「候補」のそれぞれ)に対して、S84〜S88の処理が繰り返される(S83)。   Next, the detection-candidate tracking result integration unit 32 acquires a detection result from the detection information DB 41 (S82). And the process of S84-S88 is repeated with respect to all the detection results (namely, each of the "person" and "candidate" detected by the detection process part 10) (S83).

S84では、検出された対象(人物又は候補)nIと、追跡成功フラグがONの追跡対象(候補)との同定が行われる。この場合も、図6のS75と同様、位置、サイズ、特徴量などを比較することにより、同一の対象か否かを判断すればよい。   In S84, the detected target (person or candidate) nI and the tracking target (candidate) whose tracking success flag is ON are identified. Also in this case, as in S75 of FIG. 6, it is only necessary to determine whether or not they are the same target by comparing the position, size, feature amount, and the like.

同一の対象が存在した場合(S85;YES)、検出−候補追跡結果統合部32は、当該追跡対象の現在のフレームにおける位置情報を追跡候補情報DB43に追加する(S86)。この場合も、追跡位置をそのまま記録するのではなく、検出位置、あるいは、検出位置と追跡位置の平均を記録するとよい。さらに、検出−候補追跡結果統合部32は、対象nIの人物フラグにあわせて、追跡候補情報DB43の人物フラグも更新する。ここで、対象nIの人物フラグがONであるということは、今まで「候補」として追跡していた対象が「人物」であったことが判明したということを意味する。このようなケースは、例えば、人物の位置関係が図3の状態から図8の状態に変化し、後方の人物の顔や上半身がはっきりと認識できるようになった場合などに起こり得る。   When the same target exists (S85; YES), the detection-candidate tracking result integration unit 32 adds the position information of the tracking target in the current frame to the tracking candidate information DB 43 (S86). Also in this case, the tracking position is not recorded as it is, but the detection position or the average of the detection position and the tracking position may be recorded. Furthermore, the detection-candidate tracking result integration unit 32 also updates the person flag in the tracking candidate information DB 43 in accordance with the person flag of the target nI. Here, the fact that the person nI person flag is ON means that the object that has been tracked as a “candidate” until now has been found to be “person”. Such a case may occur, for example, when the positional relationship of the person changes from the state shown in FIG. 3 to the state shown in FIG. 8 so that the face or upper body of the person behind can be clearly recognized.

一方、同一の対象が存在しなかった場合(S85;NO)、検出−候補追跡結果統合部32は、対象nIの人物フラグを調べ(S87)、人物フラグがOFFの場合に新規の追跡対象IDを振り当てて、追跡候補情報DB43に新規登録する(S88)。   On the other hand, when the same target does not exist (S85; NO), the detection-candidate tracking result integration unit 32 checks the person flag of the target nI (S87), and when the person flag is OFF, a new tracking target ID Is newly registered in the tracking candidate information DB 43 (S88).

図9は、人物−候補結果統合処理の流れを示すフローチャートである。   FIG. 9 is a flowchart showing the flow of the person-candidate result integration process.

人物−候補結果統合部33は、追跡人物情報DB42から追跡対象とされている各人物の情報を取得し(S100)、追跡候補情報DB43から追跡対象とされている各候補の情報を取得する(S101)。そして、各候補nKについて、S103〜S106の処理が繰り返される(S102)。   The person-candidate result integration unit 33 acquires information about each person that is a tracking target from the tracking person information DB 42 (S100), and acquires information about each candidate that is a tracking target from the tracking candidate information DB 43 (S100). S101). And the process of S103-S106 is repeated about each candidate nK (S102).

S103では、候補nKと、S100で取得した追跡対象とされている人物との同定が行われる。この場合も図6のS75と同様、位置、サイズ、特徴量などを比較することにより、同一の対象か否かを判断すればよい。   In S103, identification of the candidate nK and the person to be tracked acquired in S100 is performed. In this case as well, as in S75 of FIG. 6, it is only necessary to determine whether or not they are the same target by comparing the position, size, feature amount, and the like.

候補nKと同一の人物が追跡人物情報DB42に存在した場合(S104;YES)、追跡候補情報DB43から当該候補nKの情報が削除される(S105)。このようなケースは、例えば、誤検出または誤追跡により同一人物が両方のDBに重複登録されてしまった場合や、二人の人が互いに近づいていき一方の人が他方の人の後ろに完全に隠れてしまった場合などに、起こり得る。   When the same person as the candidate nK exists in the tracking person information DB 42 (S104; YES), the information on the candidate nK is deleted from the tracking candidate information DB 43 (S105). Such cases include, for example, when the same person is registered in both databases due to false detection or tracking, or when two people approach each other and one person is completely behind the other. This can happen if you're hiding in

一方、S106では、人物−候補結果統合部33が、候補nKの人物フラグを調べる。候補nKの人物フラグがONの場合、つまり、図7のS84〜S86で「人物」であることが判明した「候補」の場合には、その候補nKの情報が追跡候補情報DB43から追跡人物情報DB42へと移される(S107)。これにより、候補として追跡し記録されていた情報が、人物の追跡情報へと変更される(図8参照)。候補nKは、次のフレームの処理から、「人物」として追跡処理が続行されることになる。   On the other hand, in S106, the person-candidate result integration unit 33 checks the person flag of the candidate nK. When the candidate nK person flag is ON, that is, in the case of a “candidate” that is found to be “person” in S84 to S86 in FIG. It moves to DB42 (S107). Thereby, the information tracked and recorded as a candidate is changed into the tracking information of a person (refer FIG. 8). For the candidate nK, the tracking processing is continued as “person” from the processing of the next frame.

なお、図6の処理と図7の処理は並列に実行されてもよいし、順番に実行されてもよい。図9の処理は図6の処理と図7の処理が終了した後に実行されるものである。   Note that the process of FIG. 6 and the process of FIG. 7 may be executed in parallel or in order. The processing in FIG. 9 is executed after the processing in FIG. 6 and the processing in FIG. 7 are completed.

(本装置の利点)
上記構成によれば、明らかに人と判る対象(「人物」)だけでなく、顔が隠れているなどして人か否かの判別が難しいグレーゾーンの対象(「候補」)についても、直ちに追跡処理が開始され、追跡情報の記録が行われる。そして、「候補」として追跡している最中に、その「候補」が「人物」であったと判明した時点で、「候補」の追跡情報として記録していた情報が「人物」の追跡情報へと変更される。以降は、「人物」として追跡処理が継続されることとなる。したがって、人か否かの判別が難しい時点から、当該人物の動きを追跡し記録することが可能となる。なお、人以外のものが「候補」として検出され、追跡処理が行われることもあるが、その場合は、「候補」から「人物」へと転じることがないため、「人物」の追跡情報の信頼性を低下させることはない。すなわち、本装置の構成によると、追跡処理を可及的に早い段階から開始し、且つ、誤検出や誤追跡による信頼性低下は抑制する、という相反する目的を同時満足することが可能となる。
(Advantages of this device)
According to the above configuration, not only an object that is clearly identified as a person ("person") but also a gray zone object ("candidate") that is difficult to determine whether it is a person due to a hidden face or the like. The tracking process is started and tracking information is recorded. Then, when the “candidate” is tracked as “candidate”, when the “candidate” is found to be “person”, the information recorded as the “candidate” tracking information becomes the tracking information of “person”. And changed. Thereafter, the tracking process is continued as “person”. Therefore, it is possible to track and record the movement of the person from the time when it is difficult to determine whether or not the person is a person. Something other than a person is detected as a “candidate” and tracking processing may be performed, but in that case, since “candidate” does not change to “person”, the tracking information of “person” Reliability is not reduced. That is, according to the configuration of the present apparatus, it is possible to simultaneously satisfy the conflicting purpose of starting the tracking process as early as possible and suppressing the decrease in reliability due to erroneous detection and tracking. .

また、フレーム毎に検出処理と追跡処理を実行し、検出と追跡の両方が成功した場合にのみ、当該追跡対象の追跡情報を更新するため、従来よりも誤追跡の少ない、信頼性の高い追跡結果を提供することができる。   In addition, the detection process and the tracking process are executed for each frame, and only when both the detection and the tracking are successful, the tracking information of the tracking target is updated. Results can be provided.

なお上記構成は本発明の一具体例を示したものにすぎない。本発明の範囲は上記構成に限定されることはなく、その技術思想の範囲内で種々の変形が可能である。   The above configuration is only a specific example of the present invention. The scope of the present invention is not limited to the above configuration, and various modifications are possible within the scope of the technical idea.

図1は本発明の実施形態に係る追跡装置の機能構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of a tracking device according to an embodiment of the present invention. 図2は検出処理の流れを示すフローチャートである。FIG. 2 is a flowchart showing the flow of detection processing. 図3は入力画像、検出結果、追跡人物情報、及び追跡候補情報の例を示す図である。FIG. 3 is a diagram illustrating examples of input images, detection results, tracking person information, and tracking candidate information. 図4は人物追跡処理の流れを示すフローチャートである。FIG. 4 is a flowchart showing the flow of the person tracking process. 図5は候補追跡処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing the flow of candidate tracking processing. 図6は検出−人物追跡結果統合処理の流れを示すフローチャートである。FIG. 6 is a flowchart showing the flow of detection-person tracking result integration processing. 図7は検出−候補追跡結果統合処理の流れを示すフローチャートである。FIG. 7 is a flowchart showing the flow of detection-candidate tracking result integration processing. 図8は入力画像、検出結果、追跡人物情報、及び追跡候補情報の例を示す図である。FIG. 8 is a diagram illustrating examples of input images, detection results, tracking person information, and tracking candidate information. 図9は人物−候補結果統合処理の流れを示すフローチャートである。FIG. 9 is a flowchart showing the flow of person-candidate result integration processing.

符号の説明Explanation of symbols

10 検出処理部
11 頭部検出器
12 顔検出器
13 上半身検出器
20 追跡処理部
21 人物追跡器
22 候補追跡器
30 統合処理部
31 検出−人物追跡結果統合部
32 検出−候補追跡結果統合部
33 人物−候補結果統合部
33 候補結果統合
40 追跡情報DB
41 検出情報DB
42 追跡人物情報DB
43 追跡候補情報DB
DESCRIPTION OF SYMBOLS 10 Detection process part 11 Head detector 12 Face detector 13 Upper body detector 20 Tracking process part 21 Person tracker 22 Candidate tracker 30 Integrated process part 31 Detection-person tracking result integration part 32 Detection-candidate tracking result integration part 33 Person-candidate result integration unit 33 candidate result integration 40 tracking information DB
41 Detection information DB
42 Tracking person information DB
43 Tracking candidate information DB

Claims (10)

動画像中の人物の動きを追跡し記録する追跡装置であって、
順次入力される各フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出する検出手段と、
人物を追跡対象とする追跡処理を実行する人物追跡手段と、
候補を追跡対象とする追跡処理を実行する候補追跡手段と、
追跡対象とされた人物の位置情報を記録した追跡情報と、追跡対象とされた候補の位置情報を記録した追跡情報とを記憶する記憶手段と、
前記記憶手段の追跡情報を更新する更新手段と、を備え、
前記更新手段は、前記検出手段によって検出された人物の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物が存在した場合に、前記記憶手段に記憶されている当該候補の追跡情報を人物の追跡情報へと変更することを特徴とする追跡装置。
A tracking device that tracks and records the movement of a person in a moving image,
Detecting means for detecting a person and a candidate that cannot be determined whether or not a person from images of each frame sequentially input;
A person tracking means for performing a tracking process for tracking a person,
Candidate tracking means for executing a tracking process for tracking candidates,
Storage means for storing tracking information that records position information of a person who is a tracking target, and tracking information that records position information of a candidate that is a tracking target;
Updating means for updating the tracking information of the storage means,
The update means is stored in the storage means when a person evaluated by the candidate tracking means as the same target as the candidate tracked by the candidate tracking means exists among the persons detected by the detection means. A tracking device, wherein the tracking information of the candidate is changed to tracking information of a person.
前記更新手段は、現在のフレームの画像から前記検出手段によって検出された人物の中に、前記人物追跡手段により追跡対象とされている人物と同一の対象と評価される人物が存在した場合に、当該人物の現在のフレームにおける位置情報を前記記憶手段の追跡情報に追加することを特徴とする請求項1に記載の追跡装置。   The update means, when there is a person evaluated as the same target as the person tracked by the person tracking means among the persons detected by the detection means from the image of the current frame, The tracking apparatus according to claim 1, wherein position information of the person in the current frame is added to tracking information in the storage unit. 前記更新手段は、現在のフレームの画像から前記検出手段によって検出された人物及び候補の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物又は候補が存在した場合に、当該候補の現在のフレームにおける位置情報を前記記憶手段の追跡情報に追加することを特徴とする請求項1又は2に記載の追跡装置。   The update means includes a person or a candidate that is evaluated as the same target as the candidate to be tracked by the candidate tracking means among the persons and candidates detected by the detection means from the image of the current frame. 3. The tracking device according to claim 1, wherein, in a case where the candidate is located, position information of the candidate in the current frame is added to the tracking information of the storage unit. 前記更新手段は、前記検出手段により検出された位置を用いて、前記記憶手段の追跡情報に追加する位置情報を求めることを特徴とする請求項2又は3に記載の追跡装置。   The tracking device according to claim 2, wherein the update unit obtains position information to be added to the tracking information of the storage unit, using the position detected by the detection unit. 前記検出手段は、検出した対象をその検出結果の信頼度とともに出力する検出器を複数種類備えており、少なくともいずれか1つの検出器の検出結果の信頼度が閾値以上の場合に前記検出した対象が人物であると判定し、すべての検出器の検出結果の信頼度が閾値より小さい場合に前記検出した対象が候補であると判定することを特徴とする請求項1〜4のうちいずれか1項に記載の追跡装置。   The detection means includes a plurality of types of detectors that output the detected object together with the reliability of the detection result, and the detected object is detected when the reliability of the detection result of at least one of the detectors is equal to or greater than a threshold value. 5 is determined to be a person, and when the reliability of detection results of all detectors is smaller than a threshold value, it is determined that the detected target is a candidate. The tracking device according to item. 前記検出手段は、前記複数種類の検出器を1つずつ順番に実行し、閾値以上の信頼度をもつ検出結果が得られた時点で検出処理を止めることを特徴とする請求項5に記載の追跡装置。   The detection unit according to claim 5, wherein the detection unit sequentially executes the plurality of types of detectors one by one, and stops the detection process when a detection result having a reliability equal to or higher than a threshold is obtained. Tracking device. 前記複数種類の検出器は、頭部を検出する検出器と顔を検出する検出器を含んでおり、前記頭部を検出する検出器が前記顔を検出する検出器よりも先に実行されることを特徴とする請求項6に記載の追跡装置。   The plurality of types of detectors include a detector that detects a head and a detector that detects a face, and the detector that detects the head is executed before the detector that detects the face. The tracking device according to claim 6. 前記候補追跡手段は、前記候補が最初に検出されたフレームから所定期間後に該候補の追跡処理を止めることを特徴とする請求項1〜7のうちいずれか1項に記載の追跡装置。   The tracking apparatus according to claim 1, wherein the candidate tracking unit stops tracking the candidate after a predetermined period from a frame in which the candidate is first detected. 動画像中の人物の動きを追跡し記録する追跡方法であって、
コンピュータが、
第1フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出するステップと、
前記第1フレームの画像で検出された人物を追跡対象とし、前記第1フレームの後の第
2フレームの画像に対して追跡処理を実行するステップと、
前記第1フレームの画像で検出された候補を追跡対象とし、前記第2フレームの画像に対して追跡処理を実行するステップと、
追跡対象とされた人物の位置情報を含む追跡情報と、追跡対象とされた候補の位置情報を含む追跡情報とを記憶装置に記録するステップと、
前記第2フレームの画像から人物を検出するステップと、
前記第2フレームの画像から検出された人物の中に、前記第2フレームにおいて追跡対象とされている候補と同一の対象と評価される人物が存在した場合、前記記憶装置に記憶されている当該候補の追跡情報を人物の追跡情報へと変更するステップと、
を実行することを特徴とする追跡方法。
A tracking method for tracking and recording the movement of a person in a moving image,
Computer
Detecting from a first frame image a person and a candidate that is a subject that cannot be determined whether or not it is a person;
Performing tracking on a person detected in the image of the first frame as a tracking target and performing an image on a second frame after the first frame;
Subjecting the candidate detected in the first frame image to a tracking target and executing a tracking process on the second frame image;
Recording tracking information including position information of a person to be tracked and tracking information including position information of a candidate to be tracked in a storage device;
Detecting a person from the image of the second frame;
If there is a person who is evaluated as the same target as the tracking target in the second frame among the persons detected from the image of the second frame, the person stored in the storage device Changing candidate tracking information to person tracking information;
The tracking method characterized by performing.
請求項9に記載の追跡方法の各ステップをコンピュータに実行させるためのプログラム。   The program for making a computer perform each step of the tracking method of Claim 9.
JP2008236746A 2008-09-16 2008-09-16 Tracking device and tracking method Active JP5077164B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008236746A JP5077164B2 (en) 2008-09-16 2008-09-16 Tracking device and tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008236746A JP5077164B2 (en) 2008-09-16 2008-09-16 Tracking device and tracking method

Publications (2)

Publication Number Publication Date
JP2010072723A true JP2010072723A (en) 2010-04-02
JP5077164B2 JP5077164B2 (en) 2012-11-21

Family

ID=42204477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008236746A Active JP5077164B2 (en) 2008-09-16 2008-09-16 Tracking device and tracking method

Country Status (1)

Country Link
JP (1) JP5077164B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035765A (en) * 2009-08-04 2011-02-17 Canon Inc Image processing apparatus and method
WO2012144195A1 (en) * 2011-04-18 2012-10-26 パナソニック株式会社 Image capture device, image capture device focus control method, and integrated circuit
CN102970557A (en) * 2011-08-31 2013-03-13 株式会社东芝 Object search device, video display device, and object search method
JP2013098746A (en) * 2011-10-31 2013-05-20 Jvc Kenwood Corp Imaging apparatus, imaging method, and program
JP2013158007A (en) * 2013-03-18 2013-08-15 Canon Inc Imaging apparatus and imaging method
WO2013136395A1 (en) * 2012-03-12 2013-09-19 日本電気株式会社 Sensor device, sensing method, and recording medium storing program
WO2013145948A1 (en) * 2012-03-30 2013-10-03 株式会社メガチップス Object detection device
WO2015129152A1 (en) * 2014-02-26 2015-09-03 株式会社ソシオネクスト Image recognition system and semiconductor integrated circuit
JP2016111576A (en) * 2014-12-08 2016-06-20 キヤノン株式会社 Imaging apparatus
JP2017182600A (en) * 2016-03-31 2017-10-05 トヨタ自動車株式会社 Object recognition device
JP2019159391A (en) * 2018-03-07 2019-09-19 オムロン株式会社 Object detection device, object detection method, and program
WO2019180917A1 (en) * 2018-03-23 2019-09-26 日本電気株式会社 Object tracking device, object tracking method, and object tracking program
JPWO2020213099A1 (en) * 2019-04-17 2020-10-22
JPWO2020217369A1 (en) * 2019-04-25 2020-10-29
JP2022503373A (en) * 2019-09-29 2022-01-12 北京市商▲湯▼科技▲開▼▲發▼有限公司 Data processing methods, devices and storage media
JP7548079B2 (en) 2021-03-12 2024-09-10 オムロン株式会社 OBJECT TRACKING DEVICE AND OBJECT TRACKING METHOD

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509896B (en) * 2018-03-28 2020-10-13 腾讯科技(深圳)有限公司 Trajectory tracking method and device and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105835A (en) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd Object recognition method and object tracking monitoring device
JP2003216951A (en) * 2001-12-03 2003-07-31 Microsoft Corp Method and system for automatic detection and tracking of multiple individuals using multiple cues
JP2003250150A (en) * 2002-02-26 2003-09-05 Oki Electric Ind Co Ltd Person tracking device using moving images
JP2003346159A (en) * 2002-05-28 2003-12-05 Oki Electric Ind Co Ltd Person tracking method and person tracking device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105835A (en) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd Object recognition method and object tracking monitoring device
JP2003216951A (en) * 2001-12-03 2003-07-31 Microsoft Corp Method and system for automatic detection and tracking of multiple individuals using multiple cues
JP2003250150A (en) * 2002-02-26 2003-09-05 Oki Electric Ind Co Ltd Person tracking device using moving images
JP2003346159A (en) * 2002-05-28 2003-12-05 Oki Electric Ind Co Ltd Person tracking method and person tracking device

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035765A (en) * 2009-08-04 2011-02-17 Canon Inc Image processing apparatus and method
JP5829679B2 (en) * 2011-04-18 2015-12-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America IMAGING DEVICE, FOCUSING CONTROL METHOD OF IMAGING DEVICE, AND INTEGRATED CIRCUIT
WO2012144195A1 (en) * 2011-04-18 2012-10-26 パナソニック株式会社 Image capture device, image capture device focus control method, and integrated circuit
CN103210332A (en) * 2011-04-18 2013-07-17 松下电器产业株式会社 Camera device, focus control method of camera device, and integrated circuit
US8842213B2 (en) 2011-04-18 2014-09-23 Panasonic Corporation Image capture device, image capture device focus control method, and integrated circuit
CN102970557A (en) * 2011-08-31 2013-03-13 株式会社东芝 Object search device, video display device, and object search method
JP2013050912A (en) * 2011-08-31 2013-03-14 Toshiba Corp Object search device, video display device, and object search method
JP2013098746A (en) * 2011-10-31 2013-05-20 Jvc Kenwood Corp Imaging apparatus, imaging method, and program
WO2013136395A1 (en) * 2012-03-12 2013-09-19 日本電気株式会社 Sensor device, sensing method, and recording medium storing program
WO2013145948A1 (en) * 2012-03-30 2013-10-03 株式会社メガチップス Object detection device
JP2013210705A (en) * 2012-03-30 2013-10-10 Mega Chips Corp Object detector
JP2013158007A (en) * 2013-03-18 2013-08-15 Canon Inc Imaging apparatus and imaging method
JPWO2015129152A1 (en) * 2014-02-26 2017-03-30 株式会社ソシオネクスト Image recognition system and semiconductor integrated circuit
WO2015129152A1 (en) * 2014-02-26 2015-09-03 株式会社ソシオネクスト Image recognition system and semiconductor integrated circuit
US10074187B2 (en) 2014-02-26 2018-09-11 Socionext Inc. Image recognition system and semiconductor integrated circuit
JP2016111576A (en) * 2014-12-08 2016-06-20 キヤノン株式会社 Imaging apparatus
JP2017182600A (en) * 2016-03-31 2017-10-05 トヨタ自動車株式会社 Object recognition device
JP2019159391A (en) * 2018-03-07 2019-09-19 オムロン株式会社 Object detection device, object detection method, and program
WO2019180917A1 (en) * 2018-03-23 2019-09-26 日本電気株式会社 Object tracking device, object tracking method, and object tracking program
JPWO2019180917A1 (en) * 2018-03-23 2020-12-10 日本電気株式会社 Object tracking device, object tracking method, and object tracking program
US11494922B2 (en) 2018-03-23 2022-11-08 Nec Corporation Object tracking device, object tracking method, and object tracking program
US20220180536A1 (en) * 2019-04-17 2022-06-09 Nec Corporation Object detection/tracking device, method, and program recording medium
JPWO2020213099A1 (en) * 2019-04-17 2020-10-22
WO2020213099A1 (en) * 2019-04-17 2020-10-22 日本電気株式会社 Object detection/tracking device, method, and program recording medium
US11948312B2 (en) 2019-04-17 2024-04-02 Nec Corporation Object detection/tracking device, method, and program recording medium
JPWO2020217369A1 (en) * 2019-04-25 2020-10-29
US11875518B2 (en) 2019-04-25 2024-01-16 Nec Corporation Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
WO2020217369A1 (en) * 2019-04-25 2020-10-29 日本電気株式会社 Object feature quantity extraction device, object feature quantity extraction method, and non-transitory computer-readable medium
US11335098B2 (en) 2019-09-29 2022-05-17 Beijing Sensetime Technology Development Co., Ltd. Data processing methods, apparatuses and storage media
JP2022503373A (en) * 2019-09-29 2022-01-12 北京市商▲湯▼科技▲開▼▲發▼有限公司 Data processing methods, devices and storage media
JP7548079B2 (en) 2021-03-12 2024-09-10 オムロン株式会社 OBJECT TRACKING DEVICE AND OBJECT TRACKING METHOD

Also Published As

Publication number Publication date
JP5077164B2 (en) 2012-11-21

Similar Documents

Publication Publication Date Title
JP5077164B2 (en) Tracking device and tracking method
JP7726357B2 (en) Information processing device, information processing method, information processing program, and information processing system
JP7375101B2 (en) Information processing device, information processing method and program
De Geest et al. Online action detection
US11270108B2 (en) Object tracking method and apparatus
US10242266B2 (en) Method and system for detecting actions in videos
WO2020017190A1 (en) Image analysis device, person search system, and person search method
JP6032921B2 (en) Object detection apparatus and method, and program
JP6018674B2 (en) System and method for subject re-identification
JP6013241B2 (en) Person recognition apparatus and method
CN113963445A (en) A Pedestrian Fall Action Recognition Method and Device Based on Pose Estimation
US10467461B2 (en) Apparatus for searching for object and control method thereof
US8731238B2 (en) Multiple view face tracking
JP6385419B2 (en) Object detection device
TW201005656A (en) Object matching for tracking, indexing, and search
JP2014093023A (en) Object detection device, object detection method and program
Martínez-Martín et al. Robust motion detection in real-life scenarios
US10592687B2 (en) Method and system of enforcing privacy policies for mobile sensory devices
JP7434914B2 (en) Pedestrian object detection device and method, electronic equipment
KR20220074482A (en) Method and apparatus for automatically recognizing clothes in video
CN114780796B (en) Track association method, track association device, electronic equipment and machine-readable storage medium
JP7540500B2 (en) GROUP IDENTIFICATION DEVICE, GROUP IDENTIFICATION METHOD, AND PROGRAM
Brauer Camera based human localization and recognition in smart environments
JP2011043863A (en) Apparatus, method, program for determining/tracking object region, and apparatus for determining object region
JP2016207106A (en) Method and apparatus for reducing false detection in object detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120813

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5077164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150