JP7736613B2 - Learning device, data change estimation device, learning method, data change estimation method, learning program, and data change estimation program - Google Patents
Learning device, data change estimation device, learning method, data change estimation method, learning program, and data change estimation programInfo
- Publication number
- JP7736613B2 JP7736613B2 JP2022052590A JP2022052590A JP7736613B2 JP 7736613 B2 JP7736613 B2 JP 7736613B2 JP 2022052590 A JP2022052590 A JP 2022052590A JP 2022052590 A JP2022052590 A JP 2022052590A JP 7736613 B2 JP7736613 B2 JP 7736613B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- change
- score
- indicating
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Description
本発明は、学習装置、データ変化推定装置、学習方法、データ変化推定方法、学習プログラム、及びデータ変化推定プログラムに関する。 The present invention relates to a learning device, a data change estimation device, a learning method, a data change estimation method, a learning program, and a data change estimation program.
従来、ニューラルネットワークを用いて、画像から抽出したい対象の領域である対象領域を抽出する技術が知られている。 Conventionally, a technique has been known that uses neural networks to extract a target region, which is the region of the object that you want to extract from an image.
例えば、特許文献1に記載の技術では、区分領域毎の特徴量を抽出する畳み込みニューラルネットワークを用いて、入力画像の区分領域毎に特徴量を抽出する。そして検査領域と重複する区分領域の各々について、重複度合いに応じた重みと抽出した特徴量とを用いて統合特徴量を求め、統合特徴量に基づいて対象領域を抽出する。 For example, the technology described in Patent Document 1 uses a convolutional neural network to extract features for each segmented region of an input image. Then, for each segmented region that overlaps with the inspection region, an integrated feature is calculated using a weight based on the degree of overlap and the extracted feature, and a target region is extracted based on the integrated feature.
しかしながら、従来技術は、画像から対象領域を抽出するものにすぎず、過去画像などの第1データと現在画像などの第2データとを比較して、第1データと第2データとの間における対象領域の出現、消失などの変化を推定できるものではない。 However, conventional technology only extracts target areas from images, and is not capable of comparing first data, such as a past image, with second data, such as a current image, to estimate changes, such as the appearance or disappearance of target areas, between the first and second data.
そこで、本発明は、上記事情を鑑みてなされたものであり、第1データから第2データへの対象の消失又は出現を示すスコアと、第2データから第1データへの対象の消失又は出現を示すスコアとの双方を算出するスコア算出器を学習することにより、対象の消失及び出現を推定できる学習装置、学習方法、及び学習プログラムを提供することを目的とする。 The present invention has been made in consideration of the above circumstances, and aims to provide a learning device, learning method, and learning program that can estimate the disappearance and appearance of an object by training a score calculator that calculates both a score indicating the disappearance or appearance of an object from first data to second data, and a score indicating the disappearance or appearance of an object from second data to first data.
また、簡易な構成で、第1データから第2データへの対象の消失又は出現を示すスコアと、第2データから第1データへの対象の消失又は出現を示すスコアとの双方を算出することにより、対象の消失及び出現を推定できるデータ変化推定装置、データ変化推定方法、及びデータ変化推定プログラムを提供することを目的とする。 Another object of the present invention is to provide a data change estimation device, a data change estimation method, and a data change estimation program that can estimate the disappearance or appearance of an object by calculating, with a simple configuration, both a score indicating the disappearance or appearance of an object from first data to second data and a score indicating the disappearance or appearance of an object from second data to first data.
上記の目的を達成するために本発明に係る学習装置は、第1データから第2データへの変化であって、データが表す対象の消失又は出現である特定の変化を示す学習データと、前記第2データから前記第1データへの前記特定の変化を示す学習データと、に基づいて、前記第1データの特徴量と、前記第2データの特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの変化における前記特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出するように、前記スコア算出器を学習する学習部と、を含んで構成されている。 In order to achieve the above object, the learning device of the present invention includes: a learning unit that trains the score calculator to input features of the first data and features of the second data in a predetermined order based on learning data indicating a specific change from first data to second data, which is the disappearance or appearance of an object represented by the data, and learning data indicating the specific change from the second data to the first data; the learning unit inputs features of the first data and features of the second data to the score calculator in a predetermined order to calculate a score indicating the specific change in the change from the first data to the second data; and the learning unit trains the score calculator to input features of the first data and features of the second data to the score calculator in the reverse order of the predetermined order to calculate a score indicating the specific change in the change from the second data to the first data.
本発明に係る学習装置によれば、学習部によって、第1データから第2データへの変化であって、データが表す対象の消失又は出現である特定の変化を示す学習データと、前記第2データから前記第1データへの前記特定の変化を示す学習データと、に基づいて、前記第1データの特徴量と、前記第2データの特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの変化における前記特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出するように、前記スコア算出器を学習する。 In the learning device according to the present invention, the learning unit inputs the feature amounts of the first data and the feature amounts of the second data into a score calculator in a predetermined order based on learning data indicating a specific change from first data to second data, which is the disappearance or appearance of an object represented by the data, and learning data indicating the specific change from the second data to the first data, and trains the score calculator to calculate a score indicating the specific change in the change from the first data to the second data, and inputs the feature amounts of the first data and the feature amounts of the second data into the score calculator in the reverse order of the predetermined order, and calculates a score indicating the specific change in the change from the second data to the first data.
このように、前記第1データの特徴量と、前記第2データの特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの変化であって、データが表す対象の消失又は出現である特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出するように、前記スコア算出器を学習する。これにより、第1データから第2データへの対象の消失又は出現を示すスコアと、第2データから第1データへの対象の消失又は出現を示すスコアとの双方を算出するスコア算出器を学習することにより、対象の消失及び出現を推定できる。 In this way, the score calculator is trained to input the feature amounts of the first data and the feature amounts of the second data into a predetermined order to calculate a score indicating a specific change from the first data to the second data, which is the disappearance or appearance of an object represented by the data, and to input the feature amounts of the first data and the feature amounts of the second data into the score calculator in the reverse order of the predetermined order to calculate a score indicating the specific change in the change from the second data to the first data. This allows the disappearance or appearance of an object to be estimated by training the score calculator to calculate both a score indicating the disappearance or appearance of an object from the first data to the second data and a score indicating the disappearance or appearance of an object from the second data to the first data.
本発明に係るデータ変化推定装置は、第3データから第4データへの変化であって、データが表す対象の消失又は出現である特定の変化を示す学習データと、前記第4データから前記第3データへの前記特定の変化を示す学習データと、に基づいて、前記第3データの特徴量と、前記第4データの特徴量とを所定の順に入力して、前記第3データから前記第4データへの変化における前記特定の変化を示すスコアを算出し、かつ、前記第3データの特徴量と、前記第4データの特徴量とを前記所定の順とは逆順に入力し、前記第4データから前記第3データへの変化における前記特定の変化を示すスコアを算出するように学習されたスコア算出器と、第1データの特徴量と、第2データの特徴量とを所定の順に、前記スコア算出器に入力して、前記第1データから前記第2データへの変化における前記特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出するスコア算出部と、を含んで構成されている。 The data change estimation device according to the present invention includes: a score calculator that is trained to input, based on training data indicating a specific change from third data to fourth data, which is the disappearance or appearance of an object represented by the data, the specific change from the fourth data to the third data, the feature quantities of the third data and the feature quantities of the fourth data in a predetermined order, and calculate a score indicating the specific change in the change from the third data to the fourth data, and to input the feature quantities of the third data and the feature quantities of the fourth data in the reverse order of the predetermined order, and calculate the score indicating the specific change in the change from the fourth data to the third data; and a score calculation unit that inputs the feature quantities of the first data and the feature quantities of the second data to the score calculator in the predetermined order, and calculates the score indicating the specific change in the change from the first data to the second data, and to input the feature quantities of the first data and the feature quantities of the second data to the score calculator in the reverse order of the predetermined order, and calculates the score indicating the specific change in the change from the second data to the first data.
本発明に係るデータ変化推定装置によれば、上記の学習装置と同様にスコア算出器を学習する。スコア算出部によって、第1データの特徴量と、第2データの特徴量とを所定の順に、学習部によって学習された前記スコア算出器に入力して、前記第1データから前記第2データへの変化における前記特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出する。 In the data change estimation device according to the present invention, a score calculator is trained in the same manner as the learning device described above. The score calculation unit inputs the feature amounts of the first data and the feature amounts of the second data in a predetermined order to the score calculator trained by the learning unit, and calculates a score indicating the specific change in the change from the first data to the second data. The score calculation unit also inputs the feature amounts of the first data and the feature amounts of the second data to the score calculator in the reverse order of the predetermined order, and calculates a score indicating the specific change in the change from the second data to the first data.
このように、第1データの特徴量と、第2データの特徴量とを所定の順に、前記スコア算出器に入力して、前記第1データから前記第2データへの変化における前記特定の変化を示すスコアを算出し、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出する。これにより、簡易な構成で、第1データから第2データへの対象の消失又は出現を示すスコアと、第2データから第1データへの対象の消失又は出現を示すスコアとの双方を算出することにより、対象の消失及び出現を推定できる。 In this way, the feature amounts of the first data and the feature amounts of the second data are input into the score calculator in a predetermined order to calculate a score indicating the specific change in the transition from the first data to the second data, and the feature amounts of the first data and the feature amounts of the second data are input into the score calculator in the reverse order to the predetermined order to calculate a score indicating the specific change in the transition from the second data to the first data. This makes it possible to estimate the disappearance or appearance of an object by calculating, with a simple configuration, both a score indicating the disappearance or appearance of an object from the first data to the second data and a score indicating the disappearance or appearance of an object from the second data to the first data.
本発明に係るデータ変化推定装置は、第1データの特徴量と、第2データの特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの変化であって、データが表す対象の消失又は出現である特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出するスコア算出部と、を含んで構成されている。 The data change estimation device according to the present invention includes a score calculation unit that inputs the feature amounts of first data and the feature amounts of second data into a score calculator in a predetermined order and calculates a score indicating a specific change from the first data to the second data, which is the disappearance or appearance of an object represented by the data, and inputs the feature amounts of the first data and the feature amounts of the second data into the score calculator in the reverse order of the predetermined order and calculates a score indicating the specific change in the change from the second data to the first data.
本発明に係るデータ変化推定装置によれば、スコア算出部によって、第1データの特徴量と、第2データの特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの変化における前記特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出する。 In the data change estimation device according to the present invention, the score calculation unit inputs the feature amounts of the first data and the feature amounts of the second data to the score calculator in a predetermined order to calculate a score indicating the specific change in the change from the first data to the second data, and inputs the feature amounts of the first data and the feature amounts of the second data to the score calculator in the reverse order of the predetermined order to calculate a score indicating the specific change in the change from the second data to the first data.
このように、第1データの特徴量と、第2データの特徴量とを所定の順に、前記スコア算出器に入力して、前記第1データから前記第2データへの変化における前記特定の変化を示すスコアを算出し、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出する。これにより、簡易な構成で、第1データから第2データへの対象の消失と出現との双方を推定することができる。 In this way, the feature amounts of the first data and the feature amounts of the second data are input into the score calculator in a predetermined order to calculate a score indicating the specific change in the transition from the first data to the second data, and the feature amounts of the first data and the feature amounts of the second data are input into the score calculator in the reverse order to the predetermined order to calculate a score indicating the specific change in the transition from the second data to the first data. This makes it possible to estimate both the disappearance and appearance of an object from the first data to the second data with a simple configuration.
また、前記スコア算出器は、非対称演算を用いて、前記スコアを算出することができる。 The score calculator may also calculate the score using asymmetric calculations.
また、前記スコア算出部は、更に、前記第1データから前記第2データへの前記特定の変化を示すスコアと、前記第2データから前記第1データへの前記特定の変化を示すスコアと、を用いて、変化なしを示すスコアと、対象の入れ替わりを示すスコアとを算出することができる。 Furthermore, the score calculation unit can further calculate a score indicating no change and a score indicating a change of subject using the score indicating the specific change from the first data to the second data and the score indicating the specific change from the second data to the first data.
また、上記のデータ変化推定装置は、第1データと第2データの各々について、特徴マップを抽出する特徴マップ抽出部と、前記特徴マップから、対象領域推定モデルを用いて、対象領域らしさを示す尤度のマップである対象尤度マップを推定する候補領域推定部と、前記対象尤度マップから、対象領域を抽出する対象領域抽出部と、前記特徴マップから、抽出された対象領域の特徴量を抽出する特徴量抽出部とを更に含むことができる。 The above-mentioned data change estimation device may further include a feature map extraction unit that extracts a feature map for each of the first data and the second data, a candidate area estimation unit that estimates a target likelihood map, which is a map of likelihood indicating the likelihood of a target area, from the feature map using a target area estimation model, a target area extraction unit that extracts a target area from the target likelihood map, and a feature extraction unit that extracts features of the extracted target area from the feature map.
また、上記のデータ変化推定装置は、スコア統合部を更に含み、前記対象領域抽出部は、前記対象尤度マップから、複数の対象領域を抽出し、前記特徴量抽出部は、前記特徴マップから、前記複数の対象領域の各々について、特徴量を抽出し、前記スコア算出部は、前記第1データの対象領域と、前記第2データの対象領域との組み合わせの各々について、前記第1データの対象領域の前記特徴量と、前記第2データの対象領域の前記特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの前記特定の変化を示すスコアを算出し、前記第1データの対象領域の前記特徴量と、前記第2データの対象領域の前記特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの前記特定の変化を示すスコアを算出し、前記スコア統合部は、前記第1データから前記第2データへの前記特定の変化を示すスコアの最大値、最小値、又は平均値、及び前記第2データから前記第1データへの前記特定の変化を示すスコアの最大値、最小値、又は平均値を算出することができる。 The above-mentioned data change estimation device further includes a score integrating unit, wherein the target region extraction unit extracts multiple target regions from the target likelihood map, the feature extraction unit extracts features for each of the multiple target regions from the feature map, the score calculation unit inputs the features of the target region of the first data and the features of the target region of the second data to a score calculator in a predetermined order for each combination of the target region of the first data and the target region of the second data to calculate a score indicating the specific change from the first data to the second data, and inputs the features of the target region of the first data and the features of the target region of the second data to the score calculator in a reverse order to the predetermined order to calculate a score indicating the specific change from the second data to the first data, and the score integrating unit calculates a maximum, minimum, or average score indicating the specific change from the first data to the second data and a maximum, minimum, or average score indicating the specific change from the second data to the first data.
また、上記のデータ変化推定装置は、スコア統合部を更に含み、前記第1データは、測定位置が異なる複数の第1データであり、前記第2データは、前記複数の第1データの各々と測定位置が同一であり、かつ、測定タイミングが異なる複数の第2データであり、前記スコア算出部は、前記第1データと、前記第2データとの組み合わせの各々について、前記第1データの前記特徴量と、前記第2データの前記特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの前記特定の変化を示すスコアを算出し、前記第1データの前記特徴量と、前記第2データの前記特徴量とを前記所定の順とは逆順に前記スコア算出モデルに入力し、前記第2データから前記第1データへの前記特定の変化を示すスコアを算出し、前記スコア統合部は、前記第1データから前記第2データへの前記特定の変化を示すスコアの最大値又は最小値、及び前記第2データから前記第1データへの前記特定の変化を示すスコアの最大値又は最小値を算出することができる。 The data change estimation device further includes a score integrating unit, wherein the first data is a plurality of first data measured at different positions, and the second data is a plurality of second data measured at the same position as each of the plurality of first data but at different measurement times, and the score calculation unit inputs the feature amounts of the first data and the feature amounts of the second data to a score calculator in a predetermined order for each combination of the first data and the second data to calculate a score indicating the specific change from the first data to the second data, and inputs the feature amounts of the first data and the feature amounts of the second data to the score calculation model in a reverse order to the predetermined order to calculate a score indicating the specific change from the second data to the first data, and the score integrating unit can calculate a maximum or minimum score indicating the specific change from the first data to the second data and a maximum or minimum score indicating the specific change from the second data to the first data.
また、上記のデータ変化推定装置は、スコア統合部を更に含み、前記特徴マップ抽出部は、前記第1データと前記第2データの各々について、ニューラルネットワークにより複数種類の特徴マップを抽出し、前記特徴量抽出部は、前記第1データと前記第2データの各々について、前記複数種類の特徴マップの各々から前記特徴量を抽出し、前記スコア算出部は、前記複数種類の特徴マップの各々から抽出された前記特徴量の各々について、前記第1データの前記特徴量と、前記第2データの前記特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの前記特定の変化を示すスコアを算出し、前記第1データの前記特徴量と、前記第2データの前記特徴量とを前記所定の順とは逆順に前記スコア算出モデルに入力し、前記第2データから前記第1データへの前記特定の変化を示すスコアを算出し、前記スコア統合部は、前記複数種類の特徴マップの各々から抽出された前記特徴量の各々について算出された、前記第1データから前記第2データへの前記特定の変化を示すスコアを統合し、前記複数種類の特徴マップの各々から抽出された前記特徴量の各々について算出された、前記第2データから前記第1データへの前記特定の変化を示すスコアを統合することができる。 The data change estimation device further includes a score integration unit, wherein the feature map extraction unit extracts multiple types of feature maps for each of the first data and the second data using a neural network, the feature amount extraction unit extracts the feature amount from each of the multiple types of feature maps for each of the first data and the second data, and the score calculation unit inputs the feature amount of the first data and the feature amount of the second data to a score calculator in a predetermined order for each of the feature amounts extracted from each of the multiple types of feature maps, and calculates the specific change from the first data to the second data. The score calculation unit calculates a score indicating the specific change from the second data to the first data, inputs the feature amounts of the first data and the feature amounts of the second data into the score calculation model in the reverse order of the predetermined order, and calculates a score indicating the specific change from the second data to the first data. The score integration unit integrates the scores indicating the specific change from the first data to the second data calculated for each of the feature amounts extracted from each of the multiple types of feature maps, and integrates the scores indicating the specific change from the second data to the first data calculated for each of the feature amounts extracted from each of the multiple types of feature maps.
本発明に係る学習方法は、学習部が、第1データから第2データへの変化であって、データが表す対象の消失又は出現である特定の変化を示す学習データと、前記第2データから前記第1データへの前記特定の変化を示す学習データと、に基づいて、前記第1データの特徴量と、前記第2データの特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの変化における前記特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出するように、前記スコア算出器を学習する。 In a learning method according to the present invention, the learning unit inputs features of the first data and features of the second data into a score calculator in a predetermined order based on learning data indicating a specific change from first data to second data, the specific change being the disappearance or appearance of an object represented by the data, and learning data indicating the specific change from the second data to the first data; the learning unit inputs features of the first data and features of the second data into the score calculator in a predetermined order to calculate a score indicating the specific change in the change from the first data to the second data; and the learning unit inputs features of the first data and features of the second data into the score calculator in a reverse order to the predetermined order to train the score calculator to calculate a score indicating the specific change in the change from the second data to the first data.
本発明に係るデータ変化推定方法は、スコア算出部が、第1データの特徴量と、第2データの特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの変化であって、データが表す対象の消失又は出現である特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出する。 In the data change estimation method according to the present invention, the score calculation unit inputs the feature amounts of the first data and the feature amounts of the second data into a score calculator in a predetermined order, calculates a score indicating a specific change from the first data to the second data, which is the disappearance or appearance of an object represented by the data, and inputs the feature amounts of the first data and the feature amounts of the second data into the score calculator in the reverse order of the predetermined order, and calculates a score indicating the specific change in the change from the second data to the first data.
本発明に係る学習プログラムは、第1データから第2データへの変化であって、データが表す対象の消失又は出現である特定の変化を示す学習データと、前記第2データから前記第1データへの前記特定の変化を示す学習データと、に基づいて、前記第1データの特徴量と、前記第2データの特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの変化における前記特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出するように、前記スコア算出器を学習することをコンピュータに実行させるための学習プログラムである。 The learning program of the present invention causes a computer to execute the following steps: based on learning data indicating a specific change from first data to second data, which is the disappearance or appearance of an object represented by the data, and learning data indicating the specific change from the second data to the first data, input the features of the first data and the features of the second data into a score calculator in a predetermined order to calculate a score indicating the specific change in the change from the first data to the second data, and input the features of the first data and the features of the second data into the score calculator in the reverse order of the predetermined order to calculate a score indicating the specific change in the change from the second data to the first data.
本発明に係るデータ変化推定プログラムは、前記第1データの特徴量と、前記第2データの特徴量とを所定の順にスコア算出器に入力して、前記第1データから前記第2データへの変化であって、データが表す対象の消失又は出現である特定の変化を示すスコアを算出し、かつ、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化における前記特定の変化を示すスコアを算出することをコンピュータに実行させるためのデータ変化推定プログラムである。 The data change estimation program of the present invention causes a computer to input the feature amounts of the first data and the feature amounts of the second data into a score calculator in a predetermined order, calculate a score indicating a specific change from the first data to the second data, which is the disappearance or appearance of an object represented by the data, and input the feature amounts of the first data and the feature amounts of the second data into the score calculator in the reverse order of the predetermined order, and calculate a score indicating the specific change in the change from the second data to the first data.
以上説明したように、本発明に係る学習装置、学習方法、及び学習プログラムによれば、第1データから第2データへの対象の消失又は出現を示すスコアと、第2データから第1データへの対象の消失又は出現を示すスコアとの双方を算出するスコア算出器を学習することにより、対象の消失及び出現を推定できる、という効果が得られる。 As described above, the learning device, learning method, and learning program of the present invention have the advantage of being able to estimate the disappearance and appearance of an object by training a score calculator that calculates both a score indicating the disappearance or appearance of an object from the first data to the second data, and a score indicating the disappearance or appearance of an object from the second data to the first data.
また、本発明に係るデータ変化推定装置、データ変化推定方法、及びデータ変化推定プログラムによれば、簡易な構成で、第1データから第2データへの対象の消失又は出現を示すスコアと、第2データから第1データへの対象の消失又は出現を示すスコアとの双方を算出することにより、対象の消失及び出現を推定できる、という効果が得られる。 Furthermore, the data change estimation device, data change estimation method, and data change estimation program according to the present invention have a simple configuration and can effectively estimate the disappearance or appearance of an object by calculating both a score indicating the disappearance or appearance of an object from the first data to the second data, and a score indicating the disappearance or appearance of an object from the second data to the first data.
以下、図面を参照して本発明の実施の形態を詳細に説明する。以下、本発明の実施の形態として、入力画像内に写っている人物の所持物の有無の変化を推定する変化検出器を構築する変化検出器学習装置2と、変化検出器学習装置2で作成された変化検出器を用いて、所定の空間を撮影した画像に写った人物の所持物の変化を検出し、検出結果を報知する画像監視装置1を説明する。なお、本実施の形態では変化検出の対象物を人の所持物とする例を説明するが、本発明は、什器の有無の変化としてもよい。変化検出器学習装置2は、学習装置の一例であり、画像監視装置1は、データ変化推定装置の一例である。 Embodiments of the present invention will be described in detail below with reference to the drawings. The following describes embodiments of the present invention: a change detector learning device 2 that constructs a change detector that estimates changes in the presence or absence of belongings of people appearing in input images; and an image monitoring device 1 that uses the change detector created by the change detector learning device 2 to detect changes in the belongings of people appearing in images captured of a specified space and notify the detection results. While this embodiment describes an example in which the object of change detection is a person's belongings, the present invention may also detect changes in the presence or absence of furniture. The change detector learning device 2 is an example of a learning device, and the image monitoring device 1 is an example of a data change estimation device.
<変化検出器学習装置の構成>
本発明の実施の形態に係る変化検出器学習装置は、事前に用意した学習データを用いて、変化検出器を学習する装置である。
<Configuration of the Change Detector Learning Device>
The change detector learning device according to the embodiment of the present invention is a device that learns a change detector using learning data prepared in advance.
変化検出器学習装置は、CPU(Central Processing Unit)と、GPU(Graphics Processing Unit)と、RAM(Random Access Memory)と、後述する学習処理ルーチンを実行するためのプログラムや各種データを記憶したROM(Read Only Memory)と、を含むコンピュータで構成することが出来る。図1に変化検出器学習装置2のブロック図を示す。変化検出器学習装置2は、機能的には、図1に示すように、学習データ記憶手段20、変化検出器学習手段21、及び学習済みモデル記憶手段22を備えている。 The change detector training device can be configured as a computer including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), RAM (Random Access Memory), and a ROM (Read Only Memory) that stores programs and various data for executing the training processing routine described below. Figure 1 shows a block diagram of the change detector training device 2. As shown in Figure 1, the change detector training device 2 functionally comprises a training data storage means 20, a change detector training means 21, and a trained model storage means 22.
(学習データ記憶手段20)
学習データ記憶手段20には、過去画像セットから現在画像セットへの変化であって、画像が表す所持物の消失及び出現である特定の変化を示す学習データが記憶されている。
(Learning data storage means 20)
The learning data storage means 20 stores learning data indicating specific changes from a past image set to a current image set, such as the disappearance and appearance of possessions represented by the images.
具体的には、学習データ記憶手段20には、学習データとして、多数の変化の過去画像セット、現在画像セットと、変化情報(出現の有無、消失の有無)とが格納されている。学習データの過去画像が第1データ及び第3データの一例であり、学習データの現在画像が第2データ及び第4データの一例である。これらの学習データは次のように作られる。まず、ある人物を多視点から撮影し、各視点の動画の異なる2つの時刻t1,t2(t1<t2)から人物領域を抽出する。時刻t1の画像セットを過去画像セットとし、過去画像セットと同一人物を撮影した時刻t2の画像セットを現在画像セットとする。時刻t1での人物が見えている視点数がN1、時刻t2で人物が見えている視点数をN2とすると、過去画像セットはN1枚の画像、現在画像セットはN2枚の画像となる。人物領域の抽出は、既存の人物検出器などを用いて、人物の全身領域を包含する矩形領域を切り抜くことで行う。切り抜かれた画像は、所定の画像サイズにリサイズする。そして、時刻t1と時刻t2の間での同一人物の所持物の変化情報を、この過去画像セットと現在画像セットと紐づけて保持しておく。 Specifically, the training data storage means 20 stores a large number of past image sets of changes, a current image set, and change information (appearance or disappearance) as training data. The past images in the training data are examples of first and third data, and the current image in the training data is an example of second and fourth data. This training data is created as follows: First, a person is photographed from multiple viewpoints, and the person area is extracted from the video of each viewpoint at two different times t1 and t2 (t1<t2). The image set at time t1 is designated as the past image set, and the image set at time t2, which captures the same person as in the past image set, is designated as the current image set. If the number of viewpoints from which the person is visible at time t1 is N1 and the number of viewpoints from which the person is visible at time t2 is N2, then the past image set will consist of N1 images, and the current image set will consist of N2 images. The person area is extracted by using an existing person detector or similar to cut out a rectangular area encompassing the person's entire body. The cut-out image is then resized to a specified image size. Information on changes in the possessions of the same person between time t1 and time t2 is then linked to this past image set and current image set and stored.
2つの画像を比較したときの所持物の変化には、4つの状態(消失のみ、出現のみ、消失と出現の同時、変化なし)がある。それに対して、アノテーションとしては以下のものがあれば表現できる。 When comparing two images, there are four possible states for changes in possessions (disappearance only, appearance only, simultaneous disappearance and appearance, and no change). These can be expressed as annotations using the following:
・過去にはあったものが現在なくなっているかどうか:消失物の有無
・過去にはなくて、現在に新たに出現したものがあるか:出現物の有無
-Whether something that existed in the past is no longer there: Presence of lost objects -Whether something that did not exist in the past but has now appeared: Presence of new objects
これらの例を図2に示す。図2(a)のように、過去画像には所持物がなく、現在画像に所持物がある場合、所持物の変化としては(消失物なし、出現物あり)となる。逆に図2(b)のように、過去画像に所持物があり、現在画像には所持物がない場合、これは(消失物あり、出現物なし)となる。また、図2(c)のように、撮影された人物が所持物を持ち替えたなどの理由で過去画像と現在画像に異なる所持物がある場合、これは(消失物あり、出現物あり)となり、所持物の入れ替わりを示す。 Examples of this are shown in Figure 2. As in Figure 2(a), if there are no possessions in the past image but there are possessions in the current image, the change in possessions will be (no lost item, new item). Conversely, as in Figure 2(b), if there are possessions in the past image but no possessions in the current image, this will be (lost item, no new item). Also, as in Figure 2(c), if there are different possessions in the past and current images because the person photographed has changed possessions, this will be (lost item, new item), indicating a change in possessions.
この消失物の有無、及び出現物の有無の情報を二つのバイナリ値(消失物・出現物がある場合は1、ない場合は0)で表現し、過去画像セットから現在画像セットへの変化情報として保持する。 The information on whether or not an object has disappeared and whether or not an object has appeared is represented by two binary values (1 if an object has disappeared or appeared, 0 if it has not), and is stored as change information from the past image set to the current image set.
なお、過去画像セットと現在画像セットは、同一人物であれば、同じ場所で撮影されたものでよいし、異なる場所で撮影されたものでもよい。以上の手順を、様々な人物、様々な所持物の変化の動画に対して行い、過去画像セット、現在画像セット、及び変化情報を多数作成したものを、学習データとして学習データ記憶手段20に格納しておく。 Note that the past image set and the current image set may be taken in the same location, or in different locations, as long as they are of the same person. The above procedure is performed on videos of various people and changes in various possessions, and a large number of past image sets, current image sets, and change information are created and stored as learning data in the learning data storage means 20.
(変化検出器学習手段21)
変化検出器学習手段21は、学習データ記憶手段20から過去画像セット、現在画像セット、及び変化情報である複数の学習データを読み込み、変化検出器の学習を行い、得られた変化検出器を学習済みモデル記憶手段22に格納する。図3に変化検出器学習手段21のブロック図を示す。変化検出器は、モデルの一例である。変化検出器学習手段21は、変化検出器30、及び学習部31にて構成される。
(Change detector learning means 21)
The change detector learning means 21 reads multiple pieces of learning data, which are a past image set, a current image set, and change information, from the learning data storage means 20, learns a change detector, and stores the resulting change detector in the learned model storage means 22. Figure 3 shows a block diagram of the change detector learning means 21. The change detector is an example of a model. The change detector learning means 21 is composed of a change detector 30 and a learning unit 31.
(変化検出器30)
変化検出器30は、過去画像セット及び現在画像セットを入力とし、それらの画像セット間での所持物の変化の確率値を出力するニューラルネットワークであり、特徴マップ抽出部40、候補領域推定部41、個別特徴抽出部42、個別スコア算出部43、個別スコア損失算出部44、全体特徴抽出部45、全体スコア算出部46、全体スコア損失算出部47、及び対象尤度蒸留損失算出部48にて構成される。
(Change Detector 30)
The change detector 30 is a neural network that takes a past image set and a current image set as input and outputs a probability value of changes in belongings between those image sets, and is composed of a feature map extraction unit 40, a candidate area estimation unit 41, an individual feature extraction unit 42, an individual score calculation unit 43, an individual score loss calculation unit 44, an overall feature extraction unit 45, an overall score calculation unit 46, an overall score loss calculation unit 47, and a target likelihood distillation loss calculation unit 48.
ここで、全体特徴抽出部45、全体スコア算出部46、全体スコア損失算出部47、対象尤度蒸留損失算出部48は、主に候補領域推定部41の学習の安定化のために用いられる。そのため、これらと個別スコア損失算出部44と学習部31は学習時のみ用いられ、推論時には使われない。 Here, the overall feature extraction unit 45, overall score calculation unit 46, overall score loss calculation unit 47, and target likelihood distillation loss calculation unit 48 are mainly used to stabilize the learning of the candidate region estimation unit 41. Therefore, these, the individual score loss calculation unit 44, and the learning unit 31 are used only during learning, and are not used during inference.
(特徴マップ抽出部40)
特徴マップ抽出部40は、画像を入力として特徴マップを抽出する。具体的には、特徴マップ抽出部40は、畳み込み処理、ReLU関数(活性化関数)、pooling処理等にて構成されるCNN(Convolutional Neural Networks)である。本実施の形態では特徴マップ抽出部40のネットワーク構造としてResNetを利用する。特徴マップ抽出部40は、入力された過去画像セット、現在画像セットのそれぞれのセットの画像ごとに、ResNetに入力する。そして、ResNetの最終出力である特徴マップとResNet内部での中間結果のいくつかの特徴マップとを合わせて、Nf個の特徴マップを出力する。これらの特徴マップは、縦、横、チャネルの次元をもつ3次元数値列の形式をしている。ResNetで算出される特徴マップはそれぞれ縦幅、横幅が異なるが、バイリニア補間などを用いて、縦横が大きく解像度が最も高い特徴マップに合わせて、他の特徴マップをリサイズする。
(Feature map extraction unit 40)
The feature map extraction unit 40 extracts feature maps from input images. Specifically, the feature map extraction unit 40 is a convolutional neural network (CNN) configured using convolution processing, a ReLU function (activation function), pooling processing, and the like. In this embodiment, ResNet is used as the network structure of the feature map extraction unit 40. The feature map extraction unit 40 inputs each image from the input past image set and current image set into ResNet. The feature map that is the final output of ResNet is then combined with several feature maps that are intermediate results within ResNet to output Nf feature maps. These feature maps are in the form of a three-dimensional numerical sequence with dimensions of height, width, and channel. The feature maps calculated by ResNet have different heights and widths, but the other feature maps are resized to fit the feature map with the largest height and width and the highest resolution using bilinear interpolation or the like.
(候補領域推定部41)
候補領域推定部41は、特徴マップから、対象領域推定モデルを用いて、所持物を表す対象領域らしさを示す尤度のマップである初期対象尤度マップを推定する。具体的には、候補領域推定部41で用いる対象領域推定モデルは、畳み込み処理、ReLU関数(活性化関数)などで構成されるCNNである。候補領域推定部41は、特徴マップ抽出部40で算出された特徴マップを用いて、過去画像セット、現在画像セットのそれぞれのセットの画像ごとに初期対象尤度マップを算出し、それを出力する。本実施の形態では、複数ある特徴マップのうち、ResNetから出力された特徴マップにて縦横が大きく解像度が最も高かった特徴マップを入力し、畳み込み処理、ReLU関数、畳み込み処理という構成のネットワーク構造を用いて、対象尤度マップを算出する。算出された初期対象尤度マップは対象らしさを表し、より対象らしければ値が大きくなる。
(Candidate area estimation unit 41)
The candidate area estimation unit 41 uses an object area estimation model to estimate an initial object likelihood map, which is a map of likelihood indicating the object area representing a possession, from the feature map. Specifically, the object area estimation model used by the candidate area estimation unit 41 is a CNN configured with convolution processing, a ReLU function (activation function), and the like. Using the feature map calculated by the feature map extraction unit 40, the candidate area estimation unit 41 calculates and outputs an initial object likelihood map for each image in each set of past and current images. In this embodiment, among multiple feature maps, the feature map output from ResNet that is large in length and width and has the highest resolution is input, and an object likelihood map is calculated using a network structure configured with convolution processing, a ReLU function, and another convolution processing. The calculated initial object likelihood map represents the object likelihood, and the more object-like it is, the larger the value.
(個別特徴抽出部42)
個別特徴抽出部42は、対象領域抽出部49及び個別特徴ベクトル抽出部52から構成される。個別特徴ベクトル抽出部52は、過去画像セット、現在画像セットのそれぞれのセットの画像ごとに、複数の対象領域の各々から抽出された特徴量ベクトルを個別特徴ベクトルとして出力する。
(Individual feature extraction unit 42)
The individual feature extraction unit 42 is composed of a target region extraction unit 49 and an individual feature vector extraction unit 52. The individual feature vector extraction unit 52 outputs, as an individual feature vector, a feature vector extracted from each of a plurality of target regions for each image in the past image set and the current image set.
(個別特徴抽出部42の対象領域抽出部49)
対象領域抽出部49は、初期対象尤度マップから、複数の対象領域を抽出する。具体的には、対象領域抽出部49は、対象領域用対象マップ正規化部50及び対象領域分割部51から構成される。
(Target region extraction unit 49 of individual feature extraction unit 42)
The object region extracting unit 49 extracts a plurality of object regions from the initial object likelihood map. Specifically, the object region extracting unit 49 is composed of an object region object map normalizing unit 50 and an object region dividing unit 51.
(対象領域抽出部49の対象領域用対象マップ正規化部50)
対象領域用対象マップ正規化部50は、正規化された初期対象尤度マップを算出する。具体的には、対象領域用対象マップ正規化部50は、候補領域推定部41で算出された初期対象尤度マップに対して次式のように、各ピクセルの値が0から1の値となるように正規化する。
wi,j=sigmoid(αxi,j+β)
(Target region object map normalization unit 50 of target region extraction unit 49)
The target region object map normalization unit 50 calculates a normalized initial target likelihood map. Specifically, the target region object map normalization unit 50 normalizes the initial target likelihood map calculated by the candidate region estimation unit 41 so that the value of each pixel falls within the range from 0 to 1, as shown in the following equation.
w i,j = sigmoid(αx i,j +β)
ここで、sigmoid( )はシグモイド関数、xi,jは初期対象尤度マップの座標(i,j)の値、α、βはスケール係数、バイアス係数である。スケール係数αとバイアス係数βは学習にて求める。ただし、事前に定めた固定の値にしてもよい。正規化された初期対象尤度マップは対象らしさを表し、より対象らしければ値が1に近づく。対象領域用対象マップ正規化部50はこの正規化された初期対象尤度マップを、sigmoid正規化対象尤度マップとして出力する。 Here, sigmoid() is a sigmoid function, x i,j is the value of the coordinate (i,j) of the initial object likelihood map, and α and β are a scale coefficient and a bias coefficient. The scale coefficient α and bias coefficient β are determined by learning. However, they may also be set to fixed values determined in advance. The normalized initial object likelihood map represents the likelihood of an object, and the more likely it is to be an object, the closer the value is to 1. The object map normalization unit for object region 50 outputs this normalized initial object likelihood map as a sigmoid-normalized object likelihood map.
(対象領域抽出部49の対象領域分割部51)
対象領域分割部51は、特徴マップ抽出部40で算出される特徴マップを用いて、対象領域用対象マップ正規化部50で算出されるsigmoid正規化対象尤度マップを逐次的に切り出すように個別の対象領域に分割し、分割した対象領域を対象尤度部分マップとして出力する。対象尤度部分マップは、sigmoid正規化対象尤度マップと同じ幅、高さで0以上の値をもつ重みマップの形式である。
(Target area division unit 51 of target area extraction unit 49)
The object region dividing unit 51 uses the feature map calculated by the feature map extracting unit 40 to divide the sigmoid-normalized object likelihood map calculated by the object region object map normalizing unit 50 into individual object regions so as to sequentially cut out the map, and outputs the divided object regions as object likelihood partial maps. The object likelihood partial map is in the form of a weight map having the same width and height as the sigmoid-normalized object likelihood map and values greater than or equal to 0.
具体的には、対象領域分割部51は、図4Aに示すように、位置尤度マップ算出部70、アピアランス尤度マップ算出部71、対象尤度マップ算出部72、及び変更部73から構成される。 Specifically, as shown in FIG. 4A, the object region segmentation unit 51 is composed of a position likelihood map calculation unit 70, an appearance likelihood map calculation unit 71, an object likelihood map calculation unit 72, and a modification unit 73.
(対象領域分割部51の位置尤度マップ算出部70)
位置尤度マップ算出部70は、まず、対象領域用対象マップ正規化部50で算出されたsigmoid正規化対象尤度マップを初期対象尤度マップとする。また、位置尤度マップ算出部70は、初期対象尤度マップから位置尤度マップを算出する。
(Position likelihood map calculation unit 70 of object region division unit 51)
The position likelihood map calculation unit 70 first sets the sigmoid normalized object likelihood map calculated by the object region object map normalization unit 50 as an initial object likelihood map. The position likelihood map calculation unit 70 also calculates a position likelihood map from the initial object likelihood map.
(対象領域分割部51のアピアランス尤度マップ算出部71)
アピアランス尤度マップ算出部71は、特徴マップ及び初期対象尤度マップからアピアランスの尤度マップを算出する。具体的には、アピアランス尤度マップ算出部71は、初期対象尤度マップを重みとして特徴マップから平均特徴量を算出し、特徴マップから、平均特徴量に対応する特徴量である尤度を表すアピアランスの尤度マップを算出する。
(Appearance Likelihood Map Calculation Unit 71 of Object Region Segmentation Unit 51)
The appearance likelihood map calculation unit 71 calculates an appearance likelihood map from the feature map and the initial target likelihood map. Specifically, the appearance likelihood map calculation unit 71 calculates an average feature amount from the feature map using the initial target likelihood map as a weight, and calculates an appearance likelihood map from the feature map, which indicates the likelihood of the feature amount corresponding to the average feature amount.
(対象領域分割部51の対象尤度マップ算出部72)
対象尤度マップ算出部72は、初期対象尤度マップと、位置尤度マップと、アピアランスの尤度マップとから、対象尤度マップを算出する。
(Object likelihood map calculation unit 72 of object region division unit 51)
The object likelihood map calculation unit 72 calculates an object likelihood map from the initial object likelihood map, the position likelihood map, and the appearance likelihood map.
(対象領域分割部51の変更部73)
変更部73は、対象尤度マップが表す対象領域を、対象領域の抽出結果として記録すると共に、対象領域の尤度を所定値に変更するように、初期対象尤度マップを変更する。
(Modification unit 73 of target area division unit 51)
The modifying unit 73 records the target region represented by the target likelihood map as the extraction result of the target region, and modifies the initial target likelihood map so as to change the likelihood of the target region to a predetermined value.
上記の位置尤度マップ算出部70による算出、アピアランス尤度マップ算出部71による算出、対象尤度マップ算出部72による算出、及び変更部73による変更を繰り返すことにより、複数の対象領域が抽出される。 By repeating the calculations by the position likelihood map calculation unit 70, the calculations by the appearance likelihood map calculation unit 71, the calculations by the object likelihood map calculation unit 72, and the modifications by the modification unit 73, multiple object regions are extracted.
(対象領域分割部51の動作)
図4Bは対象領域分割部51の動作に関する概略のフロー図である。また、ここで説明のために、対象領域分割部に入力されるsigmoid正規化対象尤度マップwi,jを初期対象尤度マップwi,j|τ=0と呼ぶ。
(Operation of the target area dividing unit 51)
4B is a schematic flow diagram regarding the operation of the object region dividing unit 51. For the sake of explanation, the sigmoid normalized object likelihood map w i,j input to the object region dividing unit will be referred to as the initial object likelihood map w i,j|τ=0 .
まず、位置尤度マップ算出部70は、初期対象尤度マップから、位置尤度マップを算出する(ステップSA0)。 First, the position likelihood map calculation unit 70 calculates a position likelihood map from the initial target likelihood map (step SA0).
具体的には、まず初期対象尤度マップを重みとして次式のようにピクセル位置の重心μ、共分散行列Cを求めてから、それらを用いて位置尤度マップを求める。
Specifically, first, the center of gravity μ of the pixel position and the covariance matrix C are calculated using the initial target likelihood map as weights as shown in the following equations, and then the position likelihood map is calculated using these.
ここで、pi,jは座標i,jの位置ベクトルでpi,j=[i,j]、Mi,j locは位置尤度マップの座標i,jの値、K,qは距離を制御するためのパラメータである。ここで、q=2,K=1とすると、位置尤度マップは、ガウス分布のように、なだらかな勾配を持つ重みマップになるが、本実施の形態ではq=6,K=πとする。これにより、重みマップの勾配がより急峻となり、対象と背景がより分離しやすくなる。 Here, p i,j is the position vector of coordinates i and j, p i,j = [i,j], M i,j loc is the value of coordinates i and j in the position likelihood map, and K and q are parameters for controlling the distance. Here, if q = 2 and K = 1, the position likelihood map becomes a weight map with a gentle gradient like a Gaussian distribution, but in this embodiment, q = 6 and K = π. This makes the gradient of the weight map steeper, making it easier to separate the object from the background.
次に、アピアランス尤度マップ算出部71は、特徴マップ及び初期対象尤度マップからアピアランス尤度マップを算出する(ステップSA1)。 Next, the appearance likelihood map calculation unit 71 calculates an appearance likelihood map from the feature map and the initial target likelihood map (step SA1).
具体的には、次式のように、初期対象尤度マップを重みとして平均特徴ベクトル ̄h(オーバーバー付きh)を求め、それとの類似度マップを算出することでアピアランス尤度マップを求める。
Specifically, as shown in the following equation, the initial target likelihood map is used as a weight to find the average feature vector h (h with an overbar), and the similarity map with this is calculated to find the appearance likelihood map.
ここで、hi,jは特徴マップの座標i,jの特徴ベクトル、Mi,j featはアピアランス尤度マップの座標i,jの値である。 Here, h i,j is the feature vector at coordinates i,j of the feature map, and M i,j feat is the value at coordinates i,j of the appearance likelihood map.
次に、対象尤度マップ算出部72は、初期対象尤度マップ、位置尤度マップ、及びアピアランス尤度マップを用いて、次式にて新たな対象尤度マップを算出する(ステップSA2)。
Next, the object likelihood map calculation unit 72 calculates a new object likelihood map using the initial object likelihood map, the position likelihood map, and the appearance likelihood map according to the following equation (step SA2).
ここでSpSoftmaxij( )は空間方向のsoftmax関数であり、
である。また、TSpSoftmaxは事前に設定した温度パラメータである。
where SpSoftmax ij ( ) is the softmax function in the spatial direction,
Furthermore, T SpSoftmax is a preset temperature parameter.
次に、反復終了条件を満たすか否かを判定する(ステップSA3)。反復終了条件を満たしていない場合には、上記ステップSA0に戻り、新たに算出した対象尤度マップwi,j|τ=1を用いて、位置尤度マップ、アピアランス尤度マップを算出し、それをもとに対象尤度マップwi,j|τ=2を算出する(ステップSA0~SA2)。 Next, it is determined whether the iteration termination condition is satisfied (step SA3). If the iteration termination condition is not satisfied, the process returns to step SA0, and the newly calculated object likelihood map w i,j|τ=1 is used to calculate a position likelihood map and an appearance likelihood map, and then the object likelihood map w i,j|τ=2 is calculated based on these (steps SA0 to SA2).
反復終了条件を満たした場合には、最終的な対象尤度マップwi,j|τ=Tを、出力する対象尤度部分マップのひとつとして出力用のリストなどに保持しておく(ステップSA3、ステップSA4)。 If the iteration termination condition is met, the final target likelihood map w i,j|τ=T is stored in an output list or the like as one of the target likelihood partial maps to be output (step SA3, step SA4).
なお、反復終了条件としては、例えば、対象尤度マップwi,j|τの変動量が事前に定めた閾値よりも小さくなったか否かや、事前に定めた反復回数に達したか否かなどを用いることができる。 The iteration termination condition may be, for example, whether the amount of change in the target likelihood map w i,j|τ has become smaller than a predetermined threshold value, or whether a predetermined number of iterations has been reached.
上記の処理では、位置尤度マップとアピアランス尤度マップの二種類の尤度マップを用いて領域を抽出しているため、抽出される領域は、位置が近接していて、特徴が似ている(画像では見た目が似ている)領域である。また反復処理によって、位置や特徴がより似た領域に集約されていき、所持物領域の抽出精度を向上させることができる。 In the above process, regions are extracted using two types of likelihood maps: a position likelihood map and an appearance likelihood map. Therefore, the extracted regions are regions that are close in location and have similar features (similar appearance in the image). Furthermore, through iterative processing, regions with more similar locations and features are aggregated, improving the accuracy of extraction of possession regions.
次に、変更部73は、初期対象尤度マップwi,j|τ=0から対象尤度マップwi,j|τ=Tの領域を取り除き、初期対象尤度マップの当該領域の値を所定の値に更新する(ステップSA5)。初期対象尤度マップwi,j|τ=0から対象尤度マップwi,j|τ=Tの領域を取り除いて所定の値に変更する方法には、例えば、次式のように、閾値以上の領域を取り除いて所定の値に変更する方法などを用いることができる。 Next, the modification unit 73 removes the region of the target likelihood map w i,j|τ =T from the initial target likelihood map w i,j|τ =0 and updates the value of that region of the initial target likelihood map to a predetermined value (step SA5). As a method of removing the region of the target likelihood map w i,j|τ= T from the initial target likelihood map w i,j|τ =0 and changing it to a predetermined value, for example, a method of removing a region equal to or greater than a threshold and changing it to a predetermined value, as shown in the following equation, can be used.
ここで、γは事前に定めたスケール係数である。
where γ is a predetermined scale factor.
そして、反復終了条件を満たすか否かを判定する(ステップSA6)。反復終了条件を満たしていない場合には、上記ステップSA0に戻り、新たに算出したwi,j|τ=0 newを新しい初期対象尤度マップwi,j|τ=0とし、上記の処理を繰り返すことで、対象尤度部分マップを複数抽出する(ステップSA0~SA5)。 Then, it is determined whether the iteration termination condition is satisfied (step SA6). If the iteration termination condition is not satisfied, the process returns to step SA0, and the newly calculated w i,j|τ=0 new is set as a new initial target likelihood map w i,j|τ=0 , and the above process is repeated to extract multiple target likelihood partial maps (steps SA0 to SA5).
反復終了条件を満たした場合には、対象領域分割部51はこれらを対象尤度部分マップとして出力する(ステップSA6、ステップSA7)。 If the iteration termination condition is met, the target region segmentation unit 51 outputs these as a target likelihood partial map (step SA6, step SA7).
なお、反復終了条件としては、例えば、新たに算出したwi,j|τ=0 newで閾値以上であるピクセルの数が事前に定めた閾値よりも小さくなったか否かや、事前に定めた反復回数に達したか否かなどを用いることができる。 The iteration termination condition may be, for example, whether the number of pixels in the newly calculated w i,j|τ=0 new that are equal to or greater than the threshold value has become smaller than a predetermined threshold value, or whether a predetermined number of iterations has been reached.
上記の処理によって、対象尤度部分マップという形で対象尤度マップを複数領域に分割している。これにより、画像内に複数の所持物が存在していても、所持物ごとに領域を抽出できる。そのため、後述の個別特徴ベクトル抽出部52で、それぞれの所持物領域の特徴量を混じることなく抽出することができ、変化検出の精度を向上させることができる。 The above process divides the object likelihood map into multiple regions in the form of an object likelihood partial map. This makes it possible to extract a region for each item, even if there are multiple items in the image. As a result, the individual feature vector extraction unit 52, described below, can extract the features of each item region without mixing them, improving the accuracy of change detection.
(個別特徴抽出部42の個別特徴ベクトル抽出部52)
個別特徴ベクトル抽出部52は、対象領域分割部51で算出された対象尤度部分マップごとに、特徴ベクトルを算出し、個別特徴ベクトルとして出力する。特徴ベクトルは対象部分マップを重みとした特徴マップの重み付き平均によって算出し、また、特徴マップ抽出部40にて算出された複数の特徴マップごとに特徴ベクトルを求める。具体的には次式によって求める。
ここで、wr,i,jはr番目の対象部分マップの座標i,jの値、hf,i,jはf番目の特徴マップの座標i,jの特徴ベクトルである。
(Individual feature vector extraction unit 52 of individual feature extraction unit 42)
The individual feature vector extraction unit 52 calculates a feature vector for each object likelihood partial map calculated by the object region division unit 51 and outputs it as an individual feature vector. The feature vector is calculated by taking a weighted average of the feature maps, with the object partial map used as the weight, and the feature vector is calculated for each of the multiple feature maps calculated by the feature map extraction unit 40. Specifically, it is calculated using the following equation:
Here, w r,i,j is the value of coordinates i,j of the r-th target partial map, and h f,i,j is the feature vector of coordinates i,j of the f-th feature map.
(個別スコア算出部43)
個別スコア算出部43は、複数の対象領域の各々について、当該対象領域の特徴ベクトルに基づいて個別スコアを算出する。
(Individual score calculation unit 43)
The individual score calculation unit 43 calculates an individual score for each of the plurality of target regions based on the feature vector of the target region.
具体的には、過去画像セットの対象領域と、現在画像セットの対象領域との組み合わせの各々について、個別特徴抽出部42で算出された過去画像セットの対象領域の個別特徴ベクトル、現在画像セットの対象領域の個別特徴ベクトルが入力されると、スコア算出部53及びスコア統合部54を通して、個別スコアを統合した統合個別スコアを算出する。 Specifically, for each combination of a target area in the past image set and a target area in the current image set, the individual feature vectors of the target area in the past image set calculated by the individual feature extraction unit 42 and the individual feature vectors of the target area in the current image set are input, and the individual scores are integrated via the score calculation unit 53 and the score integration unit 54 to calculate an integrated individual score.
(個別スコア算出部43のスコア算出部53)
スコア算出部53は、過去画像セットの対象領域と、現在画像セットの対象領域との組み合わせの各々について、過去画像セットの対象領域の個別特徴ベクトルと、現在画像セットの対象領域の個別特徴ベクトルとを所定の順に、スコア算出器に入力して、過去画像セットから現在画像セットへの所持物の消失である変化を示す個別スコアを算出し、所持物の消失を示す消失スコアとする。具体的には、過去画像セット、現在画像セットの個別特徴ベクトルの様々な組み合わせで個別スコアを算出する。例えば、過去画像セットの対象領域と、現在画像セットの対象領域との組み合わせ、及び過去画像セットの画像と、現在画像セットの画像との組み合わせで、個別スコアを算出する。
(Score calculation unit 53 of individual score calculation unit 43)
For each combination of a target area in the past image set and a target area in the current image set, the score calculation unit 53 inputs the individual feature vector of the target area in the past image set and the individual feature vector of the target area in the current image set into the score calculator in a predetermined order to calculate an individual score indicating a change in the amount of a lost possession from the past image set to the current image set, which is a loss score indicating the loss of the possession. Specifically, the individual scores are calculated for various combinations of the individual feature vectors of the past image set and the current image set. For example, the individual scores are calculated for combinations of a target area in the past image set and a target area in the current image set, and for combinations of an image in the past image set and an image in the current image set.
図5にスコア算出部53のブロック図を示す。スコア算出部53はNf個のスコア算出器60(特徴マップ数と同じ数)を用いる。まずスコア算出器60に過去画像の特徴ベクトル、現在画像の特徴ベクトルの全組合せで、個別スコアを算出し、消失スコア(過去画像と現在画像を比較して、過去には所持していたものが、現在はなくなっている可能性を表すスコア)とする。具体的には次式のようになる。
ここで、calcScoref( , )はf番目の特徴マップのためのスコア算出器60、hf,i1,r1
t1はi1番目の過去画像のf番目の特徴マップのr1番目の部分領域から算出された特徴ベクトル、hf,i2,r2
t2はi2番目の現在画像のf番目の特徴マップのr2番目の部分領域から算出された特徴ベクトル、sf,i1,i2,r1,r2
disappearはそれらから算出された消失スコアである。
5 shows a block diagram of the score calculation unit 53. The score calculation unit 53 uses Nf score calculators 60 (the same number as the number of feature maps). First, the score calculator 60 calculates individual scores for all combinations of feature vectors of past images and feature vectors of the current image, and sets the scores as loss scores (scores that represent the possibility that something that was previously present may no longer exist, when comparing the past and current images). Specifically, this is expressed as follows:
Here, calcScore f (, ) is the score calculator 60 for the f-th feature map, h f,i1,r1 t1 is the feature vector calculated from the r1-th subregion of the f-th feature map of the i1-th past image, h f,i2,r2 t2 is the feature vector calculated from the r2-th subregion of the f-th feature map of the i2-th current image, and s f,i1,i2,r1,r2 disappear is the disappearance score calculated from them.
次にスコア算出部53は、同じスコア算出器60を用いて、スコア算出器60に特徴ベクトルを(上記の消失スコアの算出の場合と)逆順に入力することで、現在画像セットから過去画像セットへの所持物の消失である変化、すなわち、過去画像セットから現在画像セットへの所持物の出現である変化を示す個別スコアを算出し、出現スコア(過去画像と現在画像を比較して、過去にはなかったものが、現在では新たに出現している可能性を表すスコア)とする。例えば、消失スコアの算出時に過去画像の特徴ベクトル、現在画像の特徴ベクトルの順にスコア算出器60に入力したならば、出現スコアの算出では現在画像の特徴ベクトル、過去画像の特徴ベクトルの順にスコア算出器60に入力する。具体的には次式のようになる。
Next, the score calculation unit 53 uses the same score calculator 60 to input the feature vectors to the score calculator 60 in the reverse order (as in the calculation of the disappearance score described above) to calculate an individual score indicating a change in the disappearance of an item from the current image set to the past image set, i.e., a change in the appearance of an item from the past image set to the current image set, and uses this as an appearance score (a score that indicates the possibility that something that was not present in the past has now appeared, by comparing the past image with the current image). For example, if the feature vector of the past image and the feature vector of the current image are input to the score calculator 60 in this order when calculating the disappearance score, then the feature vector of the current image and the feature vector of the past image are input to the score calculator 60 in this order when calculating the appearance score. Specifically, this is expressed as follows:
スコア算出器60は、ニューラルネットワークによって構成される。図6に本実施の形態のスコア算出器60のブロック図を示す。スコア算出器60には第一特徴ベクトル、第二特徴ベクトルが入力され、それぞれに共通の共通変換部61を施し、そしてそれらを非対称な演算を施し、最後にスコア化処理によって、個別スコア(消失スコアまたは出現スコア)を算出する。具体的にこれらは次式のようになる。 The score calculator 60 is composed of a neural network. Figure 6 shows a block diagram of the score calculator 60 of this embodiment. The first feature vector and the second feature vector are input to the score calculator 60, which then applies a common common conversion unit 61 to each of them, performs asymmetric calculations on them, and finally calculates an individual score (disappearance score or appearance score) through a scoring process. Specifically, these are expressed as follows:
共通変換部61:
非対称演算部62:
スコア化処理部63:s=sigmoid(FC(v))
Common conversion unit 61:
Asymmetric calculation unit 62:
Scoring processing unit 63: s = sigmoid(FC(v))
ここで、h1は第一特徴ベクトル、h2は第二特徴ベクトル、L( )は全結合処理やReLU関数などで構成される共通変換部61、h1’及びh2’はD次元ベクトル、FC( )は全結合処理、sigmoid( )はsigmoid関数である。なお、本実施の形態の例では、vはスカラー値であるのでFC( )は実質的にスケール係数α、バイアス係数βによる線形変換αv+βとなる。 Here, h1 is the first feature vector, h2 is the second feature vector, L() is the common conversion unit 61 configured with full connection processing and the ReLU function, h1 ' and h2 ' are D-dimensional vectors, FC() is the full connection processing, and sigmoid() is the sigmoid function. Note that in this embodiment, since v is a scalar value, FC() is essentially a linear transformation αv+β with a scale coefficient α and a bias coefficient β.
非対称演算部62は、第一特徴ベクトルから第二特徴ベクトルを減算し、ReLU関数によって閾値処理し、それらの要素の平均値を出力する。 The asymmetric calculation unit 62 subtracts the second feature vector from the first feature vector, performs threshold processing using the ReLU function, and outputs the average value of those elements.
ここで、本実施の形態のスコア算出器60の利点を説明する。画像を比較する従来手法としてSiamese Networkがある。これは、二つの画像を入力とし画像の距離を算出するニューラルネットワークである。 Here, we will explain the advantages of the score calculator 60 of this embodiment. A conventional method for comparing images is the Siamese Network. This is a neural network that takes two images as input and calculates the distance between them.
一方、変化検出というタスクでは変化検出器30に入力する画像の順番によって出力すべき値が異なる。例えば、図2(a)では現在画像のみ所持物があるため変化検出器30は(消失物なし、出現物あり)と出力することが望まれる。一方、図2(a)の過去画像と現在画像を入れ替えると図2(b)になるが、このとき変化検出器30は(消失物あり、出現物なし)と出力することが望まれ、これは図2(a)とは異なる。この非対称性を実現するには、上記のスコア算出器60では、calcScore(h1,h2)とcalcScore(h2,h1)で異なる値を出力できることが必要となる。 On the other hand, in the task of change detection, the value to be output differs depending on the order of images input to the change detector 30. For example, in Figure 2(a), only the current image contains an object, so it is desirable for the change detector 30 to output (no disappeared object, appeared object). On the other hand, if the past image and current image in Figure 2(a) are swapped, it becomes Figure 2(b), in which case it is desirable for the change detector 30 to output (disappeared object, no appeared object), which is different from Figure 2(a). To achieve this asymmetry, the score calculator 60 described above needs to be able to output different values for calcScore(h1, h2) and calcScore(h2, h1).
しかしながら、前述のSiamese Networkでは画像の順番を変えて入力しても出力される距離は変わらないため、このような非対称性は実現できない。 However, in the aforementioned Siamese Network, the output distance does not change even if the order of images is changed when they are input, so this type of asymmetry cannot be achieved.
本実施の形態のスコア算出器60では、減算という非対称性がある演算を利用することで、calcScore(h1,h2)とcalcScore(h2,h1)で異なる値を出力でき、非対称性を実現でき、変化検出の精度を向上させることができる。 In this embodiment, the score calculator 60 uses subtraction, an asymmetric operation, to output different values for calcScore(h1, h2) and calcScore(h2, h1), thereby achieving asymmetry and improving the accuracy of change detection.
(個別スコア算出部43のスコア統合部54)
スコア統合部54は、過去画像セットから現在画像セットへの所持物の消失である変化を示す個別スコアの最大値、最小値、又は平均値を統合個別スコアとして算出し、現在画像セットから過去画像セットへの所持物の消失、すなわち、過去画像セットから現在画像セットへの所持物の出現である変化を示す個別スコアの最大値、最小値、又は平均値を統合個別スコアとして算出する。
(Score integration unit 54 of individual score calculation unit 43)
The score integration unit 54 calculates the maximum, minimum, or average value of the individual scores indicating a change, which is the disappearance of an item from the past image set to the current image set, as an integrated individual score, and calculates the maximum, minimum, or average value of the individual scores indicating a change, which is the disappearance of an item from the current image set to the past image set, i.e., the appearance of an item from the past image set to the current image set, as an integrated individual score.
具体的には、スコア統合部54は、スコア算出部53で様々な組合せで算出された消失スコア、出現スコアをそれぞれ統合し、統合個別スコアとして出力する。スコア統合部54は、対象領域ごと、画像ごとの順にスコアを統合していく。特徴マップについては変化検出器学習装置2ではスコア統合をせず、個別スコア損失算出部44にてそれぞれで損失を算出する。 Specifically, the score integration unit 54 integrates the disappearance scores and appearance scores calculated by the score calculation unit 53 for various combinations, and outputs the integrated individual score. The score integration unit 54 integrates scores for each target region and then for each image. For feature maps, the change detector learning device 2 does not integrate scores, and the individual score loss calculation unit 44 calculates the loss for each.
消失スコアの対象領域ごとの統合について説明する。まず過去画像の対象領域ごとに、現在画像の対象領域の中から最も変化がない対象領域のスコア(最小スコア)を選択する。これは最も似た所持物を表す対象領域を対応付けることに相当する。次に、過去画像の対象領域の中から最も変化がある対象領域のスコア(最大スコア)を選択する。これにより、最も変化したと判定された対象領域のスコアが選択される。これは次式のように書ける。
We will now explain how to integrate the loss scores for each target area. First, for each target area in the past image, the score of the target area with the least change (smallest score) is selected from the target areas in the current image. This is equivalent to matching the target area that represents the most similar possession. Next, the score of the target area with the most change (largest score) is selected from the target areas in the past image. This selects the score of the target area that is determined to have changed the most. This can be written as follows:
消失スコアの画像ごとのスコア統合は、対象領域ごとのスコア統合と同様に次式のように行う。
The integration of the disappearance scores for each image is performed as in the case of the integration of the scores for each target region, as shown in the following equation.
出現スコアの統合は消失スコアのスコア統合と同様に、次式のように行う。
対象領域軸のスコア統合:
画像軸のスコア統合:
The integration of the appearance scores is performed in the same manner as the integration of the disappearance scores, as shown in the following equation.
Score integration of target area axis:
Image axis score integration:
スコア統合部54は、上記の手順で得られた特徴マップごとの消失スコアsf disappear、出現スコアsf appearを統合個別スコアとして出力する。 The score integration unit 54 outputs the disappearance score s f disappear and the appearance score s f appear for each feature map obtained by the above procedure as an integrated individual score.
(個別スコア損失算出部44)
個別スコア損失算出部44は、個別スコア算出部43で算出された統合個別スコアと学習データである変化情報(消失物あり・なし、出現物あり・なし)を用いて損失を算出する。具体的には、次式のように特徴マップごとの消失スコア、出現スコアごとに誤差を算出し、その総和を個別スコア損失として出力する。
(Individual score loss calculation unit 44)
The individual score loss calculation unit 44 calculates a loss using the integrated individual score calculated by the individual score calculation unit 43 and change information (whether a disappeared object is present or absent, and whether an appeared object is present or absent) that is learning data. Specifically, it calculates an error for each disappearance score and each appearance score for each feature map as shown in the following equation, and outputs the sum of these as the individual score loss.
ここで、sf disappear、sf appearは個別スコア算出部43で算出された統合個別スコア、tdisappearは消失物の有無を示すバイナリ値、tappearは出現物の有無を示すバイナリ値、CE( )は交差エントロピー誤差関数である。 Here, s f disappear and s f appear are the integrated individual scores calculated by the individual score calculation unit 43, t disappear is a binary value indicating the presence or absence of a disappeared object, t appear is a binary value indicating the presence or absence of an appeared object, and CE( ) is the cross entropy error function.
個別スコア損失算出部44はLpartialを個別スコア損失として出力する。 The individual score loss calculation unit 44 outputs L partial as the individual score loss.
(全体特徴抽出部45)
全体特徴抽出部45は、全体領域用対象マップ正規化部55、全体特徴ベクトル抽出部56から構成される。全体特徴ベクトル抽出部56は、過去画像セット、現在画像セットのそれぞれのセットの画像ごとに、対象尤度マップを用いて抽出された特徴量ベクトルを全体特徴ベクトルとして出力する。
(Global feature extraction unit 45)
The global feature extraction unit 45 is composed of a global region object map normalization unit 55 and a global feature vector extraction unit 56. The global feature vector extraction unit 56 outputs, as a global feature vector, a feature vector extracted using the object likelihood map for each image in the past image set and the current image set.
(全体特徴抽出部45の全体領域用対象マップ正規化部55)
全体領域用対象マップ正規化部55は、候補領域推定部41で算出された初期対象尤度マップに対して、各ピクセルの値の総和が1なるようにSpSoftmaxij( )にて正規化し、それをsoftmax正規化対象マップとして出力する。
(Global region object map normalization unit 55 of global feature extraction unit 45)
The entire region object map normalization unit 55 normalizes the initial object likelihood map calculated by the candidate region estimation unit 41 using SpSoftmax ij ( ) so that the sum of the values of each pixel becomes 1, and outputs it as a softmax normalized object map.
(全体特徴抽出部45の全体特徴ベクトル抽出部56)
全体特徴ベクトル抽出部56は、全体領域用対象マップ正規化部55で算出されたsoftmax正規化対象マップを重みとした特徴マップの重み付き平均によって特徴ベクトルを算出し、全体特徴ベクトルとして出力する。個別特徴ベクトル抽出部52と同様に、特徴マップ抽出部40にて算出された複数の特徴マップごとに特徴ベクトルを求める。具体的には次式によって求める。
ここで、wi,jはsoftmax正規化対象マップの座標i,jの値、hf,i,jはf番目の特徴マップの座標i,jの特徴ベクトルである。
(Global feature vector extraction unit 56 of global feature extraction unit 45)
Global feature vector extraction unit 56 calculates a feature vector by taking a weighted average of the feature maps, using the softmax normalized object map calculated by global region object map normalization unit 55 as a weight, and outputs the result as a global feature vector. As with individual feature vector extraction unit 52, a feature vector is calculated for each of the multiple feature maps calculated by feature map extraction unit 40. Specifically, the calculation is performed using the following equation:
Here, w i,j is the value of coordinates i,j of the softmax normalization target map, and h f,i,j is the feature vector of coordinates i,j of the f-th feature map.
(全体スコア算出部46)
全体スコア算出部46は、全体特徴抽出部45で算出された過去画像セット、現在画像セットの全体特徴ベクトルが入力されると、スコア算出部57及びスコア統合部58を通して、変化検出のスコアを算出する。
(Overall score calculation unit 46)
When the global feature vectors of the past image set and the current image set calculated by the global feature extraction unit 45 are input, the global score calculation unit 46 calculates a change detection score through the score calculation unit 57 and the score integration unit 58.
(全体スコア算出部46のスコア算出部57)
全体スコア算出部46のスコア算出部57は、個別スコア算出部43のスコア算出部53と同様に、過去画像セット、現在画像セットの全体特徴ベクトルの様々な組合せで全体スコアを算出する。スコア算出部57はNf個のスコア算出器60(特徴マップ数と同じ数)を用い、次のように消失スコア、出現スコアを算出する。
ここで、calcScoref( , )はf番目の特徴マップのためのスコア算出器60、hi1
t1はi1番目の過去画像のf番目の特徴マップから算出された全体特徴ベクトル、hi2
t2はi2番目の現在画像のf番目の特徴マップから算出された全体特徴ベクトル、sf,i1,i2
disappear、sf,i2,i1
appearはそれらから算出された消失スコア、出現スコアである。全体スコア算出部46のスコア算出部57で用いるスコア算出器60は、ニューラルネットワークで構成され、全体スコア算出部46のスコア算出部57と同じ構造である。
(Score calculation unit 57 of overall score calculation unit 46)
The score calculation unit 57 of the overall score calculation unit 46 calculates an overall score using various combinations of the overall feature vectors of the past image set and the current image set, similar to the score calculation unit 53 of the individual score calculation unit 43. The score calculation unit 57 uses Nf score calculators 60 (the same number as the number of feature maps) to calculate disappearance scores and appearance scores as follows:
Here, calcScore f (, ) is the score calculator 60 for the f-th feature map, h i1 t1 is the global feature vector calculated from the f-th feature map of the i1-th past image, h i2 t2 is the global feature vector calculated from the f-th feature map of the i2-th current image, and s f,i1,i2 disappear and s f,i2,i1 appear are the disappearance score and appearance score calculated therefrom. The score calculator 60 used in the score calculation unit 57 of the overall score calculation unit 46 is configured by a neural network and has the same structure as the score calculation unit 57 of the overall score calculation unit 46.
(全体スコア算出部46のスコア統合部58)
全体スコア算出部46のスコア統合部58は、過去画像セットから現在画像セットへの所持物の消失である変化を示す全体スコアの最大値、最小値、又は平均値を統合全体スコアとして算出し、現在画像セットから過去画像セットへの所持物の消失、すなわち、過去画像セットから現在画像セットへの所持物の出現である変化を示す全体スコアの最大値、最小値、又は平均値を統合全体スコアとして算出する。
(Score integration unit 58 of overall score calculation unit 46)
The score integration unit 58 of the overall score calculation unit 46 calculates the maximum, minimum, or average value of the overall score indicating a change that is the disappearance of a possession from the past image set to the current image set as the integrated overall score, and calculates the maximum, minimum, or average value of the overall score indicating a change that is the disappearance of a possession from the current image set to the past image set, i.e., the appearance of a possession from the past image set to the current image set, as the integrated overall score.
具体的には、スコア統合部58は、スコア算出部57で様々な組合せで算出された消失スコア、出現スコアをそれぞれ統合し、統合全体スコアとして出力する。本スコア統合部58は、画像ごとでのみスコアを統合していく。特徴マップについては変化検出器学習装置2ではスコア統合をせず、全体スコア損失算出部47にてそれぞれで損失を算出する。 Specifically, the score integration unit 58 integrates the disappearance scores and appearance scores calculated for various combinations by the score calculation unit 57, and outputs the integrated overall score. This score integration unit 58 integrates scores only for each image. For feature maps, the change detector learning device 2 does not integrate scores, and the overall score loss calculation unit 47 calculates the loss for each.
統合方法は、個別スコア算出部43のスコア統合部54と同様であり、具体的には次式のようになる。
消失スコアのスコア統合:
出現スコアのスコア統合:
The integration method is the same as that of the score integration unit 54 of the individual score calculation unit 43, and specifically, is as follows:
Score integration of disappearance scores:
Score integration of occurrence scores:
スコア統合部58は、上記の手順で得られた特徴マップごとの消失スコアsf disappear、出現スコアsf appearを統合全体スコアとして出力する。 The score integration unit 58 outputs the disappearance score s f disappear and the appearance score s f appear for each feature map obtained by the above procedure as an integrated overall score.
(全体スコア損失算出部47)
全体スコア損失算出部47は、個別スコア損失算出部44と同様に、全体スコア算出部46で算出された統合全体スコアと学習データである変化情報(消失あり・なし、出現あり・なし)とに基づいて、全体スコア損失を算出する。具体的には、次式のように特徴マップごとの消失スコア、出現スコアごとに誤差を算出し、その総和を全体スコア損失として出力する。
(Total score loss calculation unit 47)
Similar to the individual score loss calculation unit 44, the overall score loss calculation unit 47 calculates the overall score loss based on the integrated overall score calculated by the overall score calculation unit 46 and the change information (with or without disappearance, with or without appearance) that is the learning data. Specifically, the overall score loss calculation unit 47 calculates the error for each disappearance score and appearance score for each feature map as shown in the following equation, and outputs the sum of these as the overall score loss.
ここで、sf disappear、sf appearは全体スコア算出部46で算出された統合全体スコア、tdisappearは消失物の有無を示すバイナリ値、tappearは出現物の有無を示すバイナリ値、CE( )は交差エントロピー誤差関数である。全体スコア損失算出部47はLwholeを全体スコア損失として出力する。 where s f disappear and s f appear are the integrated overall scores calculated by the overall score calculation unit 46, t disappear is a binary value indicating whether an object has disappeared, t appear is a binary value indicating whether an object has appeared, and CE( ) is a cross-entropy error function. The overall score loss calculation unit 47 outputs L whole as the overall score loss.
ここで、学習時に全体特徴抽出部45などを用いる利点について述べる。まず、本実施の形態では、候補領域推定部41などのパラメータは乱数で初期化されるため、学習初期段階では、候補領域推定部41で算出される対象尤度マップもあらゆる領域で抽出される場合が多く、所持物領域にのみ出るとは限らない。また、候補領域に関する学習データは与えず、変化検出器の学習を通じて自動的に候補領域推定部41を学習させるため、候補領域推定部41の学習は不安定になりやすい。 Here, we will discuss the advantages of using the global feature extraction unit 45 and other units during learning. First, in this embodiment, parameters for the candidate area estimation unit 41 and other units are initialized with random numbers, so in the early stages of learning, the target likelihood map calculated by the candidate area estimation unit 41 is often extracted from all areas and does not necessarily appear only in the possession area. Furthermore, because no learning data related to candidate areas is provided and the candidate area estimation unit 41 is trained automatically through training of the change detector, the learning of the candidate area estimation unit 41 is prone to instability.
さらに、個別特徴ベクトル抽出部52の処理は反復処理などを利用し、ニューラルネットワークが深くなるため、候補領域推定部41まで損失が伝播しづらく、学習がさらに安定しないという課題がある。 Furthermore, the processing of the individual feature vector extraction unit 52 uses iterative processing, etc., which makes the neural network deep, making it difficult for losses to propagate to the candidate region estimation unit 41, which further reduces the stability of learning.
そこで、本実施の形態では、全体特徴ベクトル抽出部56でのsoftmax正規化対象マップによる重み付き平均というシンプルな処理を通じて、変化検出問題を解かせ、その損失を候補領域推定部41などに伝播させ、候補領域推定部41の学習が促進される。これにより、候補領域推定部41などの学習を安定させることができる。 In this embodiment, the change detection problem is solved through a simple process of weighted averaging using a softmax normalized target map in the global feature vector extraction unit 56, and the resulting loss is propagated to the candidate area estimation unit 41, etc., thereby facilitating the learning of the candidate area estimation unit 41, etc. This makes it possible to stabilize the learning of the candidate area estimation unit 41, etc.
(対象尤度蒸留損失算出部48)
対象尤度蒸留損失算出部48は、対象領域用対象マップ正規化部50で算出されるsigmoid正規化対象尤度マップと全体領域用対象マップ正規化部55で算出されるsoftmax正規化対象マップで類似度を測り、対象尤度蒸留損失を出力する。これにより、学習中に対象領域用対象マップ正規化部50で用いるスケール係数、バイアス係数が過大な値、過小な値となりsigmoid正規化対象尤度マップが対象尤度として不適当なマップになるのを防ぐことができる。
(Target likelihood distillation loss calculation unit 48)
Object likelihood distillation loss calculation unit 48 measures the similarity between the sigmoid-normalized object likelihood map calculated by object region object map normalization unit 50 and the softmax-normalized object map calculated by entire region object map normalization unit 55, and outputs the object likelihood distillation loss. This prevents the scale coefficient and bias coefficient used in object region object map normalization unit 50 from becoming excessively large or small during learning, resulting in the sigmoid-normalized object likelihood map becoming an inappropriate map for object likelihood.
対象尤度蒸留損失は、具体的には次式のように求める。
ここで、wi,j
sigはsigmoid正規化対象尤度マップの座標i,jの値、wi,j
smはsoftmax正規化対象マップの座標i,jの値である。
Specifically, the target likelihood distillation loss is calculated as follows:
Here, wi ,j sig is the value of coordinate i,j in the sigmoid normalized target likelihood map, and wi ,j sm is the value of coordinate i,j in the softmax normalized target map.
また本実施の形態では学習のために誤差逆伝播法を用いるが、その際に、softmax正規化対象マップに対しては誤差情報を伝播させず、sigmoid正規化対象尤度マップに対してのみ、誤差情報を伝播させる。これにより、対象領域用対象マップ正規化部50で用いるスケール係数、バイアス係数の学習をより安定化させることができる。 In addition, in this embodiment, the error backpropagation method is used for learning, but in this case, error information is not propagated to the softmax normalized object map, but is propagated only to the sigmoid normalized object likelihood map. This makes it possible to more stabilize the learning of the scale coefficients and bias coefficients used in the object region object map normalization unit 50.
(学習部31)
学習部31は、全体スコアと学習データとから計算される損失、及び個別スコアと学習データとから計算される損失に基づいて、特徴マップ抽出部40、候補領域推定部41、全体特徴抽出部45、全体スコア算出部46、個別特徴抽出部42、及び個別スコア算出部43を含む変化検出器30を学習する。
(Learning unit 31)
The learning unit 31 learns the change detector 30, which includes a feature map extraction unit 40, a candidate area estimation unit 41, an overall feature extraction unit 45, an overall score calculation unit 46, an individual feature extraction unit 42, and an individual score calculation unit 43, based on the loss calculated from the overall score and the learning data, and the loss calculated from the individual scores and the learning data.
また、学習部31は、全体特徴抽出部45で求められる正規化された対象尤度マップと、個別特徴抽出部42で求められる正規化された対象尤度マップとから計算される損失を更に用いて、変化検出器30の全体特徴抽出部45及び個別特徴抽出部42を学習する。 The learning unit 31 also uses the loss calculated from the normalized object likelihood map obtained by the global feature extraction unit 45 and the normalized object likelihood map obtained by the individual feature extraction unit 42 to train the global feature extraction unit 45 and the individual feature extraction unit 42 of the change detector 30.
より具体的には、学習部31は、個別スコア損失算出部44で算出される個別スコア損失Lpartial、全体スコア損失算出部47で算出される全体スコア損失Lwhole、対象尤度蒸留損失算出部48で算出される対象尤度蒸留損失Lsimの3つの損失の和L=Lpartial+Lwhole+Lsimを最小化するように、変化検出器30のパラメータを更新する。 More specifically, the learning unit 31 updates the parameters of the change detector 30 so as to minimize the sum L = L partial + L whole + L sim of three losses: the individual score loss L partial calculated by the individual score loss calculation unit 44, the overall score loss L whole calculated by the overall score loss calculation unit 47, and the target likelihood distillation loss L sim calculated by the target likelihood distillation loss calculation unit 48.
損失の最小化には確率的勾配法を用いる。確率的勾配法による学習では、最初に特徴マップ抽出部40、候補領域推定部41、対象領域用対象マップ正規化部50、個別スコア算出部43のスコア算出部53、全体スコア算出部46のスコア算出部57のパラメータをランダムな数値などで初期化しておく。その後上記の損失をもとに誤差逆伝播法にてパラメータの勾配を算出し、その勾配をもとにパラメータを更新する。変化検出器学習装置2は、上記の学習データ読み込み、損失算出、パラメータの更新の処理を繰り返していくことで、変化検出器30の学習を行う。反復終了条件としては、例えば、損失の変動量が事前に定めた閾値よりも小さくなったか否かや、事前に定めた反復回数に達したか否かなどを用いることができる。 A stochastic gradient method is used to minimize the loss. In learning using the stochastic gradient method, the parameters of the feature map extraction unit 40, candidate region estimation unit 41, target region object map normalization unit 50, score calculation unit 53 of the individual score calculation unit 43, and score calculation unit 57 of the overall score calculation unit 46 are first initialized with random values, etc. Then, the gradient of the parameters is calculated using the backpropagation method based on the loss, and the parameters are updated based on this gradient. The change detector learning device 2 learns the change detector 30 by repeating the above processes of reading training data, calculating the loss, and updating the parameters. The iteration termination condition can be, for example, whether the amount of change in loss has become smaller than a predetermined threshold, or whether a predetermined number of iterations has been reached.
学習部31は、上述した変化検出器30の学習において、過去画像セットの個別特徴ベクトルと、現在画像セットの個別特徴ベクトルとを所定の順にスコア算出器60に入力して、過去画像セットから現在画像セットへの所持物の消失である変化を示す個別スコアを算出し、かつ、過去画像セットの個別特徴ベクトルと、現在画像セットの個別特徴ベクトルとを逆順にスコア算出器60に入力し、過去画像セットから現在画像セットへの所持物の出現である変化を示す個別スコアを算出するように、スコア算出器60を学習する。 In training the change detector 30 described above, the learning unit 31 trains the score calculator 60 to input the individual feature vectors of the past image set and the current image set in a predetermined order to calculate an individual score indicating a change in the form of the disappearance of an item from the past image set to the current image set, and to input the individual feature vectors of the past image set and the current image set in the reverse order to calculate an individual score indicating a change in the form of the appearance of an item from the past image set to the current image set.
また、学習部31は、上述した変化検出器30の学習において、過去画像セットの全体特徴ベクトルと、現在画像セットの全体特徴ベクトルとを所定の順にスコア算出器60に入力して、過去画像セットから現在画像セットへの所持物の消失である変化を示す全体スコアを算出し、かつ、過去画像セットの全体特徴ベクトルと、現在画像セットの全体特徴ベクトルとを逆順にスコア算出器60に入力し、過去画像セットから現在画像セットへの所持物の出現である変化を示す全体スコアを算出するように、スコア算出器60を学習する。 Furthermore, in the training of the change detector 30 described above, the learning unit 31 trains the score calculator 60 to input the global feature vector of the past image set and the global feature vector of the current image set in a predetermined order to calculate an overall score indicating a change in the form of the disappearance of an item from the past image set to the current image set, and to input the global feature vector of the past image set and the global feature vector of the current image set in the reverse order to calculate an overall score indicating a change in the form of the appearance of an item from the past image set to the current image set.
変化検出器学習装置2は、最終的に求まった変化検出器30のパラメータを、ネットワーク構造などと共に学習済みモデルとして、学習済みモデル記憶手段22に格納する。 The change detector learning device 2 stores the finally determined parameters of the change detector 30, along with the network structure, etc., as a learned model in the learned model storage means 22.
[画像監視装置の構成]
画像監視装置は、所定の空間を撮影した画像に写った人物の所持物の変化を検出し、検出結果を報知する装置である。
[Configuration of image monitoring device]
An image monitoring device is a device that detects changes in belongings of people captured in an image of a predetermined space and notifies the user of the detection results.
画像監視装置は、CPUと、GPUと、RAMと、後述する画像監視処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。図7に画像監視装置1のブロック図を示す。画像監視装置1は、機能的には、図7に示すように、画像取得手段10、画像保持手段11、検出手段12、表示手段13、及び学習済みモデル記憶手段14を備えている。 The image monitoring device can be configured as a computer including a CPU, GPU, RAM, and ROM that stores programs and various data for executing the image monitoring processing routine described below. Figure 7 shows a block diagram of the image monitoring device 1. As shown in Figure 7, the image monitoring device 1 functionally comprises an image acquisition means 10, an image storage means 11, a detection means 12, a display means 13, and a trained model storage means 14.
画像取得手段10は、所定の空間を異なる視点で撮影している複数の監視カメラからカラー画像を取得し、その画像を画像保持手段11へ出力する。 The image acquisition means 10 acquires color images from multiple surveillance cameras capturing images of a specified space from different viewpoints, and outputs the images to the image storage means 11.
画像保持手段11は、既存の人物検知器などを用いて、入力された画像から人物領域を矩形状に切り抜き、撮影時刻の情報とともに、順次保持していく。保持していく際に、既存の顔認証技術や人物同定技術などを用いて、既に保持している画像と同一人物かどうかを判定する。同一人物であればそれらの画像を紐づけて、人物IDと共に保持しておく。異なる一定以上離れた二つの時刻で同一人物の画像が一定数以上保持されている場合、画像保持手段11は、それらの画像を時刻で分け、時刻が古い画像を過去画像セット、時刻が新しい画像を現在画像セットとして、人物IDとともに出力する。なお、現在時刻より一定以上古くなった画像は破棄される。 The image storage means 11 uses an existing person detector or similar device to cut out rectangular person areas from input images and stores them sequentially along with information on the time of capture. As it stores these images, it uses existing face recognition technology and person identification technology to determine whether they are the same person as images already stored. If they are the same person, the images are linked and stored along with the person ID. If there are more than a certain number of images of the same person stored at two different times that are more than a certain distance apart, the image storage means 11 separates the images by time, and outputs the older images as the past image set and the newer images as the current image set, along with the person ID. Images that are more than a certain distance older than the current time are discarded.
学習済みモデル記憶手段14には、予め変化検出器学習装置2で得られた学習済み変化検出器が記憶されている。 The trained model storage means 14 stores trained change detectors obtained in advance by the change detector training device 2.
検出手段12は、まず学習済みモデル記憶手段14から学習済み変化検出器を読みこむ。次に、画像保持手段11から過去画像セット、現在画像セット、人物IDが入力されると、変化検出器を用いて、変化の確率値を推定する。図8に画像監視装置1での変化検出器130のブロック図を示す。なお、変化検出器学習装置2での変化検出器30と同様の構成となる部分については、同一符号を付して詳細な説明を省略する。過去画像が第1データの一例であり、現在画像が第2データの一例である。 The detection means 12 first reads the trained change detector from the trained model storage means 14. Next, when the past image set, current image set, and person ID are input from the image storage means 11, the change detector is used to estimate the probability value of change. Figure 8 shows a block diagram of the change detector 130 in the image monitoring device 1. Note that parts with the same configuration as the change detector 30 in the change detector training device 2 are assigned the same reference numerals and detailed explanations will be omitted. The past image is an example of the first data, and the current image is an example of the second data.
まず、検出手段12に入力された過去画像セット、現在画像セットは、特徴マップ抽出部40に入力され、各画像の特徴マップを出力する。 First, the past image set and current image set input to the detection means 12 are input to the feature map extraction unit 40, which outputs a feature map for each image.
候補領域推定部41は、特徴マップを用いて、初期対象尤度マップを出力する。個別特徴抽出部42は、各画像の特徴マップと対象尤度マップが入力されると、対象領域抽出部49及び個別特徴ベクトル抽出部52を通じて各画像の個別特徴ベクトルを算出し、それを出力する。 The candidate region estimation unit 41 uses the feature map to output an initial target likelihood map. When the feature map and target likelihood map for each image are input, the individual feature extraction unit 42 calculates and outputs the individual feature vectors for each image via the target region extraction unit 49 and the individual feature vector extraction unit 52.
対象領域抽出部49は、対象領域用対象マップ正規化部50、対象領域分割部51を通じて、各画像から複数の対象領域を抽出し、対象領域を対象尤度部分マップとして出力する。 The target region extraction unit 49 extracts multiple target regions from each image through the target region target map normalization unit 50 and the target region segmentation unit 51, and outputs the target regions as target likelihood partial maps.
個別スコア算出部43は、スコア算出部53及びスコア統合部54を通じて個別統合変化スコアを算出する。 The individual score calculation unit 43 calculates the individual integrated change score via the score calculation unit 53 and the score integration unit 54.
スコア算出部53は、過去画像セットの個別特徴ベクトルと、現在画像セットの個別特徴ベクトルとを所定の順に、スコア算出器60に入力して、過去画像セットから現在画像セットへの所持物の消失である変化を示す個別スコアを算出し、消失スコアとする。 The score calculation unit 53 inputs the individual feature vectors of the past image set and the current image set into the score calculator 60 in a predetermined order, and calculates an individual score indicating the change in the loss of an item from the past image set to the current image set, which is the loss score.
スコア算出部53は、スコア算出器60を用いて、スコア算出器60に特徴ベクトルを逆順に入力することで、過去画像セットから現在画像セットへの所持物の出現である変化を示す個別スコアを算出し、出現スコアとする。 The score calculation unit 53 uses the score calculator 60 to input the feature vectors to the score calculator 60 in reverse order to calculate individual scores that indicate changes in the appearance of possessions from the past image set to the current image set, and uses these as appearance scores.
なお、スコア算出部53は、更に、消失スコアと、出現スコアと、を用いて、変化なしを示すスコアと、所持物の入れ替わりを示すスコアとを算出するようにしてもよい。例えば、消失スコアと、出現スコアとの双方が小さいほど、変化なしを示すスコアが大きくなるように算出し、消失スコアと、出現スコアとの双方が大きいほど、所持物の入れ替わりを示すスコアが大きくなるように算出する。 The score calculation unit 53 may further use the disappearance score and the appearance score to calculate a score indicating no change and a score indicating a change in belongings. For example, the score calculation may be such that the smaller both the disappearance score and the appearance score are, the larger the score indicating no change, and the larger both the disappearance score and the appearance score are, the larger the score indicating a change in belongings.
また、画像監視装置1でのスコア統合部54は、変化検出器学習装置2のスコア統合部54のスコア統合処理に加え、特徴量ごとのスコアも統合する。例えば、過去画像セットの対象領域と、現在画像セットの対象領域との組み合わせ毎の個別スコアを統合し、過去画像セットの画像と、現在画像セットの画像との組み合わせ毎の個別スコアを統合し、特徴マップ毎の個別スコアを統合する。したがって、スコア統合処理は次式のようになる。 Furthermore, the score integration unit 54 in the image monitoring device 1 integrates scores for each feature amount in addition to the score integration process of the score integration unit 54 in the change detector learning device 2. For example, it integrates the individual scores for each combination of a target area in the past image set and a target area in the current image set, integrates the individual scores for each combination of an image in the past image set and an image in the current image set, and integrates the individual scores for each feature map. Therefore, the score integration process is as follows:
対象領域軸でのスコア統合:
画像軸のスコア統合:
特徴量軸のスコア統合:
Score integration on the target area axis:
Image axis score integration:
Feature axis score integration:
消失スコアsdisappear、出現スコアsappearはそれぞれ消失らしさの確率値、出現らしさの確率値であり、これらを個別スコア算出部43は個別スコアとして出力する。 The disappearance score s disappear and the appearance score s appear are probability values of disappearance likelihood and appearance likelihood, respectively, and the individual score calculation unit 43 outputs these as individual scores.
検出手段12は、算出された個別スコアを検出結果として、過去画像セット、現在画像セット、人物IDなどともに出力する。 The detection means 12 outputs the calculated individual scores as detection results, along with the past image set, current image set, person ID, etc.
表示手段13は、変化の検出結果や過去画像セット、現在画像セット、人物IDをディスプレイに表示するなどする。 The display means 13 displays the change detection results, past image set, current image set, and person ID on a display.
[変化検出器学習装置2の動作]
図9は変化検出器学習装置2の動作に関する学習処理ルーチンのフロー図である。
[Operation of change detector learning device 2]
FIG. 9 is a flow diagram of a learning processing routine related to the operation of the change detector learning device 2.
当該学習の動作が開始されると、変化検出器学習装置2は、変化検出器30を予め定めたネットワーク構造に設定し、そのネットワークのパラメータをランダムな数値等で初期化する(ステップS10)。 When the learning operation begins, the change detector learning device 2 sets the change detector 30 to a predetermined network structure and initializes the network parameters with random values, etc. (step S10).
変化検出器学習装置2は、学習データ記憶手段20から、学習データとして、過去画像セット、現在画像セット、及び変化情報を読み込む(ステップS11)。 The change detector learning device 2 reads the past image set, the current image set, and change information as learning data from the learning data storage means 20 (step S11).
変化検出器学習装置2は、変化検出器学習手段21にて、過去画像セット、現在画像セットを変化検出器30に入力して、確率値である個別スコアを算出し、それと学習データである変化情報を用いて損失を算出する(ステップS12)。 The change detector learning device 2 inputs the past image set and the current image set into the change detector 30 using the change detector learning means 21, calculates an individual score, which is a probability value, and calculates the loss using this and the change information, which is the learning data (step S12).
変化検出器学習装置2は、変化検出器学習手段21にて、算出した損失をもとに誤差逆伝播法で各パラメータの勾配を求め、その勾配を用いて、確率的勾配法にて各パラメータを更新する(ステップS13)。 The change detector learning device 2 uses the change detector learning means 21 to calculate the gradient of each parameter using the backpropagation algorithm based on the calculated loss, and then uses this gradient to update each parameter using the stochastic gradient algorithm (step S13).
変化検出器学習装置2は、反復終了条件が満たされているかを判定する(ステップS14)。反復終了条件が満たされた場合は変化検出器30を学習済みモデル記憶手段22に格納し(ステップS15)、終了する。反復終了条件が満たされない場合は反復終了条件が満たされるまでステップS11からステップS14の動作を反復する。反復終了条件は、例えば、誤差の変動量が事前に定めた閾値よりも小さくなったか否かや、事前に定めた反復回数に達したか否かなどを用いることができる。 The change detector learning device 2 determines whether the iteration termination condition is met (step S14). If the iteration termination condition is met, the change detector 30 is stored in the trained model storage means 22 (step S15) and the process ends. If the iteration termination condition is not met, the operations of steps S11 to S14 are repeated until the iteration termination condition is met. The iteration termination condition can be, for example, whether the amount of error variation has become smaller than a predetermined threshold value, or whether a predetermined number of iterations has been reached.
[画像監視装置1の動作]
図10は画像監視装置1の動作に関する画像監視処理ルーチンのフロー図である。
[Operation of image monitoring device 1]
FIG. 10 is a flow chart of an image monitoring processing routine relating to the operation of the image monitoring device 1.
動作が開始されると、画像監視装置1は、学習済みモデル記憶手段14から変化検出器130の学習済みモデルを読み込む(ステップS20)。 When operation begins, the image monitoring device 1 reads the trained model of the change detector 130 from the trained model storage means 14 (step S20).
続いて、画像監視装置1は、画像取得手段10によりカラー画像を取得する(ステップS21)。取得した撮影画像は画像保持手段11に送信される。 Next, the image monitoring device 1 acquires a color image using the image acquisition means 10 (step S21). The acquired captured image is sent to the image storage means 11.
画像監視装置1は、画像保持手段11にて、受信した撮影画像から、人物領域を切り抜き、保持している画像と同一人物かを判定し、同一人物であればそれらの画像を紐づけて、人物IDと共に保持しておく(ステップS22)。 The image monitoring device 1 uses the image storage means 11 to cut out the person area from the received captured image, determine whether it is the same person as the image stored, and if so, link the images together and store them together with the person's ID (step S22).
次に、出力する画像があるか否かを判定する(ステップS23)。異なる一定以上離れた二つの時刻で同一人物の画像が一定数以上保持されている場合、出力する画像があると判定し、画像保持手段11は、それらの画像を時刻で分け、時刻が古い画像を過去画像セット、時刻が新しい画像を現在画像セットとして、人物IDとともに出力する。出力する画像がない場合、画像取得手段10による画像の取得(ステップS21)に戻る。 Next, it is determined whether there are any images to output (step S23). If a certain number or more images of the same person are stored at two different times that are at least a certain distance apart, it is determined that there are images to output, and the image storage means 11 separates these images by time, outputting older images as a past image set and newer images as a current image set together with the person's ID. If there are no images to output, the process returns to image acquisition by the image acquisition means 10 (step S21).
検出手段12にて、受信した過去画像セット、現在画像セットを変化検出器130に入力して検出処理の結果として個別スコアである消失スコア及び出現スコアを求め、それを過去画像セット、現在画像セット、人物IDと共に表示手段13に出力する(ステップS24)。 The detection means 12 inputs the received past image set and current image set into the change detector 130, and as a result of the detection process, individual scores, namely, disappearance scores and appearance scores, are calculated, and these scores are output to the display means 13 together with the past image set, current image set, and person ID (step S24).
画像監視装置1は、表示手段13にて、取得した画像と検出結果をディスプレイに表示する(ステップS25)。そして、監視員が表示された検出結果を視認して状況を判断し、異常があれば必要に応じて対処員を派遣する。 The image monitoring device 1 displays the acquired image and detection results on the display using the display means 13 (step S25). The monitor then visually checks the displayed detection results to assess the situation, and if an abnormality is detected, dispatches a response officer as necessary.
認識結果を表示後、画像取得手段10による画像の取得(ステップS21)に戻り、画像監視装置1を停止するまで、動作を続ける。 After displaying the recognition result, the image acquisition means 10 returns to acquiring the image (step S21), and operation continues until the image monitoring device 1 is stopped.
以上説明したように、本実施の形態に係る変化検出器学習装置及び画像監視装置によれば、初期対象尤度マップから、対象尤度マップを算出することと、対象尤度マップが表す対象領域を、対象領域の抽出結果として記録すると共に、対象領域の尤度を所定値に変更するように、初期対象尤度マップを変更することを繰り返す。これにより、対象領域の数が任意であっても、複数の対象領域を精度よく抽出することができる。 As described above, the change detector learning device and image monitoring device according to this embodiment calculate a target likelihood map from the initial target likelihood map, record the target region represented by the target likelihood map as the target region extraction result, and repeatedly modify the initial target likelihood map to change the likelihood of the target region to a predetermined value. This makes it possible to accurately extract multiple target regions, even if the number of target regions is arbitrary.
また、本実施の形態に係る学習装置によれば、全体スコアと学習データとから計算される損失、及び個別スコアと学習データとから計算される損失に基づいて、変化検出器を学習する。このように、対象領域の数が任意であっても、複数の対象領域を精度よく抽出する変化検出器を学習することができる。 Furthermore, with the learning device according to this embodiment, a change detector is trained based on the loss calculated from the overall score and training data, and the loss calculated from the individual scores and training data. In this way, even if the number of target regions is arbitrary, it is possible to train a change detector that can accurately extract multiple target regions.
また、本実施の形態に係る変化検出器学習装置によれば、過去画像セットの特徴ベクトルと、現在画像セットの特徴ベクトルとを所定の順にスコア算出器に入力して、過去画像セットから現在画像セットへの所持物の消失である変化を示すスコアを算出し、かつ、過去画像セットの特徴ベクトルと、現在画像セットの特徴ベクトルとを所定の順とは逆順にスコア算出器に入力し、現在画像セットから過去画像セットへの所持物の消失である変化、すわなち、過去画像セットから現在画像セットへの所持物の出現ある変化を示すスコアを算出するように、スコア算出器を学習する。これにより、過去画像セットから現在画像セットへの所持物の消失を示すスコアと、所持物の出現を示すスコアとの双方を算出するスコア算出器を学習することができる。 Furthermore, according to the change detector learning device of this embodiment, the score calculator is trained to input the feature vectors of the past image set and the feature vectors of the current image set into a predetermined order to calculate a score indicating a change in the disappearance of an item from the past image set to the current image set, and to input the feature vectors of the past image set and the feature vectors of the current image set into the score calculator in the reverse order of the predetermined order to calculate a score indicating a change in the disappearance of an item from the current image set to the past image set, i.e., a change in the appearance of an item from the past image set to the current image set. This makes it possible to train the score calculator to calculate both a score indicating the disappearance of an item from the past image set to the current image set and a score indicating the appearance of an item.
また、本実施の形態に係るデータ変化推定装置によれば、過去画像セットの特徴ベクトルと、現在画像セットの特徴ベクトルとを所定の順にスコア算出器に入力して、過去画像セットから現在画像セットへの所持物の消失である変化を示すスコアを算出し、過去画像セットの特徴ベクトルと、現在画像セットの特徴ベクトルとを所定の順とは逆順にスコア算出器に入力し、現在画像セットから過去画像セットへの所持物の消失である変化、すわなち、過去画像セットから現在画像セットへの所持物の出現ある変化を示すスコアを算出する。これにより、簡易な構成で、過去画像セットから現在画像セットへの所持物の消失及び出現の双方を推定することができる。 Furthermore, according to the data change estimation device of this embodiment, the feature vectors of the past image set and the feature vectors of the current image set are input into a score calculator in a predetermined order to calculate a score indicating a change in the disappearance of an item from the past image set to the current image set, and the feature vectors of the past image set and the feature vectors of the current image set are input into the score calculator in the reverse order to the predetermined order to calculate a score indicating a change in the disappearance of an item from the current image set to the past image set, i.e., a change in the appearance of an item from the past image set to the current image set. This makes it possible to estimate both the disappearance and appearance of an item from the past image set to the current image set with a simple configuration.
<変形例>
なお、本発明は、上述した実施の形態の装置構成及び作用に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
<Modification>
The present invention is not limited to the device configuration and operation of the above-described embodiment, and various modifications and applications are possible within the scope of the gist of the present invention.
(変形例1)
上記の実施の形態では、データとしてカメラから撮影された画像を用いて、対象としての所持物の変化を検出する場合を例に説明したが、シーンの変化を検出する場合等にも適用できる。つまり、ある空間を撮影した過去と現在の画像から、その空間にある物がなくなったのか、新たに物が現れたのかを検出することができる。また、可視画像だけでなく熱画像や距離画像等を扱って変化検出を行うことにも適用できる。また、画像以外のデータを使った変化検出でも良い。例えば、データとしてマイクから得られた音を比較して、対象として異常音の出現又は消失を検出することにも適用できる。
(Variation 1)
In the above embodiment, an example has been described in which images captured by a camera are used as data to detect changes in belongings as a target, but the present invention can also be applied to detecting changes in a scene. That is, it is possible to detect whether an object in a space has disappeared or a new object has appeared from past and present images of the space. The present invention can also be applied to change detection using not only visible images but also thermal images, distance images, etc. Change detection can also be performed using data other than images. For example, the present invention can be applied to comparing sounds obtained from a microphone as data to detect the appearance or disappearance of abnormal sounds as a target.
(変形例2)
上記の実施の形態では、特徴マップ抽出部はニューラルネットワークで構成したが、HOG(Histograms of Oriented Gradients)特徴量、LBP(Local Binary Patterns)特徴量、色ヒストグラム等の特徴量を抽出するものとしてもよい。また、HOG特徴量とCNN特徴量の併用でもよい。
(Variation 2)
In the above embodiment, the feature map extraction unit is configured with a neural network, but it may also be configured to extract features such as HOG (Histograms of Oriented Gradients) features, LBP (Local Binary Patterns) features, color histograms, etc. Also, HOG features and CNN features may be used in combination.
(変形例3)
上記の実施の形態では複数視点で撮影した過去画像セット、現在画像セットを用いたが、単一の視点でも良い。
(Variation 3)
In the above embodiment, a past image set and a current image set taken from multiple viewpoints are used, but a single viewpoint may also be used.
また、複数視点での画像ではなく、既存の人物追跡技術等を使い、画像中の人物を追跡することによって得られる同一人物の一連の画像を画像セットとしてもよい。更に、複数視点かつ人物追跡技術を使って画像セットを構築してもよい。 In addition, instead of images taken from multiple viewpoints, an image set may be a series of images of the same person obtained by tracking a person in images using existing person tracking technology. Furthermore, an image set may be constructed using both multiple viewpoints and person tracking technology.
(変形例4)
上記の実施の形態では、候補領域推定部に対して、全体スコア損失を通じて、個別スコア損失よりも直接的に変化検出の損失を伝播させることで、候補領域推定部の学習を促していたが、それに限らない。例えば、画像内の所持物領域のマスク画像を予め準備しておき、そのマスク画像と候補領域推定部で算出される初期対象尤度マップとの誤差を学習時の損失に加え、変化検出器を学習すればよい。その場合、全体特徴抽出部、全体スコア算出部、全体スコア損失算出部、及び対象尤度蒸留損失算出部は用いなくてもよい。
(Variation 4)
In the above embodiment, the candidate area estimation unit is trained by propagating the change detection loss more directly to the candidate area estimation unit through the overall score loss rather than the individual score loss. However, this is not limited to this. For example, a mask image of the belongings area in the image may be prepared in advance, and the error between the mask image and the initial target likelihood map calculated by the candidate area estimation unit may be added to the loss during training to train the change detector. In this case, the overall feature extraction unit, overall score calculation unit, overall score loss calculation unit, and target likelihood distillation loss calculation unit may not be used.
(変形例5)
上記の実施の形態では、対象領域分割部で、反復処理による複数の対象領域への分割によって、複数の対象尤度部分マップを算出していたが、これに限らない。
(Variation 5)
In the above embodiment, the object region dividing unit calculates a plurality of object likelihood partial maps by dividing the object into a plurality of object regions through iterative processing, but the present invention is not limited to this.
例えば類似するピクセルをグルーピングしていく方法などがある。具体的にはまず、sigmoid正規化対象尤度マップにおいて3×3ピクセルといった局所領域で中心が最大となる極大点を探索し、それらをリストなどに保持しておく。次に、それらと位置、特徴量の観点に置いて一定以上類似しているピクセルをグルーピングしていく。極大点同士が類似している場合にはsigmoid正規化対象尤度マップでの値が小さい方を極大点のリストから削除する。そして、極大点と同一グループとなったピクセルを1、そうでないピクセルを0とするマスク画像を極大点ごとに作成し、対象領域分割部ではそれらを対象尤度部分マップとして出力する。 One example is a method of grouping similar pixels. Specifically, first, the sigmoid-normalized target likelihood map is searched for local maxima whose centers are largest in local regions, such as 3x3 pixels, and these are stored in a list or similar. Next, pixels that are similar to these in terms of position and features are grouped together. If two local maxima are similar, the one with the smaller value in the sigmoid-normalized target likelihood map is deleted from the list of local maxima. Then, a mask image is created for each local maxima, in which pixels in the same group as the local maxima are assigned a value of 1, and other pixels are assigned a value of 0, and the target region segmentation unit outputs these as target likelihood partial maps.
(変形例6)
上記の実施の形態では、スコア算出器として非対称演算を用いたスコア算出器を用いたが、それに限らない。例えば、異なる特徴変換を用いたスコア算出器を用いることができる。図11に、異なる特徴変換を用いたスコア算出器60Aのブロック図を示す。
(Variation 6)
In the above embodiment, a score calculator using asymmetric calculation is used as the score calculator, but this is not limiting. For example, a score calculator using a different feature transformation can be used. Figure 11 shows a block diagram of a score calculator 60A using a different feature transformation.
スコア算出器60Aには第一特徴ベクトル、第二特徴ベクトルが入力され、第一変換部61A、第二変換部61Bにより、それぞれに異なる変換処理を施し、そして対称演算部62Aにより、それらを対称な演算を施し、最後にスコア化処理部63によって、変化スコア(消失スコアまたは出現スコア)を算出する。具体的にこれらは次式のようになる。 The score calculator 60A receives the first and second feature vectors as input, and the first and second conversion units 61A and 61B perform different conversion processes on each of them. The symmetric calculation unit 62A then performs a symmetric calculation on them, and finally the scoring processing unit 63 calculates the change score (disappearance score or appearance score). Specifically, these are expressed as follows:
第一変換部61A、第二変換部61B:
対称演算部62A:
スコア化処理部63:s=sigmoid(FC(v))
First conversion unit 61A, second conversion unit 61B:
Symmetrical arithmetic unit 62A:
Scoring processing unit 63: s = sigmoid(FC(v))
ここで、h1は第一特徴ベクトル、h2は第二特徴ベクトル、L1( )、L2( )は全結合処理やReLU関数などで構成される第一変換、第二変換である。また、h1’及びh2’はD次元ベクトル、FC( )は全結合処理、sigmoid( )はsigmoid関数である。なお、本実施例では、vはスカラー値であるのでFC( )は実質的にスケール係数α、バイアス係数βによる線形変換αv+βとなる。 Here, h1 is the first feature vector, h2 is the second feature vector, L1 () and L2 () are the first and second transformations configured using a fully connected process, a ReLU function, etc. Also, h1 ' and h2 ' are D-dimensional vectors, FC() is the fully connected process, and sigmoid() is the sigmoid function. In this embodiment, since v is a scalar value, FC() is essentially a linear transformation αv+β with a scale coefficient α and a bias coefficient β.
このスコア算出器60Aでは、第一特徴ベクトル、第二特徴ベクトルに対してそれぞれ異なる変換を施すことで、非対称性を実現している。 This score calculator 60A achieves asymmetry by applying different transformations to the first feature vector and the second feature vector.
(変形例7)
上記の実施の形態では、スコア算出器をひとつだけ用いたが、それに限らない。例えば、複数のスコア算出器を用意し、それぞれで変化スコアを算出し、それらの平均値を新たな変化スコアとする方法がある。この場合、学習の際にそれぞれのスコア算出器のパラメータを異なる値で初期化することで、それぞれのスコア算出器に多様性を持たせ、変化検出の精度を向上させることができる。
(Variation 7)
In the above embodiment, only one score calculator is used, but this is not limiting. For example, there is a method in which multiple score calculators are prepared, each calculates a change score, and the average of these is used as a new change score. In this case, by initializing the parameters of each score calculator with different values during learning, each score calculator can be made diverse, thereby improving the accuracy of change detection.
(変形例8)
上記の実施の形態では画像監視装置1の個別スコア算出部のスコア統合部にて、画像毎のスコア統合を変化検出器学習装置2と同じmax-min演算で統合していたが、それに限らない。例えば、変化検出器学習装置2では、max-min演算で学習し、画像監視装置1では次式のようなmean-min演算などの変化検出器学習装置2とは異なる統合方法を用いてもよい。
(Variation 8)
In the above embodiment, the score integration unit of the individual score calculation unit of the image monitoring device 1 integrates the scores for each image using the same max-min calculation as the change detector learning device 2, but this is not limited to this. For example, the change detector learning device 2 may learn using the max-min calculation, and the image monitoring device 1 may use an integration method different from that used by the change detector learning device 2, such as the mean-min calculation shown in the following equation:
max-min演算では、過去画像セットや現在画像セットなどに人物領域の切り取りに失敗するなどして入力として想定している画像と大きく異なる外れ値的な画像が含まれている場合に、その画像の影響で変化スコアが大きく変動する場合がある。mean-min演算では外れ値的な画像の影響を受けにくく、変化スコアがより頑健になるという利点がある。 With max-min calculations, if the past or current image sets contain outlier images that differ significantly from the image expected as input, such as when a person's area is not properly cropped, the change score may fluctuate significantly due to the influence of those images. The mean-min calculation has the advantage of being less susceptible to the influence of outlier images, resulting in a more robust change score.
(変形例9)
上記の実施の形態では、画像監視装置1の表示手段13において変化検出結果を表示するとしたが、より詳細にどの場所が変化したかを表示することも可能である。変化検出器では、候補領域推定部において変化がありそうな候補領域を算出し、その領域を基にスコアを算出している。そして、最終的なスコアは、過去画像セットに含まれる複数の画像の中のある領域と、現在画像セットに含まれる複数の画像の中のある領域のペアから計算される。よって、このペアのスコアを保持しておき、最終的なスコアに寄与したものがどれかを辿れば、どの画像のどの領域が異なるか、ということを画像上に矩形などで表示することができる。
(Variation 9)
In the above embodiment, the change detection results are displayed on the display means 13 of the image monitoring device 1, but it is also possible to display which locations have changed in more detail. In the change detector, the candidate area estimation unit calculates candidate areas likely to have changed, and calculates a score based on those areas. The final score is then calculated from pairs of areas in multiple images included in the past image set and areas in multiple images included in the current image set. Therefore, by storing the scores of these pairs and tracing which areas contributed to the final score, it is possible to display which areas of which images are different using rectangles or the like on the images.
(変形例10)
上記の実施の形態では、対象領域分割部51が、位置尤度マップ算出部70、アピアランス尤度マップ算出部71、対象尤度マップ算出部72、及び変更部73を備えている場合を例に説明したが、これに限定されるものではない。位置尤度マップ算出部70及びアピアランス尤度マップ算出部のうちの何れか一方を省略してもよい。
(Variation 10)
In the above embodiment, the object region dividing unit 51 is described as including the position likelihood map calculating unit 70, the appearance likelihood map calculating unit 71, the object likelihood map calculating unit 72, and the modifying unit 73. However, the present invention is not limited to this. Either the position likelihood map calculating unit 70 or the appearance likelihood map calculating unit may be omitted.
(変形例11)
上記の実施の形態では、画像監視装置1と変化検出器学習装置2とが別々の装置である場合を例に説明したが、これに限定されるものではない。画像監視装置1が、変化検出器学習装置2の各手段を更に含むように構成してもよい。
(Modification 11)
In the above embodiment, the image monitoring device 1 and the change detector learning device 2 are separate devices, but the present invention is not limited to this. The image monitoring device 1 may also be configured to further include each of the means of the change detector learning device 2.
以上のように、当業者は本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art will be able to make various modifications to suit the implementation within the scope of the present invention.
1 画像監視装置
2 変化検出器学習装置
12 検出手段
14 学習済みモデル記憶手段
20 学習データ記憶手段
21 変化検出器学習手段
22 学習済みモデル記憶手段
30、130 変化検出器
31 学習部
40 特徴マップ抽出部
41 候補領域推定部
42 個別特徴抽出部
43 個別スコア算出部
44 個別スコア損失算出部
45 全体特徴抽出部
46 全体スコア算出部
47 全体スコア損失算出部
48 対象尤度蒸留損失算出部
49 対象領域抽出部
50 対象領域用対象マップ正規化部
51 対象領域分割部
52 個別特徴ベクトル抽出部
53、57 スコア算出部
54、58 スコア統合部
55 全体領域用対象マップ正規化部
56 全体特徴ベクトル抽出部
60、60A スコア算出器
70 位置尤度マップ算出部
71 アピアランス尤度マップ算出部
72 対象尤度マップ算出部
73 変更部
1 Image monitoring device 2 Change detector learning device 12 Detection means 14 Trained model storage means 20 Training data storage means 21 Change detector learning means 22 Trained model storage means 30, 130 Change detector 31 Learning unit 40 Feature map extraction unit 41 Candidate area estimation unit 42 Individual feature extraction unit 43 Individual score calculation unit 44 Individual score loss calculation unit 45 Overall feature extraction unit 46 Overall score calculation unit 47 Overall score loss calculation unit 48 Object likelihood distillation loss calculation unit 49 Object area extraction unit 50 Object map normalization unit for object area 51 Object area division unit 52 Individual feature vector extraction unit 53, 57 Score calculation unit 54, 58 Score integration unit 55 Object map normalization unit for entire area 56 Overall feature vector extraction unit 60, 60A Score calculator 70 Position likelihood map calculation unit 71 Appearance likelihood map calculation unit 72 Object likelihood map calculation unit 73 Modification unit
Claims (17)
前記学習部は、
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを所定の順に入力として受け付けたときに、前記消失である変化を示すスコアを算出し、かつ、
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に入力として受け付けたときに、前記出現である変化を示すスコアを算出するように、前記スコア算出器を学習させる、
学習装置。 1. A learning device including a learning unit that causes a score calculator to learn based on learning data indicating a change from first data to second data, the change being the disappearance of an object represented by the data, and learning data indicating a change from the second data to the first data, the change being the appearance of an object represented by the data,
The learning unit
the score calculator calculates a score indicating the change that is the disappearance when receiving the feature amount of the first data and the feature amount of the second data as input in a predetermined order; and
causing the score calculator to learn so as to calculate a score indicating the change that is the occurrence when the feature amount of the first data and the feature amount of the second data are received as input in a reverse order to the predetermined order ;
Learning device.
前記学習部は、
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを所定の順に入力として受け付けたときに、前記出現である変化を示すスコアを算出し、かつ、
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に入力として受け付けたときに、前記消失である変化を示すスコアを算出するように、前記スコア算出器を学習させる、
学習装置。 1. A learning device including a learning unit that trains a score calculator based on learning data indicating a change from first data to second data, the change being an appearance of an object represented by the data, and learning data indicating a change from the second data to the first data, the change being a disappearance of the object represented by the data,
The learning unit
the score calculator calculates a score indicating the change that is the occurrence when the feature amount of the first data and the feature amount of the second data are received as input in a predetermined order; and
causing the score calculator to learn so as to calculate a score indicating the change that is the disappearance when the feature amount of the first data and the feature amount of the second data are received as input in a reverse order to the predetermined order ;
Learning device.
前記スコア算出器は、
前記第3データの特徴量と、前記第4データの特徴量とを所定の順に入力として受け付けたときに、前記消失である変化を示すスコアを算出し、かつ、
前記第3データの特徴量と、前記第4データの特徴量とを前記所定の順とは逆順に入力として受け付けたときに、前記出現である変化を示すスコアを算出するように学習され、
前記スコア算出部は、
第1データの特徴量と、第2データの特徴量とを所定の順に、前記スコア算出器に入力して、前記消失である変化を示すスコアを算出し、かつ、
前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記出現である変化を示すスコアを算出する、
データ変化推定装置。 A data change estimation device including a score calculation unit that calculates a score using a score calculator trained based on learning data indicating a change from third data to fourth data , the change being a disappearance of an object represented by the data, and learning data indicating a change from the fourth data to the third data, the change being an appearance of an object represented by the data,
The score calculator
calculating a score indicating the change that is the disappearance when the feature amount of the third data and the feature amount of the fourth data are received as input in a predetermined order; and
the feature amount of the third data and the feature amount of the fourth data are received as input in a reverse order to the predetermined order, and the feature amount of the fourth data is learned to calculate a score indicating the change that is the occurrence;
The score calculation unit
inputting the feature amount of the first data and the feature amount of the second data into the score calculator in a predetermined order to calculate a score indicating the change that is the disappearance ; and
inputting the feature amount of the first data and the feature amount of the second data into the score calculator in a reverse order to the predetermined order, and calculating a score indicating the change that is the occurrence ;
Data change estimation device.
前記スコア算出器は、
前記第3データの特徴量と、前記第4データの特徴量とを所定の順に入力として受け付けたときに、前記出現である変化を示すスコアを算出し、かつ、
前記第3データの特徴量と、前記第4データの特徴量とを前記所定の順とは逆順に入力として受け付けたときに、前記消失である変化を示すスコアを算出するように学習され、
前記スコア算出部は、
第1データの特徴量と、第2データの特徴量とを所定の順に、前記スコア算出器に入力し、前記出現である変化を示すスコアを算出し、かつ、
前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記消失である変化を示すスコアを算出する、
データ変化推定装置。 A data change estimation device including a score calculation unit that calculates a score using a score calculator trained based on learning data indicating a change from third data to fourth data , the change being an appearance of an object represented by the data , and learning data indicating a change from the fourth data to the third data, the change being a disappearance of the object represented by the data,
The score calculator
calculating a score indicating the change that is the occurrence when the feature amount of the third data and the feature amount of the fourth data are received as input in a predetermined order; and
the feature amount of the third data and the feature amount of the fourth data are received as input in a reverse order to the predetermined order, and the feature amount of the fourth data is learned to calculate a score indicating the change that is the disappearance;
The score calculation unit
inputting the feature amount of the first data and the feature amount of the second data into the score calculator in a predetermined order, and calculating a score indicating the change that is the occurrence ; and
inputting the feature amount of the first data and the feature amount of the second data into the score calculator in a reverse order to the predetermined order, and calculating a score indicating the change that is the disappearance ;
Data change estimation device.
前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化であって、データが表す対象の出現である変化を示すスコアを算出するスコア算出部、
を含むデータ変化推定装置。 inputting the feature amount of the first data and the feature amount of the second data into a score calculator in a predetermined order, and calculating a score indicating a change from the first data to the second data, the change being the disappearance of an object represented by the data ; and
a score calculation unit that inputs the feature amounts of the first data and the feature amounts of the second data into the score calculator in a reverse order to the predetermined order, and calculates a score that indicates a change from the second data to the first data, the change being an appearance of an object represented by the data;
A data change estimation device comprising:
前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化であって、データが表す対象の消失である変化を示すスコアを算出するスコア算出部、
を含むデータ変化推定装置。 inputting the feature amount of the first data and the feature amount of the second data into a score calculator in a predetermined order, and calculating a score indicating a change from the first data to the second data, the change being the appearance of an object represented by the data ; and
a score calculation unit that inputs the feature amounts of the first data and the feature amounts of the second data to the score calculator in a reverse order to the predetermined order, and calculates a score that indicates a change from the second data to the first data, which is a disappearance of an object represented by the data;
A data change estimation device comprising:
前記特徴マップから、対象領域推定モデルを用いて、対象領域らしさを示す尤度のマップである対象尤度マップを推定する候補領域推定部と、
前記対象尤度マップから、対象領域を抽出する対象領域抽出部と、
前記特徴マップから、抽出された対象領域の特徴量を抽出する特徴量抽出部と、を更に含む請求項5~請求項8の何れか1項記載のデータ変化推定装置。 a feature map extraction unit that extracts a feature map for each of the first data and the second data;
a candidate region estimation unit that estimates a target likelihood map, which is a map of likelihood indicating a target region likelihood, from the feature map using a target region estimation model;
a target region extraction unit that extracts a target region from the target likelihood map;
The data variation estimation device according to any one of claims 5 to 8 , further comprising: a feature extraction unit that extracts feature amounts of the extracted target region from the feature map.
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを所定の順に入力として受け付けたときに、前記消失である変化を示すスコアを算出し、かつ、
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に入力として受け付けたときに、前記出現である変化を示すスコアを算出するように、前記スコア算出器を学習させる
学習方法。 A learning method in which a learning unit trains a score calculator based on learning data indicating a change from first data to second data, the change being a disappearance of an object represented by the data , and learning data indicating a change from the second data to the first data, the change being an appearance of an object represented by the data ,
the score calculator calculates a score indicating the change that is the disappearance when receiving the feature amount of the first data and the feature amount of the second data as input in a predetermined order; and
A learning method for training the score calculator so that, when the score calculator receives as input the feature amounts of the first data and the feature amounts of the second data in an order reverse to the predetermined order, the score calculator calculates a score indicating the change that is the occurrence .
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを所定の順に入力として受け付けたときに、前記出現である変化を示すスコアを算出し、かつ、
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に入力として受け付けたときに、前記消失である変化を示すスコアを算出するように、前記スコア算出器を学習させる
学習方法。 A learning method in which a learning unit trains a score calculator based on learning data indicating a change from first data to second data, the change being an appearance of an object represented by the data , and learning data indicating a change from the second data to the first data, the change being a disappearance of the object represented by the data ,
the score calculator calculates a score indicating the change that is the occurrence when the feature amount of the first data and the feature amount of the second data are received as input in a predetermined order; and
a learning method for training the score calculator so that, when the score calculator receives as input the feature amounts of the first data and the feature amounts of the second data in an order reverse to the predetermined order, the score calculator calculates a score indicating the change that is the disappearance .
前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化であって、データが表す対象の出現である変化を示すスコアを算出する
データ変化推定方法。 a score calculation unit inputs the feature amount of the first data and the feature amount of the second data to a score calculator in a predetermined order, and calculates a score indicating a change from the first data to the second data, the change being the disappearance of an object represented by the data ; and
A data change estimation method comprising: inputting the feature amounts of the first data and the feature amounts of the second data into the score calculator in a reverse order to the predetermined order; and calculating a score indicating a change from the second data to the first data, the change being the appearance of an object represented by the data .
前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化であって、データが表す対象の消失である変化を示すスコアを算出する
データ変化推定方法。 a score calculation unit inputs the feature amount of the first data and the feature amount of the second data to a score calculator in a predetermined order, and calculates a score indicating a change from the first data to the second data, the change being an appearance of an object represented by the data ; and
A data change estimation method comprising: inputting the feature amounts of the first data and the feature amounts of the second data into the score calculator in a reverse order to the predetermined order; and calculating a score indicating a change from the second data to the first data, which is a disappearance of an object represented by the data .
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを所定の順に入力として受け付けたときに、前記消失である変化を示すスコアを算出し、かつ、
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に入力として受け付けたときに、前記出現である変化を示すスコアを算出するように、前記スコア算出器を学習させる
ことをコンピュータに実行させるための学習プログラム。 A learning program for training a score calculator based on learning data indicating a change from first data to second data, the change being the disappearance of an object represented by the data , and learning data indicating a change from the second data to the first data, the change being the appearance of an object represented by the data,
the score calculator calculates a score indicating the change that is the disappearance when receiving the feature amount of the first data and the feature amount of the second data as input in a predetermined order; and
A learning program for causing a computer to train the score calculator so that, when the score calculator receives as input the feature amounts of the first data and the feature amounts of the second data in the reverse order of the predetermined order, the score calculator calculates a score indicating the change that is the occurrence .
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを所定の順に入力として受け付けたときに、前記出現である変化を示すスコアを算出し、かつ、
前記スコア算出器が、前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に入力として受け付けたときに、前記消失である変化を示すスコアを算出するように、前記スコア算出器を学習させる
ことをコンピュータに実行させるための学習プログラム。 A learning program for training a score calculator based on learning data indicating a change from first data to second data, the change being an appearance of an object represented by the data , and learning data indicating a change from the second data to the first data, the change being a disappearance of the object represented by the data,
the score calculator calculates a score indicating the change that is the occurrence when the feature amount of the first data and the feature amount of the second data are received as input in a predetermined order; and
A learning program for causing a computer to train the score calculator so that, when the score calculator receives as input the feature amounts of the first data and the feature amounts of the second data in an order reverse to the predetermined order, the score calculator calculates a score indicating the change that is the disappearance .
前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化であって、データが表す対象の出現である変化を示すスコアを算出する
ことをコンピュータに実行させるためのデータ変化推定プログラム。 inputting the feature amount of the first data and the feature amount of the second data into a score calculator in a predetermined order, and calculating a score indicating a change from the first data to the second data, the change being the disappearance of an object represented by the data ; and
A data change estimation program for causing a computer to execute the following: inputting the feature amounts of the first data and the feature amounts of the second data into the score calculator in a reverse order to the predetermined order ; and calculating a score indicating a change from the second data to the first data, which is an appearance of an object represented by the data .
前記第1データの特徴量と、前記第2データの特徴量とを前記所定の順とは逆順に前記スコア算出器に入力し、前記第2データから前記第1データへの変化であって、データが表す対象の消失である変化を示すスコアを算出する
ことをコンピュータに実行させるためのデータ変化推定プログラム。 inputting the feature amount of the first data and the feature amount of the second data into a score calculator in a predetermined order, and calculating a score indicating a change from the first data to the second data, the change being the appearance of an object represented by the data ; and
A data change estimation program for causing a computer to execute the following: inputting the feature amounts of the first data and the feature amounts of the second data into the score calculator in a reverse order to the predetermined order; and calculating a score indicating a change from the second data to the first data, which is a disappearance of an object represented by the data .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022052590A JP7736613B2 (en) | 2022-03-28 | 2022-03-28 | Learning device, data change estimation device, learning method, data change estimation method, learning program, and data change estimation program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022052590A JP7736613B2 (en) | 2022-03-28 | 2022-03-28 | Learning device, data change estimation device, learning method, data change estimation method, learning program, and data change estimation program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023145229A JP2023145229A (en) | 2023-10-11 |
| JP7736613B2 true JP7736613B2 (en) | 2025-09-09 |
Family
ID=88253515
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022052590A Active JP7736613B2 (en) | 2022-03-28 | 2022-03-28 | Learning device, data change estimation device, learning method, data change estimation method, learning program, and data change estimation program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7736613B2 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008535041A (en) | 2005-02-04 | 2008-08-28 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | Identification of spurious areas in video frames |
| JP2021111033A (en) | 2020-01-08 | 2021-08-02 | 三菱電機エンジニアリング株式会社 | Object monitoring device, object monitoring program, and monitoring system |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5912980A (en) * | 1995-07-13 | 1999-06-15 | Hunke; H. Martin | Target acquisition and tracking |
-
2022
- 2022-03-28 JP JP2022052590A patent/JP7736613B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008535041A (en) | 2005-02-04 | 2008-08-28 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | Identification of spurious areas in video frames |
| JP2021111033A (en) | 2020-01-08 | 2021-08-02 | 三菱電機エンジニアリング株式会社 | Object monitoring device, object monitoring program, and monitoring system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023145229A (en) | 2023-10-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Bertasius et al. | Object detection in video with spatiotemporal sampling networks | |
| US20210264144A1 (en) | Human pose analysis system and method | |
| CN109472205B (en) | Commodity identification method, commodity identification device, and storage medium | |
| US8582887B2 (en) | Image processing system, learning device and method, and program | |
| WO2020228446A1 (en) | Model training method and apparatus, and terminal and storage medium | |
| EP3857440A1 (en) | Method and apparatus for processing video stream | |
| CN111144376B (en) | Video target detection feature extraction method | |
| US20230154016A1 (en) | Information processing apparatus, information processing method, and storage medium | |
| US20110158540A1 (en) | Pattern recognition method and pattern recognition apparatus | |
| US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
| CN108776975A (en) | Visual tracking method based on semi-supervised feature and filter joint learning | |
| CN110276785A (en) | An anti-occlusion infrared target tracking method | |
| CN110019895B (en) | Image retrieval method and device and electronic equipment | |
| CN106295710B (en) | Image local feature matching process, device and terminal based on non-geometric constraint | |
| WO2017168462A1 (en) | An image processing device, an image processing method, and computer-readable recording medium | |
| CN116665311B (en) | Behavior recognition method, device, equipment and readable storage medium | |
| CN113888586A (en) | A method and device for target tracking based on correlation filtering | |
| CN115994900A (en) | Unsupervised defect detection method and system based on transfer learning and storage medium | |
| CN115527050A (en) | Image feature matching method, computer device and readable storage medium | |
| JP7229954B2 (en) | Object tracking device and object tracking method | |
| JP7736613B2 (en) | Learning device, data change estimation device, learning method, data change estimation method, learning program, and data change estimation program | |
| JP7729790B2 (en) | Object area extraction device, learning device, object area extraction method, and object area extraction program | |
| EP4086848B1 (en) | Method and apparatus with object tracking using dynamic field of view | |
| CN116433722A (en) | Target tracking method, electronic device, storage medium, and program product | |
| Guo et al. | Local neighbor propagation on graphs for mismatch removal |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240919 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250521 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250603 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250731 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250819 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250828 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7736613 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |