JP7561319B2 - Motion recognition system, method, and program - Google Patents
Motion recognition system, method, and program Download PDFInfo
- Publication number
- JP7561319B2 JP7561319B2 JP2020109502A JP2020109502A JP7561319B2 JP 7561319 B2 JP7561319 B2 JP 7561319B2 JP 2020109502 A JP2020109502 A JP 2020109502A JP 2020109502 A JP2020109502 A JP 2020109502A JP 7561319 B2 JP7561319 B2 JP 7561319B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- worker
- skeletal data
- coordinates
- target person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Description
本発明は、動作認識システム、方法及びプログラムに関する。 The present invention relates to a motion recognition system, method, and program.
従来、工場等の製造ラインにカメラやセンサ等を設置し、それらにより得られる作業者の動作情報に基づいて、作業者の動作を分析し、評価することが行われている。例えば、下記特許文献1では、モーションキャプチャ等により得られる情報に基づいて、標準作業から逸脱する標準外作業の有無を判断している。 Conventionally, cameras and sensors are installed on production lines in factories, etc., and the movements of workers are analyzed and evaluated based on the information on the movements of the workers obtained by these cameras and sensors. For example, in the following Patent Document 1, the presence or absence of non-standard work that deviates from standard work is determined based on information obtained by motion capture, etc.
ところで、作業者の習熟度を評価する場合に、作業者の右手と左手とで異なる動作を行う作業に着目して評価することが考えられる。例えば、ドライバーでネジを締める工程では、利き手である右手でドライバーが用いられ、左手では部品が掴まれ、ドライバーは用いられない。このような作業に対する評価を行う場合、左右の部位で独立して行われる動作を個別に認識して評価することが好ましい。 Incidentally, when evaluating a worker's proficiency, it is possible to focus on tasks in which the worker performs different actions with their right and left hands. For example, in the process of tightening a screw with a screwdriver, the screwdriver is used with the right hand, which is the dominant hand, while the left hand grasps a part and does not use the screwdriver. When evaluating such tasks, it is preferable to recognize and evaluate the actions performed independently by the left and right hands separately.
しかしながら、特許文献1では、作業における動作を一体として捉え、その動作全体を評価の対象として認識することにとどまり、左右の部位で独立して行われる動作を個別に認識することは考慮されていない。 However, in Patent Document 1, the movement during the task is perceived as a whole and the entire movement is recognized as the subject of evaluation, and no consideration is given to the individual recognition of movements performed independently by the left and right parts of the body.
ここで、特許文献1では、作業者の動作を分析する際に、学習内容記録部に予め学習させた作業内容(学習データ)と作業者の動作内容とを比較して作業者の作業内容を認識している。このような学習データに基づいて、例えば、ドライバーでネジを締める工程の動作を精度良く認識しようとすると、右利きの作業者のデータに加え、左利きの作業者のデータも学習させる必要がある。しかしながら、左利きの人の割合が少ないことから、左利きの作業者のデータを収集することは難しい。 Here, in Patent Document 1, when analyzing the movements of a worker, the work content of the worker is recognized by comparing the work content (learned data) that has been learned in advance in a learning content recording unit with the work content of the worker. For example, to accurately recognize the movements of a process for tightening a screw with a screwdriver based on such learning data, it is necessary to learn data of left-handed workers in addition to data of right-handed workers. However, since the proportion of left-handed people is low, it is difficult to collect data on left-handed workers.
そこで、本発明は、作業者の左右の部位で独立して行われる動作を個別に認識する際の精度を向上させることができる動作認識システム、方法及びプログラムを提供する。 The present invention provides a motion recognition system, method, and program that can improve the accuracy of individually recognizing motions performed independently by the left and right parts of a worker.
本開示の一態様に係る動作認識システムは、作業の経過時間、認識対象である個別の動作及び作業者の骨格データを含む動作情報を取得する取得部と、骨格データに含まれる複数の身体部位それぞれに対応する座標のうち、予め定められた複数の基準部位に対応する座標を結ぶことで形成される軸を基準軸とし、身体部位それぞれに対応する座標を、基準軸を対象にして線対称となる座標に変換する変換部と、変換部により変換された後の動作情報に基づいて、個別の動作のいずれかに該当する作業者の動作を示す情報を出力するモデルを、動作認識用のモデルとして学習させる学習部と、を備える。 The motion recognition system according to one aspect of the present disclosure includes an acquisition unit that acquires motion information including elapsed time of work, individual motions to be recognized, and skeletal data of a worker; a conversion unit that uses an axis formed by connecting coordinates corresponding to a plurality of predetermined reference parts among the coordinates corresponding to each of a plurality of body parts included in the skeletal data as a reference axis and converts the coordinates corresponding to each of the body parts into coordinates that are linearly symmetrical with respect to the reference axis; and a learning unit that trains a model for motion recognition that outputs information indicating a motion of a worker that corresponds to any of the individual motions based on the motion information converted by the conversion unit.
この態様によれば、例えば、右利きの作業者の骨格データに含まれる複数の身体部位それぞれに対応する座標のうち、基準部位となる首及び腰に対応する座標を結ぶことで形成される軸を基準軸とし、身体部位それぞれに対応する座標を、基準軸を対象にして線対称となる座標に変換することで、左利きの作業者用の骨格データを生成することができる。そして、この左利きの作業者用の骨格データを用いて、動作認識用の学習モデルを学習させることができる。 According to this aspect, for example, among the coordinates corresponding to each of the multiple body parts included in the skeletal data of a right-handed worker, an axis formed by connecting the coordinates corresponding to the neck and waist, which are the reference parts, is used as a reference axis, and the coordinates corresponding to each body part are converted to coordinates that are linearly symmetrical with respect to the reference axis, thereby generating skeletal data for a left-handed worker. Then, a learning model for motion recognition can be trained using this skeletal data for a left-handed worker.
上記態様において、学習部は、取得部により取得された動作情報に基づいて、上記モデルをさらに学習させることとしてもよい。 In the above aspect, the learning unit may further train the model based on the motion information acquired by the acquisition unit.
この態様によれば、右利き又は左利きの作業者の動作を撮影した動画等の時系列情報に基づく動作情報に基づいて、動作認識用のモデルをさらに学習させることができる。 According to this aspect, a model for motion recognition can be further trained based on motion information based on time-series information, such as video of the motions of right-handed or left-handed workers.
上記態様において、取得部は、認識対象作業者の動作に関する時系列情報をさらに取得し、その取得部により取得された時系列情報に対応する骨格データを、学習部により学習させられた学習済モデルに入力し、当該学習済モデルから出力される個別の動作のいずれかに該当する作業者の動作を示す情報に基づいて、認識対象作業者の右手及び左手それぞれの動作を認識する動作認識部を、さらに備えることとしてもよい。 In the above aspect, the acquisition unit may further acquire time-series information regarding the movements of the worker to be recognized, input skeletal data corresponding to the time-series information acquired by the acquisition unit into a trained model trained by the learning unit, and further include a motion recognition unit that recognizes the movements of the right hand and the left hand of the worker to be recognized based on information indicating the movements of the worker that correspond to any of the individual movements output from the trained model.
この態様によれば、右利きの作業者の骨格データ及び左利きの作業者用の骨格データを用いて学習した学習済モデルを利用して、認識対象となる作業者の右手及び左手それぞれの動作が個別の動作のいずれかに該当するかどうかを認識することができる。 According to this aspect, a trained model trained using skeletal data for a right-handed worker and skeletal data for a left-handed worker can be used to recognize whether the movements of the right hand and left hand of the worker to be recognized correspond to any of the individual movements.
上記態様において、基準部位は、少なくとも、鼻、首及び腰のいずれかを含むこととしてもよい。 In the above aspect, the reference site may include at least one of the nose, neck, and lower back.
この態様によれば、正対する身体の中心軸に合わせて、基準軸を形成させることができる。 According to this embodiment, the reference axis can be formed in accordance with the central axis of the body facing directly.
本開示の他の態様に係る方法は、プロセッサにより実行される方法であって、作業の経過時間、認識対象である個別の動作及び作業者の骨格データを含む動作情報を取得することと、骨格データに含まれる複数の身体部位それぞれに対応する座標のうち、予め定められた複数の基準部位に対応する座標を結ぶことで形成される軸を基準軸とし、身体部位それぞれに対応する座標を、基準軸を対象にして線対称となる座標に変換することと、変換した後の動作情報に基づいて、個別の動作のいずれかに該当する作業者の動作を示す情報を出力するモデルを学習させることと、を含む。 A method according to another aspect of the present disclosure is a method executed by a processor, and includes acquiring motion information including the elapsed time of the task, the individual motion to be recognized, and skeletal data of the worker, converting the coordinates corresponding to each of the body parts into coordinates that are linearly symmetrical with respect to the reference axis by using an axis formed by connecting the coordinates corresponding to a plurality of predetermined reference parts among the coordinates corresponding to each of the plurality of body parts included in the skeletal data as a reference axis, and learning a model that outputs information indicating the motion of the worker that corresponds to any of the individual motions based on the converted motion information.
この態様によれば、例えば、右利きの作業者の骨格データに含まれる複数の身体部位それぞれに対応する座標のうち、基準部位となる首及び腰に対応する座標を結ぶことで形成される軸を基準軸とし、身体部位それぞれに対応する座標を、基準軸を対象にして線対称となる座標に変換することで、左利きの作業者用の骨格データを生成することができる。そして、この左利きの作業者用の骨格データを用いて、動作認識用の学習モデルを学習させることができる。 According to this aspect, for example, among the coordinates corresponding to each of the multiple body parts included in the skeletal data of a right-handed worker, an axis formed by connecting the coordinates corresponding to the neck and waist, which are the reference parts, is used as a reference axis, and the coordinates corresponding to each body part are converted to coordinates that are linearly symmetrical with respect to the reference axis, thereby generating skeletal data for a left-handed worker. Then, a learning model for motion recognition can be trained using this skeletal data for a left-handed worker.
本開示の他の態様に係るプログラムは、コンピュータを、作業の経過時間、認識対象である個別の動作及び作業者の骨格データを含む動作情報を取得する取得部、骨格データに含まれる複数の身体部位それぞれに対応する座標のうち、予め定められた複数の基準部位に対応する座標を結ぶことで形成される軸を基準軸とし、身体部位それぞれに対応する座標を、基準軸を対象にして線対称となる座標に変換する変換部、変換部により変換された後の動作情報に基づいて、個別の動作のいずれかに該当する作業者の動作を示す情報を出力するモデルを学習させる学習部、として機能させる。 A program according to another aspect of the present disclosure causes a computer to function as an acquisition unit that acquires motion information including the elapsed time of a task, an individual motion to be recognized, and skeletal data of a worker, a conversion unit that uses an axis formed by connecting coordinates corresponding to a plurality of predetermined reference parts among the coordinates corresponding to each of a plurality of body parts included in the skeletal data as a reference axis and converts the coordinates corresponding to each of the body parts into coordinates that are linearly symmetrical with respect to the reference axis, and a learning unit that learns a model that outputs information indicating a motion of a worker that corresponds to one of the individual motions based on the motion information after conversion by the conversion unit.
この態様によれば、例えば、右利きの作業者の骨格データに含まれる複数の身体部位それぞれに対応する座標のうち、基準部位となる首及び腰に対応する座標を結ぶことで形成される軸を基準軸とし、身体部位それぞれに対応する座標を、基準軸を対象にして線対称となる座標に変換することで、左利きの作業者用の骨格データを生成することができる。そして、この左利きの作業者用の骨格データを用いて、動作認識用の学習モデルを学習させることができる。 According to this aspect, for example, among the coordinates corresponding to each of the multiple body parts included in the skeletal data of a right-handed worker, an axis formed by connecting the coordinates corresponding to the neck and waist, which are the reference parts, is used as a reference axis, and the coordinates corresponding to each body part are converted to coordinates that are linearly symmetrical with respect to the reference axis, thereby generating skeletal data for a left-handed worker. Then, a learning model for motion recognition can be trained using this skeletal data for a left-handed worker.
本発明によれば、作業者の左右の部位で独立して行われる動作を個別に認識する際の精度を向上させることができる動作認識システム、方法及びプログラムを提供することができる。 The present invention provides a motion recognition system, method, and program that can improve the accuracy of individually recognizing motions performed independently by the left and right parts of a worker.
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」と表記する。)を、図面に基づいて説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 Below, an embodiment of one aspect of the present invention (hereinafter, referred to as "this embodiment") will be described with reference to the drawings. Note that in each drawing, parts with the same reference numerals have the same or similar configurations.
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。本実施形態に係る動作認識システム100は、ある作業領域Rで行われる作業者Aの動作を画像センサ20a、20b、20cで撮影し、その撮影した動画を取得した動作認識装置10が、学習済モデルを用いて作業者Aの右手及び左手それぞれの動作を認識するものである。
§1 Application Example First, an example of a situation in which the present invention is applied will be described with reference to Fig. 1. In the
学習済モデルは、右利きの作業者の骨格データ及び左利きの作業者用に生成した骨格データ等を含む動作情報を入力とし、作業者の動作を示す情報を出力とするように学習させた動作認識用のモデルである。学習時に入力する左利きの作業者用の骨格データは、後述するように、右利きの作業者の骨格データから生成する。 The trained model is a model for motion recognition that is trained to input motion information including skeletal data of a right-handed worker and skeletal data generated for a left-handed worker, and output information indicating the motion of the worker. The skeletal data for a left-handed worker that is input during training is generated from skeletal data of a right-handed worker, as described below.
これにより、右利きの作業者の骨格データに加え、左利きの作業者用の骨格データも動作認識用のモデルに学習させることができる。それゆえ、本実施形態に係る動作認識装置10によれば、作業者の右手及び左手それぞれで独立して行われる動作を個別に認識する際の精度を向上させることができる。
This allows the motion recognition model to learn skeletal data for left-handed workers in addition to skeletal data for right-handed workers. Therefore, the
§2 構成例
[機能構成]
次に、図2を参照し、本実施形態に係る動作認識システム100及び動作認識装置10の機能構成について、その一例を説明する。動作認識システム100は、三台の画像センサ20a、20b、20cと、動作認識装置10とを備える。以下において、三台の画像センサ20a、20b、20cを特に区別して記載する必要がない場合には、画像センサ20と記載する。動作認識装置10は、機能的な構成として、例えば、取得部11、変換部12、学習部13、動作認識部14及び記憶部19を有する。記憶部19は、例えば、動画19a、動作情報19b及び学習済モデル19cを記憶する。
§2 Configuration example [Functional configuration]
Next, an example of the functional configuration of the
ここで、本実施形態では、動作認識装置10が、動作認識用のモデルを学習する機能(学習モード)と、作業者の動作を認識する機能(動作認識モード)とを有する場合について説明するが、それぞれの機能を独立した別個の装置に分散して備えることとしてもよい。
In this embodiment, the
動作認識システム100及び動作認識装置10が有する各機能構成の詳細を、以下において順次説明する。
The details of each functional configuration of the
<画像センサ>
画像センサ20は、例えば、汎用のカメラであり、作業者Aが作業領域Rで動作を行っている場面を含む動画を撮影する。画像センサ20は、機能的な構成として、例えば、検知部を有する。検知部は、作業者Aの動作を検知し、その動作を示す動画を時系列情報として出力する。
<Image sensor>
The image sensor 20 is, for example, a general-purpose camera, and captures a video including a scene in which the worker A is performing an action in the working area R. The image sensor 20 has, for example, a detection unit as a functional configuration. The detection unit detects the action of the worker A, and outputs a video showing the action as time-series information.
ここで、時系列情報は、動画に限定されない。例えば、画像センサ20の替わりに備えることができるモーションキャプチャによって測定される作業者Aの動作を示す座標に関する情報であってもよい。 Here, the time series information is not limited to video. For example, it may be information about coordinates indicating the movements of worker A measured by a motion capture device that can be provided in place of the image sensor 20.
各画像センサ20a、20b、20cは、作業領域Rの全域及び作業者Aの全身を撮影できるように配置される。この場合、例えば、各画像センサ20a、20b、20cのそれぞれが、作業領域Rの全域及び作業者Aの全身を撮影できるように配置されてもよいし、各画像センサ20a、20b、20cのそれぞれが、作業領域R及び作業者Aの一部分を撮影し、それぞれの動画を合わせることで作業領域Rの全域及び作業者Aの全身をカバーできるように配置されてもよい。また、各画像センサ20a、20b、20cが、それぞれ異なる倍率で作業領域R及び作業者Aを撮影することとしてもよい。画像センサ20は、三台備える必要はなく、少なくとも一台以上備えることとすればよい。
Each of the
<取得部>
取得部11は、作業者Aが行った動作に関する時系列情報(本実施形態では動画)を画像センサ20から取得する。取得部11が取得した時系列情報は、記憶部19に伝送され、動画19aとして記憶される。取得部11は、記憶部19に記憶された動画19aを取得することも行う。
<Acquisition Department>
The
取得部11は、動画19aの画像から、作業者の骨格の動きを示す骨格データを抽出する。骨格データは、複数の身体部位それぞれに対応する座標(x,y)によって表すことができる。本実施形態では、座標が、二次元座標(x,y)である場合について説明するが、三次元座標(x,y,z)である場合にも同様に適用できる。また、座標値の確度を示す情報を座標値の他に付加してもよい。
The
骨格データは、記憶部19に伝送され、動作情報19bの一部として記憶される。取得部11は、記憶部19に記憶された動作情報19bを取得することも行う。
The skeletal data is transmitted to the
図3を参照して、動作情報19bについて説明する。動作情報19bは、データ項目として、例えば、経過時間項目、右手動作項目、左手動作項目、及び骨格データ項目を含んで構成される。経過時間項目は、作業対象となる全工程のうち最初の工程が開始された時間を基準にし、その基準にした時間からの経過時間を格納する。経過時間の間隔は、任意に設定することができ、例えば、動画のフレーム単位に設定することとしてもよいし、1秒ごと等のように所定時間ごとに設定することとしてもよい。
右手動作項目は、右手の動作が、認識対象である個別の動作(後述)のいずれに該当するのかを示す情報を格納する。左手動作項目は、左手の動作が、認識対象である個別の動作のいずれに該当するのかを示す情報を格納する。右手動作項目及び左手動作項目に格納する情報は、例えば、動画を参照し、右手及び左手の各動作を経過時間ごとに確認し、その確認した動作内容を入力することで登録することができる。 The right hand movement item stores information indicating which of the individual movements to be recognized (described below) the right hand movement corresponds to. The left hand movement item stores information indicating which of the individual movements to be recognized corresponds to the left hand movement. The information stored in the right hand movement item and left hand movement item can be registered, for example, by referring to a video, checking the right and left hand movements at each elapsed time, and inputting the confirmed movement details.
個別の動作として、例えば、把持、運搬、調整が該当する。把持は、作業対象に手を移動して掴む動作として定義され、運搬は、作業対象を目的の場所に移動させる動作として定義され、調整は、作業を目標状態に移行する動作として定義される。 Examples of individual actions include grasping, transporting, and adjusting. Grasping is defined as the action of moving the hand to the work object and grabbing it, transport is defined as the action of moving the work object to the desired location, and adjustment is defined as the action of moving the work object to the target state.
各個別の動作には、例えば、以下のような動作が含まれる。把持には、ケース嵌合工程におけるベースとカバーを掴む動作や、ネジ締め工程における電動ドライバーを掴む動作が含まれる。運搬には、ケース嵌合工程におけるベースにカバーを運ぶ動作や、ネジ締め工程における電動ドライバーをネジ山まで運ぶ動作が含まれる。調整には、ケース嵌合工程におけるフックを嵌合する動作や、ネジ締め工程における電動ドライバーでネジを締める動作が含まれる。 Each individual action includes, for example, the following actions: Gripping includes the action of grasping the base and cover in the case fitting process, and the action of grasping the electric screwdriver in the screw tightening process. Transporting includes the action of carrying the cover to the base in the case fitting process, and the action of carrying the electric screwdriver to the screw threads in the screw tightening process. Adjusting includes the action of engaging the hook in the case fitting process, and the action of tightening the screw with the electric screwdriver in the screw tightening process.
動作情報19bの骨格データ項目は、経過時間に対応する動画から抽出した骨格データを格納する。
The skeleton data item of the
図3に示す先頭行の動作情報は、最初の工程が開始されてから1秒が経過した時点の動画に基づく動作情報である。この動作情報には、作業者の右手の動作が、個別の動作のいずれにも該当せず、作業者の左手の動作が、個別の動作のうち、把持に該当することを示す情報と、その時点の動画から抽出された骨格データとが格納されている。また、図3に示す最終行の動作情報は、最初の工程が開始されてから2分53秒が経過した時点の動画に基づく動作情報である。この動作情報には、作業者の右手及び左手の動作が、個別の動作のうち、調整に該当することを示す情報と、その時点の動画から抽出された骨格データとが格納されている。 The motion information in the first row shown in Figure 3 is based on the video at one second after the start of the first process. This motion information contains information indicating that the motion of the worker's right hand does not fall into any of the individual motions and that the motion of the worker's left hand falls into the individual motion of grasping, as well as skeletal data extracted from the video at that time. The motion information in the last row shown in Figure 3 is based on the video at two minutes and fifty-three seconds after the start of the first process. This motion information contains information indicating that the motions of the worker's right and left hands fall into the individual motion of adjusting, as well as skeletal data extracted from the video at that time.
<変換部>
図2に示す変換部12は、学習モード時の機能である。変換部12は、右利きの作業者の骨格データに基づいて左利きの作業者用の骨格データを生成するための変換処理を実行する。変換処理は、骨格データに含まれる複数の身体部位それぞれに対応する座標を、後述する基準軸を対象にして線対称となる座標に変換する処理である。
<Conversion section>
The
基準軸は、身体部位のうち予め定められた複数の基準部位に対応する座標を結ぶことで形成することができる。基準部位として、例えば、鼻、首、腰等のように、画像センサ等に正対する身体の中心軸を形成し得る部位を設定することができる。図4では、基準部位として首及び腰が設定されている場合に、首に対応する座標aと腰に対応する座標bとを結んだ直線が基準軸sとして形成されている。 The reference axis can be formed by connecting the coordinates corresponding to a number of predetermined reference body parts. For example, the nose, neck, waist, etc., which can form the central axis of the body facing the image sensor, etc., can be set as the reference body parts. In FIG. 4, when the neck and waist are set as the reference body parts, a straight line connecting coordinate a corresponding to the neck and coordinate b corresponding to the waist is formed as the reference axis s.
図4に示す骨格データの各座標を、基準軸sを対象にして線対称となる座標にそれぞれ変換することで、例えば、右手に対応する座標及び右脚に対応する座標が、左手付近の座標及び左脚付近の座標に変換され、左手に対応する座標及び左脚に対応する座標が、右手付近の座標及び右脚付近の座標に変換されることになる。これにより、右利きの作業者の骨格データに基づいて、左利きの作業者用の骨格データを生成することができる。 By converting each coordinate of the skeletal data shown in FIG. 4 into a coordinate that is linearly symmetric with respect to the reference axis s, for example, the coordinates corresponding to the right hand and the right leg are converted into coordinates near the left hand and the left leg, and the coordinates corresponding to the left hand and the left leg are converted into coordinates near the right hand and the right leg. In this way, skeletal data for a left-handed worker can be generated based on the skeletal data of a right-handed worker.
変換部12は、生成した左利きの作業者用の骨格データを、対応する動作情報19bの骨格データ項目に格納するとともに、その動作情報19bの右手動作項目の内容と左手動作項目の内容とを入れ替える。
The
ここで、変換部12は、動画から抽出した骨格データを調整するための調整処理を行う調整部をさらに含むことができる。変換部12に含まれる調整部は、前述した変換処理を実行する前に調整処理を実行する。この調整処理には、例えば、骨格データの時系列補完処理、身長(体格)の正規化処理、骨格データの時系列平滑化処理、骨格データのシフト処理及びノイズ付与処理が含まれる。調整処理に含まれる各処理について以下に説明する。
Here, the
骨格データの時系列補完処理は、骨格データに生ずる欠損データを、時間的に前後に位置する他の骨格データに基づいて補完する処理である。欠損データは、例えば、作業者の姿勢等によって隠れてしまい推定できない部位に対して生じ得る。 The time series completion process of skeletal data is a process that completes missing data that occurs in skeletal data based on other skeletal data located before and after in time. Missing data may occur, for example, in areas that cannot be estimated because they are hidden by the worker's posture, etc.
身長(体格)の正規化処理は、例えば、男女間等に生ずる体格差を吸収するために、体形に基づいて骨格データを正規化する処理である。正規化する処理として、例えば、骨格データを胴体の長さ(例えば鼻から腰までの長さ)で除算することで、正規化したデータを生成することができる。 Height (physique) normalization is a process that normalizes skeletal data based on body shape to absorb physique differences that occur between men and women, for example. As a normalization process, for example, normalized data can be generated by dividing the skeletal data by the length of the torso (for example, the length from the nose to the waist).
骨格データの時系列平滑化処理は、骨格データの時間軸方向の変化に対するノイズを除去する処理である。平滑化する処理として、例えば、ガウシアンフィルタ処理を骨格データに対して施すことで、平滑化したデータを生成することができる。 The time series smoothing process of the skeletal data is a process that removes noise from changes in the time axis direction of the skeletal data. As a smoothing process, for example, Gaussian filter processing can be performed on the skeletal data to generate smoothed data.
骨格データのシフト処理は、骨格データの原点を揃え、始点を統一することで、動作のばらつきを抑え、動作の特徴を認識し易くする処理である。例えば、首の関節が原点に位置するように骨格データ全体を平行移動させてシフト後の骨格データを生成する。 Skeletal data shift processing is a process that aligns the origin of skeletal data and standardizes the starting point to reduce variation in movement and make movement characteristics easier to recognize. For example, the entire skeletal data is translated so that the neck joint is located at the origin, and shifted skeletal data is generated.
ノイズ付与処理は、骨格データにノイズを加えることで、骨格データを仮想的に増加させる処理である。骨格データに加えるノイズは、例えば、骨格データとして適合し得る範囲内の値をランダムに発生させて生成することができる。 The noise addition process is a process that virtually increases the skeletal data by adding noise to the skeletal data. The noise added to the skeletal data can be generated, for example, by randomly generating values within a range that can be used as skeletal data.
<学習部>
図2に示す学習部13は、学習モード時の機能である。学習部13は、動作情報19bに基づいて、個別の動作のいずれかに該当する作業者の動作を示す情報を出力する動作認識用のモデルを生成(学習)する。モデルに学習させる動作情報19bには、右利きの作業者の動画から抽出された骨格データを含む動作情報19bと、前述した変換処理により生成された左利きの作業者用の骨格データを含む動作情報19bとが含まれる。それぞれの動作情報19bをモデルに学習させる順番は問わない。なお、右利きの作業者の骨格データは、モデルに学習させる前に、前述した調整処理を施しておくことが好ましい。
<Study Section>
The
学習部13により学習させられたモデルは、記憶部19に伝送され、学習済モデル19cとして記憶される。
The model trained by the
<動作認識部>
動作認識部14は、動作認識モード時の機能である。動作認識部14は、認識対象となる作業者の動画19aから抽出された骨格データを学習済モデル19cに入力し、学習済モデル19cから出力される個別の動作のいずれかに該当する作業者の動作を示す情報に基づいて、作業者の右手及び左手それぞれの動作を認識する。作業者の動作を認識する際に、例えば、ST-GCN(Spatial Temporal Graph Convolutional Networks)等の公知の動作認識手法を用いることができる。
<Action Recognition Unit>
The
なお、動画19aから抽出された骨格データを学習済モデル19cに入力する際に、その骨格データに対し、前述した骨格データの時系列補完処理、身長(体格)の正規化処理、骨格データの時系列平滑化処理及び骨格データのシフト処理を施すことにしてもよい。
When the skeletal data extracted from the
[ハードウェア構成]
次に、図5を用いて、本実施形態に係る動作認識装置10のハードウェア構成について、その一例を説明する。動作認識装置10は、演算装置に相当するCPU(Central Processing Unit)10aと、記憶部19に相当するRAM(Random Access Memory)10bと、記憶部19に相当するROM(Read only Memory)10cと、通信装置10dと、入力装置10eと、表示装置10fとを有する。これらの各構成は、バスを介して相互にデータを送受信できるように接続される。なお、本実施形態では動作認識装置10が一台のコンピュータで構成される場合について説明するが、動作認識装置10は、複数のコンピュータを用いて実現されてもよい。
[Hardware configuration]
Next, an example of the hardware configuration of the
CPU10aは、RAM10b又はROM10cに記憶されたプログラムを実行し、データの演算や加工を行う制御部として機能する。CPU10aは、入力装置10eや通信装置10dから種々の入力データを受信し、入力データを演算した結果を表示装置10fに表示したり、RAM10bやROM10cに格納したりする。
The
RAM10bは、例えば半導体記憶素子で構成され、書き換え可能なデータを記憶する。ROM10cは、例えば半導体記憶素子で構成され、読み出し可能かつ書き換え不可能なデータを記憶する。
通信装置10dは、動作認識装置10を外部機器に接続するインターフェースである。通信装置10dは、例えば、画像センサ20とLAN(Local Area Network)やインターネット等の通信ネットワークにより接続され、画像センサ20から動画を受信する。
The
入力装置10eは、ユーザからデータの入力を受け付けるインターフェースであり、例えば、キーボード、マウス及びタッチパネルを含むことができる。
The
表示装置10fは、CPU10aによる演算結果等を視覚的に表示するインターフェースであり、例えば、LCD(Liquid Crystal Display)により構成することができる。
The
プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信装置10dにより接続される通信ネットワークを介して提供されてもよい。動作認識装置10は、CPU10aがプログラムを実行することで、図2に示す取得部11、変換部12、学習部13及び動作認識部14の動作を行う。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、動作認識装置10は、CPU10aとRAM10bやROM10cとが一体化したLSI(Large-Scale Integration)を備えることとしてもよい。
The program may be provided by being stored in a computer-readable storage medium such as
§3 動作例
図6は、本実施形態に係る動作認識装置10の動作の一例を示すフローチャートである。この動作は、右利きの作業者の骨格データに基づいて左利きの作業者用の骨格データを生成し、その生成した骨格データを用いて動作認識用のモデルを学習させる際の動作である。
6 is a flowchart showing an example of the operation of the
最初に、取得部11は、学習用の動画19aに基づいて生成された動作情報19bを記憶部19から取得する(ステップS101)。この動作情報19bは、右利きの作業者を撮影した動画に基づいて生成されたものである。また、動作情報19bの骨格データ項目には、その動画に対応する右利きの作業者の骨格データが格納されている。
First, the
続いて、変換部12は、骨格データに含まれる各座標を、基準軸を対象にして線対称となる座標に変換する変換処理を実行する(ステップS102)。この変換処理の手順については、後述する。
Next, the
続いて、学習部13は、上記ステップS102で変換された後の骨格データを含み、かつ右手動作項目の内容と左手動作項目の内容とが入れ替えられた動作情報19bに基づいて、個別の動作のいずれかに該当する作業者の動作を示す情報を出力する動作認識用のモデルを学習させる(ステップS103)。そして、本動作を終了する。
Then, the
図7を参照し、上記ステップS102で実行される変換処理の手順について説明する。 The conversion process performed in step S102 above will be described with reference to FIG. 7.
最初に、取得部11によって、例えばフレーム数がFである動画19aの画像から、フレーム単位に1体の骨格データが抽出される(ステップS201)。つまり、取得部11によりF体の骨格データが抽出される。
First, the
続いて、変換部12は、1体の骨格データに含まれる複数の身体部位それぞれに対応する座標を、基準軸sを対象にして線対称となる座標に変換する(ステップS202)。変換後の座標は、動作情報19bの骨格データ項目に格納される。
Then, the
続いて、変換部12は、F体全ての骨格データの座標を変換したかどうかを判定する(ステップS203)。この判定がNOである場合は、上記ステップS202に処理を移行する一方、この判定がYESである場合には、本変換処理を終了する。
Next, the
前述したように、本実施形態に係る動作認識装置10によれば、例えば右利きの作業者の骨格データに含まれる複数の身体部位それぞれに対応する座標のうち、基準部位である首及び腰に対応する座標を結ぶことで形成される軸を基準軸とし、身体部位それぞれに対応する座標を、基準軸を対象にして線対称となる座標に変換することで、左利きの作業者用の骨格データを生成することができる。そして、この左利きの作業者用の骨格データを用いて、動作認識用の学習モデルを学習させることができる。それゆえ、作業者の左右の部位で独立して行われる動作を個別に認識する際の精度を向上させることができる。
As described above, the
なお、本発明は、前述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。 The present invention is not limited to the above-described embodiment, and can be implemented in various other forms without departing from the spirit of the present invention.
例えば、前述した実施形態では、右利きの作業者の骨格データに基づいて左利きの作業者用の骨格データを生成しているが、これに限定されない。左利きの作業者の骨格データに基づいて右利きの作業者用の骨格データを生成してもよい。 For example, in the above-described embodiment, skeletal data for a left-handed worker is generated based on skeletal data for a right-handed worker, but this is not limited to the above. Skeletal data for a right-handed worker may also be generated based on skeletal data for a left-handed worker.
また、前述した実施形態では、右利きの作業者の動画に基づいて生成された動作情報19bと、変換処理により生成された左利きの作業者用の骨格データを含む動作情報19bとを用いて、動作認識用のモデルを学習させているが、これに限定されない。左利きの作業者の動画に基づいて生成された動作情報19bや、変換処理により生成された右利きの作業者用の骨格データを含む動作情報19bを用いて、動作認識用のモデルを学習さることとしてもよい。
In the above-described embodiment, a model for motion recognition is trained using
本発明の実施形態は、以下の付記のようにも記載され得る。ただし、本発明の実施形態は、以下の付記に記載した形態に限定されない。また、本発明の実施形態は、付記間の記載を置換したり、組み合わせたりした形態であってもよい。 Embodiments of the present invention may also be described as in the following appendices. However, the embodiments of the present invention are not limited to the forms described in the appendices below. Furthermore, the embodiments of the present invention may be in the form of a substitution or combination of the descriptions between the appendices.
[付記1]
作業の経過時間、認識対象である個別の動作及び作業者の骨格データを含む動作情報(19b)を取得する取得部(11)と
前記骨格データに含まれる複数の身体部位それぞれに対応する座標のうち、予め定められた複数の基準部位に対応する座標を結ぶことで形成される軸を基準軸とし、前記身体部位それぞれに対応する座標を、前記基準軸を対象にして線対称となる座標に変換する変換部(12)と、
前記変換部(12)により変換された後の前記動作情報(19b)に基づいて、前記個別の動作のいずれかに該当する前記作業者の動作を示す情報を出力するモデルを、動作認識用のモデルとして学習させる学習部(13)と、
を備える動作認識システム(100)。
[Appendix 1]
an acquisition unit (11) for acquiring motion information (19b) including an elapsed time of a task, an individual motion to be recognized, and skeletal data of a worker; a conversion unit (12) for converting the coordinates corresponding to each of a plurality of body parts included in the skeletal data into coordinates that are linearly symmetric with respect to the reference axis, the coordinates being formed by connecting coordinates corresponding to a plurality of predetermined reference parts among the coordinates corresponding to each of a plurality of body parts included in the skeletal data;
a learning unit (13) that learns a model that outputs information indicating a motion of the worker that corresponds to any one of the individual motions based on the motion information (19b) after conversion by the conversion unit (12) as a model for motion recognition;
An action recognition system (100) comprising:
[付記2]
前記学習部(13)は、前記取得部(11)により取得された前記動作情報(19b)に基づいて、前記モデルをさらに学習させる、
付記1記載の動作認識システム(100)。
[Appendix 2]
The learning unit (13) further learns the model based on the operation information (19b) acquired by the acquisition unit (11).
2. The action recognition system (100) according to claim 1.
[付記3]
前記取得部(11)は、認識対象作業者の動作に関する時系列情報(19a)をさらに取得し、前記取得部(11)により取得された前記時系列情報(19a)に対応する骨格データを、前記学習部(13)により学習させられた学習済モデル(19c)に入力し、当該学習済モデル(19c)から出力される前記個別の動作のいずれかに該当する前記作業者の動作を示す情報に基づいて、前記認識対象作業者の右手及び左手それぞれの動作を認識する動作認識部(14)を、
さらに備える付記2記載の動作認識システム(100)。
[Appendix 3]
The acquisition unit (11) further acquires time-series information (19a) regarding the motion of the worker to be recognized, inputs skeletal data corresponding to the time-series information (19a) acquired by the acquisition unit (11) into a trained model (19c) trained by the learning unit (13), and configures a motion recognition unit (14) that recognizes the motions of the right hand and the left hand of the worker to be recognized based on information indicating the motion of the worker corresponding to any of the individual motions output from the trained model (19c).
The action recognition system (100) according to claim 2, further comprising:
[付記4]
前記基準部位は、少なくとも、鼻、首及び腰のいずれかを含む、
付記1から3のいずれかに記載の動作認識システム(100)。
[Appendix 4]
The reference site includes at least any one of the nose, the neck, and the lower back.
4. The action recognition system (100) according to any one of claims 1 to 3.
[付記5]
プロセッサにより実行される方法であって、
作業の経過時間、認識対象である個別の動作及び作業者の骨格データを含む動作情報(19b)を取得することと、
前記骨格データに含まれる複数の身体部位それぞれに対応する座標のうち、予め定められた複数の基準部位に対応する座標を結ぶことで形成される軸を基準軸とし、前記身体部位それぞれに対応する座標を、前記基準軸を対象にして線対称となる座標に変換することと、
前記変換した後の前記動作情報(19b)に基づいて、前記個別の動作のいずれかに該当する前記作業者の動作を示す情報を出力するモデルを学習させることと、
を含む方法。
[Appendix 5]
1. A processor-implemented method, comprising:
Acquiring motion information (19b) including an elapsed time of the task, an individual motion to be recognized, and skeletal data of the worker;
a reference axis is defined as an axis formed by connecting coordinates corresponding to a plurality of predetermined reference parts among the coordinates corresponding to each of a plurality of body parts included in the skeletal data, and the coordinates corresponding to each of the body parts are transformed into coordinates that are linearly symmetric with respect to the reference axis;
learning a model that outputs information indicating a motion of the worker corresponding to any one of the individual motions based on the motion information (19b) after the conversion;
The method includes:
[付記6]
コンピュータを、
作業の経過時間、認識対象である個別の動作及び作業者の骨格データを含む動作情報(19b)を取得する取得部(11)、
前記骨格データに含まれる複数の身体部位それぞれに対応する座標のうち、予め定められた複数の基準部位に対応する座標を結ぶことで形成される軸を基準軸とし、前記身体部位それぞれに対応する座標を、前記基準軸を対象にして線対称となる座標に変換する変換部(12)、
前記変換部(12)により変換された後の前記動作情報(19b)に基づいて、前記個別の動作のいずれかに該当する前記作業者の動作を示す情報を出力するモデルを学習させる学習部(13)、
として機能させるプログラム。
[Appendix 6]
Computer,
an acquisition unit (11) for acquiring motion information (19b) including the elapsed time of a task, an individual motion to be recognized, and skeletal data of a worker;
a conversion unit (12) for converting the coordinates corresponding to each of a plurality of body parts included in the skeletal data into coordinates that are line-symmetric with respect to the reference axis, the axis being formed by connecting the coordinates corresponding to a plurality of predetermined reference parts among the coordinates corresponding to each of a plurality of body parts included in the skeletal data;
a learning unit (13) that learns a model that outputs information indicating a motion of the worker that corresponds to any one of the individual motions, based on the motion information (19b) after conversion by the conversion unit (12);
A program that functions as a
10…動作認識装置、10a…CPU、10b…RAM、10c…ROM、10d…通信装置、10e…入力装置、10f…表示装置、11…取得部、12…変換部、13…学習部、14…動作認識部、19…記憶部、19a…動画、19b…動作情報、19c…学習済モデル、20a,20b,20c…画像センサ、100…動作認識システム、A…作業者、R…作業領域 10...motion recognition device, 10a...CPU, 10b...RAM, 10c...ROM, 10d...communication device, 10e...input device, 10f...display device, 11...acquisition unit, 12...conversion unit, 13...learning unit, 14...motion recognition unit, 19...storage unit, 19a...video, 19b...motion information, 19c...trained model, 20a, 20b, 20c...image sensor, 100...motion recognition system, A...worker, R...work area
Claims (4)
取得された前記動作情報の前記経過時間ごとに、前記経過時間に対応付けられた前記骨格データに含まれる複数の身体部位それぞれに対応する前記骨格データを表す座標系の座標のうち、予め定められた身体の中心軸を形成し得る複数の基準部位に対応する前記座標を結ぶことで形成される軸を基準軸とし、前記身体部位それぞれに対応する前記座標を、前記基準軸を対象にして線対称となる前記座標に変換するとともに、当該変換した前記座標による前記骨格データを、前記経過時間に対応付けて格納する前記骨格データとし、前記経過時間に対応付けて格納されている前記作業者の右手で行われた動作の内容と前記作業者の左手で行われた動作の内容とを入れ替えて、新たな前記動作情報を生成し、前記記憶部に記憶させる、変換部と、
前記記憶部に記憶されている前記動作情報を学習データとして入力し、前記作業者の右手で行われる動作及び前記作業者の左手で行われる動作のいずれかに該当する前記作業者の動作を示す情報を出力するモデルを、動作認識用のモデルとして学習させる学習部と、
動作の認識対象となる被認識対象者が行った作業における前記被認識対象者の動作に関する時系列情報に基づいて生成された前記骨格データを、前記学習部により学習させられた学習済モデルに入力し、当該学習済モデルから出力される前記被認識対象者の右手で行われる動作及び前記被認識対象者の左手で行われる動作のいずれかに該当する前記被認識対象者の動作を示す情報に基づいて、前記被認識対象者の右手及び左手それぞれの動作を認識する動作認識部と、
を備える動作認識システム。 an acquisition unit that acquires from a storage unit motion information generated based on time-series information on a motion of a worker in a task performed by the worker, the motion information storing an elapsed time of the task performed by the worker, a motion performed with the right hand of the worker, a motion performed with the left hand of the worker , and skeletal data of the worker in association with each other;
a conversion unit which, for each elapsed time of the acquired motion information, converts the coordinates corresponding to each of the body parts into coordinates that are linearly symmetric with respect to the reference axis , using an axis formed by connecting coordinates corresponding to a plurality of reference parts that can form a predetermined central axis of the body among coordinates of a coordinate system representing the skeletal data corresponding to each of a plurality of body parts included in the skeletal data associated with the elapsed time as a reference axis, and stores the coordinates corresponding to each of the body parts into coordinates that are linearly symmetric with respect to the reference axis as the skeletal data based on the converted coordinates as the skeletal data to be stored in association with the elapsed time, and replaces the content of the motion performed with the right hand of the worker and the content of the motion performed with the left hand of the worker, which are stored in association with the elapsed time, to generate new motion information and store it in the storage unit ;
a learning unit that inputs the motion information stored in the storage unit as learning data , and learns a model that outputs information indicating a motion of the worker corresponding to either a motion performed with the right hand of the worker or a motion performed with the left hand of the worker , as a model for motion recognition;
a motion recognition unit that inputs the skeletal data generated based on time-series information on the motion of the target person in a task performed by the target person, into a trained model trained by the learning unit, and recognizes the motions of the right hand and the left hand of the target person based on information indicating the motion of the target person corresponding to either the motion performed with the right hand of the target person or the motion performed with the left hand of the target person output from the trained model;
A motion recognition system comprising:
請求項1記載の動作認識システム。 The reference site includes at least any one of the nose, the neck, and the lower back.
The action recognition system according to claim 1 .
作業者が行った作業における前記作業者の動作に関する時系列情報に基づいて生成された動作情報であって、前記作業者が行った作業の経過時間、前記作業者の右手で行われた動作、前記作業者の左手で行われた動作及び前記作業者の骨格データをそれぞれ対応付けて格納する前記動作情報を記憶部から取得することと、
取得された前記動作情報の前記経過時間ごとに、前記経過時間に対応付けられた前記骨格データに含まれる複数の身体部位それぞれに対応する前記骨格データを表す座標系の座標のうち、予め定められた身体の中心軸を形成し得る複数の基準部位に対応する前記座標を結ぶことで形成される軸を基準軸とし、前記身体部位それぞれに対応する前記座標を、前記基準軸を対象にして線対称となる前記座標に変換するとともに、当該変換した前記座標による前記骨格データを、前記経過時間に対応付けて格納する前記骨格データとし、前記経過時間に対応付けて格納されている前記作業者の右手で行われた動作の内容と前記作業者の左手で行われた動作の内容とを入れ替えて、新たな前記動作情報を生成し、前記記憶部に記憶させることと、
前記記憶部に記憶されている前記動作情報を学習データとして入力し、前記作業者の右手で行われる動作及び前記作業者の左手で行われる動作のいずれかに該当する前記作業者の動作を示す情報を出力するモデルを学習させることと、
動作の認識対象となる被認識対象者が行った作業における前記被認識対象者の動作に関する時系列情報に基づいて生成された前記骨格データを、前記学習させられた学習済モデルに入力し、当該学習済モデルから出力される前記被認識対象者の右手で行われる動作及び前記被認識対象者の左手で行われる動作のいずれかに該当する前記被認識対象者の動作を示す情報に基づいて、前記被認識対象者の右手及び左手それぞれの動作を認識することと、
を含む方法。 1. A processor-implemented method, comprising:
acquiring from a storage unit motion information generated based on time-series information on motions of a worker in a task performed by the worker, the motion information storing an elapsed time of the task performed by the worker, a motion performed with the right hand of the worker, a motion performed with the left hand of the worker, and skeletal data of the worker in association with each other;
for each elapsed time of the acquired motion information, an axis formed by connecting the coordinates corresponding to a plurality of reference parts that can form a predetermined central axis of the body among the coordinates of a coordinate system representing the skeletal data corresponding to each of a plurality of body parts included in the skeletal data associated with the elapsed time is used as a reference axis, the coordinates corresponding to each of the body parts are converted to coordinates that are linearly symmetric with respect to the reference axis , the skeletal data based on the converted coordinates is used as the skeletal data to be stored in association with the elapsed time, and the content of the motion performed with the right hand of the worker and the content of the motion performed with the left hand of the worker, which are stored in association with the elapsed time, are exchanged to generate new motion information, and the storage unit stores the new motion information .
inputting the motion information stored in the storage unit as learning data, and training a model that outputs information indicating a motion of the worker corresponding to either a motion performed with the right hand of the worker or a motion performed with the left hand of the worker ;
inputting the skeletal data generated based on time-series information regarding the movements of the target person in a task performed by the target person, whose movements are to be recognized, into the trained model; and recognizing the movements of the right hand and the left hand of the target person based on information indicating the movements of the target person corresponding to either the movements performed with the right hand of the target person or the movements performed with the left hand of the target person output from the trained model;
The method includes:
作業者が行った作業における前記作業者の動作に関する時系列情報に基づいて生成された動作情報であって、前記作業者が行った作業の経過時間、前記作業者の右手で行われた動作、前記作業者の左手で行われた動作及び前記作業者の骨格データをそれぞれ対応付けて格納する前記動作情報を記憶部から取得する取得部、
取得された前記動作情報の前記経過時間ごとに、前記経過時間に対応付けられた前記骨格データに含まれる複数の身体部位それぞれに対応する前記骨格データを表す座標系の座標のうち、予め定められた身体の中心軸を形成し得る複数の基準部位に対応する前記座標を結ぶことで形成される軸を基準軸とし、前記身体部位それぞれに対応する前記座標を、前記基準軸を対象にして線対称となる前記座標に変換するとともに、当該変換した前記座標による前記骨格データを、前記経過時間に対応付けて格納する前記骨格データとし、前記経過時間に対応付けて格納されている前記作業者の右手で行われた動作の内容と前記作業者の左手で行われた動作の内容とを入れ替えて、新たな前記動作情報を生成し、前記記憶部に記憶させる、変換部、
前記記憶部に記憶されている前記動作情報を学習データとして入力し、前記作業者の右手で行われる動作及び前記作業者の左手で行われる動作のいずれかに該当する前記作業者の動作を示す情報を出力するモデルを学習させる学習部、
動作の認識対象となる被認識対象者が行った作業における前記被認識対象者の動作に関する時系列情報に基づいて生成された前記骨格データを、前記学習部により学習させられた学習済モデルに入力し、当該学習済モデルから出力される前記被認識対象者の右手で行われる動作及び前記被認識対象者の左手で行われる動作のいずれかに該当する前記被認識対象者の動作を示す情報に基づいて、前記被認識対象者の右手及び左手それぞれの動作を認識する動作認識部、
として機能させるプログラム。 Computer,
an acquisition unit that acquires from a storage unit motion information generated based on time-series information on a motion of a worker in a task performed by the worker, the motion information storing an elapsed time of the task performed by the worker, a motion performed with the right hand of the worker, a motion performed with the left hand of the worker , and skeletal data of the worker in association with each other;
a conversion unit which, for each elapsed time of the acquired motion information, defines an axis formed by connecting coordinates corresponding to a plurality of reference parts that can form a predetermined central axis of the body among coordinates of a coordinate system representing the skeletal data corresponding to each of a plurality of body parts included in the skeletal data associated with the elapsed time as a reference axis, converts the coordinates corresponding to each of the body parts into coordinates that are linearly symmetric with respect to the reference axis , and stores the skeletal data based on the converted coordinates as the skeletal data to be stored in association with the elapsed time, and replaces the content of the motion performed with the right hand of the worker and the content of the motion performed with the left hand of the worker, which are stored in association with the elapsed time, to generate new motion information and store it in the storage unit ;
a learning unit that inputs the motion information stored in the storage unit as learning data and learns a model that outputs information indicating a motion of the worker corresponding to either a motion performed with the right hand of the worker or a motion performed with the left hand of the worker ;
a motion recognition unit which inputs the skeletal data generated based on time-series information on the motion of the target person in a task performed by the target person, into a trained model trained by the learning unit, and recognizes the motions of the right hand and the left hand of the target person based on information indicating the motion of the target person corresponding to either the motion performed with the right hand of the target person or the motion performed with the left hand of the target person output from the trained model;
A program that functions as a
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020109502A JP7561319B2 (en) | 2020-06-25 | 2020-06-25 | Motion recognition system, method, and program |
| CN202110511639.6A CN113850113A (en) | 2020-06-25 | 2021-05-11 | Action recognition system, method and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020109502A JP7561319B2 (en) | 2020-06-25 | 2020-06-25 | Motion recognition system, method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022006919A JP2022006919A (en) | 2022-01-13 |
| JP7561319B2 true JP7561319B2 (en) | 2024-10-04 |
Family
ID=78972964
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020109502A Active JP7561319B2 (en) | 2020-06-25 | 2020-06-25 | Motion recognition system, method, and program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7561319B2 (en) |
| CN (1) | CN113850113A (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114973109B (en) * | 2022-07-11 | 2025-03-07 | 卡奥斯工业智能研究院(青岛)有限公司 | Work efficiency display method, device and equipment based on digital twin |
| JP2024078348A (en) | 2022-11-29 | 2024-06-10 | 富士通株式会社 | Information processing program, information processing method, and information processing device |
| JP7615341B1 (en) * | 2023-04-11 | 2025-01-16 | 三菱電機株式会社 | Skill evaluation device, skill evaluation method, and program |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012039140A1 (en) * | 2010-09-22 | 2012-03-29 | 島根県 | Operation input apparatus, operation input method, and program |
| CN105975919A (en) * | 2016-04-28 | 2016-09-28 | 三齐正康(北京)医疗科技有限公司 | Human body posture capture method and system |
| WO2018087844A1 (en) * | 2016-11-09 | 2018-05-17 | 三菱電機株式会社 | Work recognition device and work recognition method |
| WO2018131630A1 (en) * | 2017-01-13 | 2018-07-19 | 三菱電機株式会社 | Operation analysis device and operation analysis method |
| JP6904651B2 (en) * | 2018-02-20 | 2021-07-21 | Kddi株式会社 | Programs, devices and methods that recognize a person's behavior using multiple recognition engines |
| US11660526B2 (en) * | 2018-03-01 | 2023-05-30 | Sony Interactive Entertainment Inc. | Estimation apparatus, estimation method, and program |
| JP6928880B2 (en) * | 2018-03-14 | 2021-09-01 | オムロン株式会社 | Motion analysis device, motion analysis method, motion analysis program and motion analysis system |
| KR20190115509A (en) * | 2018-03-15 | 2019-10-14 | 전자부품연구원 | Automatic Sign Language Recognition Method and System |
| CN109711374B (en) * | 2018-12-29 | 2021-06-04 | 深圳美图创新科技有限公司 | Human body bone point identification method and device |
-
2020
- 2020-06-25 JP JP2020109502A patent/JP7561319B2/en active Active
-
2021
- 2021-05-11 CN CN202110511639.6A patent/CN113850113A/en active Pending
Non-Patent Citations (1)
| Title |
|---|
| 史 宇華,Kinectによる姿勢認識を用いた食事姿勢の計測,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2017-CVIM-205 [online] ,日本,情報処理学会,2017年01月12日,p.97-102 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022006919A (en) | 2022-01-13 |
| CN113850113A (en) | 2021-12-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7561319B2 (en) | Motion recognition system, method, and program | |
| Diego-Mas et al. | Using Kinect™ sensor in observational methods for assessing postures at work | |
| CN111553229B (en) | Worker action identification method and device based on three-dimensional skeleton and LSTM | |
| WO2018163555A1 (en) | Image processing device, image processing method, and image processing program | |
| JP7339604B2 (en) | Motion recognition device, motion recognition method, motion recognition program, and motion recognition system | |
| US20210286983A1 (en) | Estimation method, and computer-readable recording medium recording estimation program | |
| WO2018087853A1 (en) | Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program | |
| Wang et al. | Vision sensor based action recognition for improving efficiency and quality under the environment of industry 4.0 | |
| JP7633588B2 (en) | Motion recognition device, motion recognition method, and motion recognition program | |
| JP2019071008A (en) | Detecting device and detecting method | |
| CN117523659A (en) | Skeleton-based multi-feature multi-stream real-time action recognition method, device and medium | |
| Cai et al. | Construction worker ergonomic assessment via LSTM-based multi-task learning framework | |
| CN112543942A (en) | Motion analysis device, motion analysis method, and motion analysis program | |
| Podoprosvetov et al. | Comparison of action recognition from video and IMUs | |
| JP7568913B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM | |
| CN115798030A (en) | Method and device for gesture recognition based on rotation, electronic equipment and storage medium | |
| CN113836991B (en) | Action recognition system, action recognition method, and storage medium | |
| JP7665986B2 (en) | Work level conversion device, work level conversion method, and work level conversion program | |
| JP6992900B2 (en) | Information processing equipment, control methods, and programs | |
| JP7624875B2 (en) | Task recognition device and task recognition method | |
| Kasani et al. | Predict joint angle of body parts based on sequence pattern recognition | |
| Vagale et al. | Computer Vision assisted Deep Learning based Sitting Posture Suggestion System | |
| Liu | Video-based human motion capture and force estimation for comprehensive on-site ergonomic risk assessment | |
| CN116486471A (en) | Information processing device and information processing method | |
| Lolli et al. | Auto-AzKNIOSH: an automatic NIOSH evaluation with Azure Kinect coupled with task recognition |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230407 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240220 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240329 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240514 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240823 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240905 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7561319 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |