JP2023090067A - Action recognition system - Google Patents
Action recognition system Download PDFInfo
- Publication number
- JP2023090067A JP2023090067A JP2021204814A JP2021204814A JP2023090067A JP 2023090067 A JP2023090067 A JP 2023090067A JP 2021204814 A JP2021204814 A JP 2021204814A JP 2021204814 A JP2021204814 A JP 2021204814A JP 2023090067 A JP2023090067 A JP 2023090067A
- Authority
- JP
- Japan
- Prior art keywords
- person
- information
- action
- recognition system
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Alarm Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、住環境に設けた家電製品や人感センサ等のセンサの検知情報と、人を検知し特定するセンサとを組み合わせることによって住環境内に住む人の行動を認識するシステムに関する技術である。 The present invention is a technology related to a system that recognizes the actions of people living in a living environment by combining detection information from sensors such as home appliances and human sensors installed in the living environment and sensors that detect and identify people. be.
住環境内に居住するユーザの状態に応じた機器制御や、ユーザの活動状態を把握するために家電の稼働情報やセンサ情報を活用する従来技術には、例えば特許文献1がある。特許文献1には、一般家庭用に用いられる白物家電を用いて、遠隔介護を実施・運用する集合住宅向け遠隔介護システムとして、集合住宅を構成する居住空間内に設置した家電に居住空間に存在する住人の行動を検知する検知部を備えさせ、家電に設けた検知部の検知情報に基づいて、複数の居住空間内に設置された家電を遠隔制御したり検知情報に基づいて遠隔監視する技術が開示されている。
Japanese Unexamined Patent Application Publication No. 2002-100002 discloses a conventional technology that utilizes operation information of home appliances and sensor information in order to control equipment according to the state of a user living in a living environment and to grasp the activity state of the user.
遠隔地から住人の安否を確認するシステムにおいては、通常の一般家庭においては、複数人の住民が生活空間を共有するので、住人の安否を判別するための行動情報には、住人の個別の行動を検知・識別することが求められる。一方で、住人の行動情報を個別化するには複数台の画像、音声等のセンサを居住空間内の各所に設けなければならなくなるため、住人のプライバシー性の確保、導入コスト、運営コスト等で課題を生じる。 In a system for confirming the safety of residents from a remote location, since multiple residents share a living space in a normal household, the behavior information for determining the safety of residents includes the individual behavior of the residents. is required to detect and identify On the other hand, in order to individualize the behavioral information of residents, it is necessary to install multiple sensors such as images and sounds in various places in the living space. create challenges.
例えば、二世帯住宅においては、人感センサや家電の稼働情報のみで行動情報を識別する安否確認システムを導入した場合、複数の住人が食堂やリビング等の共用空間で行動を共有した後、一人が共用空間に留まり、残りの人が別の居住空間へ移動したときに、人感センサの検知情報が、どの住民の行動に由来した値かを判別・識別できなくなる。このため、二人世帯以上の人数で住環境を共有するような住空間に人感センサや家電の稼働情報のみで行動情報を識別するような安否確認システムを導入した場合、住人の個別の行動を検知・識別することができなくなる。一方で、上記の問題を解決するために、住環境内に複数台の画像や音声等のセンサ等を設けた場合、プライバシー性の確保や導入コストや運営コスト等と言った観点で課題が生じる。 For example, in a two-family house, if a safety confirmation system that identifies behavioral information based only on motion sensors and home appliance operation information is introduced, after multiple residents share their behavior in shared spaces such as the dining room and living room, one person stays in the common space and the remaining people move to another living space, it becomes impossible to distinguish and identify which resident's behavior the value derived from the detection information of the human sensor. For this reason, if a safety confirmation system that identifies behavioral information based only on motion sensors and household appliance operation information is introduced in a living space where two or more people live in a shared living environment, individual behavior of residents cannot be detected. cannot be detected and identified. On the other hand, in order to solve the above problems, when multiple sensors such as images and sounds are installed in the living environment, problems arise in terms of ensuring privacy, introduction costs, operating costs, etc. .
本発明は、上記のような課題に対してなされるものであり、プライバシー性を配慮するために、人認識センサの設置数を制限した場合においても、複数人が居住する住空間内の個々人の行動情報を精度良く検知・分類することができる行動認識システムを提供することを目的としている。 The present invention is made to solve the above-mentioned problems, and even if the number of human recognition sensors installed is limited in consideration of privacy, it is possible to detect the presence of individuals in a living space where multiple people live. The object is to provide an action recognition system that can detect and classify action information with high accuracy.
上記の課題を解決するために、本発明の行動認識システムは、人を検知する複数の人感センサと、人を検知するとともに、該人を特定する複数の人認識センサと、を含むセンサ群と、センサ群から受信した検知情報に基づいて、人認識センサによって特定された人の行動を認識する行動推定装置と、を有し、行動推定装置は、センサ群のうち少なくとも1つが設置された領域からセンサ群のうち他の少なくとも1つが設置された他の領域まで人が移動する経路に関する移動情報を少なくとも記憶する記憶部と、センサ群が検知した情報を時系列解析し、解析の結果と、移動情報と、に基づいて、認識対象の人が移動し得る移動経路候補情報を作成し、移動経路候補情報と、複数の人認識センサが検知した情報と、に基づいて、複数の人認識センサが特定した人の行動を認識する演算部と、を有する。 In order to solve the above problems, the action recognition system of the present invention provides a sensor group including a plurality of human sensors that detect people, and a plurality of human recognition sensors that detect and specify the people. and a behavior estimation device for recognizing the behavior of the person identified by the human recognition sensor based on the detection information received from the sensor group, wherein the behavior estimation device is provided with at least one of the sensors. A storage unit that stores at least movement information related to a route taken by a person from an area to another area where at least one other sensor group is installed; , movement information, and moving route candidate information along which a person to be recognized can move is created, and a plurality of persons are recognized based on the moving route candidate information and information detected by a plurality of person recognition sensors. and a computing unit that recognizes the behavior of the person identified by the sensor.
本発明によれば、住環境内に設けた複数の人感センサ及び人認識センサと、住環境内に備えた行動推定装置とを接続することで対象の住環境に住む個々の住人の行動を推定する推定部によって住人の行動を判別することが可能になる。さらに、人感センサや家電の検知情報を活用して人の行動情報を作成するために、人を認識するセンサの設置する数を抑制することができるため、利用者のプライバシー性を配慮した人の行動認識システムを提供することができる。
本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
According to the present invention, by connecting a plurality of human detection sensors and human recognition sensors provided in the living environment with a behavior estimation device provided in the living environment, the behavior of each individual resident living in the target living environment can be detected. The estimating unit that estimates makes it possible to discriminate the behavior of the inhabitants. Furthermore, in order to create human behavior information using human sensors and detection information from home appliances, it is possible to reduce the number of sensors that recognize people. of action recognition system can be provided.
Further features related to the present invention will become apparent from the description of the specification and the accompanying drawings. Further, problems, configurations and effects other than those described above will be clarified by the following description of the embodiments.
以下に、本発明の一実施例について図面を用いて説明する。図1は、本発明の行動認識システムの構成の概略を示している。本発明の行動認識システム1000は、人を検知する複数の人感センサ100(安価、簡易な人感センサや家電)と、人を検知し特定する複数の人認識センサ200(画像、音声、ToF、加速度センサなど、人を検知すると共に人の特定ができるセンサ)を含むセンサ群と、センサ群の検知情報に基づいて人及びその行動を特定・認識する行動推定装置300と、を有する。また、本実施例においては、行動認識システム1000は、行動推定装置300の情報を受信して、検知対象の住人の安否や状態を遠隔から確認することができる遠隔管理部400をさらに有している。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows an outline of the configuration of the action recognition system of the present invention. The
複数の人感センサ100は、人感センサ100を起動するための電源部110、人感センサ100の検知情報及び人感センサ100の固有IDを行動推定装置300へ送信する通信部120、人感センサ100の固有情報を記憶するための記憶部130、人を検知する検知部140、及び人感センサ100の動作を制御する制御部150を有する。
The plurality of
また、複数の人認識センサ200も同様に、人認識センサ200を起動するための電源部210、人認識センサ200の検知情報及びセンサの固有IDを行動推定装置300へ送信する通信部220、人認識センサ200の固有情報を記憶するための記憶部230、人を検知・特定する検知部240、及び人認識センサ200の動作を制御する制御部250を有する。
In addition, the plurality of
さらに、行動推定装置300は、通信部310、外部通信部320、制御部330、演算部340、記憶部350、タイマ360、及び外部電源370を有する。なお、行動推定装置300はサーバ、あるいはPC等で構成される。
Further,
通信部310は、複数の人感センサ100及び複数の人認識センサ200から発信された検知情報及びセンサ固有IDを受信する。外部通信部320は、複数の人感センサ100及び複数の人認識センサ200と行動推定装置300によって構築されるセンサネットワーク以外の外部のネットワークへ検知情報や分析情報を受発信する。制御部330は、センサネットワーク、外部ネットワーク等からの情報を分析し、分析結果に基づいて機器の制御を行う。演算部340は、外部通信部320からの入力情報や制御部330、複数の人感センサ100及び複数の人認識センサ200の検知情報と後述の空間移動情報、居住情報等に基づいて、住人個々人の行動を分別し、住人の安否を判別する。記憶部350は、演算部340で判別した住人の個々人の行動を判別した移動経路情報を記憶する。タイマ360は、複数の人感センサ100及び複数の人認識センサ200の検知情報を受信した際の時刻を評価する。また、遠隔管理部400は、外部通信部320を介して行動推定装置300で分析した住人の安否に関する情報を受発信することができる。
The communication unit 310 receives detection information and sensor unique IDs transmitted from the plurality of
以上のような構成で行動認識システムを構築することによって、住環境内に設置した複数の人感センサ100及び複数の人認識センサ200が検知した住人の検知情報とセンサの固有IDを行動推定装置300へ送信することができる。検知情報とセンサIDを受信した、行動推定装置300の演算部340は、タイマ360によって受信時刻を管理し、検知情報を発信したセンサが人感センサ100であった場合は、センサIDとセンサ設置情報から、センサが反応した部屋(行動が生じた場所)と時刻を演算部340で判別し、行動検知情報として記憶部350に保存することができる。
By constructing the action recognition system with the configuration described above, the detection information of the inhabitants detected by the plurality of
同様に、演算部340は、センサの固有IDよりセンサの種類を認識し、検知情報を発信したセンサが人認識センサ200であった場合、演算部340で住人情報と比較することによって検知対象の住人を特定し、記憶部350に個人検知情報として保存できる。
Similarly, the
演算部340は、記憶部350に保存された個人検知情報及び行動検知情報と、居住情報及び空間移動情報とを用いて個人の移動経路を分析することによって個人の移動情報を同定する。そして、記憶部350は、同定した個々人の移動経路を保存することができる。保存したこの移動経路を監視することによって、個々人の日常の移動情報と乖離する検知情報が検知された場合、検知対象の個人に何らかの異常が発生したと判断することができ、異常情報を外部通信部320を通じて遠隔管理部400へ伝達することができる。
The
図2は、図1に示すような構成の行動認識システム1000を、居住空間2000を含む住環境に導入した際の概略を示す図である。人感センサ100は、人の有無を検知する人感センサ、ドアの開閉を検知するドア開閉センサ、部屋の明るさを検知する照度センサ等で構成されている。これらのセンサは、単に人の存在の有無等を検知し、個人情報の特定を行わない。したがって、検知対象に住む住人のプライバシーを侵さないため、居住空間2000内であれば、設置場所の制限はない。図2においては、人感センサ100はリビングLやダイニングDに設置されている。
FIG. 2 is a diagram showing an overview when the
一方、人認識センサ200は、画像、音声、ToF、等の個人情報を取得し、個人を特定するセンサや、ドアの開閉の加速度を計測するセンサ等を含む。これらのセンサは、住人のプライバシーを含んだ情報を検知するため、設置する際にはプライバシー性に配慮する必要がある。例えば、玄関や廊下等の、共有性の比較的高い場所に設置することが好ましい。図2においては、人認識センサ200は玄関E等に設置されている。
On the other hand, the
なお、図2には家電の代表としてロボット掃除機500を図示したが、家電品は、ロボット掃除機等のような画像情報を扱うものであれば人認識センサ200として活用できる。また、冷蔵庫や洗濯機、空調機等のセンサや稼働情報をセンサの検知情報として用いる場合は、これらの家電を人感センサ100として活用することができる。行動推定装置300及び遠隔管理部400は、図には示さない。
Although FIG. 2 illustrates the
なお、図2は本発明における居住空間2000への人感センサ100及び人認識センサ200の設置方法の概略を示した一例であり、本発明における人感センサ100及び人認識センサ200の設置方法は図2に限定されるものではない。
FIG. 2 is an example showing an outline of a method for installing the
以上のように構成された行動認識システム1000において検知対象の住人の個々人の行動情報を検知・認識する処理の手順を図3~図7を用いて説明する。
Procedures for detecting and recognizing behavior information of an individual resident to be detected in the
まず、本発明に係る行動認識システム1000において利用する各種の情報について説明する。検知対象の居住空間2000に複数の人感センサ100及び複数の人認識センサ200を設置し、住人や住宅、及びセンサの基本情報等を行動推定装置300の記憶部350へ予め登録する。登録する情報としては、例えば、住人情報、部屋情報、センサ設置情報、居住情報、空間移動情報等である。これらの情報の一例について図3を用いて説明する。
First, various information used in the
図3に示すように、住人情報は、住人名、住人同士を区別するための個人ID、人認識センサ200で個人を特定するための住人の特徴量に関する特徴データより構築される。個人を特定するための特徴量とは、例えば身長、体格、姿勢、歩き方、利き手、画像や音声等各種センサで検知可能な情報である。部屋情報は、部屋名と部屋IDより構築される。センサ設置情報は、人感センサ100及び人認識センサ200を設置した設置情報を管理する情報であり、センサIDと設置した部屋ID及び、センサの種類(0:人認識センサ、1:非人認識センサ)によって構築される。
As shown in FIG. 3, the resident information is constructed from the name of the resident, an individual ID for distinguishing between residents, and feature data relating to the feature amount of the resident for specifying an individual by the
居住情報は、検知対象の住人が日常に在/不在になる空間をデータベース化した情報であり、個人ID、特徴日時情報(例えば、曜日や週末等、本実施の形態ではWD(ウィークデー)/WE(週末)で場合分けしているが、場合分けは本実施の形態に限らない)、時間帯(例えば、本実施の形態では、0:朝(4時~10時)、1:昼(10時~16時)、2:夜(16時~22時)、3:深夜(22時~4時)と分割するが、分割方法は本実施の形態に限らない)、空間の活用状況(0:在/1:不在/-:不明で場合分けしているが、場合分けは本実施の形態に限らない)によって構成される。 The residence information is a database of information about spaces in which a detection target resident is or is absent on a daily basis. (Weekend), but the classification is not limited to this embodiment), time period (for example, in this embodiment, 0: morning (4:00 to 10:00), 1: noon (10:00) 16:00 to 16:00), 2: Night (16:00 to 22:00), 3: Midnight (22:00 to 4:00), but the division method is not limited to this embodiment), space utilization status (0 : Present/1: Absent/-: Unknown, but case classification is not limited to this embodiment).
空間移動情報(移動情報)は、ある部屋からある部屋へ人が移動した際に反応する複数のセンサの、ONとOFFのセンサID列の一覧を示す情報であり、後述するように空間移動情報とセンサの検知情報を比較することによって移動経路を推定することができる。 Spatial movement information (movement information) is information indicating a list of ON and OFF sensor ID strings of a plurality of sensors that react when a person moves from one room to another. The moving route can be estimated by comparing the detection information of the sensor with
以上のような基本情報を行動推定装置300の記憶部350へ登録し、行動認識システム1000を稼働させる。図4は、行動認識システム1000が、人感センサ100または人認識センサ200から検知信号を受信した後、行動検知情報または個人検知情報として記憶部350に記憶させるまでの処理を示すフロー図である。
The basic information as described above is registered in the
行動認識システム1000が稼働すると、まず動作ステップS100へ移行する。動作ステップS100へ移行した行動認識システム1000は、人感センサ100及び、人認識センサ200の何れかが住人の行動を検知したかどうかを判別する。人感センサ100及び、人認識センサ200のいずれかが住人の行動を検知し、センサが応答した場合、動作ステップをS110へ移行し、センサ情報を選別/識別する処理へ移行する。
When the
センサが応答しない場合、動作ステップをS200へ移行し、センサの応答の検知を開始してからの稼働時間(T)が所定の経過時間(Tan)以上になったかを判別する。なお、所定の経過時間(Tan)は例えば6時間として設定できる。動作ステップS200にて稼働時間(T)≧経過時間(Tan)になった場合、動作ステップを図6のS210へ移動させ、移動人物の推定を行う処理へ移行する。この処理については後述する。稼働時間(T)<経過時間(Tan)の場合、経過時間をT+ΔT加えた後、動作ステップをS100へ戻す。 If the sensor does not respond, the operation step proceeds to S200, and it is determined whether or not the operating time (T) from the start of detection of the response of the sensor is equal to or longer than a predetermined elapsed time (Tan). Note that the predetermined elapsed time (Tan) can be set as, for example, 6 hours. If the operating time (T)≧elapsed time (Tan) in operation step S200, the operation step is moved to S210 in FIG. 6 to proceed to the process of estimating a moving person. This processing will be described later. If the operating time (T)<elapsed time (Tan), the operation step returns to S100 after adding the elapsed time (T+ΔT).
動作ステップS110へ移動した行動認識システム1000は、センサ情報を選別し、センサ情報に応じて検知データを蓄積する処理へ動作ステップを移動する。動作ステップS110において行動認識システム1000はセンサ設置情報を読み込んだ後、動作ステップをS120へ移行する。
After moving to operation step S110, the
動作ステップS120において行動認識システム1000は、人感センサ100または人認識センサ200から受信した検知情報から得た検知センサIDと、センサ設置情報とを比較し、検知情報を発信したセンサが人認識センサ200であるか、否(人感センサ100)かを判別する。動作ステップS120において、検知情報を発信しているセンサが人認識センサ200でない場合、すなわち人感センサ100であったと判定された場合には、行動認識システム1000は動作ステップをS121へ移行し、行動検知情報を作成し、動作ステップをS160へ移行させ、行動推定装置300の記憶部350に行動検知情報を保存する。
In operation step S120, the
ここで、行動検知情報とは、図5に示すような、部屋IDと検知時刻から構成させるデータ列である。すなわち、行動検知情報とは、人物を特定できる情報は有していないものの、センサが反応した場所及び時刻に関する情報を有するものである。動作ステップS120において、検知情報を発信しているセンサが人認識センサ200であると判定された場合、行動認識システム1000は、動作ステップをS130へ移行する。
Here, the behavior detection information is a data string composed of room IDs and detection times as shown in FIG. That is, the behavior detection information does not have information that can identify a person, but has information about the place and time when the sensor reacts. When it is determined in operation step S120 that the sensor transmitting the detection information is the
動作ステップS130へ処理を移行した行動認識システム1000は、行動推定装置300の記憶部350より住人情報を読み込んだ後、動作ステップをS140へ移行させる。
The
動作ステップS140へ移行した行動認識システム1000は、人認識センサ200から受信した検知情報と住人情報に登録されている個人の特徴データとを比較する。検知情報と合致する個人の特徴データが存在しない場合、行動認識システムは動作ステップをS121へ移行させ、行動検知情報として記憶部350に格納する。検知情報と合致する個人の特徴データが存在する場合、行動認識システム1000は動作ステップをS150へ移行する。
After moving to operation step S140, the
動作ステップをS150へ移行させた行動認識システム1000は、検知情報が個人の動作情報であると判断し、個人検知情報と行動検知情報を作成する。図5に示す通り、個人検知情報は部屋ID、個人ID、検知時刻から構成されるデータ列として構成される。すなわち、個人検知情報とは、行動検知情報に加えて、特定された個人に関する情報を含むものである。
The
行動認識システム1000は、動作ステップS150において個人検知情報と行動検知情報とを作成し、または動作ステップS121において行動検知情報を作成した後は、動作ステップをS160へ移行させる。そして、行動検知情報と個人検知情報を行動推定装置300の記憶部350に保存した後、再び動作ステップをS200に移行させ、稼働時間(T)≧経過時間(Tan)になった場合、動作ステップをS210へ移行し、図6に示す移動情報の推定と移動情報が保持する個人を特定する処理である移動人物推定の処理へと移行する。
After creating the individual detection information and the action detection information in operation step S150, or creating the action detection information in operation step S121, the
動作ステップS210では、行動認識システム1000は、記憶部350から空間移動情報を読み込んだ後、分析時間幅wで分割した行動検知情報と空間移動情報とを比較して、部屋間移動情報を作成する。ここで、部屋間移動情報とは、行動検知情報に含まれるある時刻間において人が移動した部屋(反応したセンサが設置された部屋)に関する情報である。具体的には、例えば図5の行動検知情報を例に示すと、時刻t1から時刻t2の間に人が部屋R1からR2に移動している。これと、図3の空間移動情報とを参照すると、部屋R1から部屋R2の移動は反応センサ列としてS1→S2、及びS1→S6→S5→S2の2ルートあることがわかる。すなわち、部屋間移動情報とはこの2ルートに関する情報のことである。この部屋間移動情報を、行動検知情報に含まれる検知時刻に沿って算出する。
In operation step S210, the
作成した部屋間移動情報を組合わせて移動経路候補情報を作成し、動作ステップをS220へ移動させる。なお、図7に示す通り、移動経路候補情報は、経過時間(Tan)内で生じた部屋間移動情報を繋いだ情報であり、各移動経路候補情報は移動した部屋IDと移動が完了した時刻の組で時間順に並べられた情報である。 The created inter-room movement information is combined to create movement route candidate information, and the operation step is moved to S220. Note that, as shown in FIG. 7, the moving route candidate information is information connecting the information on moving between rooms occurring within the elapsed time (Tan), and each moving route candidate information includes the ID of the room in which the movement was made and the time when the movement was completed. This is information arranged in chronological order by a set of .
動作ステップS220へ移動した行動認識システムは、記憶部350から居住情報を読み込んだ後、個人検知情報及び居住情報に含まれる個人ID毎の、各部屋IDにおける在/不在/不明情報を用いて、各移動経路候補情報が示す部屋IDと時刻の重み係数(w)を動作ステップS235~S265において決定する。
After moving to operation step S220, the action recognition system reads the residence information from the
ここで、重み係数(w)とは、その移動経路候補が、個人IDで特定されるある人物が辿った移動経路候補がどうかの確からしさを表す指標であり、下記のフローによって算出される。 Here, the weighting factor (w) is an index representing the probability of whether the moving route candidate is the moving route candidate followed by a person identified by the personal ID, and is calculated by the following flow.
動作ステップS230へ移行した行動認識システム1000は、移動経路候補情報中に示されている部屋IDと部屋間移動時間に合致する部屋ID及び検知時刻を含む個人検知情報が存在するか否かを判断する。ここで、部屋間移動時間とは、例えば図7中の移動経路候補情報の#1のR5→R2への移動に対する時間t1-t2間のことを指す。これと個人検知情報とを比較し、時刻t1-t2の間に部屋R2に存在したことを示す検知情報が存在するかどうか判定する。この処理を、全ての経路候補に対して行う。
After moving to operation step S230, the
S230において移動経路候補情報に合致する個人検知情報が存在すると判定された場合、行動認識システム1000は動作ステップS235へ移行し、重み係数を+1に設定し、動作ステップS270へ移行する。S230において合致する個人検知情報が存在しない場合、行動認識システムは動作ステップS240へ移行する。
If it is determined in S230 that there is individual detection information that matches the moving route candidate information, the
動作ステップS240へ移行した行動認識システム1000は、移動経路候補情報中に示されている部屋IDと部屋間移動時間に合致する情報が、居住情報中の「在室」に合致する部屋IDが存在するか否かを判別する。居住情報DBの在室に合致する部屋IDが存在する場合、行動認識システム1000は、動作ステップをS245へ移動し、重み係数を+1に設定し、動作ステップをS270へ移行する。これは、例えば図7の移動経路候補情報の#1において、時刻t2における部屋R2が候補として挙げられている。図3の居住情報を参照して、例えばこの時刻t2がDay:WDにおけるTimeZone:2であった場合、個人ID:P1で特定される人物が該当することになるので、この人物の行動の候補として+1の重みづけを行う。動作ステップS240において居住情報の在室に合致する部屋IDが存在しない場合、行動認識システムは動作ステップS250へ移行する。
When the
動作ステップS250へ移行した行動認識システム1000は、移動経路候補情報中に示されている部屋IDと部屋間移動時間に合致する情報が居住情報DBの「不在」に合致する部屋IDが存在するか否かを判別する。居住情報DBの不在に合致する部屋IDが存在する場合、行動認識システム1000は、動作ステップをS255へ移動し、重み係数を-1に設定し、動作ステップをS270へ移行する。これは例えば、図3の居住情報において、Day:WD、TimeZone:1において部屋ID:R1におけるセンサ検知情報があったとすると、個人ID:P1で特定される人物が「不在」とされている時間帯であり、ゆえに、この人物の経路候補としての可能性が低くなるため、-1の重みづけを行う、ということである。居住情報DBの不在に合致する部屋IDが存在しない場合、行動認識システム1000は、動作ステップをS265へ移行し、重み係数を0に設定し、動作ステップをS270へ移行する。
After moving to operation step S250, the
動作ステップS270へ移行した行動認識システム1000は、各移動経路候補の各部屋IDにおける在室時間と重み係数を用いて在室スコアを計算し、動作ステップをS280へ移動させる。なお、在室スコアSiは、部屋毎の重み係数w(RIDk)と当該部屋に在室していた時間(Tk+1-Tk)とを乗算して得られた値を、測定開始時刻から測定終了時刻まで加算させることで得られる。
After proceeding to operation step S270, the
動作ステップをS280へ移行した行動認識システム1000は、移動経路候補全てに対して計算を行ったか否かを判別し、全ての在室スコアの計算を終了した場合、動作ステップをS290へ移行し、全ての在室スコアの計算が終了していない場合、動作ステップをS220へ移行させる。
The
動作ステップをS290へ移行した行動認識システム1000は、計算対象の個人IDにおいて、移動経路候補毎の上記重みづけ計算の結果のうち最も在室スコアが高い移動経路候補をその個人の移動経路として判別し、動作ステップをS300へ移行する。動作ステップをS300へ移行した行動認識システム1000は、検知対象の住環境の全住人の移動経路を決定したのか否かを判断し、全住人の移動経路を決定した場合、動作ステップをS310へ移行する。
The
全住人の移動経路を決定していない場合、動作ステップをS220へ移行する。動作ステップをS310へ移行した行動認識システム1000は検知対象の個人の移動情報を行動推定装置300の記憶部350へ保存し、稼働時間(T)を0へリセットした後、動作ステップをS100へ移行する。
If the moving routes of all residents have not been determined, the operation step proceeds to S220. The
以上で説明した本発明の実施例によれば、以下の作用効果を奏する。
(1)本発明の一実施例に係る行動認識システムは、人を検知する複数の人感センサと、人を検知するとともに、該人を特定する複数の人認識センサと、を含むセンサ群と、センサ群から受信した検知情報に基づいて、人認識センサによって特定された人の行動を認識する行動推定装置と、を有し、行動推定装置は、センサ群のうち少なくとも1つが設置された領域からセンサ群のうち他の少なくとも1つが設置された他の領域まで人が移動する経路に関する移動情報を少なくとも記憶する記憶部と、センサ群が検知した情報を時系列解析し、解析の結果と、移動情報と、に基づいて、認識対象の人が移動し得る移動経路候補情報を作成し、移動経路候補情報と、複数の人認識センサが検知した情報と、に基づいて、複数の人認識センサが特定した人の行動を認識する演算部と、を有する。
According to the embodiments of the present invention described above, the following effects are obtained.
(1) A behavior recognition system according to an embodiment of the present invention includes a group of sensors including a plurality of human sensors that detect humans, and a plurality of human recognition sensors that detect humans and identify the humans. and a behavior estimation device for recognizing the behavior of the person identified by the human recognition sensor based on the detection information received from the sensor group, wherein the behavior estimation device is located in an area where at least one of the sensors is installed. a storage unit that stores at least movement information related to a route taken by a person from a sensor group to another area where at least one other sensor group is installed; a time series analysis of information detected by the sensor group; Based on the movement information, moving route candidate information along which the person to be recognized can move is created, and based on the moving route candidate information and information detected by the plurality of human recognition sensors, a plurality of human recognition sensors. and a computing unit that recognizes the behavior of the identified person.
上記構成により、住環境内に設けた複数のセンサ及び人感センサと、住環境内に備えた行動推定装置とを接続することで対象の住環境に住む個々の住人の行動を推定する推定部によって住人の行動を判別しすることが可能になる。さらに、人感センサや家電の検知情報を活用して人の行動情報を作成するために、人を認識するセンサの設置する数を抑制することができるため、利用者のプライバシー性を配慮した人の行動認識システムを提供することができる。 With the above configuration, an estimation unit that estimates the behavior of each resident living in the target living environment by connecting a plurality of sensors and motion sensors provided in the living environment with a behavior estimating device provided in the living environment. makes it possible to determine the behavior of residents. Furthermore, in order to create human behavior information using human sensors and detection information from home appliances, it is possible to reduce the number of sensors that recognize people. of action recognition system can be provided.
(2)行動推定装置は、人の行動に関する情報を、ネットワークを介してセンサ群が設置された領域外に伝達する外部通信部をさらに有する。これにより、住人の移動情報に異常があると判断された場合、外部の監視装置へ住人の異常を発報することが可能になる。 (2) The behavior estimation device further has an external communication unit that transmits information about human behavior outside the area where the sensor group is installed via the network. Thereby, when it is determined that there is an abnormality in the movement information of the resident, it is possible to report the abnormality of the resident to an external monitoring device.
(3)記憶部には、検知対象の人を特定するための特徴量に関する人物情報がさらに記憶されており、人認識センサは、検知内容と、人物情報とを比較することで、人を特定する。これにより、身長、体格、姿勢、歩き方、利き手、画像や音声等各種センサで検知可能な情報を利用できるため、様々な角度から個人を特定できることになり、特定の精度が向上する。 (3) The storage unit further stores person information related to feature amounts for identifying a person to be detected, and the person recognition sensor compares the detection content with the person information to identify the person do. This makes it possible to use information that can be detected by various sensors such as height, physique, posture, walking style, handedness, image and voice, so that an individual can be identified from various angles, and identification accuracy is improved.
(4)記憶部には、検知対象の人の、センサ群が設置された領域内での行動記録がさらに記憶されており、演算部は、複数の人認識センサが検知した情報と、移動経路候補情報と、に加えて、行動記録に基づいて、人の行動を認識する。これにより、人物に関する特徴量に基づいて人を特定できなかった場合であっても、予め記憶された行動記録(例えばどの部屋が誰の部屋か、等)に基づいて人の行動を認識することが可能になる。 (4) The storage unit further stores the behavior record of the person to be detected in the area where the sensor group is installed. Human behavior is recognized based on the candidate information and, in addition, the behavior record. As a result, even when a person cannot be identified based on the feature amount related to the person, the behavior of the person can be recognized based on the behavior records stored in advance (for example, which room is whose room, etc.). becomes possible.
(5)演算部は、行動記録を参照する前に、複数の人認識センサが検知した情報を参照して人の行動を認識する。これにより、行う処理が優先順位付けされることになるため、演算処理の負荷軽減及び高速化が期待できる。 (5) The computing unit refers to the information detected by the plurality of human recognition sensors to recognize the behavior of the person before referring to the behavior record. As a result, since the processing to be performed is prioritized, it is expected that the load of arithmetic processing will be reduced and the processing speed will be increased.
(6)演算部は、複数の人認識センサが検知した情報を参照して人の行動を認識できた場合には正の重みづけを行い行動記録を参照せず、複数の人認識センサが検知した情報を参照して人の行動を認識できなかった場合に、重みづけを行わずに行動記録を参照して人の行動を認識する。これにより、検知した情報に基づいて計量的に人の行動を認識することが可能となり、認識精度が向上する。 (6) When a human action is recognized by referring to information detected by a plurality of human recognition sensors, the computing unit assigns a positive weight, does not refer to the action record, and detects by a plurality of human recognition sensors. When the person's action cannot be recognized by referring to the obtained information, the person's action is recognized by referring to the action record without weighting. As a result, human behavior can be quantitatively recognized based on the detected information, and the recognition accuracy is improved.
(7)演算部は、行動記録を参照して人の行動を認識できた場合には正の重みづけを行い、人の行動を認識できなかった場合には負の重みづけを行う。これにより、(6)と同様に行動の認識を計量的に行うことが可能になり、さらに、負の重みづけを行うことにより、センサの誤検知による情報を排除することが可能になる。 (7) The calculation unit refers to the action record and assigns a positive weight when the human action is recognized, and assigns a negative weight when the human action is not recognized. This makes it possible to perform behavior recognition quantitatively in the same manner as in (6), and by performing negative weighting, it becomes possible to eliminate information due to erroneous sensor detection.
なお、本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。例えば、上記の実施例は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明は、必ずしも説明した全ての構成を備える態様に限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能である。また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、削除したり、他の構成を追加・置換したりすることが可能である。 It should be noted that the present invention is not limited to the above embodiments, and various modifications are possible. For example, the above embodiments have been described in detail in order to facilitate understanding of the present invention, and the present invention is not necessarily limited to aspects having all the described configurations. Also, part of the configuration of one embodiment can be replaced with the configuration of another embodiment. It is also possible to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is possible to delete a part of the configuration of each embodiment, or to add or replace another configuration.
100 人感センサ、200 人認識センサ、300 行動推定装置、320 外部通信部、340 演算部、350 記憶部 100 human sensor, 200 human recognition sensor, 300 action estimation device, 320 external communication unit, 340 calculation unit, 350 storage unit
Claims (7)
人を検知する複数の人感センサと、人を検知するとともに、該人を特定する複数の人認識センサと、を含むセンサ群と、
前記センサ群から受信した検知情報に基づいて、前記人認識センサによって特定された人の行動を認識する行動推定装置と、を有し、
前記行動推定装置は、
前記センサ群のうち少なくとも1つが設置された領域から前記センサ群のうち他の少なくとも1つが設置された他の領域まで人が移動する経路に関する移動情報を少なくとも記憶する記憶部と、
前記センサ群が検知した情報を時系列解析し、該解析の結果と、前記移動情報と、に基づいて、認識対象の人が移動し得る移動経路候補情報を作成し、前記移動経路候補情報と、前記複数の人認識センサが検知した情報と、に基づいて、前記複数の人認識センサが特定した人の行動を認識する演算部と、を有する、
ことを特徴とする行動認識システム。 An action recognition system for recognizing human action,
a sensor group including a plurality of human sensors that detect a person and a plurality of human recognition sensors that detect and specify the person;
a behavior estimation device that recognizes the behavior of the person identified by the person recognition sensor based on the detection information received from the sensor group;
The action estimation device is
a storage unit that stores at least movement information related to a route along which a person moves from an area in which at least one of the sensor groups is installed to another area in which at least one other of the sensor groups is installed;
time-series analysis of the information detected by the sensor group, and based on the result of the analysis and the movement information, moving route candidate information along which the person to be recognized can move is created, and the moving route candidate information and , and a calculation unit that recognizes the behavior of the person identified by the plurality of human recognition sensors based on the information detected by the plurality of human recognition sensors,
An action recognition system characterized by:
前記行動推定装置は、前記人の行動に関する情報を、ネットワークを介して前記センサ群が設置された領域外に伝達する外部通信部をさらに有する、
ことを特徴とする行動認識システム。 The action recognition system according to claim 1,
The behavior estimation device further has an external communication unit that transmits information about the behavior of the person outside the area where the sensor group is installed via a network.
An action recognition system characterized by:
前記記憶部には、検知対象の人を特定するための特徴量に関する人物情報がさらに記憶されており、
前記人認識センサは、検知内容と、前記人物情報とを比較することで、前記人を特定する、
ことを特徴とする行動認識システム。 The action recognition system according to claim 1,
The storage unit further stores person information related to a feature amount for specifying a person to be detected,
The person recognition sensor identifies the person by comparing the detection content with the person information.
An action recognition system characterized by:
前記記憶部には、検知対象の人の、前記センサ群が設置された領域内での行動記録がさらに記憶されており、
前記演算部は、前記複数の人認識センサが検知した情報と、前記移動経路候補情報と、に加えて、前記行動記録に基づいて、前記人の行動を認識する、
ことを特徴とする行動認識システム。 The action recognition system according to claim 1,
The storage unit further stores an action record of the person to be detected within the area where the sensor group is installed,
The computing unit recognizes the behavior of the person based on the behavior record in addition to the information detected by the plurality of person recognition sensors and the moving route candidate information.
An action recognition system characterized by:
前記演算部は、前記行動記録を参照する前に、前記複数の人認識センサが検知した情報を参照して前記人の行動を認識する、
ことを特徴とする行動認識システム。 The action recognition system according to claim 4,
The computing unit refers to information detected by the plurality of human recognition sensors to recognize the behavior of the person before referencing the behavior record.
An action recognition system characterized by:
前記演算部は、前記複数の人認識センサが検知した情報を参照して前記人の行動を認識できた場合には正の重みづけを行い前記行動記録を参照せず、前記複数の人認識センサが検知した情報を参照して前記人の行動を認識できなかった場合に、重みづけを行わずに前記行動記録を参照して前記人の行動を認識する、
ことを特徴とする行動認識システム。 The action recognition system according to claim 5,
The computing unit refers to the information detected by the plurality of human recognition sensors and, when the behavior of the person can be recognized, performs a positive weighting, does not refer to the behavior record, and does not refer to the behavior record. If the action of the person cannot be recognized by referring to the information detected by, the action record of the person is recognized without weighting by referring to the action record.
An action recognition system characterized by:
前記演算部は、前記行動記録を参照して前記人の行動を認識できた場合には正の重みづけを行い、前記人の行動を認識できなかった場合には負の重みづけを行う、
ことを特徴とする行動認識システム。 The action recognition system according to claim 6,
The calculation unit refers to the action record and performs positive weighting when the person's action can be recognized, and negative weighting when the person's action cannot be recognized.
An action recognition system characterized by:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021204814A JP7686548B2 (en) | 2021-12-17 | 2021-12-17 | Behavior Recognition System |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021204814A JP7686548B2 (en) | 2021-12-17 | 2021-12-17 | Behavior Recognition System |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023090067A true JP2023090067A (en) | 2023-06-29 |
| JP7686548B2 JP7686548B2 (en) | 2025-06-02 |
Family
ID=86937318
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021204814A Active JP7686548B2 (en) | 2021-12-17 | 2021-12-17 | Behavior Recognition System |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7686548B2 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017011698A (en) * | 2015-06-24 | 2017-01-12 | パナソニックIpマネジメント株式会社 | Remote nursing system for collective housings and remote monitoring system used therefor |
| US20200344238A1 (en) * | 2017-11-03 | 2020-10-29 | Sensormatic Electronics, LLC | Methods and System for Controlling Access to Enterprise Resources Based on Tracking |
| JP2021103462A (en) * | 2019-12-25 | 2021-07-15 | トヨタ自動車株式会社 | Information processing device, information processing method, and program |
| JP2021157274A (en) * | 2020-03-25 | 2021-10-07 | 株式会社日立製作所 | Behavior recognition server and behavior recognition method |
| JP2021175033A (en) * | 2020-04-21 | 2021-11-01 | 株式会社日立製作所 | Event analysis system and event analysis method |
-
2021
- 2021-12-17 JP JP2021204814A patent/JP7686548B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017011698A (en) * | 2015-06-24 | 2017-01-12 | パナソニックIpマネジメント株式会社 | Remote nursing system for collective housings and remote monitoring system used therefor |
| US20200344238A1 (en) * | 2017-11-03 | 2020-10-29 | Sensormatic Electronics, LLC | Methods and System for Controlling Access to Enterprise Resources Based on Tracking |
| JP2021103462A (en) * | 2019-12-25 | 2021-07-15 | トヨタ自動車株式会社 | Information processing device, information processing method, and program |
| JP2021157274A (en) * | 2020-03-25 | 2021-10-07 | 株式会社日立製作所 | Behavior recognition server and behavior recognition method |
| JP2021175033A (en) * | 2020-04-21 | 2021-11-01 | 株式会社日立製作所 | Event analysis system and event analysis method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7686548B2 (en) | 2025-06-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12209879B2 (en) | Automated mapping of sensors at a location | |
| CN205334101U (en) | Smart home system | |
| KR100804919B1 (en) | Object state detection device, object state detection method, home appliance, network adapter and media | |
| CN100355228C (en) | Anomalous detecting device and anomalous detection system | |
| CN110136832B (en) | Cognitive ability assessment system and method based on daily behaviors of old people | |
| US11734932B2 (en) | State and event monitoring | |
| AU2019227915A1 (en) | Monitoring of pet status during unattended delivery | |
| CN113168756A (en) | Anomaly Detection System | |
| US11544924B1 (en) | Investigation system for finding lost objects | |
| JP4754800B2 (en) | Method and system for modeling user movement in an environment, and method and system for modeling the geometry of a sensor network in an environment | |
| JP2023090067A (en) | Action recognition system | |
| US12417636B2 (en) | Using implicit event ground truth for video cameras | |
| WO2019230092A1 (en) | Robot, behavior detection server, and behavior detection system | |
| EP3908987B1 (en) | Method and system for reducing carbon monoxide in a building | |
| JP2024011411A (en) | Behavior recognition device, behavior recognition system, and behavior recognition method | |
| JP7152346B2 (en) | Security system | |
| Cardinale | Occupant activity detection in smart buildings: A review | |
| JP2005018166A (en) | Living information management system and method, and data tag device | |
| US11334042B2 (en) | Smart home control system for monitoring leaving and abnormal of family members | |
| WO2017149324A1 (en) | Occupancy sensing | |
| Poh et al. | Anomaly detection on in-home activities data based on time interval | |
| James Huchuk et al. | Short-Horizon Probabilistic Models For Whole Home Motion Prediction Using Connected Thermostat Data | |
| JP6659890B1 (en) | Security system | |
| Crandall et al. | Learning activity models for multiple agents in a smart space | |
| Stein et al. | Sensors, models and platform for ambient control |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240613 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250424 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250507 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250521 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7686548 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |