[go: up one dir, main page]

JP2023090067A - Action recognition system - Google Patents

Action recognition system Download PDF

Info

Publication number
JP2023090067A
JP2023090067A JP2021204814A JP2021204814A JP2023090067A JP 2023090067 A JP2023090067 A JP 2023090067A JP 2021204814 A JP2021204814 A JP 2021204814A JP 2021204814 A JP2021204814 A JP 2021204814A JP 2023090067 A JP2023090067 A JP 2023090067A
Authority
JP
Japan
Prior art keywords
person
information
action
recognition system
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021204814A
Other languages
Japanese (ja)
Other versions
JP7686548B2 (en
Inventor
正直 小谷
Masanao Kotani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021204814A priority Critical patent/JP7686548B2/en
Publication of JP2023090067A publication Critical patent/JP2023090067A/en
Application granted granted Critical
Publication of JP7686548B2 publication Critical patent/JP7686548B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an action recognition system that accurately detects and classifies action information for an individual person in a dwelling space where multiple persons live.SOLUTION: An action recognition system 1000 includes: a sensor group containing a plurality of presence sensors 100 for sensing a person and a plurality of person recognition sensors 200 which senses a person and is capable of identifying a person; and an action estimation device 300 that recognizes an action of an identified person on the basis of sensing information received from the sensor group. The action estimation device 300 includes: a storage unit 350 that stores movement information related to a route through which a person moves from one region where at least one sensor in the sensor group is installed to another region where at least another sensor in the sensor group is installed; and a calculation unit 340 that performs time series analysis of information sensed by the sensor group, creates candidate information for a movement route through which the person to be recognized can move on the basis of a result of the analysis and the movement information, and estimates the action of the person identified by the plurality of human recognition sensors on the basis of the candidate information for the movement route and the information sensed by the plurality of human recognition sensors.SELECTED DRAWING: Figure 1

Description

本発明は、住環境に設けた家電製品や人感センサ等のセンサの検知情報と、人を検知し特定するセンサとを組み合わせることによって住環境内に住む人の行動を認識するシステムに関する技術である。 The present invention is a technology related to a system that recognizes the actions of people living in a living environment by combining detection information from sensors such as home appliances and human sensors installed in the living environment and sensors that detect and identify people. be.

住環境内に居住するユーザの状態に応じた機器制御や、ユーザの活動状態を把握するために家電の稼働情報やセンサ情報を活用する従来技術には、例えば特許文献1がある。特許文献1には、一般家庭用に用いられる白物家電を用いて、遠隔介護を実施・運用する集合住宅向け遠隔介護システムとして、集合住宅を構成する居住空間内に設置した家電に居住空間に存在する住人の行動を検知する検知部を備えさせ、家電に設けた検知部の検知情報に基づいて、複数の居住空間内に設置された家電を遠隔制御したり検知情報に基づいて遠隔監視する技術が開示されている。 Japanese Unexamined Patent Application Publication No. 2002-100002 discloses a conventional technology that utilizes operation information of home appliances and sensor information in order to control equipment according to the state of a user living in a living environment and to grasp the activity state of the user. Patent Document 1 describes a remote care system for collective housing that implements and operates remote care using white goods used for general households. A detection unit that detects the behavior of existing residents is provided, and based on the detection information of the detection unit provided in the home appliance, home appliances installed in a plurality of living spaces are remotely controlled and remotely monitored based on the detection information. Techniques are disclosed.

特開2017-011698号公報JP 2017-011698 A

遠隔地から住人の安否を確認するシステムにおいては、通常の一般家庭においては、複数人の住民が生活空間を共有するので、住人の安否を判別するための行動情報には、住人の個別の行動を検知・識別することが求められる。一方で、住人の行動情報を個別化するには複数台の画像、音声等のセンサを居住空間内の各所に設けなければならなくなるため、住人のプライバシー性の確保、導入コスト、運営コスト等で課題を生じる。 In a system for confirming the safety of residents from a remote location, since multiple residents share a living space in a normal household, the behavior information for determining the safety of residents includes the individual behavior of the residents. is required to detect and identify On the other hand, in order to individualize the behavioral information of residents, it is necessary to install multiple sensors such as images and sounds in various places in the living space. create challenges.

例えば、二世帯住宅においては、人感センサや家電の稼働情報のみで行動情報を識別する安否確認システムを導入した場合、複数の住人が食堂やリビング等の共用空間で行動を共有した後、一人が共用空間に留まり、残りの人が別の居住空間へ移動したときに、人感センサの検知情報が、どの住民の行動に由来した値かを判別・識別できなくなる。このため、二人世帯以上の人数で住環境を共有するような住空間に人感センサや家電の稼働情報のみで行動情報を識別するような安否確認システムを導入した場合、住人の個別の行動を検知・識別することができなくなる。一方で、上記の問題を解決するために、住環境内に複数台の画像や音声等のセンサ等を設けた場合、プライバシー性の確保や導入コストや運営コスト等と言った観点で課題が生じる。 For example, in a two-family house, if a safety confirmation system that identifies behavioral information based only on motion sensors and home appliance operation information is introduced, after multiple residents share their behavior in shared spaces such as the dining room and living room, one person stays in the common space and the remaining people move to another living space, it becomes impossible to distinguish and identify which resident's behavior the value derived from the detection information of the human sensor. For this reason, if a safety confirmation system that identifies behavioral information based only on motion sensors and household appliance operation information is introduced in a living space where two or more people live in a shared living environment, individual behavior of residents cannot be detected. cannot be detected and identified. On the other hand, in order to solve the above problems, when multiple sensors such as images and sounds are installed in the living environment, problems arise in terms of ensuring privacy, introduction costs, operating costs, etc. .

本発明は、上記のような課題に対してなされるものであり、プライバシー性を配慮するために、人認識センサの設置数を制限した場合においても、複数人が居住する住空間内の個々人の行動情報を精度良く検知・分類することができる行動認識システムを提供することを目的としている。 The present invention is made to solve the above-mentioned problems, and even if the number of human recognition sensors installed is limited in consideration of privacy, it is possible to detect the presence of individuals in a living space where multiple people live. The object is to provide an action recognition system that can detect and classify action information with high accuracy.

上記の課題を解決するために、本発明の行動認識システムは、人を検知する複数の人感センサと、人を検知するとともに、該人を特定する複数の人認識センサと、を含むセンサ群と、センサ群から受信した検知情報に基づいて、人認識センサによって特定された人の行動を認識する行動推定装置と、を有し、行動推定装置は、センサ群のうち少なくとも1つが設置された領域からセンサ群のうち他の少なくとも1つが設置された他の領域まで人が移動する経路に関する移動情報を少なくとも記憶する記憶部と、センサ群が検知した情報を時系列解析し、解析の結果と、移動情報と、に基づいて、認識対象の人が移動し得る移動経路候補情報を作成し、移動経路候補情報と、複数の人認識センサが検知した情報と、に基づいて、複数の人認識センサが特定した人の行動を認識する演算部と、を有する。 In order to solve the above problems, the action recognition system of the present invention provides a sensor group including a plurality of human sensors that detect people, and a plurality of human recognition sensors that detect and specify the people. and a behavior estimation device for recognizing the behavior of the person identified by the human recognition sensor based on the detection information received from the sensor group, wherein the behavior estimation device is provided with at least one of the sensors. A storage unit that stores at least movement information related to a route taken by a person from an area to another area where at least one other sensor group is installed; , movement information, and moving route candidate information along which a person to be recognized can move is created, and a plurality of persons are recognized based on the moving route candidate information and information detected by a plurality of person recognition sensors. and a computing unit that recognizes the behavior of the person identified by the sensor.

本発明によれば、住環境内に設けた複数の人感センサ及び人認識センサと、住環境内に備えた行動推定装置とを接続することで対象の住環境に住む個々の住人の行動を推定する推定部によって住人の行動を判別することが可能になる。さらに、人感センサや家電の検知情報を活用して人の行動情報を作成するために、人を認識するセンサの設置する数を抑制することができるため、利用者のプライバシー性を配慮した人の行動認識システムを提供することができる。
本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
According to the present invention, by connecting a plurality of human detection sensors and human recognition sensors provided in the living environment with a behavior estimation device provided in the living environment, the behavior of each individual resident living in the target living environment can be detected. The estimating unit that estimates makes it possible to discriminate the behavior of the inhabitants. Furthermore, in order to create human behavior information using human sensors and detection information from home appliances, it is possible to reduce the number of sensors that recognize people. of action recognition system can be provided.
Further features related to the present invention will become apparent from the description of the specification and the accompanying drawings. Further, problems, configurations and effects other than those described above will be clarified by the following description of the embodiments.

本発明の行動認識システムの構成を示す概略図。Schematic diagram showing the configuration of the action recognition system of the present invention. 複数のセンサを住環境に設置する設置例を表す図。The figure showing the installation example which installs several sensors in living environment. 本発明の行動認識システムにおいて用いる各種の情報を説明するための図。FIG. 4 is a diagram for explaining various types of information used in the action recognition system of the present invention; 本発明の行動認識システムにおいてセンサが検知した情報を処理する手順を示すフロー図。FIG. 2 is a flow diagram showing a procedure for processing information detected by a sensor in the action recognition system of the present invention; 本発明の行動認識システムにおいて用いる行動検知情報及び個人行動検知情報を説明するための図。FIG. 4 is a diagram for explaining action detection information and personal action detection information used in the action recognition system of the present invention; 本発明の行動認識システムにおいてセンサが検知した情報を基に個人の移動情報を特定する処理を示すフロー図。FIG. 4 is a flow diagram showing a process of specifying personal movement information based on information detected by a sensor in the action recognition system of the present invention; 移動経路候補情報について説明するための図。FIG. 4 is a diagram for explaining moving route candidate information;

以下に、本発明の一実施例について図面を用いて説明する。図1は、本発明の行動認識システムの構成の概略を示している。本発明の行動認識システム1000は、人を検知する複数の人感センサ100(安価、簡易な人感センサや家電)と、人を検知し特定する複数の人認識センサ200(画像、音声、ToF、加速度センサなど、人を検知すると共に人の特定ができるセンサ)を含むセンサ群と、センサ群の検知情報に基づいて人及びその行動を特定・認識する行動推定装置300と、を有する。また、本実施例においては、行動認識システム1000は、行動推定装置300の情報を受信して、検知対象の住人の安否や状態を遠隔から確認することができる遠隔管理部400をさらに有している。 An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows an outline of the configuration of the action recognition system of the present invention. The action recognition system 1000 of the present invention includes a plurality of human sensors 100 (inexpensive, simple human sensors and home appliances) that detect people, and a plurality of human recognition sensors 200 (image, voice, ToF) that detect and identify people. , an acceleration sensor, etc.), and a behavior estimation device 300 that identifies and recognizes a person and his/her behavior based on the detection information of the sensor group. In addition, in this embodiment, the behavior recognition system 1000 further includes a remote management unit 400 that can receive information from the behavior estimation device 300 and remotely confirm the safety and condition of the residents to be detected. there is

複数の人感センサ100は、人感センサ100を起動するための電源部110、人感センサ100の検知情報及び人感センサ100の固有IDを行動推定装置300へ送信する通信部120、人感センサ100の固有情報を記憶するための記憶部130、人を検知する検知部140、及び人感センサ100の動作を制御する制御部150を有する。 The plurality of human sensors 100 includes a power supply unit 110 for activating the human sensor 100, a communication unit 120 for transmitting detection information of the human sensor 100 and a unique ID of the human sensor 100 to the behavior estimation device 300, a human It has a storage unit 130 for storing unique information of the sensor 100 , a detection unit 140 for detecting a person, and a control unit 150 for controlling the operation of the human sensor 100 .

また、複数の人認識センサ200も同様に、人認識センサ200を起動するための電源部210、人認識センサ200の検知情報及びセンサの固有IDを行動推定装置300へ送信する通信部220、人認識センサ200の固有情報を記憶するための記憶部230、人を検知・特定する検知部240、及び人認識センサ200の動作を制御する制御部250を有する。 In addition, the plurality of human recognition sensors 200 also include a power supply unit 210 for activating the human recognition sensor 200, a communication unit 220 for transmitting detection information of the human recognition sensor 200 and the unique ID of the sensor to the behavior estimation device 300, a person It has a storage unit 230 for storing unique information of the recognition sensor 200 , a detection unit 240 for detecting and specifying a person, and a control unit 250 for controlling the operation of the person recognition sensor 200 .

さらに、行動推定装置300は、通信部310、外部通信部320、制御部330、演算部340、記憶部350、タイマ360、及び外部電源370を有する。なお、行動推定装置300はサーバ、あるいはPC等で構成される。 Further, action estimation device 300 has communication section 310 , external communication section 320 , control section 330 , calculation section 340 , storage section 350 , timer 360 , and external power source 370 . Note that the behavior estimation device 300 is configured by a server, a PC, or the like.

通信部310は、複数の人感センサ100及び複数の人認識センサ200から発信された検知情報及びセンサ固有IDを受信する。外部通信部320は、複数の人感センサ100及び複数の人認識センサ200と行動推定装置300によって構築されるセンサネットワーク以外の外部のネットワークへ検知情報や分析情報を受発信する。制御部330は、センサネットワーク、外部ネットワーク等からの情報を分析し、分析結果に基づいて機器の制御を行う。演算部340は、外部通信部320からの入力情報や制御部330、複数の人感センサ100及び複数の人認識センサ200の検知情報と後述の空間移動情報、居住情報等に基づいて、住人個々人の行動を分別し、住人の安否を判別する。記憶部350は、演算部340で判別した住人の個々人の行動を判別した移動経路情報を記憶する。タイマ360は、複数の人感センサ100及び複数の人認識センサ200の検知情報を受信した際の時刻を評価する。また、遠隔管理部400は、外部通信部320を介して行動推定装置300で分析した住人の安否に関する情報を受発信することができる。 The communication unit 310 receives detection information and sensor unique IDs transmitted from the plurality of human sensors 100 and the plurality of human recognition sensors 200 . The external communication unit 320 receives and transmits detection information and analysis information to/from an external network other than the sensor network constructed by the plurality of human sensors 100 and the plurality of human recognition sensors 200 and the action estimation device 300 . The control unit 330 analyzes information from sensor networks, external networks, etc., and controls devices based on the analysis results. Based on the input information from the external communication unit 320, the detection information of the control unit 330, the plurality of human sensors 100 and the plurality of human recognition sensors 200, the spatial movement information described later, the residence information, etc. behavior and determine the safety of residents. The storage unit 350 stores movement route information obtained by determining the behavior of each individual resident determined by the calculation unit 340 . The timer 360 evaluates the time when detection information from the plurality of human sensors 100 and the plurality of human recognition sensors 200 is received. In addition, the remote management unit 400 can receive and transmit information regarding the safety of residents analyzed by the behavior estimation device 300 via the external communication unit 320 .

以上のような構成で行動認識システムを構築することによって、住環境内に設置した複数の人感センサ100及び複数の人認識センサ200が検知した住人の検知情報とセンサの固有IDを行動推定装置300へ送信することができる。検知情報とセンサIDを受信した、行動推定装置300の演算部340は、タイマ360によって受信時刻を管理し、検知情報を発信したセンサが人感センサ100であった場合は、センサIDとセンサ設置情報から、センサが反応した部屋(行動が生じた場所)と時刻を演算部340で判別し、行動検知情報として記憶部350に保存することができる。 By constructing the action recognition system with the configuration described above, the detection information of the inhabitants detected by the plurality of human sensors 100 and the plurality of human recognition sensors 200 installed in the living environment and the unique IDs of the sensors can be detected by the action estimation device. 300. The computing unit 340 of the behavior estimation device 300 that has received the detection information and the sensor ID manages the reception time using the timer 360, and if the sensor that transmitted the detection information is the human sensor 100, the sensor ID and the sensor installation From the information, the room in which the sensor reacted (where the action occurred) and the time can be determined by the calculation unit 340 and stored in the storage unit 350 as action detection information.

同様に、演算部340は、センサの固有IDよりセンサの種類を認識し、検知情報を発信したセンサが人認識センサ200であった場合、演算部340で住人情報と比較することによって検知対象の住人を特定し、記憶部350に個人検知情報として保存できる。 Similarly, the calculation unit 340 recognizes the type of sensor from the unique ID of the sensor, and if the sensor that has transmitted the detection information is the human recognition sensor 200, the calculation unit 340 compares it with the resident information to identify the detection target. Residents can be specified and stored in the storage unit 350 as individual detection information.

演算部340は、記憶部350に保存された個人検知情報及び行動検知情報と、居住情報及び空間移動情報とを用いて個人の移動経路を分析することによって個人の移動情報を同定する。そして、記憶部350は、同定した個々人の移動経路を保存することができる。保存したこの移動経路を監視することによって、個々人の日常の移動情報と乖離する検知情報が検知された場合、検知対象の個人に何らかの異常が発生したと判断することができ、異常情報を外部通信部320を通じて遠隔管理部400へ伝達することができる。 The computing unit 340 identifies the movement information of the individual by analyzing the movement route of the individual using the individual detection information and behavior detection information stored in the storage unit 350, the residence information and the spatial movement information. The storage unit 350 can store the movement route of the identified individual. By monitoring this saved movement route, if detection information that diverges from the individual's daily movement information is detected, it can be determined that some abnormality has occurred in the individual to be detected, and the abnormality information can be communicated externally. It can be transmitted to the remote management unit 400 through the unit 320 .

図2は、図1に示すような構成の行動認識システム1000を、居住空間2000を含む住環境に導入した際の概略を示す図である。人感センサ100は、人の有無を検知する人感センサ、ドアの開閉を検知するドア開閉センサ、部屋の明るさを検知する照度センサ等で構成されている。これらのセンサは、単に人の存在の有無等を検知し、個人情報の特定を行わない。したがって、検知対象に住む住人のプライバシーを侵さないため、居住空間2000内であれば、設置場所の制限はない。図2においては、人感センサ100はリビングLやダイニングDに設置されている。 FIG. 2 is a diagram showing an overview when the action recognition system 1000 configured as shown in FIG. 1 is introduced into a living environment including a living space 2000. As shown in FIG. The human sensor 100 includes a human sensor that detects the presence or absence of a person, a door open/close sensor that detects opening and closing of a door, an illuminance sensor that detects the brightness of a room, and the like. These sensors simply detect the presence or absence of a person, and do not specify personal information. Therefore, there is no restriction on the installation location as long as it is within the living space 2000 so as not to violate the privacy of the residents living in the detection target. In FIG. 2, the human sensor 100 is installed in the living room L and the dining room D. As shown in FIG.

一方、人認識センサ200は、画像、音声、ToF、等の個人情報を取得し、個人を特定するセンサや、ドアの開閉の加速度を計測するセンサ等を含む。これらのセンサは、住人のプライバシーを含んだ情報を検知するため、設置する際にはプライバシー性に配慮する必要がある。例えば、玄関や廊下等の、共有性の比較的高い場所に設置することが好ましい。図2においては、人認識センサ200は玄関E等に設置されている。 On the other hand, the human recognition sensor 200 includes a sensor that acquires personal information such as images, voices, ToF, and the like to identify an individual, a sensor that measures the acceleration of opening and closing a door, and the like. Since these sensors detect information that includes the privacy of residents, it is necessary to consider privacy when installing them. For example, it is preferable to install it in a place with relatively high commonality, such as an entrance or a hallway. In FIG. 2, the human recognition sensor 200 is installed at the entrance E or the like.

なお、図2には家電の代表としてロボット掃除機500を図示したが、家電品は、ロボット掃除機等のような画像情報を扱うものであれば人認識センサ200として活用できる。また、冷蔵庫や洗濯機、空調機等のセンサや稼働情報をセンサの検知情報として用いる場合は、これらの家電を人感センサ100として活用することができる。行動推定装置300及び遠隔管理部400は、図には示さない。 Although FIG. 2 illustrates the robot cleaner 500 as a representative home appliance, any home appliance that handles image information, such as a robot cleaner, can be used as the human recognition sensor 200 . In addition, when sensors and operation information of refrigerators, washing machines, air conditioners, etc. are used as sensor detection information, these home appliances can be utilized as the human sensor 100 . Behavior estimation device 300 and remote management unit 400 are not shown in the figure.

なお、図2は本発明における居住空間2000への人感センサ100及び人認識センサ200の設置方法の概略を示した一例であり、本発明における人感センサ100及び人認識センサ200の設置方法は図2に限定されるものではない。 FIG. 2 is an example showing an outline of a method for installing the human sensor 100 and the human recognition sensor 200 in the living space 2000 according to the present invention. It is not limited to FIG.

以上のように構成された行動認識システム1000において検知対象の住人の個々人の行動情報を検知・認識する処理の手順を図3~図7を用いて説明する。 Procedures for detecting and recognizing behavior information of an individual resident to be detected in the behavior recognition system 1000 configured as described above will be described with reference to FIGS. 3 to 7. FIG.

まず、本発明に係る行動認識システム1000において利用する各種の情報について説明する。検知対象の居住空間2000に複数の人感センサ100及び複数の人認識センサ200を設置し、住人や住宅、及びセンサの基本情報等を行動推定装置300の記憶部350へ予め登録する。登録する情報としては、例えば、住人情報、部屋情報、センサ設置情報、居住情報、空間移動情報等である。これらの情報の一例について図3を用いて説明する。 First, various information used in the action recognition system 1000 according to the present invention will be described. A plurality of human sensors 100 and a plurality of human recognition sensors 200 are installed in a living space 2000 to be detected, and basic information of residents, houses, sensors, etc. are registered in the storage unit 350 of the behavior estimation device 300 in advance. Information to be registered includes, for example, resident information, room information, sensor installation information, residence information, spatial movement information, and the like. An example of such information will be described with reference to FIG.

図3に示すように、住人情報は、住人名、住人同士を区別するための個人ID、人認識センサ200で個人を特定するための住人の特徴量に関する特徴データより構築される。個人を特定するための特徴量とは、例えば身長、体格、姿勢、歩き方、利き手、画像や音声等各種センサで検知可能な情報である。部屋情報は、部屋名と部屋IDより構築される。センサ設置情報は、人感センサ100及び人認識センサ200を設置した設置情報を管理する情報であり、センサIDと設置した部屋ID及び、センサの種類(0:人認識センサ、1:非人認識センサ)によって構築される。 As shown in FIG. 3, the resident information is constructed from the name of the resident, an individual ID for distinguishing between residents, and feature data relating to the feature amount of the resident for specifying an individual by the human recognition sensor 200 . The feature amount for identifying an individual is, for example, height, physique, posture, walking style, dominant hand, image, voice, and other information that can be detected by various sensors. Room information is constructed from a room name and a room ID. The sensor installation information is information for managing installation information on installation of the human sensor 100 and the human recognition sensor 200, and includes the sensor ID, the room ID where the sensor is installed, and the sensor type (0: human recognition sensor, 1: non-human recognition sensor).

居住情報は、検知対象の住人が日常に在/不在になる空間をデータベース化した情報であり、個人ID、特徴日時情報(例えば、曜日や週末等、本実施の形態ではWD(ウィークデー)/WE(週末)で場合分けしているが、場合分けは本実施の形態に限らない)、時間帯(例えば、本実施の形態では、0:朝(4時~10時)、1:昼(10時~16時)、2:夜(16時~22時)、3:深夜(22時~4時)と分割するが、分割方法は本実施の形態に限らない)、空間の活用状況(0:在/1:不在/-:不明で場合分けしているが、場合分けは本実施の形態に限らない)によって構成される。 The residence information is a database of information about spaces in which a detection target resident is or is absent on a daily basis. (Weekend), but the classification is not limited to this embodiment), time period (for example, in this embodiment, 0: morning (4:00 to 10:00), 1: noon (10:00) 16:00 to 16:00), 2: Night (16:00 to 22:00), 3: Midnight (22:00 to 4:00), but the division method is not limited to this embodiment), space utilization status (0 : Present/1: Absent/-: Unknown, but case classification is not limited to this embodiment).

空間移動情報(移動情報)は、ある部屋からある部屋へ人が移動した際に反応する複数のセンサの、ONとOFFのセンサID列の一覧を示す情報であり、後述するように空間移動情報とセンサの検知情報を比較することによって移動経路を推定することができる。 Spatial movement information (movement information) is information indicating a list of ON and OFF sensor ID strings of a plurality of sensors that react when a person moves from one room to another. The moving route can be estimated by comparing the detection information of the sensor with

以上のような基本情報を行動推定装置300の記憶部350へ登録し、行動認識システム1000を稼働させる。図4は、行動認識システム1000が、人感センサ100または人認識センサ200から検知信号を受信した後、行動検知情報または個人検知情報として記憶部350に記憶させるまでの処理を示すフロー図である。 The basic information as described above is registered in the storage unit 350 of the action estimation device 300, and the action recognition system 1000 is operated. FIG. 4 is a flow diagram showing the processing performed by the action recognition system 1000 after receiving a detection signal from the human sensor 100 or the human recognition sensor 200 until it is stored in the storage unit 350 as action detection information or individual detection information. .

行動認識システム1000が稼働すると、まず動作ステップS100へ移行する。動作ステップS100へ移行した行動認識システム1000は、人感センサ100及び、人認識センサ200の何れかが住人の行動を検知したかどうかを判別する。人感センサ100及び、人認識センサ200のいずれかが住人の行動を検知し、センサが応答した場合、動作ステップをS110へ移行し、センサ情報を選別/識別する処理へ移行する。 When the action recognition system 1000 is activated, first, the process proceeds to operation step S100. After moving to operation step S100, the action recognition system 1000 determines whether any of the human sensor 100 and the human recognition sensor 200 has detected the action of the resident. If either the human sensor 100 or the human recognition sensor 200 detects the action of the resident and the sensor responds, the operation step shifts to S110, and shifts to the process of sorting/identifying the sensor information.

センサが応答しない場合、動作ステップをS200へ移行し、センサの応答の検知を開始してからの稼働時間(T)が所定の経過時間(Tan)以上になったかを判別する。なお、所定の経過時間(Tan)は例えば6時間として設定できる。動作ステップS200にて稼働時間(T)≧経過時間(Tan)になった場合、動作ステップを図6のS210へ移動させ、移動人物の推定を行う処理へ移行する。この処理については後述する。稼働時間(T)<経過時間(Tan)の場合、経過時間をT+ΔT加えた後、動作ステップをS100へ戻す。 If the sensor does not respond, the operation step proceeds to S200, and it is determined whether or not the operating time (T) from the start of detection of the response of the sensor is equal to or longer than a predetermined elapsed time (Tan). Note that the predetermined elapsed time (Tan) can be set as, for example, 6 hours. If the operating time (T)≧elapsed time (Tan) in operation step S200, the operation step is moved to S210 in FIG. 6 to proceed to the process of estimating a moving person. This processing will be described later. If the operating time (T)<elapsed time (Tan), the operation step returns to S100 after adding the elapsed time (T+ΔT).

動作ステップS110へ移動した行動認識システム1000は、センサ情報を選別し、センサ情報に応じて検知データを蓄積する処理へ動作ステップを移動する。動作ステップS110において行動認識システム1000はセンサ設置情報を読み込んだ後、動作ステップをS120へ移行する。 After moving to operation step S110, the action recognition system 1000 selects sensor information and moves the operation step to a process of accumulating detection data according to the sensor information. After reading the sensor installation information in operation step S110, the action recognition system 1000 proceeds to operation step S120.

動作ステップS120において行動認識システム1000は、人感センサ100または人認識センサ200から受信した検知情報から得た検知センサIDと、センサ設置情報とを比較し、検知情報を発信したセンサが人認識センサ200であるか、否(人感センサ100)かを判別する。動作ステップS120において、検知情報を発信しているセンサが人認識センサ200でない場合、すなわち人感センサ100であったと判定された場合には、行動認識システム1000は動作ステップをS121へ移行し、行動検知情報を作成し、動作ステップをS160へ移行させ、行動推定装置300の記憶部350に行動検知情報を保存する。 In operation step S120, the action recognition system 1000 compares the detection sensor ID obtained from the detection information received from the human sensor 100 or the human recognition sensor 200 with the sensor installation information, and the sensor that transmitted the detection information is the human recognition sensor. 200 or not (human sensor 100). In operation step S120, if the sensor transmitting the detection information is not the human recognition sensor 200, that is, if it is determined to be the human sensor 100, the action recognition system 1000 shifts the operation step to S121, The detection information is created, the operation step is shifted to S<b>160 , and the action detection information is stored in the storage unit 350 of the action estimation device 300 .

ここで、行動検知情報とは、図5に示すような、部屋IDと検知時刻から構成させるデータ列である。すなわち、行動検知情報とは、人物を特定できる情報は有していないものの、センサが反応した場所及び時刻に関する情報を有するものである。動作ステップS120において、検知情報を発信しているセンサが人認識センサ200であると判定された場合、行動認識システム1000は、動作ステップをS130へ移行する。 Here, the behavior detection information is a data string composed of room IDs and detection times as shown in FIG. That is, the behavior detection information does not have information that can identify a person, but has information about the place and time when the sensor reacts. When it is determined in operation step S120 that the sensor transmitting the detection information is the human recognition sensor 200, the action recognition system 1000 shifts the operation step to S130.

動作ステップS130へ処理を移行した行動認識システム1000は、行動推定装置300の記憶部350より住人情報を読み込んだ後、動作ステップをS140へ移行させる。 The action recognition system 1000, which has shifted the process to operation step S130, reads the resident information from the storage unit 350 of the action estimation device 300, and then shifts the operation step to S140.

動作ステップS140へ移行した行動認識システム1000は、人認識センサ200から受信した検知情報と住人情報に登録されている個人の特徴データとを比較する。検知情報と合致する個人の特徴データが存在しない場合、行動認識システムは動作ステップをS121へ移行させ、行動検知情報として記憶部350に格納する。検知情報と合致する個人の特徴データが存在する場合、行動認識システム1000は動作ステップをS150へ移行する。 After moving to operation step S140, the action recognition system 1000 compares the detection information received from the human recognition sensor 200 with the individual feature data registered in the resident information. If there is no personal feature data that matches the detection information, the action recognition system shifts the operation step to S121 and stores it in the storage unit 350 as action detection information. If there is personal feature data that matches the detection information, the action recognition system 1000 moves the operation step to S150.

動作ステップをS150へ移行させた行動認識システム1000は、検知情報が個人の動作情報であると判断し、個人検知情報と行動検知情報を作成する。図5に示す通り、個人検知情報は部屋ID、個人ID、検知時刻から構成されるデータ列として構成される。すなわち、個人検知情報とは、行動検知情報に加えて、特定された個人に関する情報を含むものである。 The action recognition system 1000 that has moved the action step to S150 determines that the detection information is personal action information, and creates individual detection information and action detection information. As shown in FIG. 5, the individual detection information is configured as a data string including a room ID, individual ID, and detection time. In other words, the individual detection information includes information related to the specified individual in addition to the action detection information.

行動認識システム1000は、動作ステップS150において個人検知情報と行動検知情報とを作成し、または動作ステップS121において行動検知情報を作成した後は、動作ステップをS160へ移行させる。そして、行動検知情報と個人検知情報を行動推定装置300の記憶部350に保存した後、再び動作ステップをS200に移行させ、稼働時間(T)≧経過時間(Tan)になった場合、動作ステップをS210へ移行し、図6に示す移動情報の推定と移動情報が保持する個人を特定する処理である移動人物推定の処理へと移行する。 After creating the individual detection information and the action detection information in operation step S150, or creating the action detection information in operation step S121, the action recognition system 1000 shifts the operation step to S160. Then, after storing the behavior detection information and the individual detection information in the storage unit 350 of the behavior estimation device 300, the operation step is shifted to S200 again. moves to S210, and moves to a moving person estimation process, which is a process of estimating the movement information shown in FIG. 6 and identifying an individual held by the movement information.

動作ステップS210では、行動認識システム1000は、記憶部350から空間移動情報を読み込んだ後、分析時間幅wで分割した行動検知情報と空間移動情報とを比較して、部屋間移動情報を作成する。ここで、部屋間移動情報とは、行動検知情報に含まれるある時刻間において人が移動した部屋(反応したセンサが設置された部屋)に関する情報である。具体的には、例えば図5の行動検知情報を例に示すと、時刻t1から時刻t2の間に人が部屋R1からR2に移動している。これと、図3の空間移動情報とを参照すると、部屋R1から部屋R2の移動は反応センサ列としてS1→S2、及びS1→S6→S5→S2の2ルートあることがわかる。すなわち、部屋間移動情報とはこの2ルートに関する情報のことである。この部屋間移動情報を、行動検知情報に含まれる検知時刻に沿って算出する。 In operation step S210, the action recognition system 1000 reads the spatial movement information from the storage unit 350, and then compares the action detection information divided by the analysis time width w with the spatial movement information to create inter-room movement information. . Here, inter-room movement information is information relating to a room (a room in which a sensor that has reacted is installed) to which a person has moved during a certain period of time included in the behavior detection information. Specifically, taking the behavior detection information in FIG. 5 as an example, a person moves from room R1 to room R2 between time t1 and time t2. Referring to this and the spatial movement information in FIG. 3, it can be seen that the movement from room R1 to room R2 has two routes of S1→S2 and S1→S6→S5→S2 as reaction sensor arrays. That is, inter-room movement information is information regarding these two routes. This inter-room movement information is calculated along with the detection time included in the behavior detection information.

作成した部屋間移動情報を組合わせて移動経路候補情報を作成し、動作ステップをS220へ移動させる。なお、図7に示す通り、移動経路候補情報は、経過時間(Tan)内で生じた部屋間移動情報を繋いだ情報であり、各移動経路候補情報は移動した部屋IDと移動が完了した時刻の組で時間順に並べられた情報である。 The created inter-room movement information is combined to create movement route candidate information, and the operation step is moved to S220. Note that, as shown in FIG. 7, the moving route candidate information is information connecting the information on moving between rooms occurring within the elapsed time (Tan), and each moving route candidate information includes the ID of the room in which the movement was made and the time when the movement was completed. This is information arranged in chronological order by a set of .

動作ステップS220へ移動した行動認識システムは、記憶部350から居住情報を読み込んだ後、個人検知情報及び居住情報に含まれる個人ID毎の、各部屋IDにおける在/不在/不明情報を用いて、各移動経路候補情報が示す部屋IDと時刻の重み係数(w)を動作ステップS235~S265において決定する。 After moving to operation step S220, the action recognition system reads the residence information from the storage unit 350, and uses presence/absence/unknown information in each room ID for each individual ID included in the individual detection information and the residence information, A weighting factor (w) for the room ID and the time indicated by each moving route candidate information is determined in operation steps S235 to S265.

ここで、重み係数(w)とは、その移動経路候補が、個人IDで特定されるある人物が辿った移動経路候補がどうかの確からしさを表す指標であり、下記のフローによって算出される。 Here, the weighting factor (w) is an index representing the probability of whether the moving route candidate is the moving route candidate followed by a person identified by the personal ID, and is calculated by the following flow.

動作ステップS230へ移行した行動認識システム1000は、移動経路候補情報中に示されている部屋IDと部屋間移動時間に合致する部屋ID及び検知時刻を含む個人検知情報が存在するか否かを判断する。ここで、部屋間移動時間とは、例えば図7中の移動経路候補情報の#1のR5→R2への移動に対する時間t1-t2間のことを指す。これと個人検知情報とを比較し、時刻t1-t2の間に部屋R2に存在したことを示す検知情報が存在するかどうか判定する。この処理を、全ての経路候補に対して行う。 After moving to operation step S230, the action recognition system 1000 determines whether or not individual detection information including a room ID and a detection time matching the room ID and inter-room movement time shown in the movement route candidate information exists. do. Here, the moving time between rooms refers to the time t1-t2 for moving from R5 to R2 in #1 of the moving route candidate information in FIG. 7, for example. This is compared with the individual detection information, and it is determined whether or not there is detection information indicating that the person was in room R2 during time t1-t2. This processing is performed for all route candidates.

S230において移動経路候補情報に合致する個人検知情報が存在すると判定された場合、行動認識システム1000は動作ステップS235へ移行し、重み係数を+1に設定し、動作ステップS270へ移行する。S230において合致する個人検知情報が存在しない場合、行動認識システムは動作ステップS240へ移行する。 If it is determined in S230 that there is individual detection information that matches the moving route candidate information, the action recognition system 1000 proceeds to operation step S235, sets the weighting factor to +1, and proceeds to operation step S270. If no matching individual detection information exists in S230, the action recognition system proceeds to operation step S240.

動作ステップS240へ移行した行動認識システム1000は、移動経路候補情報中に示されている部屋IDと部屋間移動時間に合致する情報が、居住情報中の「在室」に合致する部屋IDが存在するか否かを判別する。居住情報DBの在室に合致する部屋IDが存在する場合、行動認識システム1000は、動作ステップをS245へ移動し、重み係数を+1に設定し、動作ステップをS270へ移行する。これは、例えば図7の移動経路候補情報の#1において、時刻t2における部屋R2が候補として挙げられている。図3の居住情報を参照して、例えばこの時刻t2がDay:WDにおけるTimeZone:2であった場合、個人ID:P1で特定される人物が該当することになるので、この人物の行動の候補として+1の重みづけを行う。動作ステップS240において居住情報の在室に合致する部屋IDが存在しない場合、行動認識システムは動作ステップS250へ移行する。 When the action recognition system 1000 proceeds to operation step S240, information that matches the room ID and the inter-room travel time indicated in the movement route candidate information exists, and if there is a room ID that matches "in the room" in the residence information. determine whether or not to If there is a room ID that matches the presence in the room in the residence information DB, the action recognition system 1000 moves the operation step to S245, sets the weighting factor to +1, and moves the operation step to S270. For example, in #1 of the moving route candidate information in FIG. 7, room R2 at time t2 is listed as a candidate. Referring to the residence information in FIG. 3, for example, if this time t2 is Day: WD and TimeZone: 2, the person identified by personal ID: P1 corresponds. is weighted by +1. If there is no room ID that matches the presence in the room in the residence information in operation step S240, the action recognition system proceeds to operation step S250.

動作ステップS250へ移行した行動認識システム1000は、移動経路候補情報中に示されている部屋IDと部屋間移動時間に合致する情報が居住情報DBの「不在」に合致する部屋IDが存在するか否かを判別する。居住情報DBの不在に合致する部屋IDが存在する場合、行動認識システム1000は、動作ステップをS255へ移動し、重み係数を-1に設定し、動作ステップをS270へ移行する。これは例えば、図3の居住情報において、Day:WD、TimeZone:1において部屋ID:R1におけるセンサ検知情報があったとすると、個人ID:P1で特定される人物が「不在」とされている時間帯であり、ゆえに、この人物の経路候補としての可能性が低くなるため、-1の重みづけを行う、ということである。居住情報DBの不在に合致する部屋IDが存在しない場合、行動認識システム1000は、動作ステップをS265へ移行し、重み係数を0に設定し、動作ステップをS270へ移行する。 After moving to operation step S250, the action recognition system 1000 determines whether there is a room ID whose information matching the room ID and the inter-room moving time shown in the moving route candidate information matches "absent" in the residence information DB. determine whether or not If there is a room ID that matches the absence in the residence information DB, the action recognition system 1000 moves the operation step to S255, sets the weighting factor to -1, and moves the operation step to S270. For example, in the residential information of FIG. 3, if there is sensor detection information for room ID: R1 in Day: WD, TimeZone: 1, the time when the person specified by personal ID: P1 is "absent" This person is a belt, and therefore the possibility of this person as a route candidate is low, so a weight of -1 is given. If there is no room ID that matches the absence in the residence information DB, the action recognition system 1000 shifts the operation step to S265, sets the weighting factor to 0, and shifts the operation step to S270.

動作ステップS270へ移行した行動認識システム1000は、各移動経路候補の各部屋IDにおける在室時間と重み係数を用いて在室スコアを計算し、動作ステップをS280へ移動させる。なお、在室スコアSは、部屋毎の重み係数w(RID)と当該部屋に在室していた時間(Tk+1-T)とを乗算して得られた値を、測定開始時刻から測定終了時刻まで加算させることで得られる。 After proceeding to operation step S270, the action recognition system 1000 calculates a room occupancy score using the room occupancy time and the weighting factor in each room ID of each moving route candidate, and moves the operation step to S280. Note that the room occupancy score S i is obtained by multiplying the weighting factor w (RID k ) for each room by the time (T k+1 −T k ) spent in the room, to the measurement end time.

動作ステップをS280へ移行した行動認識システム1000は、移動経路候補全てに対して計算を行ったか否かを判別し、全ての在室スコアの計算を終了した場合、動作ステップをS290へ移行し、全ての在室スコアの計算が終了していない場合、動作ステップをS220へ移行させる。 The action recognition system 1000, which has shifted the operation step to S280, determines whether or not calculation has been performed for all movement route candidates, and when the calculation of all room presence scores has been completed, shifts the operation step to S290, If calculation of all room occupancy scores has not been completed, the operation step proceeds to S220.

動作ステップをS290へ移行した行動認識システム1000は、計算対象の個人IDにおいて、移動経路候補毎の上記重みづけ計算の結果のうち最も在室スコアが高い移動経路候補をその個人の移動経路として判別し、動作ステップをS300へ移行する。動作ステップをS300へ移行した行動認識システム1000は、検知対象の住環境の全住人の移動経路を決定したのか否かを判断し、全住人の移動経路を決定した場合、動作ステップをS310へ移行する。 The action recognition system 1000, which has shifted the operation step to S290, determines the moving route candidate with the highest room presence score among the results of the weighting calculation for each moving route candidate as the moving route of the individual for the individual ID to be calculated. Then, the operation step moves to S300. The action recognition system 1000 having shifted the operation step to S300 determines whether or not the moving routes of all the residents of the living environment to be detected have been determined, and when the moving routes of all the residents have been determined, shifts the operating step to S310. do.

全住人の移動経路を決定していない場合、動作ステップをS220へ移行する。動作ステップをS310へ移行した行動認識システム1000は検知対象の個人の移動情報を行動推定装置300の記憶部350へ保存し、稼働時間(T)を0へリセットした後、動作ステップをS100へ移行する。 If the moving routes of all residents have not been determined, the operation step proceeds to S220. The action recognition system 1000, which has shifted the operation step to S310, saves the movement information of the individual to be detected in the storage unit 350 of the action estimation device 300, resets the operating time (T) to 0, and then shifts the operation step to S100. do.

以上で説明した本発明の実施例によれば、以下の作用効果を奏する。
(1)本発明の一実施例に係る行動認識システムは、人を検知する複数の人感センサと、人を検知するとともに、該人を特定する複数の人認識センサと、を含むセンサ群と、センサ群から受信した検知情報に基づいて、人認識センサによって特定された人の行動を認識する行動推定装置と、を有し、行動推定装置は、センサ群のうち少なくとも1つが設置された領域からセンサ群のうち他の少なくとも1つが設置された他の領域まで人が移動する経路に関する移動情報を少なくとも記憶する記憶部と、センサ群が検知した情報を時系列解析し、解析の結果と、移動情報と、に基づいて、認識対象の人が移動し得る移動経路候補情報を作成し、移動経路候補情報と、複数の人認識センサが検知した情報と、に基づいて、複数の人認識センサが特定した人の行動を認識する演算部と、を有する。
According to the embodiments of the present invention described above, the following effects are obtained.
(1) A behavior recognition system according to an embodiment of the present invention includes a group of sensors including a plurality of human sensors that detect humans, and a plurality of human recognition sensors that detect humans and identify the humans. and a behavior estimation device for recognizing the behavior of the person identified by the human recognition sensor based on the detection information received from the sensor group, wherein the behavior estimation device is located in an area where at least one of the sensors is installed. a storage unit that stores at least movement information related to a route taken by a person from a sensor group to another area where at least one other sensor group is installed; a time series analysis of information detected by the sensor group; Based on the movement information, moving route candidate information along which the person to be recognized can move is created, and based on the moving route candidate information and information detected by the plurality of human recognition sensors, a plurality of human recognition sensors. and a computing unit that recognizes the behavior of the identified person.

上記構成により、住環境内に設けた複数のセンサ及び人感センサと、住環境内に備えた行動推定装置とを接続することで対象の住環境に住む個々の住人の行動を推定する推定部によって住人の行動を判別しすることが可能になる。さらに、人感センサや家電の検知情報を活用して人の行動情報を作成するために、人を認識するセンサの設置する数を抑制することができるため、利用者のプライバシー性を配慮した人の行動認識システムを提供することができる。 With the above configuration, an estimation unit that estimates the behavior of each resident living in the target living environment by connecting a plurality of sensors and motion sensors provided in the living environment with a behavior estimating device provided in the living environment. makes it possible to determine the behavior of residents. Furthermore, in order to create human behavior information using human sensors and detection information from home appliances, it is possible to reduce the number of sensors that recognize people. of action recognition system can be provided.

(2)行動推定装置は、人の行動に関する情報を、ネットワークを介してセンサ群が設置された領域外に伝達する外部通信部をさらに有する。これにより、住人の移動情報に異常があると判断された場合、外部の監視装置へ住人の異常を発報することが可能になる。 (2) The behavior estimation device further has an external communication unit that transmits information about human behavior outside the area where the sensor group is installed via the network. Thereby, when it is determined that there is an abnormality in the movement information of the resident, it is possible to report the abnormality of the resident to an external monitoring device.

(3)記憶部には、検知対象の人を特定するための特徴量に関する人物情報がさらに記憶されており、人認識センサは、検知内容と、人物情報とを比較することで、人を特定する。これにより、身長、体格、姿勢、歩き方、利き手、画像や音声等各種センサで検知可能な情報を利用できるため、様々な角度から個人を特定できることになり、特定の精度が向上する。 (3) The storage unit further stores person information related to feature amounts for identifying a person to be detected, and the person recognition sensor compares the detection content with the person information to identify the person do. This makes it possible to use information that can be detected by various sensors such as height, physique, posture, walking style, handedness, image and voice, so that an individual can be identified from various angles, and identification accuracy is improved.

(4)記憶部には、検知対象の人の、センサ群が設置された領域内での行動記録がさらに記憶されており、演算部は、複数の人認識センサが検知した情報と、移動経路候補情報と、に加えて、行動記録に基づいて、人の行動を認識する。これにより、人物に関する特徴量に基づいて人を特定できなかった場合であっても、予め記憶された行動記録(例えばどの部屋が誰の部屋か、等)に基づいて人の行動を認識することが可能になる。 (4) The storage unit further stores the behavior record of the person to be detected in the area where the sensor group is installed. Human behavior is recognized based on the candidate information and, in addition, the behavior record. As a result, even when a person cannot be identified based on the feature amount related to the person, the behavior of the person can be recognized based on the behavior records stored in advance (for example, which room is whose room, etc.). becomes possible.

(5)演算部は、行動記録を参照する前に、複数の人認識センサが検知した情報を参照して人の行動を認識する。これにより、行う処理が優先順位付けされることになるため、演算処理の負荷軽減及び高速化が期待できる。 (5) The computing unit refers to the information detected by the plurality of human recognition sensors to recognize the behavior of the person before referring to the behavior record. As a result, since the processing to be performed is prioritized, it is expected that the load of arithmetic processing will be reduced and the processing speed will be increased.

(6)演算部は、複数の人認識センサが検知した情報を参照して人の行動を認識できた場合には正の重みづけを行い行動記録を参照せず、複数の人認識センサが検知した情報を参照して人の行動を認識できなかった場合に、重みづけを行わずに行動記録を参照して人の行動を認識する。これにより、検知した情報に基づいて計量的に人の行動を認識することが可能となり、認識精度が向上する。 (6) When a human action is recognized by referring to information detected by a plurality of human recognition sensors, the computing unit assigns a positive weight, does not refer to the action record, and detects by a plurality of human recognition sensors. When the person's action cannot be recognized by referring to the obtained information, the person's action is recognized by referring to the action record without weighting. As a result, human behavior can be quantitatively recognized based on the detected information, and the recognition accuracy is improved.

(7)演算部は、行動記録を参照して人の行動を認識できた場合には正の重みづけを行い、人の行動を認識できなかった場合には負の重みづけを行う。これにより、(6)と同様に行動の認識を計量的に行うことが可能になり、さらに、負の重みづけを行うことにより、センサの誤検知による情報を排除することが可能になる。 (7) The calculation unit refers to the action record and assigns a positive weight when the human action is recognized, and assigns a negative weight when the human action is not recognized. This makes it possible to perform behavior recognition quantitatively in the same manner as in (6), and by performing negative weighting, it becomes possible to eliminate information due to erroneous sensor detection.

なお、本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。例えば、上記の実施例は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明は、必ずしも説明した全ての構成を備える態様に限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能である。また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、削除したり、他の構成を追加・置換したりすることが可能である。 It should be noted that the present invention is not limited to the above embodiments, and various modifications are possible. For example, the above embodiments have been described in detail in order to facilitate understanding of the present invention, and the present invention is not necessarily limited to aspects having all the described configurations. Also, part of the configuration of one embodiment can be replaced with the configuration of another embodiment. It is also possible to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is possible to delete a part of the configuration of each embodiment, or to add or replace another configuration.

100 人感センサ、200 人認識センサ、300 行動推定装置、320 外部通信部、340 演算部、350 記憶部 100 human sensor, 200 human recognition sensor, 300 action estimation device, 320 external communication unit, 340 calculation unit, 350 storage unit

Claims (7)

人の行動を認識する行動認識システムであって、
人を検知する複数の人感センサと、人を検知するとともに、該人を特定する複数の人認識センサと、を含むセンサ群と、
前記センサ群から受信した検知情報に基づいて、前記人認識センサによって特定された人の行動を認識する行動推定装置と、を有し、
前記行動推定装置は、
前記センサ群のうち少なくとも1つが設置された領域から前記センサ群のうち他の少なくとも1つが設置された他の領域まで人が移動する経路に関する移動情報を少なくとも記憶する記憶部と、
前記センサ群が検知した情報を時系列解析し、該解析の結果と、前記移動情報と、に基づいて、認識対象の人が移動し得る移動経路候補情報を作成し、前記移動経路候補情報と、前記複数の人認識センサが検知した情報と、に基づいて、前記複数の人認識センサが特定した人の行動を認識する演算部と、を有する、
ことを特徴とする行動認識システム。
An action recognition system for recognizing human action,
a sensor group including a plurality of human sensors that detect a person and a plurality of human recognition sensors that detect and specify the person;
a behavior estimation device that recognizes the behavior of the person identified by the person recognition sensor based on the detection information received from the sensor group;
The action estimation device is
a storage unit that stores at least movement information related to a route along which a person moves from an area in which at least one of the sensor groups is installed to another area in which at least one other of the sensor groups is installed;
time-series analysis of the information detected by the sensor group, and based on the result of the analysis and the movement information, moving route candidate information along which the person to be recognized can move is created, and the moving route candidate information and , and a calculation unit that recognizes the behavior of the person identified by the plurality of human recognition sensors based on the information detected by the plurality of human recognition sensors,
An action recognition system characterized by:
請求項1に記載の行動認識システムであって、
前記行動推定装置は、前記人の行動に関する情報を、ネットワークを介して前記センサ群が設置された領域外に伝達する外部通信部をさらに有する、
ことを特徴とする行動認識システム。
The action recognition system according to claim 1,
The behavior estimation device further has an external communication unit that transmits information about the behavior of the person outside the area where the sensor group is installed via a network.
An action recognition system characterized by:
請求項1に記載の行動認識システムであって、
前記記憶部には、検知対象の人を特定するための特徴量に関する人物情報がさらに記憶されており、
前記人認識センサは、検知内容と、前記人物情報とを比較することで、前記人を特定する、
ことを特徴とする行動認識システム。
The action recognition system according to claim 1,
The storage unit further stores person information related to a feature amount for specifying a person to be detected,
The person recognition sensor identifies the person by comparing the detection content with the person information.
An action recognition system characterized by:
請求項1に記載の行動認識システムであって、
前記記憶部には、検知対象の人の、前記センサ群が設置された領域内での行動記録がさらに記憶されており、
前記演算部は、前記複数の人認識センサが検知した情報と、前記移動経路候補情報と、に加えて、前記行動記録に基づいて、前記人の行動を認識する、
ことを特徴とする行動認識システム。
The action recognition system according to claim 1,
The storage unit further stores an action record of the person to be detected within the area where the sensor group is installed,
The computing unit recognizes the behavior of the person based on the behavior record in addition to the information detected by the plurality of person recognition sensors and the moving route candidate information.
An action recognition system characterized by:
請求項4に記載の行動認識システムであって、
前記演算部は、前記行動記録を参照する前に、前記複数の人認識センサが検知した情報を参照して前記人の行動を認識する、
ことを特徴とする行動認識システム。
The action recognition system according to claim 4,
The computing unit refers to information detected by the plurality of human recognition sensors to recognize the behavior of the person before referencing the behavior record.
An action recognition system characterized by:
請求項5に記載の行動認識システムであって、
前記演算部は、前記複数の人認識センサが検知した情報を参照して前記人の行動を認識できた場合には正の重みづけを行い前記行動記録を参照せず、前記複数の人認識センサが検知した情報を参照して前記人の行動を認識できなかった場合に、重みづけを行わずに前記行動記録を参照して前記人の行動を認識する、
ことを特徴とする行動認識システム。
The action recognition system according to claim 5,
The computing unit refers to the information detected by the plurality of human recognition sensors and, when the behavior of the person can be recognized, performs a positive weighting, does not refer to the behavior record, and does not refer to the behavior record. If the action of the person cannot be recognized by referring to the information detected by, the action record of the person is recognized without weighting by referring to the action record.
An action recognition system characterized by:
請求項6に記載の行動認識システムであって、
前記演算部は、前記行動記録を参照して前記人の行動を認識できた場合には正の重みづけを行い、前記人の行動を認識できなかった場合には負の重みづけを行う、
ことを特徴とする行動認識システム。
The action recognition system according to claim 6,
The calculation unit refers to the action record and performs positive weighting when the person's action can be recognized, and negative weighting when the person's action cannot be recognized.
An action recognition system characterized by:
JP2021204814A 2021-12-17 2021-12-17 Behavior Recognition System Active JP7686548B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021204814A JP7686548B2 (en) 2021-12-17 2021-12-17 Behavior Recognition System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021204814A JP7686548B2 (en) 2021-12-17 2021-12-17 Behavior Recognition System

Publications (2)

Publication Number Publication Date
JP2023090067A true JP2023090067A (en) 2023-06-29
JP7686548B2 JP7686548B2 (en) 2025-06-02

Family

ID=86937318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021204814A Active JP7686548B2 (en) 2021-12-17 2021-12-17 Behavior Recognition System

Country Status (1)

Country Link
JP (1) JP7686548B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017011698A (en) * 2015-06-24 2017-01-12 パナソニックIpマネジメント株式会社 Remote nursing system for collective housings and remote monitoring system used therefor
US20200344238A1 (en) * 2017-11-03 2020-10-29 Sensormatic Electronics, LLC Methods and System for Controlling Access to Enterprise Resources Based on Tracking
JP2021103462A (en) * 2019-12-25 2021-07-15 トヨタ自動車株式会社 Information processing device, information processing method, and program
JP2021157274A (en) * 2020-03-25 2021-10-07 株式会社日立製作所 Behavior recognition server and behavior recognition method
JP2021175033A (en) * 2020-04-21 2021-11-01 株式会社日立製作所 Event analysis system and event analysis method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017011698A (en) * 2015-06-24 2017-01-12 パナソニックIpマネジメント株式会社 Remote nursing system for collective housings and remote monitoring system used therefor
US20200344238A1 (en) * 2017-11-03 2020-10-29 Sensormatic Electronics, LLC Methods and System for Controlling Access to Enterprise Resources Based on Tracking
JP2021103462A (en) * 2019-12-25 2021-07-15 トヨタ自動車株式会社 Information processing device, information processing method, and program
JP2021157274A (en) * 2020-03-25 2021-10-07 株式会社日立製作所 Behavior recognition server and behavior recognition method
JP2021175033A (en) * 2020-04-21 2021-11-01 株式会社日立製作所 Event analysis system and event analysis method

Also Published As

Publication number Publication date
JP7686548B2 (en) 2025-06-02

Similar Documents

Publication Publication Date Title
US12209879B2 (en) Automated mapping of sensors at a location
CN205334101U (en) Smart home system
KR100804919B1 (en) Object state detection device, object state detection method, home appliance, network adapter and media
CN100355228C (en) Anomalous detecting device and anomalous detection system
CN110136832B (en) Cognitive ability assessment system and method based on daily behaviors of old people
US11734932B2 (en) State and event monitoring
AU2019227915A1 (en) Monitoring of pet status during unattended delivery
CN113168756A (en) Anomaly Detection System
US11544924B1 (en) Investigation system for finding lost objects
JP4754800B2 (en) Method and system for modeling user movement in an environment, and method and system for modeling the geometry of a sensor network in an environment
JP2023090067A (en) Action recognition system
US12417636B2 (en) Using implicit event ground truth for video cameras
WO2019230092A1 (en) Robot, behavior detection server, and behavior detection system
EP3908987B1 (en) Method and system for reducing carbon monoxide in a building
JP2024011411A (en) Behavior recognition device, behavior recognition system, and behavior recognition method
JP7152346B2 (en) Security system
Cardinale Occupant activity detection in smart buildings: A review
JP2005018166A (en) Living information management system and method, and data tag device
US11334042B2 (en) Smart home control system for monitoring leaving and abnormal of family members
WO2017149324A1 (en) Occupancy sensing
Poh et al. Anomaly detection on in-home activities data based on time interval
James Huchuk et al. Short-Horizon Probabilistic Models For Whole Home Motion Prediction Using Connected Thermostat Data
JP6659890B1 (en) Security system
Crandall et al. Learning activity models for multiple agents in a smart space
Stein et al. Sensors, models and platform for ambient control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250521

R150 Certificate of patent or registration of utility model

Ref document number: 7686548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150