[go: up one dir, main page]

JP2019079419A - Robot management system - Google Patents

Robot management system Download PDF

Info

Publication number
JP2019079419A
JP2019079419A JP2017207453A JP2017207453A JP2019079419A JP 2019079419 A JP2019079419 A JP 2019079419A JP 2017207453 A JP2017207453 A JP 2017207453A JP 2017207453 A JP2017207453 A JP 2017207453A JP 2019079419 A JP2019079419 A JP 2019079419A
Authority
JP
Japan
Prior art keywords
robot
person
service
action
behavior pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017207453A
Other languages
Japanese (ja)
Other versions
JP6812325B2 (en
Inventor
大典 本田
Daisuke Honda
大典 本田
敬幸 小林
Atsuyuki Kobayashi
敬幸 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Building Systems Co Ltd
Original Assignee
Hitachi Building Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Building Systems Co Ltd filed Critical Hitachi Building Systems Co Ltd
Priority to JP2017207453A priority Critical patent/JP6812325B2/en
Priority to CN201811172814.8A priority patent/CN109709947B/en
Publication of JP2019079419A publication Critical patent/JP2019079419A/en
Application granted granted Critical
Publication of JP6812325B2 publication Critical patent/JP6812325B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】施設内で滞留する人物が望むサービスを適切に決定する。【解決手段】本発明の一態様は、移動可能なロボットと、撮影を行うカメラと、撮影映像から人物を検出する人物検出部と、を備え、検出された人物にロボットがサービスを提供するロボット管理システムであって、人物の静止時間、動作時間、及び当該静止時間と当該動作時間の組み合わせの繰り返しによって定義される行動パターンと人物に提供されるサービスとが対応づけて登録された行動パターンテーブル111gと、撮影映像から検出された人物の行動が、行動パターンテーブル111gに登録された行動パターンに合致する場合に、該当する行動パターンに基づいてロボットが人物に提供するべきサービスを決定する行動パターン判定部111fと、を備える。【選択図】図3PROBLEM TO BE SOLVED: To appropriately determine a service desired by a person staying in a facility. SOLUTION: One aspect of the present invention is a robot provided with a movable robot, a camera for taking a picture, and a person detection unit for detecting a person from a shot image, and the robot provides a service to the detected person. A management system, an action pattern table in which an action pattern defined by a person's rest time, operation time, and a combination of the rest time and the operation time is repeated and a service provided to the person are registered in association with each other. When 111g and the behavior of the person detected from the captured image match the behavior pattern registered in the behavior pattern table 111g, the behavior pattern that determines the service that the robot should provide to the person based on the corresponding behavior pattern. A determination unit 111f is provided. [Selection diagram] Fig. 3

Description

本発明は、人にサービスするロボットを管理するロボット管理システムに関する。   The present invention relates to a robot management system that manages robots that service people.

従来、カメラで撮影された人物が特定の領域に滞在した時間を計測し、滞在時間に基づいて、物品を設置する領域に接する第1領域、及び第1領域に接する第2領域で移動又は静止する人物に対して移動ロボットが案内を行う技術がある(例えば、特許文献1参照。)。   Conventionally, the time in which a person photographed with a camera stayed in a specific area is measured, and movement or stationary is performed in a first area in contact with the area where the article is placed and a second area in contact with the first area based on the stay time. There is a technique in which a mobile robot provides guidance to a person who does the job (for example, see Patent Document 1).

特開2007−152442号公報Unexamined-Japanese-Patent No. 2007-152442

しかしながら、特許文献1に記載のように人物が特定の領域に滞在(滞留)した時間を計測するだけでは、その滞留の要因を判定し、滞留した人物が望むサービスを適切に提供することができない。   However, just by measuring the time when a person stayed in a specific area (dwelling) as described in Patent Document 1, the factor of the stagnation can not be determined, and the service desired by the stagnated person can not be appropriately provided. .

本発明は、上記の状況を考慮してなされたものであり、ある領域に滞留する人物に対してロボットがその人物が望むサービスを適切に提供できるようにする。   The present invention has been made in consideration of the above situation, and enables a robot to appropriately provide a service desired by a person to a person staying in a certain area.

本発明の一態様のロボット管理システムは、移動可能なロボットと、撮影を行うカメラと、カメラにより撮影された映像から人物を検出する人物検出部と、を備え、人物検出部により検出された人物にロボットがサービスを提供するロボット管理システムである。
上記ロボット管理システムは、行動パターンテーブルと、行動パターン判定部を備える。行動パターンテーブルには、人物の静止時間、動作時間、及び静止時間と動作時間の組み合わせの繰り返しによって定義される行動パターンと人物に提供されるサービスとが対応づけて登録される。行動パターン判定部は、カメラの映像から検出された人物の行動が、行動パターンテーブルに登録された行動パターンに合致する場合に、該当する行動パターンに基づいて行動パターンテーブルからロボットが人物に提供するべきサービスを決定する機能を備える。
A robot management system according to an aspect of the present invention includes a movable robot, a camera for shooting, and a person detection unit for detecting a person from an image photographed by the camera, and the person detected by the person detection unit The robot is a robot management system that provides services.
The robot management system includes an action pattern table and an action pattern determination unit. In the behavior pattern table, the behavior time defined by the resting time of the person, the operation time, and the repetition of the combination of the resting time and the operation time are registered in association with the service provided to the person. The action pattern determination unit provides the person to the person from the action pattern table based on the corresponding action pattern when the action of the person detected from the video of the camera matches the action pattern registered in the action pattern table. It has a function to determine the service to be.

本発明の少なくとも一態様によれば、滞留する人物に対してロボットがその人物が望むサービスを適切に提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to at least one aspect of the present invention, it is possible to appropriately provide the staying person with a service desired by the robot.
Problems, configurations, and effects other than those described above will be apparent from the description of the embodiments below.

本発明の一実施形態例によるロボット管理システムの全体構成例を示すブロック図である。FIG. 1 is a block diagram showing an example of the overall configuration of a robot management system according to an embodiment of the present invention. 本発明の一実施形態例に係るロボットの構成例を示す機能ブロック図である。It is a functional block diagram showing an example of composition of a robot concerning one example of an embodiment of the present invention. 本発明の一実施形態例に係るロボット制御装置の構成例を示す機能ブロック図である。It is a functional block diagram showing an example of composition of a robot control device concerning one example of an embodiment of the present invention. 本発明の一実施形態例に係るロボット監視センタの構成例を示す機能ブロック図である。It is a functional block diagram showing an example of composition of a robot surveillance center concerning one example of an embodiment of the present invention. 本発明の一実施形態例に係るカメラ制御装置の構成例を示す機能ブロック図である。It is a functional block diagram showing an example of composition of a camera control device concerning one example of an embodiment of the present invention. 本発明の一実施形態例に係るロボット及び監視カメラが配置された建物の内部(第1の例)を示す説明図である。It is an explanatory view showing the inside (the 1st example) of the building where the robot concerning one example of an embodiment of the present invention, and surveillance cameras are arranged. 本発明の一実施形態例に係るロボット及び監視カメラが配置された建物の内部(第2の例)を示す説明図である。It is an explanatory view showing the inside (the 2nd example) of the building where the robot and surveillance camera concerning one example of an embodiment of the present invention are arranged. 本発明の一実施形態例に係るロボット管理テーブルのデータ構造の一例を示す説明図である。It is an explanatory view showing an example of data structure of a robot management table concerning an example of an embodiment of the present invention. 本発明の一実施形態例に係る監視カメラ管理テーブルのデータ構造の一例を示す説明図である。It is an explanatory view showing an example of data structure of a surveillance camera management table concerning an example of an embodiment of the present invention. 本発明の一実施形態例に係る行動パターンテーブルのデータ構造の一例を示す説明図である。It is an explanatory view showing an example of data structure of an action pattern table concerning an example of an embodiment of the present invention. 本発明の一実施形態例に係る行動判定結果データベースのデータ構造の一例を示す説明図である。It is an explanatory view showing an example of data structure of an action judging result database concerning an example of an embodiment of the present invention. 本発明の一実施形態例に係るロボット管理システムによる滞留者の行動パターンに基づくサービス提供の手順例を示すフローチャートである。It is a flowchart which shows the example of a procedure of the service provision based on the action pattern of the stay person by the robot management system which concerns on the example of one Embodiment of this invention.

以下、本発明を実施するための形態(以下、「実施形態」と記述する)の例について、添付図面を参照しながら説明する。本明細書及び添付図面において実質的に同一の機能又は構成を有する構成要素については、同一の符号を付して重複する説明を省略する。   Hereinafter, examples of modes for carrying out the present invention (hereinafter, referred to as “embodiments”) will be described with reference to the attached drawings. The components having substantially the same function or configuration in the present specification and the attached drawings will be denoted by the same reference numerals and redundant description will be omitted.

<1.一実施形態>
[ロボット管理システムの全体構成]
始めに、図1を参照して、本発明の一実施形態例(以下、「本例」ともいう)に係るロボット管理システムの全体構成例を説明する。図1は、ロボット管理システム1の全体構成例を示すブロック図である。
<1. One embodiment>
[Overall configuration of robot management system]
First, with reference to FIG. 1, an example of the overall configuration of a robot management system according to an embodiment of the present invention (hereinafter also referred to as "this example") will be described. FIG. 1 is a block diagram showing an example of the overall configuration of a robot management system 1.

図1に示すように、ロボット管理システム1は、複数台のロボット100、ロボット制御装置110、及びロボット監視センタ120を備える。本例のロボット管理システム1では、建物300内に、ロボット100、ロボット制御装置110、監視カメラ200、及びカメラ制御装置210が配置される。   As shown in FIG. 1, the robot management system 1 includes a plurality of robots 100, a robot control device 110, and a robot monitoring center 120. In the robot management system 1 of this example, the robot 100, the robot control device 110, the monitoring camera 200, and the camera control device 210 are disposed in the building 300.

ロボット100と、ロボット100を制御するロボット制御装置110は、例えば、無線LAN(local area network)等を介して接続されている。また、一又は複数の監視カメラ200は、建物300内を撮影することが可能である。カメラ制御装置210は、監視カメラ200が撮影した映像を有線LAN等を介して記録する。ロボット制御装置110とカメラ制御装置210は、有線LAN等を介して接続されており、互いにデータの送受信が可能となっている。ロボット制御装置110とカメラ制御装置210は、互いの距離が近い場合には、無線LANなどの無線通信手段により接続されてもよい。   The robot 100 and a robot control device 110 that controls the robot 100 are connected via, for example, a wireless local area network (LAN). In addition, one or more monitoring cameras 200 can capture the inside of the building 300. The camera control device 210 records an image captured by the monitoring camera 200 via a wired LAN or the like. The robot control device 110 and the camera control device 210 are connected via a wired LAN or the like, and can mutually transmit and receive data. The robot control device 110 and the camera control device 210 may be connected by wireless communication means such as a wireless LAN when the distance between them is short.

ロボット100は、建物300内にいる人物(利用者)に向けて自律移動し、この利用者に対して建物300内の案内や商品情報の提案などを行う自律移動型の提案ロボットである。商品情報とは、例えば、建物300内に設置される店舗等で取り扱われる商品に関する情報である。以下、ロボット100が利用者に対して行うこれらの案内や提案などの行為を「サービス」と称する。ロボット100は、通常、建物300内のフロアの決められた位置で待機している。ロボット100は、建物300内に設置されたロボット制御装置110と通信を行い、ロボット制御装置110により無線で制御されるように構成されている。   The robot 100 is an autonomous mobile proposal robot that autonomously moves toward a person (user) in the building 300, and performs guidance in the building 300, proposal of product information, and the like to the user. The product information is, for example, information on a product handled by a store or the like installed in the building 300. Hereinafter, an action such as guidance or suggestion performed by the robot 100 to the user is referred to as a “service”. The robot 100 normally stands by at a fixed position on the floor in the building 300. The robot 100 communicates with a robot control device 110 installed in a building 300, and is configured to be wirelessly controlled by the robot control device 110.

例えばロボット制御装置110が利用者を検知し、ロボット100に移動指示を出すと、ロボット100が待機位置から目的地まで移動するルートが、ロボット制御装置110からの指示でロボット100に設定される。ロボット100は指定された利用者の位置まで自律移動し、案内や提案などのサービスを行う。利用者へのサービスが終了すると、ロボット100は、自律移動して元の待機位置まで戻るか、次の利用者の元へ移動する。   For example, when the robot control device 110 detects a user and issues a movement instruction to the robot 100, a route along which the robot 100 moves from the standby position to the destination is set in the robot 100 according to the instruction from the robot control device 110. The robot 100 autonomously moves to the position of the designated user, and provides services such as guidance and suggestion. When the service to the user ends, the robot 100 moves autonomously to return to the original standby position or moves to the next user.

なお、本例のロボット100における自律移動とは、ロボット自身が動いて移動することを意味し、移動のために必要な判断(ルートの判断など)をロボット自身が全て自律的に行うことを意味するものではない。すなわち、ロボット100が移動するルートは、上述したようにロボット制御装置110からの指示で設定され、ロボット100単体で自律的に移動するルートなどを判断する構成になっていない。但し、ロボット100が移動に必要な判断を全て行うようにしてもよい。   Note that the autonomous movement in the robot 100 of this example means that the robot itself moves and moves, and means that the robot itself performs all the judgments necessary for movement (judgement of a route, etc.) autonomously. It is not something to do. That is, the route along which the robot 100 moves is set by the instruction from the robot control device 110 as described above, and the route along which the robot 100 moves autonomously is not determined. However, all determinations necessary for movement of the robot 100 may be made.

ロボット制御装置110は、ロボット100にサービスを実行するよう指令を行う他に、インターネット等のネットワークNを介して、建物300の外部に設置されたロボット監視センタ120との通信を行う。   In addition to instructing the robot 100 to execute a service, the robot control device 110 communicates with the robot monitoring center 120 installed outside the building 300 via the network N such as the Internet.

ロボット監視センタ120は、通常、複数の建物300に設置されているロボット制御装置110との通信を行い、各建物300に配置されているロボット100の管理状況等を監視する。   The robot monitoring center 120 normally communicates with the robot control devices 110 installed in a plurality of buildings 300, and monitors the management status and the like of the robots 100 disposed in each building 300.

監視カメラ200は、建物300の出入口、共用エリア、レストラン・ショップエリア等に各々一又は複数台設置されている。即ち監視カメラ200は、建物300内の人が行き交う場所、人が通行する通路などに設置されている。監視カメラ200は、各撮影エリア(撮影空間)内に映っている人を撮影し続け、撮影により得られた映像データを有線LANを介してカメラ制御装置210へ送信している。もちろん、監視カメラ200は、カメラ制御装置210からの指示に基づいて撮影方向及び撮影倍率を任意に変更して撮影可能である。以下の説明において、監視カメラ200が撮影の対象とする撮影エリア(撮影場所)である共用エリア、レストラン・ショップエリア等を区別しない場合には「エリア」と総称することもある。   One or more surveillance cameras 200 are installed at the entrance of the building 300, a common area, a restaurant / shop area, and the like. That is, the monitoring camera 200 is installed at a place where people in the building 300 go and go, a passage where people pass, and the like. The surveillance camera 200 continues to capture a person appearing in each imaging area (imaging space), and transmits video data obtained by imaging to the camera control device 210 via the wired LAN. Of course, the monitoring camera 200 can change the shooting direction and the shooting magnification arbitrarily and shoot based on an instruction from the camera control device 210. In the following description, when the monitoring camera 200 does not distinguish between a common area which is a photographing area (photographing place) to be photographed and a restaurant / shop area or the like, the area may be collectively referred to as an “area”.

カメラ制御装置210は、監視カメラ200から取得した映像データを記録すると共に、この映像データを有線LANを介してロボット制御装置110に供給する。カメラ制御装置210に記録されたデータは、ロボット制御装置110経由でネットワークNを経由し、ロボット監視センタ120に供給される。本例では、後述するように映像データの解析をロボット制御装置110で行うが、カメラ制御装置210で映像データの解析を行う構成としてもよい。   The camera control device 210 records the video data acquired from the monitoring camera 200 and supplies the video data to the robot control device 110 via the wired LAN. The data recorded in the camera control device 210 is supplied to the robot monitoring center 120 via the robot control device 110 and the network N. In this example, the analysis of the video data is performed by the robot control device 110 as described later, but the camera control device 210 may be configured to analyze the video data.

本実施形態では、監視カメラ200の設置場所を建物300の内部としているが、設置場所は屋内に限られない。例えば監視カメラ200が、屋外の施設又は任意の施設に属する建物の外を撮影できる位置に設置されていてもよい。   In the present embodiment, the installation location of the monitoring camera 200 is inside the building 300, but the installation location is not limited to indoors. For example, the monitoring camera 200 may be installed at a position where it can capture an outside of an outdoor facility or a building belonging to any facility.

[ロボットの構成]
図2は、ロボット100の内部構成例を示す機能ブロック図である。
図2に示すように、ロボット100は、CPU104を備え、CPU104の制御下で各処理が実行されるコンピュータ装置と、そのコンピュータ装置に接続された周辺機器で構成される。ロボット100は、バスラインを介して接続された主記憶装置101、入出力装置102、及び通信インターフェース103を備える。ロボット100は、後述する図7及び図8に示す所定のエリアを移動可能である。
Robot Configuration
FIG. 2 is a functional block diagram showing an example of the internal configuration of the robot 100. As shown in FIG.
As shown in FIG. 2, the robot 100 includes a CPU 104, and is configured of a computer device in which each process is executed under the control of the CPU 104, and peripheral devices connected to the computer device. The robot 100 includes a main storage device 101, an input / output device 102, and a communication interface 103 connected via a bus line. The robot 100 can move in a predetermined area shown in FIGS. 7 and 8 described later.

主記憶装置101は、駆動制御部101a、対話制御部101b、及び入出力部101cを備える。駆動制御部101a、対話制御部101b、及び入出力部101cは、CPU104からの指令に基づいて動作するコンピュータープログラムが持つ機能である。コンピュータープログラムは、不図示の不揮発性の大容量記録装置に記録されており、大容量記録装置から必要なコンピュータープログラムが主記憶装置101に読み出される。   The main storage device 101 includes a drive control unit 101a, an interaction control unit 101b, and an input / output unit 101c. The drive control unit 101a, the dialogue control unit 101b, and the input / output unit 101c are functions of a computer program that operates based on an instruction from the CPU 104. The computer program is recorded in a non-volatile mass storage device (not shown), and the necessary computer program is read out from the mass storage device to the main storage device 101.

駆動制御部101aは、ロボット100を自律移動させる駆動制御を行う。例えば、駆動制御部101aは、ロボット100が移動する際に、ロボット100のカメラ102aが撮影した映像や、測域センサ102dが電磁波により検出した自分の位置からロボット100の周囲の状況を判断し、対象物との距離に関するデータを用いて、人、壁等の障害物を避けてロボット100を移動させる。また、駆動制御部101aは、ジャイロセンサ102cを用いてロボット100の機体の傾きを検知し、ロボット100が倒れずに移動する制御を行う。   The drive control unit 101 a performs drive control to move the robot 100 autonomously. For example, when the robot 100 moves, the drive control unit 101a determines the situation around the robot 100 from the image captured by the camera 102a of the robot 100 or the position of the robot itself detected by the ranging sensor 102d. The data on the distance to the object is used to move the robot 100 avoiding obstacles such as people and walls. Further, the drive control unit 101a detects the tilt of the body of the robot 100 using the gyro sensor 102c, and performs control to move the robot 100 without falling down.

対話制御部101bは、入出力装置102が備えるマイクロフォン102bとスピーカ102eを用いて音声によって対象者との対話を制御する。一例を挙げると、対話制御部101bは、提案(サービス実行)に必要となる発話等の音声情報をスピーカ102eから出力し、マイクロフォン102bを通して対象者からの音声による回答を得る。これは、対象者から回答を得る方法の一例を示したものであり、代替手段の例として、ロボット100に表示パネルやタッチパネルを取り付け、この表示パネル及びタッチパネルを通じて案内情報や商品情報などを表示してもよい。対象者は、タッチパネルを操作することにより回答や希望する情報を得ることができる。
入出力部101cは、入出力装置102との間で、データの入出力動作を実行する他、通信インターフェース103経由で、ロボット制御装置110との間でデータの入出力動作を実行する。
The interaction control unit 101 b controls interaction with the subject by voice using the microphone 102 b and the speaker 102 e included in the input / output device 102. As an example, the dialogue control unit 101b outputs, from the speaker 102e, speech information such as an utterance necessary for proposal (service execution), and obtains an answer by the speech from the subject through the microphone 102b. This shows an example of a method for obtaining a response from the subject. As an example of alternative means, a display panel or touch panel is attached to the robot 100, and guidance information or product information is displayed through the display panel or touch panel. May be The subject can obtain an answer or desired information by operating the touch panel.
The input / output unit 101 c performs data input / output operations with the input / output device 102, and also performs data input / output operations with the robot control apparatus 110 via the communication interface 103.

入出力装置102は、カメラ102a、マイクロフォン102b、ジャイロセンサ102c、測域センサ102d、スピーカ102e、及び駆動機構102fを備える。   The input / output device 102 includes a camera 102a, a microphone 102b, a gyro sensor 102c, a range sensor 102d, a speaker 102e, and a drive mechanism 102f.

カメラ102aは、ロボット100の周囲の撮影エリア(撮影空間)を撮影し、撮影により得られた映像データを主記憶装置101又は不図示の大容量記録装置に送出する。カメラ102aは、CCDやCMOS等の撮像装置を用いて構成される。一般にロボット100のカメラ102aは、撮影対象である人物の身長(例えば一般的な人(子どもを含む)の平均身長)よりも低い位置に配置されるが、この例に限られない。   The camera 102 a shoots a shooting area (shooting space) around the robot 100, and sends video data obtained by shooting to the main storage device 101 or a large capacity recording device (not shown). The camera 102 a is configured using an imaging device such as a CCD or a CMOS. Generally, the camera 102a of the robot 100 is disposed at a position lower than the height of a person to be photographed (for example, the average height of a general person (including children)), but the present invention is not limited to this example.

マイクロフォン102bは、対象者からの音声情報を取得する。カメラ102aで取得された画像情報、及びマイクロフォン102bで取得された音声情報等の各種データは、通信インターフェース103を経由してロボット制御装置110に供給される。
ジャイロセンサ102cは、ロボット100に加わる角加速度からロボット100の傾き等を検出し、通信インターフェース103を経由して検出データをロボット制御装置110に供給する。
The microphone 102 b acquires audio information from the subject. Various data such as image information acquired by the camera 102 a and audio information acquired by the microphone 102 b are supplied to the robot control device 110 via the communication interface 103.
The gyro sensor 102 c detects the inclination or the like of the robot 100 from the angular acceleration applied to the robot 100, and supplies detection data to the robot control device 110 via the communication interface 103.

測域センサ102dは、ロボット100の位置を特定するためのセンサであり、併せてロボット100の周囲環境を検知する。測域センサ102dは、レーザ光や赤外線等を射出し、周囲の物体からの反射を検出する。この測域センサ102dにより、ロボット100の位置及び障害物等を含む周囲の空間形状が計測され、計測されたデータが通信インターフェース103を経由してロボット制御装置110に送られる。
スピーカ102eは、対話制御部101bで生成された、サービス対象者である滞留者への提案に必要な定型句等の対話用の音声を対象者に対して出力する。
The ranging sensor 102 d is a sensor for specifying the position of the robot 100, and also detects the surrounding environment of the robot 100. The range sensor 102d emits laser light, infrared light, and the like, and detects reflection from a surrounding object. The range measuring sensor 102 d measures the position of the robot 100 and the shape of the surrounding space including an obstacle and the like, and the measured data is sent to the robot control device 110 via the communication interface 103.
The speaker 102 e outputs, to the subject, speech for interaction, such as a fixed phrase, which is generated by the dialogue control unit 101 b and is necessary for proposing to the staying person who is the service target.

駆動機構102fは、駆動制御部101aからの指示に基づいて、ロボット100を移動させる。駆動機構102fは、少なくとも車輪を駆動させるモータを備える。あるいは、ロボット100が人型ロボットである場合には、歩行による移動を行うため、脚に相当する部材を駆動するアクチュエータを備える。   The drive mechanism 102 f moves the robot 100 based on an instruction from the drive control unit 101 a. The drive mechanism 102 f includes a motor that drives at least a wheel. Alternatively, when the robot 100 is a humanoid robot, an actuator for driving a member corresponding to a leg is provided to perform movement by walking.

通信インターフェース103は、図1に示すように、ロボット制御装置110の通信インターフェース112(図3を参照)と無線LAN等で接続されている。この通信インターフェース103は、入出力装置102が収集したデータをロボット制御装置110に出力し、またロボット制御装置110からの指示を受け取る。   As shown in FIG. 1, the communication interface 103 is connected to the communication interface 112 (see FIG. 3) of the robot control apparatus 110 by a wireless LAN or the like. The communication interface 103 outputs the data collected by the input / output device 102 to the robot controller 110 and receives an instruction from the robot controller 110.

また、駆動制御部101aは、ロボット100が移動する際に、カメラ102aが撮影した画像や、測域センサ102dが検出した周囲状況を判断して、移動を停止したり障害物等を避けたりする動作の制御を行う。本例の場合には、ロボット100が移動できる移動可能範囲は、予め決められた範囲(後述する撮影エリアとその周辺など)に制限される。つまり、駆動制御部101aが判断するロボット100の現在位置は、その移動可能範囲内での位置に留まる。   In addition, when the robot 100 moves, the drive control unit 101a determines an image captured by the camera 102a or a surrounding condition detected by the range measurement sensor 102d, and stops the movement or avoids an obstacle or the like. Control the operation. In the case of this example, the movable range in which the robot 100 can move is limited to a predetermined range (such as a photographing area described later and its periphery). That is, the current position of the robot 100 determined by the drive control unit 101a remains at the position within the movable range.

[ロボット制御装置の構成]
図3は、ロボット制御装置110の内部構成例を示す機能ブロック図である。ロボット制御装置110は、CPU113の制御下で各処理が実行されるコンピュータ装置で構成される。
CPU113は、バスラインを介して接続された主記憶装置111及び通信インターフェース112と接続されている。
[Configuration of robot controller]
FIG. 3 is a functional block diagram showing an example of the internal configuration of the robot control device 110. As shown in FIG. The robot control device 110 is configured by a computer device in which each process is executed under the control of the CPU 113.
The CPU 113 is connected to the main storage device 111 and the communication interface 112 connected via a bus line.

主記憶装置111は、CPU113の指令に基づいて動作する入出力データ処理部111a、移動指示部111b、及びロボット管理テーブル111cを備える。また、主記憶装置111は、人物検出部111d、行動分析部111e、行動パターン判定部111f、行動パターンテーブル111g、及びシナリオ格納部111hを備える。行動分析部111e及び行動パターン判定部111fはそれぞれ、サービス決定機能を構成する要素の一例である。   The main storage device 111 includes an input / output data processing unit 111a, a movement instructing unit 111b, and a robot management table 111c that operate based on an instruction of the CPU 113. The main storage device 111 further includes a person detection unit 111d, an action analysis unit 111e, an action pattern determination unit 111f, an action pattern table 111g, and a scenario storage unit 111h. The behavior analysis unit 111 e and the behavior pattern determination unit 111 f are each an example of an element configuring the service determination function.

入出力データ処理部111aは、通信インターフェース112を介してロボット100やカメラ制御装置210やロボット監視センタ120とのデータの送受信の処理を行う。   The input / output data processing unit 111 a performs data transmission / reception processing with the robot 100, the camera control device 210, and the robot monitoring center 120 via the communication interface 112.

移動指示部111bは、行動分析部111eにより滞留者であると判定された人物(サービス対象者)の位置まで、ロボット100を移動させる指示を行う。この指示には、ロボット100が移動するルートが含まれる。ルートの一例として、滞留者がいるところまでロボット100を誘導するルート、滞留者へのサービスの提供が終了したときにロボット100を元の待機位置に戻すためのルート、又は次の滞留者までロボット100を誘導するルートがある。   The movement instruction unit 111b instructs the robot 100 to move to the position of the person (service target person) who is determined to be the staying person by the behavior analysis unit 111e. This instruction includes the route along which the robot 100 moves. As an example of the route, a route for guiding the robot 100 to the place where the staying person is present, a route for returning the robot 100 to the original waiting position when the service to the staying person is finished, or the robot up to the next staying person There is a route that leads 100.

ロボット管理テーブル111cには、ロボット制御装置110が管理対象とするロボット100の管理データが格納される。ロボット管理テーブル111cの詳細は、図8において後述する。   Management data of the robot 100 to be managed by the robot control apparatus 110 is stored in the robot management table 111 c. Details of the robot management table 111c will be described later with reference to FIG.

人物検出部111dは、監視カメラ200により撮影された映像に基づいて、人物を検出する。映像内の人物は、例えば人物の顔即ち顔画像、あるいは人物の歩容を検出することにより検出可能である。ここで、「歩容」とは、人が歩行するときの身体運動の様子を指しており、見た目に表れる歩き方のことをいう。人物検出部111dは、映像から人物を検出するとその人物を一意に特定するための人物ID(識別情報)を一時付与するとともに、映像から当該人物の位置(二次元座標又は三次元座標)を算出する。それにより、人物検出部111dは、検出した人物の位置を座標によって識別することが可能である。   The person detection unit 111 d detects a person based on the video captured by the monitoring camera 200. The person in the image can be detected, for example, by detecting the face of the person, that is, the face image of the person or the gait of the person. Here, "gait" refers to the state of physical exercise when a person walks, and refers to the way of walking that appears to the eye. When the person detection unit 111d detects a person from the video, it temporarily assigns a person ID (identification information) for uniquely identifying the person, and calculates the position (two-dimensional coordinates or three-dimensional coordinates) of the person from the video. Do. Thus, the person detection unit 111d can identify the position of the detected person by the coordinates.

行動分析部111eは、人物検出部111dにより映像から検出された人物の静止時間、動作時間、及び静止時間と動作時間の組み合わせの繰り返し(行動周期数)の各項目(図10の行動パターンテーブル111g参照)を計算することにより、対象人物の行動を分析する。この各項目の計算結果と行動パターンテーブル111gに記憶した行動パターンとに基づいて、行動パターン判定部111fによる滞留者の検出が行われる。本例では、静止時間と動作時間の一つの組み合わせを一行動周期とし、一行動周期の繰り返し回数を行動周期数としている。なお、静止時間と動作時間の順番はいずれが先でもよいが、静止の有無を判断した(静止時間を計算)後に動作時間を計算する流れが自然であるといえる。   The behavior analysis unit 111e includes the items of the rest time of the person detected from the image by the person detection unit 111d, the operation time, and the combination of the rest time and the operation time (number of behavior cycles) (action pattern table 111g of FIG. 10). Analyze the behavior of the target person by calculating the reference). Based on the calculation result of each item and the action pattern stored in the action pattern table 111g, the action pattern determination unit 111f detects the staying person. In this example, one combination of the resting time and the operation time is taken as one action cycle, and the number of repetitions of one action cycle is taken as the action cycle number. It should be noted that although the order of the stationary time and the operation time may be earlier, it can be said that the flow of calculating the operating time after judging the presence / absence of stationary (calculating the stationary time) is natural.

ここで、本明細書において静止とは、人物がその場に立ち止まっていることや極狭い範囲内に留まっていることである。また滞留者とは、静止している人、又は、静止と動作を周期的に行っている人のうち、予め設定した条件(行動パターン)に合致する人である。例えば行動分析部111eは、同じ場所が連続して撮影された複数の画像を比較し、一定の位置若しくは一定範囲内に一定時間留まっている人物を検出する。   Here, in the present specification, the term "static" means that a person is standing still or staying within a very narrow range. In addition, the staying person is a person who is stationary or who is in a stationary state and who is periodically performing an operation, and who meets a preset condition (action pattern). For example, the behavior analysis unit 111e compares a plurality of images captured continuously at the same place, and detects a person who has remained at a predetermined position or a predetermined range for a predetermined time.

行動分析部111eが人物の滞留を検出するねらいは、撮影エリア内にいる人物に提供するサービスの精度を高めることである。静止する人物や、静止と動作を繰り返す人物は、何らかの興味や困りごとを有している可能性が高い。そのため、本実施形態におけるロボット100は、ただ通り過ぎる人にはサービスを提供しないように制御される。あくまでもサービス提供の対象となる人物は、撮影エリアでの静止時間が長い、又は静止と動作を繰り返している人である。   The aim of the behavior analysis unit 111 e to detect the retention of the person is to improve the accuracy of the service provided to the person in the imaging area. A person who is stationary or a person who repeats movement with motion is likely to have some interest or trouble. Therefore, the robot 100 in the present embodiment is controlled not to provide a service to a person passing by. The person who is the object of the service provision is only the person who has a long rest time in the shooting area or who repeats the rest and motion.

行動パターン判定部111fは、行動分析部111eによる行動解析結果と行動パターンテーブル111gに記憶した行動パターンを比較し、滞留者の検出と滞留者の行動パターンの判定を行い、判定結果に基づいてロボットが滞留者に提供するべきサービスを決定する。この行動パターン判定部111fは、滞留者に対しロボットから提供するべきサービスを決定する機能を備えるという点でサービス決定部とも言える。また、行動パターン判定部111fは、滞留者であると判定した人物の人物IDと滞留者であると判定したときの各種データを、通信インターフェース112を介してロボット監視センタ120へ供給する。そして、滞留者の人物IDと滞留者であると判定したときの各種データが、行動パターンテーブル111gに登録される。   The behavior pattern determination unit 111f compares the behavior analysis result by the behavior analysis unit 111e with the behavior pattern stored in the behavior pattern table 111g, detects the staying person and determines the behavior pattern of the staying person, and based on the determination result, the robot Decide what services to provide to the residents. The behavior pattern determination unit 111f can also be referred to as a service determination unit in that the behavior pattern determination unit 111f has a function of determining the service to be provided from the robot to the staying person. In addition, the behavior pattern determination unit 111 f supplies the person ID of the person who is determined to be the staying person and various data when it is determined to be the staying person to the robot monitoring center 120 via the communication interface 112. Then, the person ID of the staying person and various data determined to be the staying person are registered in the action pattern table 111g.

行動パターンテーブル111gには、事前に建物毎に登録した滞留者の行動パターンの情報が格納されている。行動パターンテーブル111gは、行動パターン判定部111fが滞留者の行動パターンを判定する際に参照される。   The behavior pattern table 111g stores information on behavior patterns of staying people registered in advance for each building. The action pattern table 111g is referred to when the action pattern determination unit 111f determines the action pattern of the staying person.

シナリオ格納部111hは、行動パターン判定部111fが判定した要因・サービスに対応する、ロボット100が滞留者へ提供するサービスの内容が記述されたシナリオデータが格納される。   The scenario storage unit 111 h stores scenario data in which the content of the service provided to the staying person by the robot 100 is described, which corresponds to the factor / service determined by the action pattern determining unit 111 f.

さらに、ロボット制御装置110は、ロボット100及びネットワークNと相互に通信可能な通信インターフェース112を有する。通信インターフェース112は、ネットワークNを経由して、ロボット100との無線通信を行う他、ロボット監視センタ120との通信を行う。   Furthermore, the robot control device 110 has a communication interface 112 capable of mutually communicating with the robot 100 and the network N. The communication interface 112 communicates with the robot monitoring center 120 in addition to performing wireless communication with the robot 100 via the network N.

[ロボット監視センタの構成]
図4は、ロボット監視センタ120の内部構成例を示す機能ブロック図である。ロボット監視センタ120は、CPU124の制御下で各処理が実行されるコンピュータ装置から構成される。CPU124は、バスラインを介して接続された主記憶装置121、操作部122、及び通信インターフェース123の制御を司る。
[Configuration of robot monitoring center]
FIG. 4 is a functional block diagram showing an example of the internal configuration of the robot monitoring center 120. As shown in FIG. The robot monitoring center 120 is configured of a computer device that executes each process under the control of the CPU 124. The CPU 124 controls the main storage device 121, the operation unit 122, and the communication interface 123 connected via a bus line.

主記憶装置121は、映像データ記憶部121a、行動データ記憶部121b、及びロボット管理テーブル121cを備える。   The main storage device 121 includes a video data storage unit 121a, an action data storage unit 121b, and a robot management table 121c.

映像データ記憶部121aには、監視カメラ200で撮影された映像が記憶される。
行動データ記憶部121bには、ロボット制御装置110から送信された、行動パターン判定部111fが滞留者ありと判定した際の各種データが蓄積される行動判定結果データベース121bD(図11参照)が記憶される。 ロボット管理テーブル121cには、複数のロボット制御装置110の各々に管理されているロボット100の管理データがまとめて格納される。
映像データ記憶部121a、行動データ記憶部121b、及びロボット管理テーブル121cに記憶された各データは、不図示の大容量記憶装置に記憶されていてもよい。
The video data storage unit 121 a stores video captured by the monitoring camera 200.
The action data storage unit 121b stores an action determination result database 121bD (see FIG. 11) in which various data transmitted from the robot control device 110 and determined when the action pattern determination unit 111f determines that there is a staying person are stored. Ru. Management data of the robots 100 managed by each of the plurality of robot control devices 110 are collectively stored in the robot management table 121 c.
Each data stored in the video data storage unit 121a, the action data storage unit 121b, and the robot management table 121c may be stored in a large capacity storage device (not shown).

操作部122には、例えば、キーボード、マウス又はタッチパネル等が用いられ、システム管理者が所定の操作を行い、指示を入力することが可能である。
通信インターフェース123は、ネットワークNを介してロボット制御装置110との通信を行う。
For example, a keyboard, a mouse, a touch panel, or the like is used for the operation unit 122, and a system administrator can perform a predetermined operation and input an instruction.
The communication interface 123 communicates with the robot control device 110 via the network N.

[監視カメラの構成]
監視カメラ200は、遠隔地からの操作が可能なカメラであり、いわゆるネットワークカメラである。監視カメラ200は、CCDやCMOS等の撮像装置(図示略)を備え、撮像装置により撮影された映像を処理して不図示の通信インターフェースを介してカメラ制御装置210へ送信する。一般に監視カメラ200は、撮像装置から出力される生データ(RAW画像)をカメラ制御装置210で処理可能なデータ形式に変換する映像処理部を備える。
[Configuration of surveillance camera]
The monitoring camera 200 is a camera that can be operated from a remote location, and is a so-called network camera. The monitoring camera 200 includes an imaging device (not shown) such as a CCD or CMOS, processes an image captured by the imaging device, and transmits the processed image to the camera control device 210 via a communication interface (not shown). Generally, the monitoring camera 200 includes a video processing unit that converts raw data (RAW image) output from the imaging device into a data format that can be processed by the camera control device 210.

[カメラ制御装置の構成]
図5は、カメラ制御装置210の内部構成例を示す機能ブロック図である。
カメラ制御装置210は、CPU213の制御下で各処理が実行されるコンピュータ装置から構成される。CPU213は、バスラインを介して接続された主記憶装置211及び通信インターフェース212の制御を司る。
[Configuration of Camera Controller]
FIG. 5 is a functional block diagram showing an example of the internal configuration of the camera control device 210. As shown in FIG.
The camera control device 210 is configured of a computer that executes each process under the control of the CPU 213. The CPU 213 controls the main storage device 211 and the communication interface 212 connected via a bus line.

主記憶装置211は、CPU213からの指令に基づいて動作する入出力データ処理部211a、映像データ記憶部211b、及び監視カメラ管理テーブル211cを備える。
入出力データ処理部211aは、通信インターフェース212を介して監視カメラ200及びロボット制御装置110との間で通信されるデータの入出力を行う。
映像データ記憶部211bには、監視カメラ200で撮影された映像が記録される。
監視カメラ管理テーブル211cには、各監視カメラ200の管理データが格納される。監視カメラ管理テーブル211cの詳細は、図9にて後述する。
The main storage device 211 includes an input / output data processing unit 211a, a video data storage unit 211b, and a monitoring camera management table 211c that operate based on an instruction from the CPU 213.
The input / output data processing unit 211 a inputs / outputs data communicated between the monitoring camera 200 and the robot control apparatus 110 via the communication interface 212.
The video captured by the monitoring camera 200 is recorded in the video data storage unit 211 b.
Management data of each monitoring camera 200 is stored in the monitoring camera management table 211 c. Details of the monitoring camera management table 211c will be described later with reference to FIG.

通信インターフェース212は、ロボット制御装置110と有線LAN等で通信を行う他、有線LAN等を介して、監視カメラ200との通信を行う。   The communication interface 212 communicates with the robot control device 110 via a wired LAN or the like, and also communicates with the monitoring camera 200 via the wired LAN or the like.

以上の説明では、ロボット100、ロボット制御装置110、ロボット監視センタ120及びカメラ制御装置210のそれぞれに、図2〜図5のブロック図に示した機能を分担させて、本例のロボット管理システム1を実現している。しかしながら、これらロボット100、ロボット制御装置110、ロボット監視センタ120及びカメラ制御装置210が担う機能は、必ずしも固定されるものではない。特に、ロボット制御装置110が持つ機能の一部をロボット監視センタ120又はロボット100に持たせることも可能である。但し、ロボット100は単体として構成されるため、ロボット100に多くの機能を含めたくないというシステム運用者の要望にも配慮することが望ましい。 In the above description, the robot management system 1 according to the present embodiment is configured such that the robot 100, the robot control device 110, the robot monitoring center 120, and the camera control device 210 share the functions shown in the block diagrams of FIGS. Is realized. However, the functions of the robot 100, the robot control device 110, the robot monitoring center 120, and the camera control device 210 are not necessarily fixed. In particular, it is also possible to have the robot monitoring center 120 or the robot 100 have a part of the functions of the robot control device 110. However, since the robot 100 is configured as a single unit, it is desirable to consider the system operator's request that the robot 100 does not want to include many functions.

[監視カメラの配置例] 図6は、ロボット100及び監視カメラ200が配置された建物の内部(第1の例)を示す見取り図である。図7は、建物の内部(第2の例)を示す見取り図である。図6及び図7は、建物300の例として空港301を示している。 [Arrangement Example of Monitoring Camera] FIG. 6 is a sketch showing the inside (first example) of a building in which the robot 100 and the monitoring camera 200 are arranged. FIG. 7 is a sketch showing the inside of a building (second example). 6 and 7 show an airport 301 as an example of a building 300.

図6に示す空港301の1階には、第1の撮影エリアとして国際線到着ロビーを撮影する監視カメラ200−1が設置されている。国際線到着ロビーにいる人物へのサービス提供はロボット100−1が担当する。   On the first floor of the airport 301 shown in FIG. 6, a surveillance camera 200-1 for photographing an international arrival lobby as a first photographing area is installed. The robot 100-1 is in charge of providing services to persons in the international arrivals lobby.

図7に示す空港301の2階には、第2の撮影エリアとしてレストラン・ショップエリアを撮影する監視カメラ200−2と、第3の撮影エリアとして国際線出発ロビーを撮影する監視カメラ200−3が設置されている。レストラン・ショップエリアにいる人物へのサービス提供はロボット100−2が担当し、国際線出発ロビーにいる人物へのサービス提供はロボット100−3が担当する。なお、監視カメラ200−1,200−2,200−3を特に区別する必要がない場合には、監視カメラ200と称する。監視カメラ200は、撮影エリアを俯瞰できる位置に設置される。   On the second floor of the airport 301 shown in FIG. 7, there are a monitoring camera 200-2 for photographing a restaurant / shop area as a second photographing area and a monitoring camera 200-3 for photographing an international departure lobby as a third photographing area. is set up. The robot 100-2 is in charge of providing services to persons in the restaurant / shop area, and the robot 100-3 is in charge of providing services to persons in the international departure lobby. The monitoring cameras 200-1, 200-2, and 200-3 are referred to as a monitoring camera 200 when it is not necessary to distinguish them in particular. The monitoring camera 200 is installed at a position where it can look over the imaging area.

[各種テーブルのデータ構造]
(ロボット管理テーブル) 図8は、ロボット管理テーブル111c,121cのデータ構造の一例を示す。
ロボット管理テーブル111c,121cは、顧客ID、施設ID、グローバルIP、ロボットID、ローカルIP、及びエリアの各項目を備える。
[Data structure of various tables]
(Robot Management Table) FIG. 8 shows an example of the data structure of the robot management tables 111c and 121c.
The robot management tables 111 c and 121 c include items of a customer ID, a facility ID, a global IP, a robot ID, a local IP, and an area.

「顧客ID」は、ロボット100の提供者と交わした契約に基づいてロボット若しくは本実施形態に係るビジネスモデルを利用する顧客を一意に特定するID(識別情報)である。
「施設ID」は、ロボットが配置される施設を一意に特定するIDである。施設は、屋内及び屋外を問わず、例えば屋内の例を挙げるならば建物の全区画又は一部の区画である。
「グローバルIP」は、対象施設に設けられた通信機器のグローバルIP(Internet Protocol)アドレスである。
「ロボットID」は、ロボット100を一意に特定するIDである。
「ローカルIP」は、ロボット100(通信インターフェース103)のローカルIPアドレスである。
「エリア」は、対象施設内においてロボット100が存在するエリア即ちロボット100が移動可能なエリアを表す。図6及び図7の例では、国際線到着ロビー、レストラン・ショップエリア、国際線出発ロビーなどが該当する。なお、本例では、このロボット管理テーブル111c,121cの「エリア」と、後述する監視カメラ管理テーブル211cの「エリア」が示す場所を、一致させてある。
The “customer ID” is an ID (identification information) for uniquely identifying a customer who uses the robot or the business model according to the present embodiment based on a contract exchanged with the provider of the robot 100.
The “facility ID” is an ID for uniquely identifying the facility where the robot is disposed. The facility may be indoor or outdoor, for example, all or part of a section of a building to give an example of indoor.
“Global IP” is a global IP (Internet Protocol) address of a communication device provided in a target facility.
The “robot ID” is an ID for uniquely identifying the robot 100.
The “local IP” is a local IP address of the robot 100 (communication interface 103).
The “area” represents an area where the robot 100 is present in the target facility, ie, an area in which the robot 100 can move. In the example of FIG. 6 and FIG. 7, the international arrival lobby, the restaurant / shop area, the international departure lobby, etc. correspond. In the present example, the “area” of the robot management tables 111 c and 121 c is matched with the location indicated by the “area” of the monitoring camera management table 211 c described later.

図8の例によれば、例えばロボット提供者が顧客ID“001”の顧客とロボット提供契約を結び、施設ID“001”である施設において3台のロボット100が利用されている。施設ID“001”の施設では、ロボットID“001”のロボット100がエリア“B3”に配置され、ロボットID“002”のロボット100がエリア“B2”に配置され、ロボットID“003”のロボット100がエリア“C2”に配置されている。   According to the example of FIG. 8, for example, a robot provider makes a robot provision contract with a customer of a customer ID “001”, and three robots 100 are used in a facility having a facility ID “001”. In the facility having the facility ID "001", the robot 100 having the robot ID "001" is disposed in the area "B3", the robot 100 having the robot ID "002" is disposed in the area "B2", and the robot having the robot ID "003" 100 is arranged in the area "C2".

ロボット制御装置110が持つロボット管理テーブル111cは、そのロボット制御装置110が制御するロボット100のみの情報を管理する。一方、ロボット監視センタ120が持つロボット管理テーブル121cは、そのロボット監視センタ120が監視する全てのロボット制御装置110が制御するロボット100の情報を管理する。ロボット100が駆動機構102fを有する場合には、ロボット100の位置を表すエリアは、ロボット100の持つ測域センサ102dやロボット100の持つ駆動機構102fの移動履歴(走行履歴)、不図示のビーコンなどを用いて取得される。   The robot management table 111 c of the robot controller 110 manages information of only the robot 100 controlled by the robot controller 110. On the other hand, the robot management table 121c of the robot monitoring center 120 manages information of the robots 100 controlled by all the robot control devices 110 monitored by the robot monitoring center 120. When the robot 100 has the drive mechanism 102 f, the area representing the position of the robot 100 is a range sensor 102 d of the robot 100, a movement history (travel history) of the drive mechanism 102 f of the robot 100, a beacon (not shown), etc. Obtained using

(監視カメラ管理テーブル) 図9は、監視カメラ管理テーブル211cのデータ構造の一例を示す。
監視カメラ管理テーブル211cは、顧客ID、施設ID、グローバルIP、監視カメラID、ローカルIP、及びエリアの各項目を備える。以下に、監視カメラ管理テーブル211cの各項目について説明するが、ロボット管理テーブル121cの項目と重複する項目については説明を簡略する。
(Monitoring Camera Management Table) FIG. 9 shows an example of the data structure of the monitoring camera management table 211c.
The monitoring camera management table 211 c includes items of a customer ID, a facility ID, a global IP, a monitoring camera ID, a local IP, and an area. Hereinafter, each item of the monitoring camera management table 211c will be described, but description of items overlapping the items of the robot management table 121c will be simplified.

「顧客ID」は、顧客を一意に特定するIDである。
「施設ID」は、施設を一意に特定するIDである。
「グローバルIP」は、対象施設内の通信機器のグローバルIPアドレスである。
「監視カメラID」は、監視カメラ200を一意に特定するIDである。
「ローカルIP」は、監視カメラ200(不図示の通信インターフェース)のローカルIPアドレスである。
「エリア」は、対象施設内に配置された監視カメラ200の位置、即ち監視カメラ200が撮影対象とするエリアを表す。
The “customer ID” is an ID uniquely identifying a customer.
The “facility ID” is an ID that uniquely identifies a facility.
"Global IP" is the global IP address of the communication device in the target facility.
The “monitoring camera ID” is an ID for uniquely identifying the monitoring camera 200.
The “local IP” is a local IP address of the monitoring camera 200 (communication interface not shown).
The “area” represents the position of the monitoring camera 200 disposed in the target facility, that is, the area that the monitoring camera 200 is to capture.

図9の例によれば、例えばロボット提供者が顧客ID“001”の顧客と契約を結んだロボット提供施設に関し、施設ID“001”の施設において3台の監視カメラ200が配置されている。施設ID“001”の施設では、監視カメラID“001”の監視カメラ200がエリア“B3”に配置され、監視カメラID“002”の監視カメラ200がエリア“B2”に配置され、監視カメラID“003”の監視カメラ200がエリア“C2”に配置されている。   According to the example of FIG. 9, for example, with respect to a robot providing facility in which a robot provider has made a contract with a customer of a customer ID "001", three monitoring cameras 200 are arranged in the facility of facility ID "001". In the facility having the facility ID "001", the monitoring camera 200 of the monitoring camera ID "001" is disposed in the area "B3", the monitoring camera 200 of the monitoring camera ID "002" is disposed in the area "B2", and the monitoring camera ID The surveillance camera 200 of "003" is disposed in the area "C2".

(行動パターンテーブル)
図10は、行動パターンテーブル111gのデータ構造の一例を示す。
行動パターンテーブル111gは、NO、施設ID、施設名、監視カメラID、対象時間帯、行動パターン名、静止時間、動作時間、行動周期数、要因・サービスの各項目を備える。
(Action pattern table)
FIG. 10 shows an example of the data structure of the action pattern table 111g.
The action pattern table 111g includes items of NO, facility ID, facility name, monitoring camera ID, target time zone, action pattern name, resting time, operation time, number of action cycles, factors and services.

「NO」は、行動パターンテーブル111gに記憶されるデータの任意番号である。
「施設ID」は、ロボット管理テーブル111c,121c及び監視カメラ管理テーブル211cに格納されるものと同じである。
「施設名」は、施設IDが示す施設の名称を表す。
「監視カメラID」は、監視カメラ管理テーブル211cに格納されるものと同じである。
「対象時間帯」は、該当する行動パターンが対象とする時間帯、言い換えれば該当する行動パターンが適用される時間帯である。
「行動パターン名」は、施設IDと紐付けて登録される行動パターンの名称を表す。
「静止時間」は、人物が静止している連続時間を表す。
「動作時間」は、人物が動作している連続時間を表す。
「行動周期数」は、静止と動作の繰り返し行動周期が実施される数を表す。
「要因・サービス」は、対象人物の行動が登録された行動パターンに合致した場合に、滞留要因とロボット100が対象人物(滞留者)に提供するサービスを示す。
"NO" is an arbitrary number of data stored in the action pattern table 111g.
The “facility ID” is the same as that stored in the robot management tables 111 c and 121 c and the monitoring camera management table 211 c.
"Facilities name" represents the name of the facility indicated by the facility ID.
“Monitoring camera ID” is the same as that stored in the monitoring camera management table 211 c.
The “target time zone” is a time zone targeted by the corresponding behavior pattern, in other words, a time zone to which the corresponding behavior pattern is applied.
The “action pattern name” represents the name of an action pattern registered in association with a facility ID.
The "rest time" represents a continuous time during which a person is at rest.
"Operation time" represents a continuous time during which a person is operating.
The “number of activity cycles” represents the number of repetitions of the stillness and the action.
“Factor / service” indicates a service provided by the robot 100 to the target person (stayer) when the target person's action matches the registered action pattern.

例えば、案内希望の人物は、周囲の案内表示板や電光表示装置の情報を頻繁に見ることが多い。即ち案内希望の場合、静止時間が短く、繰り返し行動が多い傾向がある。また、体調不良の人物は、動作が鈍い、うずくまるなどの行動により、傾向として静止時間が長く、繰り返し行動が少ない。このような体調不良の人が検出された場合には、ロボット100を対象人物へ急行させる必要がある。   For example, a person desiring to guide often sees information on a surrounding display board and an electronic display device in many cases. That is, when guidance is desired, the stationary time tends to be short and the repetitive action tends to be large. In addition, a person who is in poor physical condition tends to have a longer rest time and less repetitive behavior due to actions such as slow motion and curling. When such a poor physical condition person is detected, it is necessary to rush the robot 100 to the target person.

図10に示す行動パターンテーブル111gの例では、施設ごとに、時間帯別の利用者の交通量及び対象場所の特定を考慮し、行動パターンが設定されている。監視カメラID“001”の撮影エリア(国際線到着ロビー)における行動パターンは、午前に人の行き交いが多いことを想定(午前中に到着便が多数ある場合の混雑を想定)したものである。また、監視カメラID“002”の撮影エリア(レストラン・ショップエリア)における行動パターンは、昼に食事場所を探す人が多いことを想定したものである。さらに、監視カメラID“003”の撮影エリア(国際線出発ロビー)における行動パターンは、午後に人の行き交いが多いことを想定(午後に出発便が多数ある場合の混雑を想定)したものである。   In the example of the action pattern table 111g illustrated in FIG. 10, the action pattern is set in consideration of the traffic volume of the user by time zone and the specification of the target location for each facility. The behavior pattern in the shooting area of the surveillance camera ID "001" (international arrival lobby) assumes that there are many people in the morning (assuming congestion when there are a large number of arrival flights in the morning). In addition, the behavior pattern in the shooting area (restaurant / shop area) of the monitoring camera ID "002" assumes that there are many people who search for a meal place at noon. Furthermore, the behavior pattern in the shooting area of the surveillance camera ID "003" (international departure lobby) assumes that there is a lot of people coming and going in the afternoon (assuming congestion when there are many departure flights in the afternoon).

これらの行動パターンを登録するかしないかは、種々の条件を勘案して決定することができる。例えば、監視カメラID“001”の撮影エリアにおいて、午後は人も少なく滞留者の判定が必要なければ、行動パターンを登録しなくてもよい。また、人は少ないが滞留者を検出しロボット100による対応を行うが、人が滞留する傾向が午前の傾向と異なる場合には、対象時間帯、静止時間及び動作時間(並びに行動周期数)を変えて新しい行動パターンを登録することが望ましい。   Whether to register these behavior patterns can be determined in consideration of various conditions. For example, in the photographing area of the monitoring camera ID "001", if there are few people in the afternoon and it is not necessary to determine the staying person, the behavior pattern may not be registered. In addition, although there are few people, they detect staying people and take action by the robot 100, but if the tendency for people to stay is different from the tendency in the morning, target time zone, stationary time and operating time (and number of activity cycles) It is desirable to change and register a new behavior pattern.

また、滞留者の案内希望に対してその目的や内容に応じて適切に対応できるように、シナリオはその種類を分別して登録される。図10の例では、監視カメラID“001”の撮影エリア(国際線到着ロビー)に対し、空港Aに到着した人へ空港内や空港外についての案内を想定したサービス(シナリオ案内A)が登録されている。また、監視カメラID“002”の撮影エリア(レストラン・ショップエリア)に対し、空港内の食事場所についての案内を想定したサービス(シナリオ案内B)が登録されている。また、監視カメラID“003”の撮影エリア(国際線出発ロビー)に対し、空港Aから出発する人へ搭乗手続きについての案内を想定したサービス(シナリオ案内C)が登録されている。   Moreover, the scenario is classified and registered so that it can respond appropriately according to the purpose and the content with respect to the guidance request of the staying person. In the example of FIG. 10, a service (scenario guidance A) is assumed in which a person arriving at the airport A is given guidance on the inside and the outside of the airport for the shooting area of the surveillance camera ID "001" (international arrival lobby). ing. In addition, a service (scenario guidance B) supposing guidance on a meal place in the airport is registered in the photographing area (restaurant / shop area) of the monitoring camera ID "002". In addition, a service (scenario guidance C) supposing guidance about a registration procedure to a person departing from the airport A is registered in the photographing area (international departure lobby) of the monitoring camera ID "003".

また、監視カメラID“001”の撮影エリアに対し、体調不良の人への声かけ・救護者の呼びかけ等を想定したサービス(シナリオ体調不良)も登録されている。なお、体調不良に対するシナリオについても、その種類を分別して登録してもよい。   Further, a service (scenario poor physical condition) in which a call to a person with poor physical condition, a call of a rescue person, etc. is assumed is registered in the photographing area of the monitoring camera ID "001". The type of scenario for poor health may also be classified and registered.

上記のように、施設(施設ID)、撮影場所(監視カメラIDに対応)、又は時間帯(対象時間帯)ごとに、行動パターンと要因・サービスを登録することにより、滞留要因とサービスの精度を向上させることができる。特に、撮影場所と時間帯によって、施設内の利用者の往来が変化するため、監視カメラID又は対象時間帯ごとに行動パターンを登録することで、ロボット制御装置110からロボット100に対し、適時最適なサービス・対応を指示することが可能である。   As described above, by registering behavior patterns and factors / services for each facility (facility ID), shooting location (corresponding to surveillance camera ID), or time zone (target time zone), retention factor and service accuracy Can be improved. In particular, user traffic in the facility changes depending on the shooting location and time zone, so by registering the action pattern for each monitoring camera ID or target time zone, the robot control device 110 optimizes the robot 100 in a timely manner. It is possible to indicate various services and responses.

なお、ロボット管理システム1の運用開始後に、ロボット監視センタ120の操作部122を操作して、行動パターンテーブル111gの静止時間と動作時間を任意に変更することができる。また、該当する要因・サービスも同様に変更することができる。   In addition, after the start of operation of the robot management system 1, the operation time of the action pattern table 111g can be arbitrarily changed by operating the operation unit 122 of the robot monitoring center 120. In addition, applicable factors and services can be similarly changed.

(行動判定結果データベース)
図11は、行動データ記憶部121bに記憶される行動判定結果データベース121bDのデータ構造の一例を示す。
行動判定結果データベース121bDは、NO、施設ID、施設名、撮影日、判定時間、人物ID、監視カメラID、滞留者場所、要因・サービスの各項目を備える。
(Behavior judgment result database)
FIG. 11 shows an example of the data structure of the action determination result database 121bD stored in the action data storage unit 121b.
The action determination result database 121bD includes items of NO, facility ID, facility name, shooting date, determination time, person ID, surveillance camera ID, staying person location, factor and service.

「NO」は、行動判定結果データベース121bDに記憶されるデータ(レコード)の任意番号である。
「施設ID」は、行動パターンテーブル111gのものと同じである。
「施設名」は、行動パターンテーブル111gのものと同じである。
「撮影日」は、監視カメラ200が滞留者を撮影した日にちである。
「判定時間」は、行動分析部111eが監視カメラ200により撮影された映像内に滞留者がいると判定した時刻である。
「人物ID」は、映像内の人物を一意に特定するIDである。人物IDは、一例として人物を検出した順に採番される。
「監視カメラID」は、滞留者を撮影した監視カメラIDを示す。
「滞留者場所」は、施設内において滞留者が存在する場所(位置)を示す。滞留者場所は、例えば施設内のある位置を基準とする座標系(本例では二次元座標)、又は緯度と経度により表される。
「要因・サービス」は、行動パターンテーブル111gのものと同じである。
"NO" is an arbitrary number of data (record) stored in the action determination result database 121bD.
The "facility ID" is the same as that of the behavior pattern table 111g.
The "facility name" is the same as that of the behavior pattern table 111g.
The “photographing date” is a date when the surveillance camera 200 photographed the staying person.
The “determination time” is the time when the behavior analysis unit 111 e determines that there is a staying person in the image captured by the monitoring camera 200.
The “person ID” is an ID uniquely identifying a person in the video. Person IDs are numbered in the order of detection of persons as an example.
"Monitoring camera ID" indicates a monitoring camera ID that has captured the staying person.
The “staying place” indicates the place (position) where the staying person exists in the facility. The dwelling place is represented by, for example, a coordinate system (two-dimensional coordinates in this example) based on a certain position in the facility, or latitude and longitude.
“Factor / service” is the same as that of the action pattern table 111g.

行動判定結果データベース121bDに登録されたデータは、一定期間を経過後に削除することが望ましい。これにより、ロボット監視センタ120の記憶装置の記憶領域に記憶されたデータ量を削減し、一定の空き領域を確保することができる。   It is desirable that the data registered in the behavior determination result database 121bD be deleted after a predetermined period has elapsed. As a result, the amount of data stored in the storage area of the storage device of the robot monitoring center 120 can be reduced, and a certain free space can be secured.

[滞留者に対するサービス提供処理の手順]
次に、滞留者の検知からロボット100へ指示するまでの処理の流れを、図12を参照して説明する。図12は、ロボット管理システム1による滞留者の行動パターンに基づくサービス提供の手順例を示すフローチャートである。
[Procedure of service provision process for staying people]
Next, the flow of processing from detection of a staying person to instructing the robot 100 will be described with reference to FIG. FIG. 12 is a flowchart showing a procedure example of service provision based on the behavior pattern of the staying person by the robot management system 1.

まずシステムの管理者は、滞留者であると判定する行動パターンを行動パターンテーブル111gに事前に登録しておく(S1)。このときシステム管理者は、施設及び監視カメラ200の撮影場所ごとに行動パターンの登録を実施する。撮影場所は監視カメラIDと対応している。   First, the administrator of the system registers in advance an action pattern that is determined to be a resident in the action pattern table 111g (S1). At this time, the system administrator registers the behavior pattern for each of the facilities and the shooting location of the monitoring camera 200. The shooting location corresponds to the surveillance camera ID.

次いで、ロボット管理システム1を運用開始後、ロボット制御装置110の人物検出部111dは、画像処理技術により監視カメラ200が撮影している映像から人物を検出し、その人物に人物IDを採番する(S2)。次いで、行動分析部111eは、人物検出部111dにより検出された人物の静止時間と動作時間を画像処理技術により算出する(S3)。   Next, after starting operation of the robot management system 1, the person detection unit 111d of the robot control device 110 detects a person from the image captured by the monitoring camera 200 by image processing technology, and assigns a person ID to the person. (S2). Next, the behavior analysis unit 111e calculates the stillness time and the movement time of the person detected by the person detection unit 111d by the image processing technique (S3).

次いで、行動パターン判定部111fは、行動分析部111eにより計算された対象人物の静止時間と動作時間から、対象人物の静止と動作のパターンが繰り返されているか否かの判定を行う(S4)。ここで、対象人物の静止と動作の行動パターンが繰り返されている場合には(S4のYES)、行動パターン判定部111fは、繰り返し行動有りと判断する(S5)。一方、対象人物の静止と動作のパターンが繰り返されていない場合には(S4のNO)、行動パターン判定部111fは、繰り返し行動無しと判断する(S6)。   Next, the action pattern determination unit 111f determines whether the pattern of the target person's stillness and motion is repeated based on the target person's still time and the operation time calculated by the action analysis unit 111e (S4). Here, when the action pattern of the target person's stillness and the action is repeated (YES in S4), the action pattern determination unit 111f determines that the repeat action is present (S5). On the other hand, when the patterns of the stillness and the motion of the target person are not repeated (NO in S4), the behavior pattern determination unit 111f determines that there is no repetitive behavior (S6).

次いで、行動パターン判定部111fは、対象人物の静止と動作の行動パターンが滞留者の行動パターンに該当するか否かの判定を行う(S7)。具体的には、行動パターン判定部111fは、行動パターンテーブル111gを参照して、対象人物の静止と動作の行動パターンに合致する行動パターンを検索する。そして、行動パターン判定部111fは、行動パターンテーブル111gに対象人物の行動に合致する行動パターンが存在しない場合には(S7のNO)、ステップS2に戻って監視カメラ200が撮影している映像から人物を検出する処理を続ける。   Next, the action pattern determination unit 111f determines whether the action pattern of the target person's stillness and movement corresponds to the action pattern of the staying person (S7). Specifically, the action pattern determination unit 111f refers to the action pattern table 111g to search for an action pattern that matches the action pattern of the target person's stillness and action. Then, when there is no action pattern matching the action of the target person in the action pattern table 111g (NO in S7), the action pattern determination unit 111f returns to step S2 and uses the image captured by the monitoring camera 200. Continue processing to detect people.

一方、行動パターン判定部111fは、行動パターンテーブル111gに対象人物の行動に合致する行動パターンが存在した場合には、対象人物は滞留者であると判断し(S7のYES)、滞留要因が何かを行動パターンテーブル111gの要因・サービスの項目を参照して判断する。例えば、行動パターン判定部111fは、合致した行動パターンに対応する要因・サービスの項目の内容から、滞留要因が体調不良であるか否かの判定を行う(S8)。   On the other hand, when there is an action pattern matching the action of the target person in the action pattern table 111g, the action pattern determination unit 111f determines that the target person is a staying person (YES in S7), and the staying factor is It is determined with reference to the item of factor and service in the action pattern table 111g. For example, the behavior pattern determination unit 111f determines whether the staying cause is poor health or not from the content of the item of the factor / service corresponding to the matched behavior pattern (S8).

行動パターン判定部111fは、滞留要因が体調不良である場合には(S8のYES)、対象撮影エリア若しくはその近くにいるロボット100に指令を送りロボット100を滞留者の元に移動させる。そして、行動パターン判定部111fは、体調不良に対応するシナリオデータをシナリオ格納部111hから読み出してロボット100に送信する。それによりロボット100の対話制御部101b及び駆動制御部101aは、受信したシナリオデータに基づいて、滞留者に体調を質問し救護者の呼びかけを実施する(S9)。   If the staying factor is poor health (YES in S8), the behavior pattern determining unit 111f sends a command to the robot 100 located at or near the target imaging area to move the robot 100 to the person of the staying person. Then, the action pattern determination unit 111 f reads out scenario data corresponding to poor physical condition from the scenario storage unit 111 h and transmits the scenario data to the robot 100. Accordingly, the dialogue control unit 101b and the drive control unit 101a of the robot 100 ask the staying person about the physical condition based on the received scenario data, and carry out the rescuer's call (S9).

一方、行動パターン判定部111fは、滞留要因が体調不良ではない場合には(S8のNO)、続いて滞留要因が案内希望であるか否かの判定を行う(S10)。行動パターン判定部111fは、滞留要因が案内希望である場合には(S10のYES)、対象撮影エリア若しくはその近くにいるロボット100に指令を送りロボット100を滞留者の元に移動させる。そして、行動パターン判定部111fは、案内希望に対応するシナリオデータをシナリオ格納部111hから読み出してロボット100に送信する。それによりロボット100の対話制御部101b及び駆動制御部101aは、受信したシナリオデータに基づいて、滞留者に目的を質問し施設案内を実施する(S11)。   On the other hand, when the staying cause is not poor physical condition (NO in S8), the behavior pattern determination unit 111f then determines whether the staying cause is guidance request (S10). The behavior pattern determination unit 111f sends a command to the robot 100 located at or near the target imaging area, and moves the robot 100 to the person of the staying person, when the staying factor is the guidance request (YES in S10). Then, the action pattern determination unit 111 f reads out scenario data corresponding to the request for guidance from the scenario storage unit 111 h and transmits the scenario data to the robot 100. Accordingly, the dialogue control unit 101b and the drive control unit 101a of the robot 100 inquire the purpose of the staying person based on the received scenario data, and carry out facility guidance (S11).

ステップS9又はステップS10の処理が終了後、あるいはステップS10において滞留要因が案内希望ではなかった場合には(S10のNO)、ロボット100は元の待機位置に戻る。さらに、次の滞留者がいる場合には、ロボット100はロボット制御装置110の指示に基づいて次の滞留者の元へ移動する。   After the process of step S9 or step S10 is completed, or when the staying factor is not a guide request in step S10 (NO in S10), the robot 100 returns to the original standby position. Furthermore, when there is a next staying person, the robot 100 moves to the next staying person based on the instruction of the robot controller 110.

本実施形態では、ロボット制御装置110は、ステップS7において対象人物が滞留者であると判断した場合に、ロボット100を制御することと並行して、滞留者ありと判定した際の各種データをロボット監視センタ120へ送信し、行動判定結果データベース121bDにデータを蓄積する。   In the present embodiment, when it is determined in step S7 that the target person is the staying person, the robot control device 110 performs various data when it is determined that the staying person is present in parallel with controlling the robot 100. It transmits to the monitoring center 120, and accumulate | stores data in action determination result database 121bD.

以上説明したように、本実施形態によれば、事前に施設及び撮影場所(建物300、各撮影エリアなど)ごとに人物の滞留の原因と予想される行動パターンを行動パターンテーブル111gに登録している。ロボット制御装置110が、現場に設置されている監視カメラ200に撮影された人物が登録済みの行動パターンの条件に合致するか否かを判定する。それにより、ロボット制御装置110は、監視カメラ200で撮影した映像から登録済みの行動パターンに該当する人物(滞留者)の有無とその滞留要因を判定する。そして、ロボット制御装置110は、建物300内の滞留者の検知及び滞留要因の特定を行うことにより、滞留要因に応じた滞留者へのサービス提供をロボット100に実施させることが可能になる。   As described above, according to the present embodiment, an activity pattern expected to be a cause of retention of a person is registered in the activity pattern table 111g in advance for each facility and shooting location (building 300, each shooting area, etc.) There is. The robot control device 110 determines whether or not the person photographed by the monitoring camera 200 installed at the site matches the condition of the registered action pattern. Accordingly, the robot control device 110 determines the presence or absence of a person (staying person) corresponding to the registered action pattern from the image captured by the monitoring camera 200 and the staying factor thereof. Then, the robot control device 110 can cause the robot 100 to provide a service to the staying person according to the staying cause by detecting the staying person in the building 300 and specifying the staying cause.

それゆえ、ロボット100は、滞留者の滞留要因に応じて滞留者が望むサービスを適切に提供することができる。さらに、滞留者が望むサービスをその滞留者に提供することにより、滞留原因となっている要因を排除するための支援を実施することができる。   Therefore, the robot 100 can appropriately provide the service desired by the staying person depending on the staying cause of the staying person. Furthermore, by providing the staying person with the service desired by the staying person, it is possible to implement support for eliminating the cause of the staying.

また、本実施形態では、行動パターンテーブル111gに登録する静止時間と動作時間を任意に変更できるとともに、該当する要因・サービスも同様に任意に変更できることから、施設(例えば建物300)そのものの使途や現在の利用状況に応じて、判定基準を柔軟に対応させることが可能となる。利用状況とは、例えば建物300がオフィス、スーパーマーケット、商用施設、又は集合住宅のいずれか、あるいは他の目的に利用されているのか等の情報である。それにより、施設を利用して滞留した人に適時最適なサービス・対応を行うことが可能である。   Further, in the present embodiment, since the stationary time and the operating time registered in the behavior pattern table 111g can be arbitrarily changed, and the corresponding factors and services can be arbitrarily changed as well, the facility (for example, the building 300) itself can be used It is possible to flexibly respond to the determination criteria according to the current usage situation. The usage status is, for example, information as to whether the building 300 is used for an office, a supermarket, a commercial facility, a housing complex, or other purpose. As a result, it is possible to provide optimal service and response to people who have stagnated using the facility.

<2.変形例>
なお、行動パターン判定部111fは、監視カメラ200の映像から検出された人物が属するグループ(集団)を構成する人数が所定数以上である場合には、提供するサービスを決定せず、ロボット100に該当人物へのサービスを行わせないようにする。グループに属する人物の案内希望や体調不良への対処は、グループのメンバーで解決できることが多い。そのため、ロボット100による声かけなどのサービスを自粛し、求められていないサービスの提供を防止する。検出された人物が属するグループは、人物検出部111dにより検出可能である。例えば、人物検出部111dは、映像から複数の人物を検出し、一定時間内において、複数の人物が同じ方向に向かって移動していたり立ち止まっていたりした場合には、これらの複数の人物(滞留者)はグループを形成していると判断する。
<2. Modified example>
When the number of persons constituting the group (group) to which the person detected from the video of the monitoring camera 200 belongs is equal to or more than a predetermined number, the action pattern determination unit 111 f does not determine the service to be provided. Do not offer services to the person in question. It is often the case that members of the group can solve the request for guidance of people belonging to the group and the treatment of poor physical condition. Therefore, the service such as calling by the robot 100 is self-solicited, and provision of unsolicited services is prevented. The group to which the detected person belongs can be detected by the person detection unit 111d. For example, when the person detection unit 111d detects a plurality of persons from the video and the plurality of persons move or stop in the same direction within a predetermined time, the plurality of persons (staying Person) is considered to form a group.

また、上述した実施形態では、監視カメラ200により撮影エリア内の人物を撮影したが、ロボット100が備えるカメラ102aにより人物を撮影し、その撮影した映像から滞留者の有無を判断してもよい。   In the embodiment described above, the person in the imaging area is photographed by the monitoring camera 200. However, the person may be photographed by the camera 102a included in the robot 100, and the presence or absence of the staying person may be determined from the photographed image.

また、建物300の同一エリアに滞留者が複数人いる場合には、ロボット制御装置110が、先に滞留者と判定された人物の元に向かうようロボット100を制御してもよい。あるいは、ロボット制御装置110は、ロボット100が複数人の滞留者の中で体調不良を抱えた人物に優先的に向かうように制御してもよい。   In addition, when there are a plurality of staying people in the same area of the building 300, the robot control device 110 may control the robot 100 to go to the source of the person who has been determined to be the staying person first. Alternatively, the robot control device 110 may control the robot 100 to be preferentially directed to a person who is in poor physical condition among a plurality of staying people.

また、上述した実施形態では、人の行き交いが多く滞留者も多いと想定される施設(空港、駅、商用施設、スーパーマーケットなど)に監視カメラ200を配置する例を説明したが、監視カメラ200を行き交う人が少なく、滞留者が発生しにくい若しくは少ない施設や場所(例えば集合住宅、職員用通路、トイレなど)に設置してもよい。このように監視カメラ200を滞留者が発生しにくい若しくは少ないと推測される場所に設置することにより、体調不良で倒れている人物が長時間放置されることを防止できる。また、滞留者の発生しにくい環境で滞留者が検出された場合には、体調不良の人か不審者の可能性が高いため、本発明は防犯にも寄与し、さらに撮影場所、対象時間帯、行動パターンを適切に定義することで不審者発見の精度が向上する。   In the embodiment described above, an example is described in which the monitoring camera 200 is disposed in a facility (such as an airport, a station, a commercial facility, a supermarket, etc.) where it is assumed that there are many people coming and going and many staying people. It may be installed in a facility or place (such as an apartment house, staff passage, restroom, etc.) where there are few people coming and going and there are few or few people staying. By thus installing the monitoring camera 200 in a place where it is estimated that it will be difficult or unlikely to occur by the staying person, it is possible to prevent a person who has fallen ill due to poor physical condition from being left for a long time. In addition, when a staying person is detected in an environment where the staying person is unlikely to occur, the possibility of a person with poor physical condition or a suspicious person is high, so the present invention also contributes to crime prevention. By properly defining the behavior pattern, the accuracy of suspicious person detection is improved.

さらに、本発明は上述した各実施形態例に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、その他種々の応用例、変形例を取り得ることは勿論である。   Furthermore, the present invention is not limited to the embodiments described above, and it goes without saying that various other applications and modifications can be taken without departing from the scope of the present invention described in the claims. is there.

例えば、上述した実施形態例は本発明を分かりやすく説明するために装置及びシステムの構成を詳細且つ具体的に説明したものであり、必ずしも説明した全ての構成要素を備えるものに限定されない。また、ある実施形態例の構成の一部を他の実施形態例の構成要素に置き換えることは可能である。また、ある実施形態例の構成に他の実施形態例の構成要素を加えることも可能である。また、各実施形態例の構成の一部について、他の構成要素の追加、削除、置換をすることも可能である。   For example, the above-described embodiment is a detailed and specific description of the configuration of the apparatus and system for the purpose of easy understanding of the present invention, and is not necessarily limited to one having all the components described. In addition, it is possible to replace part of the configuration of one embodiment with the component of another embodiment. In addition, it is also possible to add components of other example embodiments to the configuration of one example embodiment. Moreover, it is also possible to add, delete, and replace other components for part of the configuration of each embodiment.

また、上記の各構成要素、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路の設計などによりハードウェアで実現してもよい。また、上記の各構成要素、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、又はICカード、SDカード、DVD等の記録媒体に置くことができる。   Further, some or all of the above-described components, functions, processing units, processing means, etc. may be realized by hardware, for example, by design of an integrated circuit. Further, each component, function, and the like described above may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as a program, a table, and a file for realizing each function can be placed in a memory, a hard disk, a recording device such as a solid state drive (SSD), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成要素が相互に接続されていると考えてもよい。   Further, control lines and information lines indicate what is considered to be necessary for the description, and not all control lines and information lines in the product are necessarily shown. In practice, almost all components may be considered to be connected to each other.

また、本明細書において、時系列的な処理を記述する処理ステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)をも含むものである。   Furthermore, in the present specification, processing steps that describe time-series processing are parallel or individual processing that is not necessarily performed chronologically, as well as processing performed chronologically in the order described. Processing (eg, parallel processing or processing by an object).

1…ロボット管理システム、 100、100−1〜100−3…ロボット、 110…ロボット制御装置、 111d…人物検出部111d、 111e…行動分析部、 111f…行動パターン判定部、 111g…行動パターンテーブル、 111h…シナリオ格納部、 120…ロボット監視センタ、 200、200−1〜200−3…監視カメラ、 210…カメラ制御装置   DESCRIPTION OF SYMBOLS 1 ... Robot management system, 100, 100-1-100-3 ... Robot, 110 ... Robot control apparatus, 111 d ... Person detection part 111 d, 111 e ... Action analysis part, 111 f ... Action pattern determination part, 111 g ... Action pattern table, 111h Scenario storage unit 120 Robot monitoring center 200 200-1 to 200-3 Monitoring camera 210 Camera control device

Claims (7)

移動可能なロボットと、撮影を行うカメラと、前記カメラにより撮影された映像から人物を検出する人物検出部と、を備え、前記人物検出部により検出された前記人物に前記ロボットがサービスを提供するロボット管理システムであって、
人物の静止時間、動作時間、及び前記静止時間と前記動作時間の組み合わせの繰り返しによって定義される行動パターンと人物に提供されるサービスとが対応づけて登録された行動パターンテーブルと、
前記映像から検出された前記人物の行動が、前記行動パターンテーブルに登録された前記行動パターンに合致する場合に、該当する前記行動パターンに基づいて前記ロボットが前記人物に提供するべきサービスを決定する行動パターン判定部と、を備える
ロボット管理システム。
The robot includes a movable robot, a camera for photographing, and a person detection unit for detecting a person from a video taken by the camera, and the robot provides a service to the person detected by the person detection unit. A robot management system,
A behavior pattern table in which a behavior time defined by the resting time of the person, an operation time, and a combination of the resting time and the operation time and a service provided to the person are registered in association with each other;
When the action of the person detected from the video matches the action pattern registered in the action pattern table, the robot determines the service to be provided to the person based on the corresponding action pattern A robot management system comprising: an action pattern determination unit.
前記行動パターン判定部は、前記映像から検出された前記人物の行動が、前記行動パターンテーブルに登録された前記行動パターンに該当する場合、前記人物はその場に留まっている者であると判断する
請求項1に記載のロボット管理システム。
When the action of the person detected from the image corresponds to the action pattern registered in the action pattern table, the action pattern determination unit determines that the person is a person who is staying at the place The robot management system according to claim 1.
前記行動パターンテーブルには、施設別に前記行動パターンと前記サービスが登録される
請求項2に記載のロボット管理システム。
The robot management system according to claim 2, wherein the behavior pattern and the service are registered in the behavior pattern table for each facility.
前記行動パターンテーブルには、施設内の撮影場所別に前記行動パターンと前記サービスが登録される
請求項2に記載のロボット管理システム。
The robot management system according to claim 2, wherein the behavior pattern and the service are registered in the behavior pattern table for each imaging location in a facility.
前記行動パターンテーブルには、時間帯別に前記行動パターンと前記サービスが登録される
請求項4に記載のロボット管理システム。
The robot management system according to claim 4, wherein the behavior pattern and the service are registered in the behavior pattern table for each time zone.
前記行動パターン判定部は、前記映像から検出された人物が属するグループを構成する人数が所定数以上である場合には、前記ロボットに前記サービスを行わせない
請求項2に記載のロボット管理システム。
The robot management system according to claim 2, wherein the behavior pattern determination unit does not cause the robot to perform the service when the number of persons constituting a group to which a person detected from the video belongs is equal to or more than a predetermined number.
前記行動パターン判定部の決定に基づいて前記ロボットに指令を送り前記ロボットの動作を制御するロボット制御装置を備え、
前記行動パターンテーブル及び前記行動パターン判定部は、前記ロボットとネットワークを介して接続される前記ロボット制御装置に設けられる
請求項1乃至6のいずれか一項に記載のロボット管理システム。
The robot control device sends a command to the robot based on the determination of the behavior pattern determination unit, and controls an operation of the robot.
The robot management system according to any one of claims 1 to 6, wherein the behavior pattern table and the behavior pattern determination unit are provided in the robot control device connected to the robot via a network.
JP2017207453A 2017-10-26 2017-10-26 Robot management system Active JP6812325B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017207453A JP6812325B2 (en) 2017-10-26 2017-10-26 Robot management system
CN201811172814.8A CN109709947B (en) 2017-10-26 2018-10-09 Robot management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017207453A JP6812325B2 (en) 2017-10-26 2017-10-26 Robot management system

Publications (2)

Publication Number Publication Date
JP2019079419A true JP2019079419A (en) 2019-05-23
JP6812325B2 JP6812325B2 (en) 2021-01-13

Family

ID=66253914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017207453A Active JP6812325B2 (en) 2017-10-26 2017-10-26 Robot management system

Country Status (2)

Country Link
JP (1) JP6812325B2 (en)
CN (1) CN109709947B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022093927A (en) * 2020-12-14 2022-06-24 Kddi株式会社 Mobile store management device and mobile store management system
US12111633B2 (en) 2021-05-10 2024-10-08 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a robot
CN118897495A (en) * 2024-10-08 2024-11-05 上海傅利叶智能科技有限公司 Work and rest assisting method, control device, equipment and storage medium of humanoid robot

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7351757B2 (en) * 2020-01-24 2023-09-27 株式会社日立製作所 How to control a moving robot
CN112656402B (en) * 2020-11-30 2023-01-13 重庆优乃特医疗器械有限责任公司 Acquisition robot linkage control system applied to 3D posture detection and analysis

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005014242A1 (en) * 2003-08-12 2005-02-17 Advanced Telecommunications Research Institute International Communication robot control system
JP2005215927A (en) * 2004-01-29 2005-08-11 Mitsubishi Heavy Ind Ltd Behavior recognition system
KR200435980Y1 (en) * 2006-09-13 2007-03-30 주식회사 케이엠씨 Intelligent Guide Robot System
JP2008260107A (en) * 2007-04-13 2008-10-30 Yaskawa Electric Corp Mobile robot system
JP2009131914A (en) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International Robot control system
JP2012161901A (en) * 2011-02-09 2012-08-30 Advanced Telecommunication Research Institute International Communication robot

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6584375B2 (en) * 2001-05-04 2003-06-24 Intellibot, Llc System for a retail environment
JP2003241833A (en) * 2002-02-18 2003-08-29 Hitachi Ltd Information distribution service and information collection system by mobile robot
CN100451897C (en) * 2002-05-31 2009-01-14 富士通株式会社 Remotely-operated robot, and robot self position identifying method
CN1294521C (en) * 2004-06-28 2007-01-10 李剑华 Outer shape structure of commercial guest greeting robot and identifying method
JP4086024B2 (en) * 2004-09-14 2008-05-14 ソニー株式会社 Robot apparatus and behavior control method thereof
ATE522330T1 (en) * 2005-09-30 2011-09-15 Irobot Corp ROBOT SYSTEM WITH WIRELESS COMMUNICATION USING TCP/IP TRANSMISSION
JP4786516B2 (en) * 2006-12-13 2011-10-05 三菱重工業株式会社 Service target person discrimination method in robot service system and robot service system using the method
JP5216690B2 (en) * 2009-06-01 2013-06-19 株式会社日立製作所 Robot management system, robot management terminal, robot management method and program
JP5672326B2 (en) * 2013-03-19 2015-02-18 株式会社安川電機 Robot system
US9517559B2 (en) * 2013-09-27 2016-12-13 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
CN103753564A (en) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 Station guide service robot
JP5939266B2 (en) * 2014-02-21 2016-06-22 トヨタ自動車株式会社 MOBILE BODY CONTROL SYSTEM, MOBILE BODY CONTROL METHOD, PROGRAM
CN104375417B (en) * 2014-11-05 2017-11-07 济南大学 A kind of Waiting Lounge intellect service robot
CN204712057U (en) * 2015-05-07 2015-10-21 华南理工大学广州学院 A kind of service robot being applied to working hall
CN204945792U (en) * 2015-08-03 2016-01-06 高世恒 A kind of Information Mobile Service robot
SG11201801327QA (en) * 2015-08-19 2018-03-28 Cyberdyne Inc Autonomous mobile body and on-site operation management system
CN205521426U (en) * 2016-01-22 2016-08-31 众德迪克科技(北京)有限公司 Airport service intelligent robot
CN106096576B (en) * 2016-06-27 2019-05-07 陈包容 A kind of intelligent Service method of robot
CN106774333B (en) * 2016-12-30 2020-05-29 中国民航信息网络股份有限公司 Airport service robot and working method thereof
CN106584481A (en) * 2017-01-20 2017-04-26 南京邮电大学 Service robot applied to China Mobile business hall and operation method of robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005014242A1 (en) * 2003-08-12 2005-02-17 Advanced Telecommunications Research Institute International Communication robot control system
JP2005215927A (en) * 2004-01-29 2005-08-11 Mitsubishi Heavy Ind Ltd Behavior recognition system
KR200435980Y1 (en) * 2006-09-13 2007-03-30 주식회사 케이엠씨 Intelligent Guide Robot System
JP2008260107A (en) * 2007-04-13 2008-10-30 Yaskawa Electric Corp Mobile robot system
JP2009131914A (en) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International Robot control system
JP2012161901A (en) * 2011-02-09 2012-08-30 Advanced Telecommunication Research Institute International Communication robot

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022093927A (en) * 2020-12-14 2022-06-24 Kddi株式会社 Mobile store management device and mobile store management system
JP7465796B2 (en) 2020-12-14 2024-04-11 Kddi株式会社 Mobile store management device and mobile store management system
US12111633B2 (en) 2021-05-10 2024-10-08 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a robot
JP7609931B2 (en) 2021-05-10 2025-01-07 ベアー ロボティックス,インコーポレイテッド Method, system and non-transitory computer-readable recording medium for controlling a robot
CN118897495A (en) * 2024-10-08 2024-11-05 上海傅利叶智能科技有限公司 Work and rest assisting method, control device, equipment and storage medium of humanoid robot

Also Published As

Publication number Publication date
JP6812325B2 (en) 2021-01-13
CN109709947B (en) 2021-11-16
CN109709947A (en) 2019-05-03

Similar Documents

Publication Publication Date Title
CN109709947B (en) Robot management system
US9796093B2 (en) Customer service robot and related systems and methods
US11113945B2 (en) Automated robot alert system
JP2020502649A (en) Intelligent service robot and related systems and methods
JP2019049785A (en) Robot management system and product proposal method
JP2007300572A (en) Sensor network system, sensor network location method
JP7095220B2 (en) Robot control system
US20180272540A1 (en) Resort sanitation monitor and controller
JP2019087250A (en) Systems and methods for object historical association
JP2019148864A (en) Service execution plan proposal robot system
JP2018008758A (en) Elevator system and car call estimation method
JP4919648B2 (en) Wireless terminal management system
WO2024152048A9 (en) Visual analytics
JP2020004182A (en) Robot, robot control program and robot control method
JP2005056213A (en) Information providing system, information providing server, and information providing method
US20250109963A1 (en) Robot-friendly buildings, and map generation methods and systems for robot operation
JP7327962B2 (en) WORK MONITORING DEVICE, WORK MONITORING SYSTEM, WORK MONITORING METHOD, AND PROGRAM
KR102707348B1 (en) Robot-friendly building, method and system for controling robot driving in the building
JP2020009201A (en) Guide robot system and control method thereof
US20250315063A1 (en) Method and system for loading trays in delivery robots within a multi-story building
WO2023243405A1 (en) Network system
Goel et al. Robot relay: An optimal path planning for multiple client service
JP7287815B2 (en) Notification system, information processing device, program
Matsuhira et al. A study on mobile robot traveling guidance system by linking multiple RT systems for a non-technical person
JP2023143383A (en) Robot delivery system and delivery method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201216

R150 Certificate of patent or registration of utility model

Ref document number: 6812325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150