JP2019079419A - Robot management system - Google Patents
Robot management system Download PDFInfo
- Publication number
- JP2019079419A JP2019079419A JP2017207453A JP2017207453A JP2019079419A JP 2019079419 A JP2019079419 A JP 2019079419A JP 2017207453 A JP2017207453 A JP 2017207453A JP 2017207453 A JP2017207453 A JP 2017207453A JP 2019079419 A JP2019079419 A JP 2019079419A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- person
- service
- action
- behavior pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Alarm Systems (AREA)
Abstract
【課題】施設内で滞留する人物が望むサービスを適切に決定する。【解決手段】本発明の一態様は、移動可能なロボットと、撮影を行うカメラと、撮影映像から人物を検出する人物検出部と、を備え、検出された人物にロボットがサービスを提供するロボット管理システムであって、人物の静止時間、動作時間、及び当該静止時間と当該動作時間の組み合わせの繰り返しによって定義される行動パターンと人物に提供されるサービスとが対応づけて登録された行動パターンテーブル111gと、撮影映像から検出された人物の行動が、行動パターンテーブル111gに登録された行動パターンに合致する場合に、該当する行動パターンに基づいてロボットが人物に提供するべきサービスを決定する行動パターン判定部111fと、を備える。【選択図】図3PROBLEM TO BE SOLVED: To appropriately determine a service desired by a person staying in a facility. SOLUTION: One aspect of the present invention is a robot provided with a movable robot, a camera for taking a picture, and a person detection unit for detecting a person from a shot image, and the robot provides a service to the detected person. A management system, an action pattern table in which an action pattern defined by a person's rest time, operation time, and a combination of the rest time and the operation time is repeated and a service provided to the person are registered in association with each other. When 111g and the behavior of the person detected from the captured image match the behavior pattern registered in the behavior pattern table 111g, the behavior pattern that determines the service that the robot should provide to the person based on the corresponding behavior pattern. A determination unit 111f is provided. [Selection diagram] Fig. 3
Description
本発明は、人にサービスするロボットを管理するロボット管理システムに関する。 The present invention relates to a robot management system that manages robots that service people.
従来、カメラで撮影された人物が特定の領域に滞在した時間を計測し、滞在時間に基づいて、物品を設置する領域に接する第1領域、及び第1領域に接する第2領域で移動又は静止する人物に対して移動ロボットが案内を行う技術がある(例えば、特許文献1参照。)。 Conventionally, the time in which a person photographed with a camera stayed in a specific area is measured, and movement or stationary is performed in a first area in contact with the area where the article is placed and a second area in contact with the first area based on the stay time. There is a technique in which a mobile robot provides guidance to a person who does the job (for example, see Patent Document 1).
しかしながら、特許文献1に記載のように人物が特定の領域に滞在(滞留)した時間を計測するだけでは、その滞留の要因を判定し、滞留した人物が望むサービスを適切に提供することができない。
However, just by measuring the time when a person stayed in a specific area (dwelling) as described in
本発明は、上記の状況を考慮してなされたものであり、ある領域に滞留する人物に対してロボットがその人物が望むサービスを適切に提供できるようにする。 The present invention has been made in consideration of the above situation, and enables a robot to appropriately provide a service desired by a person to a person staying in a certain area.
本発明の一態様のロボット管理システムは、移動可能なロボットと、撮影を行うカメラと、カメラにより撮影された映像から人物を検出する人物検出部と、を備え、人物検出部により検出された人物にロボットがサービスを提供するロボット管理システムである。
上記ロボット管理システムは、行動パターンテーブルと、行動パターン判定部を備える。行動パターンテーブルには、人物の静止時間、動作時間、及び静止時間と動作時間の組み合わせの繰り返しによって定義される行動パターンと人物に提供されるサービスとが対応づけて登録される。行動パターン判定部は、カメラの映像から検出された人物の行動が、行動パターンテーブルに登録された行動パターンに合致する場合に、該当する行動パターンに基づいて行動パターンテーブルからロボットが人物に提供するべきサービスを決定する機能を備える。
A robot management system according to an aspect of the present invention includes a movable robot, a camera for shooting, and a person detection unit for detecting a person from an image photographed by the camera, and the person detected by the person detection unit The robot is a robot management system that provides services.
The robot management system includes an action pattern table and an action pattern determination unit. In the behavior pattern table, the behavior time defined by the resting time of the person, the operation time, and the repetition of the combination of the resting time and the operation time are registered in association with the service provided to the person. The action pattern determination unit provides the person to the person from the action pattern table based on the corresponding action pattern when the action of the person detected from the video of the camera matches the action pattern registered in the action pattern table. It has a function to determine the service to be.
本発明の少なくとも一態様によれば、滞留する人物に対してロボットがその人物が望むサービスを適切に提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to at least one aspect of the present invention, it is possible to appropriately provide the staying person with a service desired by the robot.
Problems, configurations, and effects other than those described above will be apparent from the description of the embodiments below.
以下、本発明を実施するための形態(以下、「実施形態」と記述する)の例について、添付図面を参照しながら説明する。本明細書及び添付図面において実質的に同一の機能又は構成を有する構成要素については、同一の符号を付して重複する説明を省略する。 Hereinafter, examples of modes for carrying out the present invention (hereinafter, referred to as “embodiments”) will be described with reference to the attached drawings. The components having substantially the same function or configuration in the present specification and the attached drawings will be denoted by the same reference numerals and redundant description will be omitted.
<1.一実施形態>
[ロボット管理システムの全体構成]
始めに、図1を参照して、本発明の一実施形態例(以下、「本例」ともいう)に係るロボット管理システムの全体構成例を説明する。図1は、ロボット管理システム1の全体構成例を示すブロック図である。
<1. One embodiment>
[Overall configuration of robot management system]
First, with reference to FIG. 1, an example of the overall configuration of a robot management system according to an embodiment of the present invention (hereinafter also referred to as "this example") will be described. FIG. 1 is a block diagram showing an example of the overall configuration of a
図1に示すように、ロボット管理システム1は、複数台のロボット100、ロボット制御装置110、及びロボット監視センタ120を備える。本例のロボット管理システム1では、建物300内に、ロボット100、ロボット制御装置110、監視カメラ200、及びカメラ制御装置210が配置される。
As shown in FIG. 1, the
ロボット100と、ロボット100を制御するロボット制御装置110は、例えば、無線LAN(local area network)等を介して接続されている。また、一又は複数の監視カメラ200は、建物300内を撮影することが可能である。カメラ制御装置210は、監視カメラ200が撮影した映像を有線LAN等を介して記録する。ロボット制御装置110とカメラ制御装置210は、有線LAN等を介して接続されており、互いにデータの送受信が可能となっている。ロボット制御装置110とカメラ制御装置210は、互いの距離が近い場合には、無線LANなどの無線通信手段により接続されてもよい。
The
ロボット100は、建物300内にいる人物(利用者)に向けて自律移動し、この利用者に対して建物300内の案内や商品情報の提案などを行う自律移動型の提案ロボットである。商品情報とは、例えば、建物300内に設置される店舗等で取り扱われる商品に関する情報である。以下、ロボット100が利用者に対して行うこれらの案内や提案などの行為を「サービス」と称する。ロボット100は、通常、建物300内のフロアの決められた位置で待機している。ロボット100は、建物300内に設置されたロボット制御装置110と通信を行い、ロボット制御装置110により無線で制御されるように構成されている。
The
例えばロボット制御装置110が利用者を検知し、ロボット100に移動指示を出すと、ロボット100が待機位置から目的地まで移動するルートが、ロボット制御装置110からの指示でロボット100に設定される。ロボット100は指定された利用者の位置まで自律移動し、案内や提案などのサービスを行う。利用者へのサービスが終了すると、ロボット100は、自律移動して元の待機位置まで戻るか、次の利用者の元へ移動する。
For example, when the
なお、本例のロボット100における自律移動とは、ロボット自身が動いて移動することを意味し、移動のために必要な判断(ルートの判断など)をロボット自身が全て自律的に行うことを意味するものではない。すなわち、ロボット100が移動するルートは、上述したようにロボット制御装置110からの指示で設定され、ロボット100単体で自律的に移動するルートなどを判断する構成になっていない。但し、ロボット100が移動に必要な判断を全て行うようにしてもよい。
Note that the autonomous movement in the
ロボット制御装置110は、ロボット100にサービスを実行するよう指令を行う他に、インターネット等のネットワークNを介して、建物300の外部に設置されたロボット監視センタ120との通信を行う。
In addition to instructing the
ロボット監視センタ120は、通常、複数の建物300に設置されているロボット制御装置110との通信を行い、各建物300に配置されているロボット100の管理状況等を監視する。
The
監視カメラ200は、建物300の出入口、共用エリア、レストラン・ショップエリア等に各々一又は複数台設置されている。即ち監視カメラ200は、建物300内の人が行き交う場所、人が通行する通路などに設置されている。監視カメラ200は、各撮影エリア(撮影空間)内に映っている人を撮影し続け、撮影により得られた映像データを有線LANを介してカメラ制御装置210へ送信している。もちろん、監視カメラ200は、カメラ制御装置210からの指示に基づいて撮影方向及び撮影倍率を任意に変更して撮影可能である。以下の説明において、監視カメラ200が撮影の対象とする撮影エリア(撮影場所)である共用エリア、レストラン・ショップエリア等を区別しない場合には「エリア」と総称することもある。
One or
カメラ制御装置210は、監視カメラ200から取得した映像データを記録すると共に、この映像データを有線LANを介してロボット制御装置110に供給する。カメラ制御装置210に記録されたデータは、ロボット制御装置110経由でネットワークNを経由し、ロボット監視センタ120に供給される。本例では、後述するように映像データの解析をロボット制御装置110で行うが、カメラ制御装置210で映像データの解析を行う構成としてもよい。
The
本実施形態では、監視カメラ200の設置場所を建物300の内部としているが、設置場所は屋内に限られない。例えば監視カメラ200が、屋外の施設又は任意の施設に属する建物の外を撮影できる位置に設置されていてもよい。
In the present embodiment, the installation location of the
[ロボットの構成]
図2は、ロボット100の内部構成例を示す機能ブロック図である。
図2に示すように、ロボット100は、CPU104を備え、CPU104の制御下で各処理が実行されるコンピュータ装置と、そのコンピュータ装置に接続された周辺機器で構成される。ロボット100は、バスラインを介して接続された主記憶装置101、入出力装置102、及び通信インターフェース103を備える。ロボット100は、後述する図7及び図8に示す所定のエリアを移動可能である。
Robot Configuration
FIG. 2 is a functional block diagram showing an example of the internal configuration of the
As shown in FIG. 2, the
主記憶装置101は、駆動制御部101a、対話制御部101b、及び入出力部101cを備える。駆動制御部101a、対話制御部101b、及び入出力部101cは、CPU104からの指令に基づいて動作するコンピュータープログラムが持つ機能である。コンピュータープログラムは、不図示の不揮発性の大容量記録装置に記録されており、大容量記録装置から必要なコンピュータープログラムが主記憶装置101に読み出される。
The
駆動制御部101aは、ロボット100を自律移動させる駆動制御を行う。例えば、駆動制御部101aは、ロボット100が移動する際に、ロボット100のカメラ102aが撮影した映像や、測域センサ102dが電磁波により検出した自分の位置からロボット100の周囲の状況を判断し、対象物との距離に関するデータを用いて、人、壁等の障害物を避けてロボット100を移動させる。また、駆動制御部101aは、ジャイロセンサ102cを用いてロボット100の機体の傾きを検知し、ロボット100が倒れずに移動する制御を行う。
The drive control unit 101 a performs drive control to move the
対話制御部101bは、入出力装置102が備えるマイクロフォン102bとスピーカ102eを用いて音声によって対象者との対話を制御する。一例を挙げると、対話制御部101bは、提案(サービス実行)に必要となる発話等の音声情報をスピーカ102eから出力し、マイクロフォン102bを通して対象者からの音声による回答を得る。これは、対象者から回答を得る方法の一例を示したものであり、代替手段の例として、ロボット100に表示パネルやタッチパネルを取り付け、この表示パネル及びタッチパネルを通じて案内情報や商品情報などを表示してもよい。対象者は、タッチパネルを操作することにより回答や希望する情報を得ることができる。
入出力部101cは、入出力装置102との間で、データの入出力動作を実行する他、通信インターフェース103経由で、ロボット制御装置110との間でデータの入出力動作を実行する。
The
The input / output unit 101 c performs data input / output operations with the input / output device 102, and also performs data input / output operations with the
入出力装置102は、カメラ102a、マイクロフォン102b、ジャイロセンサ102c、測域センサ102d、スピーカ102e、及び駆動機構102fを備える。
The input / output device 102 includes a
カメラ102aは、ロボット100の周囲の撮影エリア(撮影空間)を撮影し、撮影により得られた映像データを主記憶装置101又は不図示の大容量記録装置に送出する。カメラ102aは、CCDやCMOS等の撮像装置を用いて構成される。一般にロボット100のカメラ102aは、撮影対象である人物の身長(例えば一般的な人(子どもを含む)の平均身長)よりも低い位置に配置されるが、この例に限られない。
The
マイクロフォン102bは、対象者からの音声情報を取得する。カメラ102aで取得された画像情報、及びマイクロフォン102bで取得された音声情報等の各種データは、通信インターフェース103を経由してロボット制御装置110に供給される。
ジャイロセンサ102cは、ロボット100に加わる角加速度からロボット100の傾き等を検出し、通信インターフェース103を経由して検出データをロボット制御装置110に供給する。
The
The gyro sensor 102 c detects the inclination or the like of the
測域センサ102dは、ロボット100の位置を特定するためのセンサであり、併せてロボット100の周囲環境を検知する。測域センサ102dは、レーザ光や赤外線等を射出し、周囲の物体からの反射を検出する。この測域センサ102dにより、ロボット100の位置及び障害物等を含む周囲の空間形状が計測され、計測されたデータが通信インターフェース103を経由してロボット制御装置110に送られる。
スピーカ102eは、対話制御部101bで生成された、サービス対象者である滞留者への提案に必要な定型句等の対話用の音声を対象者に対して出力する。
The ranging
The
駆動機構102fは、駆動制御部101aからの指示に基づいて、ロボット100を移動させる。駆動機構102fは、少なくとも車輪を駆動させるモータを備える。あるいは、ロボット100が人型ロボットである場合には、歩行による移動を行うため、脚に相当する部材を駆動するアクチュエータを備える。
The
通信インターフェース103は、図1に示すように、ロボット制御装置110の通信インターフェース112(図3を参照)と無線LAN等で接続されている。この通信インターフェース103は、入出力装置102が収集したデータをロボット制御装置110に出力し、またロボット制御装置110からの指示を受け取る。
As shown in FIG. 1, the
また、駆動制御部101aは、ロボット100が移動する際に、カメラ102aが撮影した画像や、測域センサ102dが検出した周囲状況を判断して、移動を停止したり障害物等を避けたりする動作の制御を行う。本例の場合には、ロボット100が移動できる移動可能範囲は、予め決められた範囲(後述する撮影エリアとその周辺など)に制限される。つまり、駆動制御部101aが判断するロボット100の現在位置は、その移動可能範囲内での位置に留まる。
In addition, when the
[ロボット制御装置の構成]
図3は、ロボット制御装置110の内部構成例を示す機能ブロック図である。ロボット制御装置110は、CPU113の制御下で各処理が実行されるコンピュータ装置で構成される。
CPU113は、バスラインを介して接続された主記憶装置111及び通信インターフェース112と接続されている。
[Configuration of robot controller]
FIG. 3 is a functional block diagram showing an example of the internal configuration of the
The
主記憶装置111は、CPU113の指令に基づいて動作する入出力データ処理部111a、移動指示部111b、及びロボット管理テーブル111cを備える。また、主記憶装置111は、人物検出部111d、行動分析部111e、行動パターン判定部111f、行動パターンテーブル111g、及びシナリオ格納部111hを備える。行動分析部111e及び行動パターン判定部111fはそれぞれ、サービス決定機能を構成する要素の一例である。
The
入出力データ処理部111aは、通信インターフェース112を介してロボット100やカメラ制御装置210やロボット監視センタ120とのデータの送受信の処理を行う。
The input / output
移動指示部111bは、行動分析部111eにより滞留者であると判定された人物(サービス対象者)の位置まで、ロボット100を移動させる指示を行う。この指示には、ロボット100が移動するルートが含まれる。ルートの一例として、滞留者がいるところまでロボット100を誘導するルート、滞留者へのサービスの提供が終了したときにロボット100を元の待機位置に戻すためのルート、又は次の滞留者までロボット100を誘導するルートがある。
The
ロボット管理テーブル111cには、ロボット制御装置110が管理対象とするロボット100の管理データが格納される。ロボット管理テーブル111cの詳細は、図8において後述する。
Management data of the
人物検出部111dは、監視カメラ200により撮影された映像に基づいて、人物を検出する。映像内の人物は、例えば人物の顔即ち顔画像、あるいは人物の歩容を検出することにより検出可能である。ここで、「歩容」とは、人が歩行するときの身体運動の様子を指しており、見た目に表れる歩き方のことをいう。人物検出部111dは、映像から人物を検出するとその人物を一意に特定するための人物ID(識別情報)を一時付与するとともに、映像から当該人物の位置(二次元座標又は三次元座標)を算出する。それにより、人物検出部111dは、検出した人物の位置を座標によって識別することが可能である。
The person detection unit 111 d detects a person based on the video captured by the
行動分析部111eは、人物検出部111dにより映像から検出された人物の静止時間、動作時間、及び静止時間と動作時間の組み合わせの繰り返し(行動周期数)の各項目(図10の行動パターンテーブル111g参照)を計算することにより、対象人物の行動を分析する。この各項目の計算結果と行動パターンテーブル111gに記憶した行動パターンとに基づいて、行動パターン判定部111fによる滞留者の検出が行われる。本例では、静止時間と動作時間の一つの組み合わせを一行動周期とし、一行動周期の繰り返し回数を行動周期数としている。なお、静止時間と動作時間の順番はいずれが先でもよいが、静止の有無を判断した(静止時間を計算)後に動作時間を計算する流れが自然であるといえる。
The
ここで、本明細書において静止とは、人物がその場に立ち止まっていることや極狭い範囲内に留まっていることである。また滞留者とは、静止している人、又は、静止と動作を周期的に行っている人のうち、予め設定した条件(行動パターン)に合致する人である。例えば行動分析部111eは、同じ場所が連続して撮影された複数の画像を比較し、一定の位置若しくは一定範囲内に一定時間留まっている人物を検出する。
Here, in the present specification, the term "static" means that a person is standing still or staying within a very narrow range. In addition, the staying person is a person who is stationary or who is in a stationary state and who is periodically performing an operation, and who meets a preset condition (action pattern). For example, the
行動分析部111eが人物の滞留を検出するねらいは、撮影エリア内にいる人物に提供するサービスの精度を高めることである。静止する人物や、静止と動作を繰り返す人物は、何らかの興味や困りごとを有している可能性が高い。そのため、本実施形態におけるロボット100は、ただ通り過ぎる人にはサービスを提供しないように制御される。あくまでもサービス提供の対象となる人物は、撮影エリアでの静止時間が長い、又は静止と動作を繰り返している人である。
The aim of the
行動パターン判定部111fは、行動分析部111eによる行動解析結果と行動パターンテーブル111gに記憶した行動パターンを比較し、滞留者の検出と滞留者の行動パターンの判定を行い、判定結果に基づいてロボットが滞留者に提供するべきサービスを決定する。この行動パターン判定部111fは、滞留者に対しロボットから提供するべきサービスを決定する機能を備えるという点でサービス決定部とも言える。また、行動パターン判定部111fは、滞留者であると判定した人物の人物IDと滞留者であると判定したときの各種データを、通信インターフェース112を介してロボット監視センタ120へ供給する。そして、滞留者の人物IDと滞留者であると判定したときの各種データが、行動パターンテーブル111gに登録される。
The behavior pattern determination unit 111f compares the behavior analysis result by the
行動パターンテーブル111gには、事前に建物毎に登録した滞留者の行動パターンの情報が格納されている。行動パターンテーブル111gは、行動パターン判定部111fが滞留者の行動パターンを判定する際に参照される。 The behavior pattern table 111g stores information on behavior patterns of staying people registered in advance for each building. The action pattern table 111g is referred to when the action pattern determination unit 111f determines the action pattern of the staying person.
シナリオ格納部111hは、行動パターン判定部111fが判定した要因・サービスに対応する、ロボット100が滞留者へ提供するサービスの内容が記述されたシナリオデータが格納される。
The
さらに、ロボット制御装置110は、ロボット100及びネットワークNと相互に通信可能な通信インターフェース112を有する。通信インターフェース112は、ネットワークNを経由して、ロボット100との無線通信を行う他、ロボット監視センタ120との通信を行う。
Furthermore, the
[ロボット監視センタの構成]
図4は、ロボット監視センタ120の内部構成例を示す機能ブロック図である。ロボット監視センタ120は、CPU124の制御下で各処理が実行されるコンピュータ装置から構成される。CPU124は、バスラインを介して接続された主記憶装置121、操作部122、及び通信インターフェース123の制御を司る。
[Configuration of robot monitoring center]
FIG. 4 is a functional block diagram showing an example of the internal configuration of the
主記憶装置121は、映像データ記憶部121a、行動データ記憶部121b、及びロボット管理テーブル121cを備える。
The
映像データ記憶部121aには、監視カメラ200で撮影された映像が記憶される。
行動データ記憶部121bには、ロボット制御装置110から送信された、行動パターン判定部111fが滞留者ありと判定した際の各種データが蓄積される行動判定結果データベース121bD(図11参照)が記憶される。 ロボット管理テーブル121cには、複数のロボット制御装置110の各々に管理されているロボット100の管理データがまとめて格納される。
映像データ記憶部121a、行動データ記憶部121b、及びロボット管理テーブル121cに記憶された各データは、不図示の大容量記憶装置に記憶されていてもよい。
The video
The action
Each data stored in the video
操作部122には、例えば、キーボード、マウス又はタッチパネル等が用いられ、システム管理者が所定の操作を行い、指示を入力することが可能である。
通信インターフェース123は、ネットワークNを介してロボット制御装置110との通信を行う。
For example, a keyboard, a mouse, a touch panel, or the like is used for the
The
[監視カメラの構成]
監視カメラ200は、遠隔地からの操作が可能なカメラであり、いわゆるネットワークカメラである。監視カメラ200は、CCDやCMOS等の撮像装置(図示略)を備え、撮像装置により撮影された映像を処理して不図示の通信インターフェースを介してカメラ制御装置210へ送信する。一般に監視カメラ200は、撮像装置から出力される生データ(RAW画像)をカメラ制御装置210で処理可能なデータ形式に変換する映像処理部を備える。
[Configuration of surveillance camera]
The
[カメラ制御装置の構成]
図5は、カメラ制御装置210の内部構成例を示す機能ブロック図である。
カメラ制御装置210は、CPU213の制御下で各処理が実行されるコンピュータ装置から構成される。CPU213は、バスラインを介して接続された主記憶装置211及び通信インターフェース212の制御を司る。
[Configuration of Camera Controller]
FIG. 5 is a functional block diagram showing an example of the internal configuration of the
The
主記憶装置211は、CPU213からの指令に基づいて動作する入出力データ処理部211a、映像データ記憶部211b、及び監視カメラ管理テーブル211cを備える。
入出力データ処理部211aは、通信インターフェース212を介して監視カメラ200及びロボット制御装置110との間で通信されるデータの入出力を行う。
映像データ記憶部211bには、監視カメラ200で撮影された映像が記録される。
監視カメラ管理テーブル211cには、各監視カメラ200の管理データが格納される。監視カメラ管理テーブル211cの詳細は、図9にて後述する。
The
The input / output
The video captured by the
Management data of each
通信インターフェース212は、ロボット制御装置110と有線LAN等で通信を行う他、有線LAN等を介して、監視カメラ200との通信を行う。
The
以上の説明では、ロボット100、ロボット制御装置110、ロボット監視センタ120及びカメラ制御装置210のそれぞれに、図2〜図5のブロック図に示した機能を分担させて、本例のロボット管理システム1を実現している。しかしながら、これらロボット100、ロボット制御装置110、ロボット監視センタ120及びカメラ制御装置210が担う機能は、必ずしも固定されるものではない。特に、ロボット制御装置110が持つ機能の一部をロボット監視センタ120又はロボット100に持たせることも可能である。但し、ロボット100は単体として構成されるため、ロボット100に多くの機能を含めたくないというシステム運用者の要望にも配慮することが望ましい。
In the above description, the
[監視カメラの配置例] 図6は、ロボット100及び監視カメラ200が配置された建物の内部(第1の例)を示す見取り図である。図7は、建物の内部(第2の例)を示す見取り図である。図6及び図7は、建物300の例として空港301を示している。
[Arrangement Example of Monitoring Camera] FIG. 6 is a sketch showing the inside (first example) of a building in which the
図6に示す空港301の1階には、第1の撮影エリアとして国際線到着ロビーを撮影する監視カメラ200−1が設置されている。国際線到着ロビーにいる人物へのサービス提供はロボット100−1が担当する。
On the first floor of the
図7に示す空港301の2階には、第2の撮影エリアとしてレストラン・ショップエリアを撮影する監視カメラ200−2と、第3の撮影エリアとして国際線出発ロビーを撮影する監視カメラ200−3が設置されている。レストラン・ショップエリアにいる人物へのサービス提供はロボット100−2が担当し、国際線出発ロビーにいる人物へのサービス提供はロボット100−3が担当する。なお、監視カメラ200−1,200−2,200−3を特に区別する必要がない場合には、監視カメラ200と称する。監視カメラ200は、撮影エリアを俯瞰できる位置に設置される。
On the second floor of the
[各種テーブルのデータ構造]
(ロボット管理テーブル) 図8は、ロボット管理テーブル111c,121cのデータ構造の一例を示す。
ロボット管理テーブル111c,121cは、顧客ID、施設ID、グローバルIP、ロボットID、ローカルIP、及びエリアの各項目を備える。
[Data structure of various tables]
(Robot Management Table) FIG. 8 shows an example of the data structure of the robot management tables 111c and 121c.
The robot management tables 111 c and 121 c include items of a customer ID, a facility ID, a global IP, a robot ID, a local IP, and an area.
「顧客ID」は、ロボット100の提供者と交わした契約に基づいてロボット若しくは本実施形態に係るビジネスモデルを利用する顧客を一意に特定するID(識別情報)である。
「施設ID」は、ロボットが配置される施設を一意に特定するIDである。施設は、屋内及び屋外を問わず、例えば屋内の例を挙げるならば建物の全区画又は一部の区画である。
「グローバルIP」は、対象施設に設けられた通信機器のグローバルIP(Internet Protocol)アドレスである。
「ロボットID」は、ロボット100を一意に特定するIDである。
「ローカルIP」は、ロボット100(通信インターフェース103)のローカルIPアドレスである。
「エリア」は、対象施設内においてロボット100が存在するエリア即ちロボット100が移動可能なエリアを表す。図6及び図7の例では、国際線到着ロビー、レストラン・ショップエリア、国際線出発ロビーなどが該当する。なお、本例では、このロボット管理テーブル111c,121cの「エリア」と、後述する監視カメラ管理テーブル211cの「エリア」が示す場所を、一致させてある。
The “customer ID” is an ID (identification information) for uniquely identifying a customer who uses the robot or the business model according to the present embodiment based on a contract exchanged with the provider of the
The “facility ID” is an ID for uniquely identifying the facility where the robot is disposed. The facility may be indoor or outdoor, for example, all or part of a section of a building to give an example of indoor.
“Global IP” is a global IP (Internet Protocol) address of a communication device provided in a target facility.
The “robot ID” is an ID for uniquely identifying the
The “local IP” is a local IP address of the robot 100 (communication interface 103).
The “area” represents an area where the
図8の例によれば、例えばロボット提供者が顧客ID“001”の顧客とロボット提供契約を結び、施設ID“001”である施設において3台のロボット100が利用されている。施設ID“001”の施設では、ロボットID“001”のロボット100がエリア“B3”に配置され、ロボットID“002”のロボット100がエリア“B2”に配置され、ロボットID“003”のロボット100がエリア“C2”に配置されている。
According to the example of FIG. 8, for example, a robot provider makes a robot provision contract with a customer of a customer ID “001”, and three
ロボット制御装置110が持つロボット管理テーブル111cは、そのロボット制御装置110が制御するロボット100のみの情報を管理する。一方、ロボット監視センタ120が持つロボット管理テーブル121cは、そのロボット監視センタ120が監視する全てのロボット制御装置110が制御するロボット100の情報を管理する。ロボット100が駆動機構102fを有する場合には、ロボット100の位置を表すエリアは、ロボット100の持つ測域センサ102dやロボット100の持つ駆動機構102fの移動履歴(走行履歴)、不図示のビーコンなどを用いて取得される。
The robot management table 111 c of the
(監視カメラ管理テーブル) 図9は、監視カメラ管理テーブル211cのデータ構造の一例を示す。
監視カメラ管理テーブル211cは、顧客ID、施設ID、グローバルIP、監視カメラID、ローカルIP、及びエリアの各項目を備える。以下に、監視カメラ管理テーブル211cの各項目について説明するが、ロボット管理テーブル121cの項目と重複する項目については説明を簡略する。
(Monitoring Camera Management Table) FIG. 9 shows an example of the data structure of the monitoring camera management table 211c.
The monitoring camera management table 211 c includes items of a customer ID, a facility ID, a global IP, a monitoring camera ID, a local IP, and an area. Hereinafter, each item of the monitoring camera management table 211c will be described, but description of items overlapping the items of the robot management table 121c will be simplified.
「顧客ID」は、顧客を一意に特定するIDである。
「施設ID」は、施設を一意に特定するIDである。
「グローバルIP」は、対象施設内の通信機器のグローバルIPアドレスである。
「監視カメラID」は、監視カメラ200を一意に特定するIDである。
「ローカルIP」は、監視カメラ200(不図示の通信インターフェース)のローカルIPアドレスである。
「エリア」は、対象施設内に配置された監視カメラ200の位置、即ち監視カメラ200が撮影対象とするエリアを表す。
The “customer ID” is an ID uniquely identifying a customer.
The “facility ID” is an ID that uniquely identifies a facility.
"Global IP" is the global IP address of the communication device in the target facility.
The “monitoring camera ID” is an ID for uniquely identifying the
The “local IP” is a local IP address of the monitoring camera 200 (communication interface not shown).
The “area” represents the position of the
図9の例によれば、例えばロボット提供者が顧客ID“001”の顧客と契約を結んだロボット提供施設に関し、施設ID“001”の施設において3台の監視カメラ200が配置されている。施設ID“001”の施設では、監視カメラID“001”の監視カメラ200がエリア“B3”に配置され、監視カメラID“002”の監視カメラ200がエリア“B2”に配置され、監視カメラID“003”の監視カメラ200がエリア“C2”に配置されている。
According to the example of FIG. 9, for example, with respect to a robot providing facility in which a robot provider has made a contract with a customer of a customer ID "001", three
(行動パターンテーブル)
図10は、行動パターンテーブル111gのデータ構造の一例を示す。
行動パターンテーブル111gは、NO、施設ID、施設名、監視カメラID、対象時間帯、行動パターン名、静止時間、動作時間、行動周期数、要因・サービスの各項目を備える。
(Action pattern table)
FIG. 10 shows an example of the data structure of the action pattern table 111g.
The action pattern table 111g includes items of NO, facility ID, facility name, monitoring camera ID, target time zone, action pattern name, resting time, operation time, number of action cycles, factors and services.
「NO」は、行動パターンテーブル111gに記憶されるデータの任意番号である。
「施設ID」は、ロボット管理テーブル111c,121c及び監視カメラ管理テーブル211cに格納されるものと同じである。
「施設名」は、施設IDが示す施設の名称を表す。
「監視カメラID」は、監視カメラ管理テーブル211cに格納されるものと同じである。
「対象時間帯」は、該当する行動パターンが対象とする時間帯、言い換えれば該当する行動パターンが適用される時間帯である。
「行動パターン名」は、施設IDと紐付けて登録される行動パターンの名称を表す。
「静止時間」は、人物が静止している連続時間を表す。
「動作時間」は、人物が動作している連続時間を表す。
「行動周期数」は、静止と動作の繰り返し行動周期が実施される数を表す。
「要因・サービス」は、対象人物の行動が登録された行動パターンに合致した場合に、滞留要因とロボット100が対象人物(滞留者)に提供するサービスを示す。
"NO" is an arbitrary number of data stored in the action pattern table 111g.
The “facility ID” is the same as that stored in the robot management tables 111 c and 121 c and the monitoring camera management table 211 c.
"Facilities name" represents the name of the facility indicated by the facility ID.
“Monitoring camera ID” is the same as that stored in the monitoring camera management table 211 c.
The “target time zone” is a time zone targeted by the corresponding behavior pattern, in other words, a time zone to which the corresponding behavior pattern is applied.
The “action pattern name” represents the name of an action pattern registered in association with a facility ID.
The "rest time" represents a continuous time during which a person is at rest.
"Operation time" represents a continuous time during which a person is operating.
The “number of activity cycles” represents the number of repetitions of the stillness and the action.
“Factor / service” indicates a service provided by the
例えば、案内希望の人物は、周囲の案内表示板や電光表示装置の情報を頻繁に見ることが多い。即ち案内希望の場合、静止時間が短く、繰り返し行動が多い傾向がある。また、体調不良の人物は、動作が鈍い、うずくまるなどの行動により、傾向として静止時間が長く、繰り返し行動が少ない。このような体調不良の人が検出された場合には、ロボット100を対象人物へ急行させる必要がある。
For example, a person desiring to guide often sees information on a surrounding display board and an electronic display device in many cases. That is, when guidance is desired, the stationary time tends to be short and the repetitive action tends to be large. In addition, a person who is in poor physical condition tends to have a longer rest time and less repetitive behavior due to actions such as slow motion and curling. When such a poor physical condition person is detected, it is necessary to rush the
図10に示す行動パターンテーブル111gの例では、施設ごとに、時間帯別の利用者の交通量及び対象場所の特定を考慮し、行動パターンが設定されている。監視カメラID“001”の撮影エリア(国際線到着ロビー)における行動パターンは、午前に人の行き交いが多いことを想定(午前中に到着便が多数ある場合の混雑を想定)したものである。また、監視カメラID“002”の撮影エリア(レストラン・ショップエリア)における行動パターンは、昼に食事場所を探す人が多いことを想定したものである。さらに、監視カメラID“003”の撮影エリア(国際線出発ロビー)における行動パターンは、午後に人の行き交いが多いことを想定(午後に出発便が多数ある場合の混雑を想定)したものである。 In the example of the action pattern table 111g illustrated in FIG. 10, the action pattern is set in consideration of the traffic volume of the user by time zone and the specification of the target location for each facility. The behavior pattern in the shooting area of the surveillance camera ID "001" (international arrival lobby) assumes that there are many people in the morning (assuming congestion when there are a large number of arrival flights in the morning). In addition, the behavior pattern in the shooting area (restaurant / shop area) of the monitoring camera ID "002" assumes that there are many people who search for a meal place at noon. Furthermore, the behavior pattern in the shooting area of the surveillance camera ID "003" (international departure lobby) assumes that there is a lot of people coming and going in the afternoon (assuming congestion when there are many departure flights in the afternoon).
これらの行動パターンを登録するかしないかは、種々の条件を勘案して決定することができる。例えば、監視カメラID“001”の撮影エリアにおいて、午後は人も少なく滞留者の判定が必要なければ、行動パターンを登録しなくてもよい。また、人は少ないが滞留者を検出しロボット100による対応を行うが、人が滞留する傾向が午前の傾向と異なる場合には、対象時間帯、静止時間及び動作時間(並びに行動周期数)を変えて新しい行動パターンを登録することが望ましい。
Whether to register these behavior patterns can be determined in consideration of various conditions. For example, in the photographing area of the monitoring camera ID "001", if there are few people in the afternoon and it is not necessary to determine the staying person, the behavior pattern may not be registered. In addition, although there are few people, they detect staying people and take action by the
また、滞留者の案内希望に対してその目的や内容に応じて適切に対応できるように、シナリオはその種類を分別して登録される。図10の例では、監視カメラID“001”の撮影エリア(国際線到着ロビー)に対し、空港Aに到着した人へ空港内や空港外についての案内を想定したサービス(シナリオ案内A)が登録されている。また、監視カメラID“002”の撮影エリア(レストラン・ショップエリア)に対し、空港内の食事場所についての案内を想定したサービス(シナリオ案内B)が登録されている。また、監視カメラID“003”の撮影エリア(国際線出発ロビー)に対し、空港Aから出発する人へ搭乗手続きについての案内を想定したサービス(シナリオ案内C)が登録されている。 Moreover, the scenario is classified and registered so that it can respond appropriately according to the purpose and the content with respect to the guidance request of the staying person. In the example of FIG. 10, a service (scenario guidance A) is assumed in which a person arriving at the airport A is given guidance on the inside and the outside of the airport for the shooting area of the surveillance camera ID "001" (international arrival lobby). ing. In addition, a service (scenario guidance B) supposing guidance on a meal place in the airport is registered in the photographing area (restaurant / shop area) of the monitoring camera ID "002". In addition, a service (scenario guidance C) supposing guidance about a registration procedure to a person departing from the airport A is registered in the photographing area (international departure lobby) of the monitoring camera ID "003".
また、監視カメラID“001”の撮影エリアに対し、体調不良の人への声かけ・救護者の呼びかけ等を想定したサービス(シナリオ体調不良)も登録されている。なお、体調不良に対するシナリオについても、その種類を分別して登録してもよい。 Further, a service (scenario poor physical condition) in which a call to a person with poor physical condition, a call of a rescue person, etc. is assumed is registered in the photographing area of the monitoring camera ID "001". The type of scenario for poor health may also be classified and registered.
上記のように、施設(施設ID)、撮影場所(監視カメラIDに対応)、又は時間帯(対象時間帯)ごとに、行動パターンと要因・サービスを登録することにより、滞留要因とサービスの精度を向上させることができる。特に、撮影場所と時間帯によって、施設内の利用者の往来が変化するため、監視カメラID又は対象時間帯ごとに行動パターンを登録することで、ロボット制御装置110からロボット100に対し、適時最適なサービス・対応を指示することが可能である。
As described above, by registering behavior patterns and factors / services for each facility (facility ID), shooting location (corresponding to surveillance camera ID), or time zone (target time zone), retention factor and service accuracy Can be improved. In particular, user traffic in the facility changes depending on the shooting location and time zone, so by registering the action pattern for each monitoring camera ID or target time zone, the
なお、ロボット管理システム1の運用開始後に、ロボット監視センタ120の操作部122を操作して、行動パターンテーブル111gの静止時間と動作時間を任意に変更することができる。また、該当する要因・サービスも同様に変更することができる。
In addition, after the start of operation of the
(行動判定結果データベース)
図11は、行動データ記憶部121bに記憶される行動判定結果データベース121bDのデータ構造の一例を示す。
行動判定結果データベース121bDは、NO、施設ID、施設名、撮影日、判定時間、人物ID、監視カメラID、滞留者場所、要因・サービスの各項目を備える。
(Behavior judgment result database)
FIG. 11 shows an example of the data structure of the action determination result database 121bD stored in the action
The action determination result database 121bD includes items of NO, facility ID, facility name, shooting date, determination time, person ID, surveillance camera ID, staying person location, factor and service.
「NO」は、行動判定結果データベース121bDに記憶されるデータ(レコード)の任意番号である。
「施設ID」は、行動パターンテーブル111gのものと同じである。
「施設名」は、行動パターンテーブル111gのものと同じである。
「撮影日」は、監視カメラ200が滞留者を撮影した日にちである。
「判定時間」は、行動分析部111eが監視カメラ200により撮影された映像内に滞留者がいると判定した時刻である。
「人物ID」は、映像内の人物を一意に特定するIDである。人物IDは、一例として人物を検出した順に採番される。
「監視カメラID」は、滞留者を撮影した監視カメラIDを示す。
「滞留者場所」は、施設内において滞留者が存在する場所(位置)を示す。滞留者場所は、例えば施設内のある位置を基準とする座標系(本例では二次元座標)、又は緯度と経度により表される。
「要因・サービス」は、行動パターンテーブル111gのものと同じである。
"NO" is an arbitrary number of data (record) stored in the action determination result database 121bD.
The "facility ID" is the same as that of the behavior pattern table 111g.
The "facility name" is the same as that of the behavior pattern table 111g.
The “photographing date” is a date when the
The “determination time” is the time when the
The “person ID” is an ID uniquely identifying a person in the video. Person IDs are numbered in the order of detection of persons as an example.
"Monitoring camera ID" indicates a monitoring camera ID that has captured the staying person.
The “staying place” indicates the place (position) where the staying person exists in the facility. The dwelling place is represented by, for example, a coordinate system (two-dimensional coordinates in this example) based on a certain position in the facility, or latitude and longitude.
“Factor / service” is the same as that of the action pattern table 111g.
行動判定結果データベース121bDに登録されたデータは、一定期間を経過後に削除することが望ましい。これにより、ロボット監視センタ120の記憶装置の記憶領域に記憶されたデータ量を削減し、一定の空き領域を確保することができる。
It is desirable that the data registered in the behavior determination result database 121bD be deleted after a predetermined period has elapsed. As a result, the amount of data stored in the storage area of the storage device of the
[滞留者に対するサービス提供処理の手順]
次に、滞留者の検知からロボット100へ指示するまでの処理の流れを、図12を参照して説明する。図12は、ロボット管理システム1による滞留者の行動パターンに基づくサービス提供の手順例を示すフローチャートである。
[Procedure of service provision process for staying people]
Next, the flow of processing from detection of a staying person to instructing the
まずシステムの管理者は、滞留者であると判定する行動パターンを行動パターンテーブル111gに事前に登録しておく(S1)。このときシステム管理者は、施設及び監視カメラ200の撮影場所ごとに行動パターンの登録を実施する。撮影場所は監視カメラIDと対応している。
First, the administrator of the system registers in advance an action pattern that is determined to be a resident in the action pattern table 111g (S1). At this time, the system administrator registers the behavior pattern for each of the facilities and the shooting location of the
次いで、ロボット管理システム1を運用開始後、ロボット制御装置110の人物検出部111dは、画像処理技術により監視カメラ200が撮影している映像から人物を検出し、その人物に人物IDを採番する(S2)。次いで、行動分析部111eは、人物検出部111dにより検出された人物の静止時間と動作時間を画像処理技術により算出する(S3)。
Next, after starting operation of the
次いで、行動パターン判定部111fは、行動分析部111eにより計算された対象人物の静止時間と動作時間から、対象人物の静止と動作のパターンが繰り返されているか否かの判定を行う(S4)。ここで、対象人物の静止と動作の行動パターンが繰り返されている場合には(S4のYES)、行動パターン判定部111fは、繰り返し行動有りと判断する(S5)。一方、対象人物の静止と動作のパターンが繰り返されていない場合には(S4のNO)、行動パターン判定部111fは、繰り返し行動無しと判断する(S6)。
Next, the action pattern determination unit 111f determines whether the pattern of the target person's stillness and motion is repeated based on the target person's still time and the operation time calculated by the
次いで、行動パターン判定部111fは、対象人物の静止と動作の行動パターンが滞留者の行動パターンに該当するか否かの判定を行う(S7)。具体的には、行動パターン判定部111fは、行動パターンテーブル111gを参照して、対象人物の静止と動作の行動パターンに合致する行動パターンを検索する。そして、行動パターン判定部111fは、行動パターンテーブル111gに対象人物の行動に合致する行動パターンが存在しない場合には(S7のNO)、ステップS2に戻って監視カメラ200が撮影している映像から人物を検出する処理を続ける。
Next, the action pattern determination unit 111f determines whether the action pattern of the target person's stillness and movement corresponds to the action pattern of the staying person (S7). Specifically, the action pattern determination unit 111f refers to the action pattern table 111g to search for an action pattern that matches the action pattern of the target person's stillness and action. Then, when there is no action pattern matching the action of the target person in the action pattern table 111g (NO in S7), the action pattern determination unit 111f returns to step S2 and uses the image captured by the
一方、行動パターン判定部111fは、行動パターンテーブル111gに対象人物の行動に合致する行動パターンが存在した場合には、対象人物は滞留者であると判断し(S7のYES)、滞留要因が何かを行動パターンテーブル111gの要因・サービスの項目を参照して判断する。例えば、行動パターン判定部111fは、合致した行動パターンに対応する要因・サービスの項目の内容から、滞留要因が体調不良であるか否かの判定を行う(S8)。 On the other hand, when there is an action pattern matching the action of the target person in the action pattern table 111g, the action pattern determination unit 111f determines that the target person is a staying person (YES in S7), and the staying factor is It is determined with reference to the item of factor and service in the action pattern table 111g. For example, the behavior pattern determination unit 111f determines whether the staying cause is poor health or not from the content of the item of the factor / service corresponding to the matched behavior pattern (S8).
行動パターン判定部111fは、滞留要因が体調不良である場合には(S8のYES)、対象撮影エリア若しくはその近くにいるロボット100に指令を送りロボット100を滞留者の元に移動させる。そして、行動パターン判定部111fは、体調不良に対応するシナリオデータをシナリオ格納部111hから読み出してロボット100に送信する。それによりロボット100の対話制御部101b及び駆動制御部101aは、受信したシナリオデータに基づいて、滞留者に体調を質問し救護者の呼びかけを実施する(S9)。
If the staying factor is poor health (YES in S8), the behavior pattern determining unit 111f sends a command to the
一方、行動パターン判定部111fは、滞留要因が体調不良ではない場合には(S8のNO)、続いて滞留要因が案内希望であるか否かの判定を行う(S10)。行動パターン判定部111fは、滞留要因が案内希望である場合には(S10のYES)、対象撮影エリア若しくはその近くにいるロボット100に指令を送りロボット100を滞留者の元に移動させる。そして、行動パターン判定部111fは、案内希望に対応するシナリオデータをシナリオ格納部111hから読み出してロボット100に送信する。それによりロボット100の対話制御部101b及び駆動制御部101aは、受信したシナリオデータに基づいて、滞留者に目的を質問し施設案内を実施する(S11)。
On the other hand, when the staying cause is not poor physical condition (NO in S8), the behavior pattern determination unit 111f then determines whether the staying cause is guidance request (S10). The behavior pattern determination unit 111f sends a command to the
ステップS9又はステップS10の処理が終了後、あるいはステップS10において滞留要因が案内希望ではなかった場合には(S10のNO)、ロボット100は元の待機位置に戻る。さらに、次の滞留者がいる場合には、ロボット100はロボット制御装置110の指示に基づいて次の滞留者の元へ移動する。
After the process of step S9 or step S10 is completed, or when the staying factor is not a guide request in step S10 (NO in S10), the
本実施形態では、ロボット制御装置110は、ステップS7において対象人物が滞留者であると判断した場合に、ロボット100を制御することと並行して、滞留者ありと判定した際の各種データをロボット監視センタ120へ送信し、行動判定結果データベース121bDにデータを蓄積する。
In the present embodiment, when it is determined in step S7 that the target person is the staying person, the
以上説明したように、本実施形態によれば、事前に施設及び撮影場所(建物300、各撮影エリアなど)ごとに人物の滞留の原因と予想される行動パターンを行動パターンテーブル111gに登録している。ロボット制御装置110が、現場に設置されている監視カメラ200に撮影された人物が登録済みの行動パターンの条件に合致するか否かを判定する。それにより、ロボット制御装置110は、監視カメラ200で撮影した映像から登録済みの行動パターンに該当する人物(滞留者)の有無とその滞留要因を判定する。そして、ロボット制御装置110は、建物300内の滞留者の検知及び滞留要因の特定を行うことにより、滞留要因に応じた滞留者へのサービス提供をロボット100に実施させることが可能になる。
As described above, according to the present embodiment, an activity pattern expected to be a cause of retention of a person is registered in the activity pattern table 111g in advance for each facility and shooting location (building 300, each shooting area, etc.) There is. The
それゆえ、ロボット100は、滞留者の滞留要因に応じて滞留者が望むサービスを適切に提供することができる。さらに、滞留者が望むサービスをその滞留者に提供することにより、滞留原因となっている要因を排除するための支援を実施することができる。
Therefore, the
また、本実施形態では、行動パターンテーブル111gに登録する静止時間と動作時間を任意に変更できるとともに、該当する要因・サービスも同様に任意に変更できることから、施設(例えば建物300)そのものの使途や現在の利用状況に応じて、判定基準を柔軟に対応させることが可能となる。利用状況とは、例えば建物300がオフィス、スーパーマーケット、商用施設、又は集合住宅のいずれか、あるいは他の目的に利用されているのか等の情報である。それにより、施設を利用して滞留した人に適時最適なサービス・対応を行うことが可能である。
Further, in the present embodiment, since the stationary time and the operating time registered in the behavior pattern table 111g can be arbitrarily changed, and the corresponding factors and services can be arbitrarily changed as well, the facility (for example, the building 300) itself can be used It is possible to flexibly respond to the determination criteria according to the current usage situation. The usage status is, for example, information as to whether the
<2.変形例>
なお、行動パターン判定部111fは、監視カメラ200の映像から検出された人物が属するグループ(集団)を構成する人数が所定数以上である場合には、提供するサービスを決定せず、ロボット100に該当人物へのサービスを行わせないようにする。グループに属する人物の案内希望や体調不良への対処は、グループのメンバーで解決できることが多い。そのため、ロボット100による声かけなどのサービスを自粛し、求められていないサービスの提供を防止する。検出された人物が属するグループは、人物検出部111dにより検出可能である。例えば、人物検出部111dは、映像から複数の人物を検出し、一定時間内において、複数の人物が同じ方向に向かって移動していたり立ち止まっていたりした場合には、これらの複数の人物(滞留者)はグループを形成していると判断する。
<2. Modified example>
When the number of persons constituting the group (group) to which the person detected from the video of the
また、上述した実施形態では、監視カメラ200により撮影エリア内の人物を撮影したが、ロボット100が備えるカメラ102aにより人物を撮影し、その撮影した映像から滞留者の有無を判断してもよい。
In the embodiment described above, the person in the imaging area is photographed by the
また、建物300の同一エリアに滞留者が複数人いる場合には、ロボット制御装置110が、先に滞留者と判定された人物の元に向かうようロボット100を制御してもよい。あるいは、ロボット制御装置110は、ロボット100が複数人の滞留者の中で体調不良を抱えた人物に優先的に向かうように制御してもよい。
In addition, when there are a plurality of staying people in the same area of the
また、上述した実施形態では、人の行き交いが多く滞留者も多いと想定される施設(空港、駅、商用施設、スーパーマーケットなど)に監視カメラ200を配置する例を説明したが、監視カメラ200を行き交う人が少なく、滞留者が発生しにくい若しくは少ない施設や場所(例えば集合住宅、職員用通路、トイレなど)に設置してもよい。このように監視カメラ200を滞留者が発生しにくい若しくは少ないと推測される場所に設置することにより、体調不良で倒れている人物が長時間放置されることを防止できる。また、滞留者の発生しにくい環境で滞留者が検出された場合には、体調不良の人か不審者の可能性が高いため、本発明は防犯にも寄与し、さらに撮影場所、対象時間帯、行動パターンを適切に定義することで不審者発見の精度が向上する。
In the embodiment described above, an example is described in which the
さらに、本発明は上述した各実施形態例に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、その他種々の応用例、変形例を取り得ることは勿論である。 Furthermore, the present invention is not limited to the embodiments described above, and it goes without saying that various other applications and modifications can be taken without departing from the scope of the present invention described in the claims. is there.
例えば、上述した実施形態例は本発明を分かりやすく説明するために装置及びシステムの構成を詳細且つ具体的に説明したものであり、必ずしも説明した全ての構成要素を備えるものに限定されない。また、ある実施形態例の構成の一部を他の実施形態例の構成要素に置き換えることは可能である。また、ある実施形態例の構成に他の実施形態例の構成要素を加えることも可能である。また、各実施形態例の構成の一部について、他の構成要素の追加、削除、置換をすることも可能である。 For example, the above-described embodiment is a detailed and specific description of the configuration of the apparatus and system for the purpose of easy understanding of the present invention, and is not necessarily limited to one having all the components described. In addition, it is possible to replace part of the configuration of one embodiment with the component of another embodiment. In addition, it is also possible to add components of other example embodiments to the configuration of one example embodiment. Moreover, it is also possible to add, delete, and replace other components for part of the configuration of each embodiment.
また、上記の各構成要素、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路の設計などによりハードウェアで実現してもよい。また、上記の各構成要素、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、又はICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, some or all of the above-described components, functions, processing units, processing means, etc. may be realized by hardware, for example, by design of an integrated circuit. Further, each component, function, and the like described above may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as a program, a table, and a file for realizing each function can be placed in a memory, a hard disk, a recording device such as a solid state drive (SSD), or a recording medium such as an IC card, an SD card, or a DVD.
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成要素が相互に接続されていると考えてもよい。 Further, control lines and information lines indicate what is considered to be necessary for the description, and not all control lines and information lines in the product are necessarily shown. In practice, almost all components may be considered to be connected to each other.
また、本明細書において、時系列的な処理を記述する処理ステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)をも含むものである。 Furthermore, in the present specification, processing steps that describe time-series processing are parallel or individual processing that is not necessarily performed chronologically, as well as processing performed chronologically in the order described. Processing (eg, parallel processing or processing by an object).
1…ロボット管理システム、 100、100−1〜100−3…ロボット、 110…ロボット制御装置、 111d…人物検出部111d、 111e…行動分析部、 111f…行動パターン判定部、 111g…行動パターンテーブル、 111h…シナリオ格納部、 120…ロボット監視センタ、 200、200−1〜200−3…監視カメラ、 210…カメラ制御装置
DESCRIPTION OF
Claims (7)
人物の静止時間、動作時間、及び前記静止時間と前記動作時間の組み合わせの繰り返しによって定義される行動パターンと人物に提供されるサービスとが対応づけて登録された行動パターンテーブルと、
前記映像から検出された前記人物の行動が、前記行動パターンテーブルに登録された前記行動パターンに合致する場合に、該当する前記行動パターンに基づいて前記ロボットが前記人物に提供するべきサービスを決定する行動パターン判定部と、を備える
ロボット管理システム。 The robot includes a movable robot, a camera for photographing, and a person detection unit for detecting a person from a video taken by the camera, and the robot provides a service to the person detected by the person detection unit. A robot management system,
A behavior pattern table in which a behavior time defined by the resting time of the person, an operation time, and a combination of the resting time and the operation time and a service provided to the person are registered in association with each other;
When the action of the person detected from the video matches the action pattern registered in the action pattern table, the robot determines the service to be provided to the person based on the corresponding action pattern A robot management system comprising: an action pattern determination unit.
請求項1に記載のロボット管理システム。 When the action of the person detected from the image corresponds to the action pattern registered in the action pattern table, the action pattern determination unit determines that the person is a person who is staying at the place The robot management system according to claim 1.
請求項2に記載のロボット管理システム。 The robot management system according to claim 2, wherein the behavior pattern and the service are registered in the behavior pattern table for each facility.
請求項2に記載のロボット管理システム。 The robot management system according to claim 2, wherein the behavior pattern and the service are registered in the behavior pattern table for each imaging location in a facility.
請求項4に記載のロボット管理システム。 The robot management system according to claim 4, wherein the behavior pattern and the service are registered in the behavior pattern table for each time zone.
請求項2に記載のロボット管理システム。 The robot management system according to claim 2, wherein the behavior pattern determination unit does not cause the robot to perform the service when the number of persons constituting a group to which a person detected from the video belongs is equal to or more than a predetermined number.
前記行動パターンテーブル及び前記行動パターン判定部は、前記ロボットとネットワークを介して接続される前記ロボット制御装置に設けられる
請求項1乃至6のいずれか一項に記載のロボット管理システム。 The robot control device sends a command to the robot based on the determination of the behavior pattern determination unit, and controls an operation of the robot.
The robot management system according to any one of claims 1 to 6, wherein the behavior pattern table and the behavior pattern determination unit are provided in the robot control device connected to the robot via a network.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017207453A JP6812325B2 (en) | 2017-10-26 | 2017-10-26 | Robot management system |
| CN201811172814.8A CN109709947B (en) | 2017-10-26 | 2018-10-09 | Robot management system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017207453A JP6812325B2 (en) | 2017-10-26 | 2017-10-26 | Robot management system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019079419A true JP2019079419A (en) | 2019-05-23 |
| JP6812325B2 JP6812325B2 (en) | 2021-01-13 |
Family
ID=66253914
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017207453A Active JP6812325B2 (en) | 2017-10-26 | 2017-10-26 | Robot management system |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP6812325B2 (en) |
| CN (1) | CN109709947B (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022093927A (en) * | 2020-12-14 | 2022-06-24 | Kddi株式会社 | Mobile store management device and mobile store management system |
| US12111633B2 (en) | 2021-05-10 | 2024-10-08 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
| CN118897495A (en) * | 2024-10-08 | 2024-11-05 | 上海傅利叶智能科技有限公司 | Work and rest assisting method, control device, equipment and storage medium of humanoid robot |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7351757B2 (en) * | 2020-01-24 | 2023-09-27 | 株式会社日立製作所 | How to control a moving robot |
| CN112656402B (en) * | 2020-11-30 | 2023-01-13 | 重庆优乃特医疗器械有限责任公司 | Acquisition robot linkage control system applied to 3D posture detection and analysis |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2005014242A1 (en) * | 2003-08-12 | 2005-02-17 | Advanced Telecommunications Research Institute International | Communication robot control system |
| JP2005215927A (en) * | 2004-01-29 | 2005-08-11 | Mitsubishi Heavy Ind Ltd | Behavior recognition system |
| KR200435980Y1 (en) * | 2006-09-13 | 2007-03-30 | 주식회사 케이엠씨 | Intelligent Guide Robot System |
| JP2008260107A (en) * | 2007-04-13 | 2008-10-30 | Yaskawa Electric Corp | Mobile robot system |
| JP2009131914A (en) * | 2007-11-29 | 2009-06-18 | Advanced Telecommunication Research Institute International | Robot control system |
| JP2012161901A (en) * | 2011-02-09 | 2012-08-30 | Advanced Telecommunication Research Institute International | Communication robot |
Family Cites Families (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6584375B2 (en) * | 2001-05-04 | 2003-06-24 | Intellibot, Llc | System for a retail environment |
| JP2003241833A (en) * | 2002-02-18 | 2003-08-29 | Hitachi Ltd | Information distribution service and information collection system by mobile robot |
| CN100451897C (en) * | 2002-05-31 | 2009-01-14 | 富士通株式会社 | Remotely-operated robot, and robot self position identifying method |
| CN1294521C (en) * | 2004-06-28 | 2007-01-10 | 李剑华 | Outer shape structure of commercial guest greeting robot and identifying method |
| JP4086024B2 (en) * | 2004-09-14 | 2008-05-14 | ソニー株式会社 | Robot apparatus and behavior control method thereof |
| ATE522330T1 (en) * | 2005-09-30 | 2011-09-15 | Irobot Corp | ROBOT SYSTEM WITH WIRELESS COMMUNICATION USING TCP/IP TRANSMISSION |
| JP4786516B2 (en) * | 2006-12-13 | 2011-10-05 | 三菱重工業株式会社 | Service target person discrimination method in robot service system and robot service system using the method |
| JP5216690B2 (en) * | 2009-06-01 | 2013-06-19 | 株式会社日立製作所 | Robot management system, robot management terminal, robot management method and program |
| JP5672326B2 (en) * | 2013-03-19 | 2015-02-18 | 株式会社安川電機 | Robot system |
| US9517559B2 (en) * | 2013-09-27 | 2016-12-13 | Honda Motor Co., Ltd. | Robot control system, robot control method and output control method |
| CN103753564A (en) * | 2014-01-24 | 2014-04-30 | 成都万先自动化科技有限责任公司 | Station guide service robot |
| JP5939266B2 (en) * | 2014-02-21 | 2016-06-22 | トヨタ自動車株式会社 | MOBILE BODY CONTROL SYSTEM, MOBILE BODY CONTROL METHOD, PROGRAM |
| CN104375417B (en) * | 2014-11-05 | 2017-11-07 | 济南大学 | A kind of Waiting Lounge intellect service robot |
| CN204712057U (en) * | 2015-05-07 | 2015-10-21 | 华南理工大学广州学院 | A kind of service robot being applied to working hall |
| CN204945792U (en) * | 2015-08-03 | 2016-01-06 | 高世恒 | A kind of Information Mobile Service robot |
| SG11201801327QA (en) * | 2015-08-19 | 2018-03-28 | Cyberdyne Inc | Autonomous mobile body and on-site operation management system |
| CN205521426U (en) * | 2016-01-22 | 2016-08-31 | 众德迪克科技(北京)有限公司 | Airport service intelligent robot |
| CN106096576B (en) * | 2016-06-27 | 2019-05-07 | 陈包容 | A kind of intelligent Service method of robot |
| CN106774333B (en) * | 2016-12-30 | 2020-05-29 | 中国民航信息网络股份有限公司 | Airport service robot and working method thereof |
| CN106584481A (en) * | 2017-01-20 | 2017-04-26 | 南京邮电大学 | Service robot applied to China Mobile business hall and operation method of robot |
-
2017
- 2017-10-26 JP JP2017207453A patent/JP6812325B2/en active Active
-
2018
- 2018-10-09 CN CN201811172814.8A patent/CN109709947B/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2005014242A1 (en) * | 2003-08-12 | 2005-02-17 | Advanced Telecommunications Research Institute International | Communication robot control system |
| JP2005215927A (en) * | 2004-01-29 | 2005-08-11 | Mitsubishi Heavy Ind Ltd | Behavior recognition system |
| KR200435980Y1 (en) * | 2006-09-13 | 2007-03-30 | 주식회사 케이엠씨 | Intelligent Guide Robot System |
| JP2008260107A (en) * | 2007-04-13 | 2008-10-30 | Yaskawa Electric Corp | Mobile robot system |
| JP2009131914A (en) * | 2007-11-29 | 2009-06-18 | Advanced Telecommunication Research Institute International | Robot control system |
| JP2012161901A (en) * | 2011-02-09 | 2012-08-30 | Advanced Telecommunication Research Institute International | Communication robot |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022093927A (en) * | 2020-12-14 | 2022-06-24 | Kddi株式会社 | Mobile store management device and mobile store management system |
| JP7465796B2 (en) | 2020-12-14 | 2024-04-11 | Kddi株式会社 | Mobile store management device and mobile store management system |
| US12111633B2 (en) | 2021-05-10 | 2024-10-08 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
| JP7609931B2 (en) | 2021-05-10 | 2025-01-07 | ベアー ロボティックス,インコーポレイテッド | Method, system and non-transitory computer-readable recording medium for controlling a robot |
| CN118897495A (en) * | 2024-10-08 | 2024-11-05 | 上海傅利叶智能科技有限公司 | Work and rest assisting method, control device, equipment and storage medium of humanoid robot |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6812325B2 (en) | 2021-01-13 |
| CN109709947B (en) | 2021-11-16 |
| CN109709947A (en) | 2019-05-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN109709947B (en) | Robot management system | |
| US9796093B2 (en) | Customer service robot and related systems and methods | |
| US11113945B2 (en) | Automated robot alert system | |
| JP2020502649A (en) | Intelligent service robot and related systems and methods | |
| JP2019049785A (en) | Robot management system and product proposal method | |
| JP2007300572A (en) | Sensor network system, sensor network location method | |
| JP7095220B2 (en) | Robot control system | |
| US20180272540A1 (en) | Resort sanitation monitor and controller | |
| JP2019087250A (en) | Systems and methods for object historical association | |
| JP2019148864A (en) | Service execution plan proposal robot system | |
| JP2018008758A (en) | Elevator system and car call estimation method | |
| JP4919648B2 (en) | Wireless terminal management system | |
| WO2024152048A9 (en) | Visual analytics | |
| JP2020004182A (en) | Robot, robot control program and robot control method | |
| JP2005056213A (en) | Information providing system, information providing server, and information providing method | |
| US20250109963A1 (en) | Robot-friendly buildings, and map generation methods and systems for robot operation | |
| JP7327962B2 (en) | WORK MONITORING DEVICE, WORK MONITORING SYSTEM, WORK MONITORING METHOD, AND PROGRAM | |
| KR102707348B1 (en) | Robot-friendly building, method and system for controling robot driving in the building | |
| JP2020009201A (en) | Guide robot system and control method thereof | |
| US20250315063A1 (en) | Method and system for loading trays in delivery robots within a multi-story building | |
| WO2023243405A1 (en) | Network system | |
| Goel et al. | Robot relay: An optimal path planning for multiple client service | |
| JP7287815B2 (en) | Notification system, information processing device, program | |
| Matsuhira et al. | A study on mobile robot traveling guidance system by linking multiple RT systems for a non-technical person | |
| JP2023143383A (en) | Robot delivery system and delivery method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200204 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201120 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201208 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201216 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6812325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |