JP2016078185A - robot - Google Patents
robot Download PDFInfo
- Publication number
- JP2016078185A JP2016078185A JP2014213131A JP2014213131A JP2016078185A JP 2016078185 A JP2016078185 A JP 2016078185A JP 2014213131 A JP2014213131 A JP 2014213131A JP 2014213131 A JP2014213131 A JP 2014213131A JP 2016078185 A JP2016078185 A JP 2016078185A
- Authority
- JP
- Japan
- Prior art keywords
- positional relationship
- carriage
- robot
- arm
- cart
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【課題】対象物を精度よく操作することができるロボットを提供する。【解決手段】ロボット1は、台車10と、台車10に直接又は間接的に設けられたアーム12と、アーム12に設けられ、対象物の少なくとも一部を把持するハンド13と、検出領域内の物体との距離情報を検出する距離センサ14と、制御装置15とを有する。制御装置15は、ハンド13が把持した状態でアーム12を動かす第1の動作と、第1の動作後の動作であって、ハンド13に把持された対象物が移動するよう台車10を移動する第2の動作とを制御する。また、制御装置15は、第1の動作により対象物と台車10の位置関係を距離情報に基づいて取得し、第2の動作時に、位置関係を維持するよう台車10の移動を制御する。【選択図】図5An object of the present invention is to provide a robot that can operate a target object with high precision. A robot 1 includes a cart 10, an arm 12 provided directly or indirectly on the cart 10, a hand 13 provided on the arm 12 and grasping at least a part of an object, and a hand 13 in a detection area. It has a distance sensor 14 that detects distance information to an object, and a control device 15. The control device 15 performs a first operation of moving the arm 12 while being gripped by the hand 13, and an operation after the first operation, and moves the cart 10 so that the object gripped by the hand 13 moves. and the second operation. Further, the control device 15 acquires the positional relationship between the object and the trolley 10 based on the distance information in the first operation, and controls the movement of the trolley 10 to maintain the positional relationship during the second operation. [Selection diagram] Figure 5
Description
本発明はロボットに関し、特に、対象物を移動させるロボットに関する。 The present invention relates to a robot, and more particularly to a robot that moves an object.
近年、生活支援ロボット(HSR:Human Support Robot)などでは、ロボットが家具などの対象物を操作することが求められている。また、このようなロボットにおいて、距離センサを用いて物体までの距離を計測し、計測結果に基づいて、自己位置を推定する技術が知られている。 2. Description of the Related Art In recent years, life support robots (HSR: Human Support Robot) and the like are required to operate objects such as furniture. In such a robot, a technique is known in which the distance to an object is measured using a distance sensor, and the self-position is estimated based on the measurement result.
例えば、特許文献1は、ロボットの周辺に存在する物体までの距離を計測するセンサによる計測結果を環境地図に幾何学的に合わせこむことで自己位置を推定する技術について開示している。
For example,
例えば、引き出しを開けるなどの家具操作の場合、ロボットのアームの移動のみでは対象物の移動量が不十分であるため、台車の移動が必要とされる。台車の移動は、距離センサによって自己位置を推定するが、距離センサの検知範囲には、操作により位置が変動している対象物も含まれており、自己位置推定の精度が十分ではなく、例えば台車の滑りが生じた場合には、対象物を精度よく操作することが難しいという問題がある。 For example, in the case of furniture operations such as opening a drawer, the amount of movement of an object is insufficient only by movement of a robot arm, and thus movement of a carriage is required. The movement of the carriage estimates its own position by a distance sensor, but the detection range of the distance sensor includes objects whose positions have been fluctuated by operation, and the accuracy of self-position estimation is not sufficient, for example When the cart slips, there is a problem that it is difficult to accurately operate the object.
本発明は、上記した事情を背景としてなされたものであり、対象物を精度よく操作することができるロボットを提供することを目的とする。 The present invention has been made against the background described above, and an object thereof is to provide a robot capable of operating a target object with high accuracy.
本発明にかかるロボットは、台車と、前記台車に直接又は間接的に設けられたアームと、前記アームに設けられ、対象物の少なくとも一部を把持する把持部と、検出領域内の物体との距離情報を検出する距離検出手段と、前記把持部が把持した状態で前記アームを動かす第1の動作と、前記第1の動作後の動作であって、前記把持部に把持された前記対象物が移動するよう前記台車を移動する第2の動作とを制御する制御手段とを有し、前記制御手段は、前記第1の動作により前記対象物と前記台車の位置関係を前記距離情報に基づいて取得し、前記第2の動作時に、前記位置関係を維持するよう前記台車の移動を制御する。 The robot according to the present invention includes a carriage, an arm provided directly or indirectly on the carriage, a grip provided on the arm and gripping at least a part of an object, and an object in a detection region. A distance detecting means for detecting distance information; a first operation for moving the arm in a state of being gripped by the gripping portion; and an operation after the first motion, the target being gripped by the gripping portion Control means for controlling the second operation of moving the carriage so that the vehicle moves, and the control means uses the first action to determine the positional relationship between the object and the carriage based on the distance information. And the movement of the carriage is controlled so as to maintain the positional relationship during the second operation.
このようなロボットによれば、対象物を把持した状態で台車が移動中に、台車と対象物との位置関係がずれるような場合であっても、位置関係を維持するよう台車の位置が制御される。したがって、例えば、第2の動作時に台車の滑りが発生したような場合であっても、台車の位置が修正され、対象物を把持した状態のロボットにおいて精度よく台車を制御することができる。このため、ロボットは、対象物を精度よく操作することができる。 According to such a robot, the position of the carriage is controlled so as to maintain the positional relation even when the positional relation between the carriage and the object is shifted while the carriage is moving while holding the object. Is done. Therefore, for example, even when the carriage slips during the second operation, the position of the carriage can be corrected and the carriage can be controlled with high accuracy in the robot in a state where the object is gripped. For this reason, the robot can operate the object with high accuracy.
本発明によれば、対象物を精度よく操作することができるロボットを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the robot which can operate a target object with a sufficient precision can be provided.
以下、図面を参照して本発明の実施の形態について説明する。
図1は、実施形態に係るロボット1の外観を示す斜視図である。ロボット1は、台車10と、ロボット本体11と、アーム12と、ハンド13と、距離センサ14と、制御装置15とを備えている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a perspective view showing an appearance of a
台車10は、例えば、図示しないキャスタと、図示しない一対の対向する駆動車輪とが設けられており、制御信号にしたがって移動する。具体的には、台車10は、モータなどにより構成された台車用駆動機構が制御装置15からの制御信号に基づいて動作することにより、移動する。
For example, the
また、例えばエンコーダなどの台車状態検出センサによって、駆動車輪の回転情報を検出することにより、台車10の速さ、移動方向、移動軌跡などの状態が検出される。台車状態検出センサによる検出結果は、制御装置15に出力される。
In addition, for example, by detecting the rotation information of the driving wheel by a cart state detection sensor such as an encoder, the speed, moving direction, moving track, and the like of the
ロボット本体11は、台車10上に設置されており、台車10の移動にともない移動する。なお、ロボット本体11は、台車10に対して固定されて設置されていてもよいし、台車10に対して変動可能に設置されていてもよい。例えば、ロボット本体11は、台車10上で旋回可能に設置されていてもよい。また、ロボット本体11自体の位置姿勢を変更するための駆動機構が設けられていてもよい。
The
アーム12は、台車10に直接又は間接的に設けられており、例えば、多関節型アームとして構成されている。アーム12は、例えば、ロボット本体11の前面に設けられている。なお、本実施形態では、アーム12は、ロボット本体11に支持されており、間接的に台車10に設けられているが、アーム12は台車10に直接設けられてもよい。アーム12は、例えばモータなどを備えたアーム用駆動機構の動作により位置姿勢が変化する。アーム用駆動機構は、制御装置15からの制御信号にしたがって動作する。このような構成により、アーム12は、制御信号にしたがって、例えば、関節部分の回転及び屈折や、伸縮などといった各種動作を行う。
The
また、アーム12には、例えばエンコーダなどによって関節部分の回転情報を検出することによりアーム12の姿勢や位置といった状態を検出するアーム状態検出センサが設けられており、検出結果が制御装置15に出力される。
Further, the
ハンド13(把持部)は、アーム12の例えば先端に設けられ、操作対象物(把持対象)の少なくとも一部(例えば、対象物の取っ手)について把持等を行う操作機構として構成されている。ハンド13は、例えば、家具や建具などの対象物を操作する。ハンド13は、例えばモータなどを備えたハンド用駆動機構の動作により位置姿勢が変化する。ハンド用駆動機構は、制御装置15からの制御信号にしたがって動作する。
The hand 13 (gripping part) is provided as an operating mechanism that is provided at, for example, the distal end of the
また、ハンド13には、例えばエンコーダなどによって関節部分の回転情報を検出することによりハンド13の姿勢や位置といった状態を検出するハンド状態検出センサが設けられており、検出結果が制御装置15に出力される。
Further, the
距離センサ14は、距離検出手段に相当し、ロボット1周辺の検出領域S内にある環境(物体)と台車10との距離情報を検出する。なお、図1において、検出領域Sは、平面的な領域として図示されているが、検出領域Sは2次元に限らず、3次元であってもよい。距離センサ14は、例えば、レーザレンジファインダが用いられる。例えば、レーザレンジファインダは、ロボット1の前方の検出領域Sへ放射状にレーザ光を放射し、その検出領域S内の物体からの反射光を受光することで、その物体の距離情報を検出することができる。なお、距離センサ14は、レーザレンジファインダに限られない。例えば、デプスセンサ、超音波センサ、赤外線センサ、カメラ等の任意の距離センサを用いることができる。
The
距離センサ14は、距離センサ14の検出領域Sとハンド13の動作領域との少なくとも一部が重複するよう配置されている。例えば、距離センサ14は、台車10又はロボット本体11の外周のうち、アーム12が取り付けられている方向を検出できる位置に設けられている。
The
制御装置15(制御手段)は、例えばロボット本体11に内蔵されているが、台車10などの他の構成部分に設けられていてもよい。制御装置15は、例えば、制御処理、演算処理等を行う図示しないCPU(Central Processing Unit)、CPUによって実行される制御プログラム、演算プログラム、処理データ等を記憶する、ROM(Read Only Memory)及びRAM(Random Access Memory)などにより構成される図示しない記憶部等からなるマイクロコンピュータを中心にして、ハードウェア構成されている。
The control device 15 (control means) is built in, for example, the
制御装置15は、操作作業内容や移動内容などの指示が含まれる指示情報(指令値)、並びに、距離センサ14、上述の台車状態検出センサ、アーム状態検出センサ及びハンド状態検出センサからの検出結果などに基づいて、上述の各駆動機構を制御するとともに、後述する図3に示される処理を実行する。
The
ここで、台車10の移動の制御について説明する。本実施形態では、台車10は、距離センサ14によるレーザを用いた位置推定(レーザオドメトリ)により制御される。図2は、台車10の制御について説明する平面図である。図2において、台車10から放射状に延びる実線は、距離センサ14による計測を示している。また、図2において、壁2上の太線は、距離センサ14による検知結果から得られる形状を示している。また、図2(a)は、時刻tにおける、壁2に対する台車10の位置及び距離センサ14による検知の様子を示している。また、図2(b)は、時刻t+1における、壁2に対する台車10の位置及び距離センサ14による検知の様子を示している。なお、図に示されるように、時刻tから時刻t+1の間に、壁2に近づくように台車10は移動している。図2に示されるように、距離センサ14は、例えば検出領域S内のN点について測距し、検知結果から周囲に存在する環境(物体)の形状を判定する。制御装置15は、図2(c)に示されるように、時刻tにおける距離センサ14の検知結果に基づき識別された形状と、時刻t+1における距離センサ14の検知結果に基づき識別された形状とをマッチングさせることにより、ロボット1の自己位置を推定する。
Here, control of movement of the
このように、自己位置の推定には、ロボット1の周囲の形状が利用されるため、自己位置の正確な推定には、ロボット1の周囲環境が動かないこと(静的であること)が前提となる。図2に示されるようにロボット1が対象物を操作していない場合には、ロボット1の周囲環境が静的であるため、台車に滑り(例えば、横滑りや駆動車輪の空転による滑りなど)が発生しても、上記方法によりロボット1(台車10)の位置の推定を行うことが期待できる。しかしながら、ロボット1が、ドア開け、引き出し開けなどといった対象物の操作を行っている場合には、動いている対象物を距離センサ14が検知するため、図2に示されるマッチングが十分に行うことができず、結果として自己位置の推定精度が劣化する。このため、対象物の操作に際し、台車10の移動を伴う場合に、指令した軌道に追従するよう台車10の位置を精度よく制御することができず、対象物を精度よく操作できない。そこで、本実施形態では、ロボット1が対象物を操作する際には、以下に示される制御を行うことにより、対象物の操作の精度を向上させている。なお、本実施形態ではロボット1は、対象物を操作することなく台車10により移動する場合には、図2に示される上記方法により自己位置の推定が行われ制御される。また、自己位置の推定については、さらに、ロボット1が動作する環境について表された地図情報が用いられてもよい。例えば、制御装置15は、距離センサ14による検出により取得された検知結果と地図情報とのマッチングを自己位置の推定に利用してもよいし、他の公知の自己位置推定が適用されてもよい。
As described above, since the surrounding shape of the
図3は、実施形態に係る制御装置15の機能構成の一部についての一例を示すブロック図である。なお、図3に示される各構成は、例えば、上記制御プログラム又は演算プログラムがCPU15aにより実行されることで実現されてもよいし、ハードウェアにより実現されてもよい。
FIG. 3 is a block diagram illustrating an example of a part of the functional configuration of the
制御装置15は、ハンド・アーム制御部151と、台車制御部152と、位置関係取得部153と、位置関係判定部154とを有している。
The
ハンド・アーム制御部151は、指示情報(指令値)に応じた動作を実現するようアーム12及びハンド13の各駆動機構に対して制御信号を送り、アーム12及びハンド13の動作を制御する。ここで、本実施形態のハンド・アーム制御部151は、特に、ハンド13により操作対象物を把持すると、ハンド13が当該操作対象物を把持した状態でアーム12を動かす第1の動作を行うよう制御する。この第1の動作は、より具体的には、ハンド13が当該操作対象物を把持した状態で予め定められた移動量だけ当該操作対象物が移動するようアーム12の位置を移動させる動作である。なお、第1の動作の際には、台車10は移動せず静止している。
The hand / arm control unit 151 controls the operation of the
台車制御部152は、距離センサ14による検知結果を用いて自己位置を推定し、指示情報(指令値)に応じた動作を実現するよう台車10の駆動機構に対して制御信号を送り、台車10の移動を制御する。ここで、本実施形態の台車制御部152は、特に、上述の第1の動作が完了すると、第2の動作を行うよう制御する。ここで、第2の動作とは、第1の動作後に行われる動作であり、具体的には、ハンド13により把持された当該操作対象物の位置が指令情報(指令値)に沿って移動するよう台車10の位置を移動する動作である。また、第2の動作の際には、アーム12及びハンド13の動作は行われず、台車10に対するアーム12及びハンド13の相対位置は変動しない。
The
また、台車制御部152は、第2の動作時に、後述する位置関係判定部154による判定結果にしたがって、台車10と操作対象物との位置関係が基準の位置関係を維持するよう台車10を制御する。具体的には、台車10と操作対象物との位置関係が後述する基準の位置関係からずれていると位置関係判定部154により判定された場合、台車制御部152は、ずれを解消する方向へと走行又は回転するよう台車10の移動を制御する。
In addition, during the second operation, the
位置関係取得部153は、操作対象物と台車10の位置関係を距離センサ14による検知結果(距離情報)に基づいて取得する。ここで、位置関係取得部153は、第1の動作により操作対象物と台車10の基準となる位置関係(以下、基準位置関係という)を距離センサ14による検知結果(距離情報)に基づいて取得する。位置関係取得部153は、第1の動作前後の距離センサ14による検知結果から、第1の動作前後で変動が生じた計測点に基づいて、基準位置関係を取得する。具体的には、例えば、位置関係取得部153は、まず、第1の動作前の距離センサ14によるN点の測距データと、第1の動作後の距離センサ14によるN点の測距データとを比較し、N点の計測点のうち測距データが予め定められた値以上変動している計測点を抽出する。次に、位置関係取得部153は、抽出された計測点をつないだ形状を表す形状データを基準位置関係のデータとして、例えば制御装置15に設けられた記憶部に記憶する。なお、基準位置関係のデータとして、さらに、抽出された各計測点の距離を示す測距データが含まれてもよいし、基準位置関係のデータとして、形状データに代えて、抽出された各計測点の距離を示す測距データが用いられてもよい。
The positional
また、位置関係取得部153は、第2の動作時、操作対象物と台車10の位置関係を取得する。ここで、第2の動作時における操作対象物の追跡方法について説明する。図4は、距離センサ14を用いた操作対象物の追跡について説明する模式図である。図4では、ロボット1がタンス4のタンス本体40から引き出し41を引き出す操作を上から見た様子を示している。図4に示した例では、タンス4は、コの字型に配置された壁3に寄せて置かれている。また、図中、台車10から延びる矢印は、距離センサ14によるN本のレーザスキャンを示している。なお、図4(a)は、第1の動作後であって第2の動作前の様子を示し、図4(b)は、第2の動作中の様子を示している。この例では、N本のレーザスキャンのうちL番目からM番目までのレーザスキャンが、操作対象物である引き出し41に対するスキャンであるとする。すなわち、上述の第1の動作前後において、検知結果に変動が生じたスキャンであると仮定する。この場合、位置関係取得部153は、第2の動作時、N本のレーザスキャンのうちL番目からM番目までのレーザスキャンについての検知結果を利用することで操作対象物の位置を追跡し、台車10と操作対象物の位置関係を取得する。これにより、例えば、図4(b)に示されるように、後方に移動中の台車10が滑り、第2の動作前と比べて傾いてしまった場合においては、L番目からM番目までのレーザスキャンの検知結果が第2の動作前の検知結果(図4(a)参照)から変化するため、この傾きを制御装置15は認識することができる。
Further, the positional
このように、位置関係取得部153は、基準位置関係の取得の際に抽出された計測点に対応する計測点(図4におけるL番目からM番目までのレーザスキャンの検知結果により特定される座標点)を抽出し、例えばこれらの計測点をつないだ形状を表す形状データを第2の動作時の位置関係のデータとする。位置関係取得部153は、第2の動作時、予め定められた時間間隔ごとに位置関係を取得してもよいし、予め定められた移動距離ごとに位置関係を取得してもよい。
As described above, the positional
位置関係判定部154は、第2の動作時の位置関係のデータを基準位置関係のデータと比較し、第2の動作時の位置関係のデータが基準位置関係のデータからずれていないか判定する。具体的には、位置関係判定部154は、両データをマッチングして、予め定められた閾値を超える差異があるか否かを判定する。なお、予め定められた閾値は、0でもよい。位置関係判定部154は、第2の動作時の位置関係が、基準位置関係からずれていると判定した場合に、台車制御部152に対し通知する。位置関係判定部154は、例えば、ずれている方向及び距離などのずれ量を台車制御部152に通知し、これに対し、台車制御部152は、通知されたずれ量を解消するよう台車10を移動させる制御を行う。
The positional relationship determination unit 154 compares the positional relationship data during the second operation with the reference positional relationship data, and determines whether the positional relationship data during the second operation is deviated from the reference positional relationship data. . Specifically, the positional relationship determination unit 154 matches both data and determines whether there is a difference exceeding a predetermined threshold. The predetermined threshold value may be zero. If the positional relationship determination unit 154 determines that the positional relationship during the second operation is deviated from the reference positional relationship, the positional relationship determination unit 154 notifies the
次に、上述の処理の流れの一例について、図5及び図6を参照して説明する。図5は、本実施の形態に係る制御装置15の動作の一例を示すフローチャートである。図6は、図4と同様、ロボット1がタンス4のタンス本体40から引き出し41を引き出す操作を上から見た様子を示している。なお、図6(a)は第1の動作前の様子を示し、図6(b)は第1の動作後であって第2の動作前の様子を示し、図6(c)は第2の動作中の様子を示している。
Next, an example of the above-described processing flow will be described with reference to FIGS. FIG. 5 is a flowchart showing an example of the operation of the
まず、ステップ100(S100)において、本処理の前提としてハンド13が、対象物を把持する(図6(a)参照)。例えば、台車制御部152が、指令情報に基づいて、対象物であるタンス4の前に移動するよう台車10を制御し、ハンド・アーム制御部151が、指示情報に応じてアーム12及びハンド13の動作を制御することで、ロボット1のハンド13は、引き出し41の取っ手を把持する。なお、タンス4の前への台車10の移動においては、例えば、図2に示されるように、距離センサ14の全ての計測点の情報を用いたレーザオドメトリにより移動する。
First, in step 100 (S100), the
ステップ101(S101)において、ハンド・アーム制御部151は、ハンド13が対象物を把持した状態で予め定められた移動量だけ対象物が移動するようアーム12の位置を移動させる動作(第1の動作)を行うよう制御する(図6(b)参照)。なお、第1の動作では、台車10の移動による対象物の移動は行われない。例えば、ハンド・アーム制御部151は、引き出し41の取っ手をハンド13が把持した状態で、予め定められた移動量としてXセンチメートルだけ引き出し41を引き出す。
In step 101 (S101), the hand / arm control unit 151 moves the position of the
ステップ102(S102)において、位置関係取得部153は、ステップ101におけるアーム12の移動前後において、距離センサ14による検知結果に変動が生じた計測点(図6(b)において破線で囲まれた部分参照)を認識する。変動が生じた計測点が存在する場合(ステップ103でYES)、処理はステップ104へ移行する。一方、変動が生じた計測点が存在しない場合(ステップ103でNo)、処理はステップ101へと戻り、再度、アーム12による移動を試みる。
In step 102 (S102), the positional
ステップ104(S104)において、位置関係取得部153は、対象物と台車10との関係である基準位置関係Rのデータを記憶する。具体的には、例えば、位置関係取得部153は、ステップ101で認識された計測点により表される対象物の形状データを基準位置関係Rのデータとして記憶部に記憶する。
In step 104 (S104), the positional
ステップ105(S105)において、台車制御部152は、指示情報(指令値)に応じた動作を実現するよう台車10の移動(第2の動作)を制御する(図6(c)参照)。なお、第2の動作では、アーム12及びハンド13の移動による対象物の移動は行われない。
In step 105 (S105), the
ステップ106(S106)において、位置関係取得部153は、対象物と台車10の位置関係を取得する。位置関係取得部153は、例えば、基準位置関係Rの取得の際に認識された計測点に対応する計測点をつないだ形状を表す形状データを位置関係のデータとして取得する。また、位置関係判定部154は、位置関係取得部153により取得された位置関係と、ステップ104で記憶された基準位置関係Rのデータとをマッチングして、位置関係に予め定められた閾値を超える差異が生じていないか判定する。差異が生じている場合(ステップ107でNo)、処理はステップ108へ移行する。一方、差異が生じていない場合(ステップ107でYes)、処理はステップ109へ移行する。
In step 106 (S106), the positional
ステップ108(S108)において、台車制御部152は、対象物と台車10との位置関係が基準位置関係Rに近づくよう台車10を移動させる制御を行う。具体的には、例えば、台車制御部152は、基準位置関係Rとのずれを解消する方向へと走行又は回転するよう台車10の移動を制御する。ステップ108を実施すると、処理は、ステップ106へと戻る。
In step 108 (S108), the
ステップ109(S109)において、台車制御部152は、目標とした動作が完了したか否かを判定する。具体的には、例えば、台車制御部152は、指令情報で指示された動作が完了したか否かを判定する。動作が完了していない場合、処理はステップ105へと戻り、動作が完了した場合、処理は終了する。
In step 109 (S109), the
本実施形態にかかるロボット1によれば、対象物を把持した状態で台車が移動中に、例えば台車が滑ったとしても、この滑りは基準位置関係との差異により検出される。そして、台車10と対象物との位置関係が基準位置関係に戻るよう台車10が制御されるため、対象物を把持した状態のロボットにおいて指令情報に従って精度よく台車を制御することができる。このため、ロボットは、対象物を精度よく操作することができる。また、本実施形態によれば、新規にセンサを増やすなどの機器の追加を伴わずに、ロジックの変更のみで、従来よりも精度のよい操作を実現することができる。
According to the
以上、本発明の実施形態について説明したが、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 While the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.
例えば、上述の実施形態では、タンス4の引き出し41を引く操作について例を挙げて説明したが、引き出し41をタンス本体40に入れる操作であっても同様に適用することができる。また、タンスの操作に限らず、他の家具、建具、その他の対象物の操作であってもよい。
For example, in the above-described embodiment, the operation of pulling the
例えば、ドアの開閉操作に適用されてもよい。図7は、ロボット1がドア5を開く操作を説明する模式図である。なお、図7では、ロボット1がドア5を開く操作を上から見た様子が描かれている。図7に示されるように、台車10は、第2の動作時に、基準位置関係Rを維持するために、ドア5の旋回に沿うよう移動する。このように、台車10を、基準位置関係Rを維持するよう制御することで、精度よくドアの開閉操作を実現することができる。
For example, the present invention may be applied to a door opening / closing operation. FIG. 7 is a schematic diagram illustrating an operation in which the
また、ロボット1には、対象物の操作時に障害物を検知する異常検知機能が設けられてもよい。ロボット1は、例えば、図8に示されるように、ドア5の操作時に障害物6(例えば、人)を検知してもよい。ロボット1は、具体的には例えば次のように障害物を検知する。なお、図8において台車10からドア5又は障害物6に延びる実線は距離センサ14によるレーザスキャンを示している。
Moreover, the
上述のように、台車10は基準位置関係を維持するよう移動が制御されるため、第2の動作時に逐次行われる位置関係の取得では、略同じ形状データが得られることとなる。しかしながら、距離センサ14の検出範囲内に障害物6が進入すると、距離センサ14の測距データに障害物6に対応するデータが現れることとなる。このため、例えば、位置関係判定部154は、あるべき計測距離(基準位置関係における距離)よりも予め定められた閾値以上に近い計測点が検出された場合、障害物が対象物の移動範囲に侵入したものとして、異常を検知してもよい。また、異常を検知した場合、ロボット1は、発話、警報音、表示などにより注意喚起のための報知を行ってもよいし、動作を緊急停止してもよい。
As described above, since the movement of the
1 ロボット
10 台車
11 ロボット本体
12 アーム
13 ハンド
14 距離センサ
15 制御装置
151 ハンド・アーム制御部
152 台車制御部
153 位置関係取得部
154 位置関係判定部
DESCRIPTION OF
Claims (1)
前記台車に直接又は間接的に設けられたアームと、
前記アームに設けられ、対象物の少なくとも一部を把持する把持部と、
検出領域内の物体との距離情報を検出する距離検出手段と、
前記把持部が把持した状態で前記アームを動かす第1の動作と、前記第1の動作後の動作であって、前記把持部に把持された前記対象物が移動するよう前記台車を移動する第2の動作とを制御する制御手段と
を有し、
前記制御手段は、前記第1の動作により前記対象物と前記台車の位置関係を前記距離情報に基づいて取得し、前記第2の動作時に、前記位置関係を維持するよう前記台車の移動を制御する
ロボット。 Cart,
An arm provided directly or indirectly on the carriage,
A grip portion provided on the arm and gripping at least a part of the object;
Distance detecting means for detecting distance information with an object in the detection region;
A first operation of moving the arm in a state of being gripped by the gripping portion, and an operation after the first motion, wherein the carriage moves the carriage so that the object gripped by the gripping portion moves. Control means for controlling the operation of
The control means acquires the positional relationship between the object and the cart based on the distance information by the first operation, and controls the movement of the cart so as to maintain the positional relationship during the second operation. Robot.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014213131A JP2016078185A (en) | 2014-10-17 | 2014-10-17 | robot |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014213131A JP2016078185A (en) | 2014-10-17 | 2014-10-17 | robot |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016078185A true JP2016078185A (en) | 2016-05-16 |
Family
ID=55957165
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014213131A Pending JP2016078185A (en) | 2014-10-17 | 2014-10-17 | robot |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016078185A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111195918A (en) * | 2018-11-16 | 2020-05-26 | 发那科株式会社 | Action program creating device |
| JP2021074791A (en) * | 2019-11-05 | 2021-05-20 | オムロン株式会社 | Self-advancing carrying device |
| WO2022113707A1 (en) * | 2020-11-24 | 2022-06-02 | ソニーグループ株式会社 | Information processing device, autonomous moving device, information processing method, and program |
-
2014
- 2014-10-17 JP JP2014213131A patent/JP2016078185A/en active Pending
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111195918A (en) * | 2018-11-16 | 2020-05-26 | 发那科株式会社 | Action program creating device |
| US11325257B2 (en) * | 2018-11-16 | 2022-05-10 | Fanuc Corporation | Operation program creation device |
| DE102019130008B4 (en) | 2018-11-16 | 2022-09-29 | Fanuc Corporation | ACTIVITY PROGRAM CREATION INSTALLATION |
| CN111195918B (en) * | 2018-11-16 | 2024-02-09 | 发那科株式会社 | Action program creation device |
| JP2021074791A (en) * | 2019-11-05 | 2021-05-20 | オムロン株式会社 | Self-advancing carrying device |
| JP7395967B2 (en) | 2019-11-05 | 2023-12-12 | オムロン株式会社 | Self-propelled transport device |
| WO2022113707A1 (en) * | 2020-11-24 | 2022-06-02 | ソニーグループ株式会社 | Information processing device, autonomous moving device, information processing method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3466314B1 (en) | Cleaning robot and method of surmounting obstacle | |
| JP5668770B2 (en) | Robot system and control method of robot system | |
| US7778776B2 (en) | Obstacle avoidance method and obstacle-avoidable mobile apparatus | |
| KR102018832B1 (en) | Automatic driving cart | |
| EP2495079B1 (en) | Slip detection apparatus and method for a mobile robot | |
| EP1657612B1 (en) | Moving distance sensing apparatus for robot cleaner and method therefor | |
| JP4736607B2 (en) | Robot controller | |
| WO2012153629A1 (en) | Device and method for controlling prediction of motion | |
| JP6711138B2 (en) | Self-position estimating device and self-position estimating method | |
| JP2007310866A (en) | Robot using absolute azimuth and map creation method using the same | |
| US20160334802A1 (en) | Robot and control method thereof | |
| JP5276931B2 (en) | Method for recovering from moving object and position estimation error state of moving object | |
| EP3611589B1 (en) | Method for controlling motion of robot based on map prediction | |
| KR20190079322A (en) | Robot control system | |
| JP2010288112A (en) | Self-position estimation apparatus and self-position estimation method | |
| US20040210346A1 (en) | Method and apparatus for allowing mobile robot to return to docking station | |
| JP2019113926A (en) | Model predictive control device | |
| JP5553220B2 (en) | Moving body | |
| CN112654945A (en) | Information processing device and mobile robot | |
| TW202024666A (en) | Information processing device and mobile robot | |
| JP2007011978A (en) | Robot motion control device | |
| JP2016078185A (en) | robot | |
| JP2009223757A (en) | Autonomous mobile body, control system, and self-position estimation method | |
| JP4774401B2 (en) | Autonomous mobile route setting device | |
| JP2016062441A (en) | Omnidirectional transfer vehicle |