[go: up one dir, main page]

JP2016078185A - robot - Google Patents

robot Download PDF

Info

Publication number
JP2016078185A
JP2016078185A JP2014213131A JP2014213131A JP2016078185A JP 2016078185 A JP2016078185 A JP 2016078185A JP 2014213131 A JP2014213131 A JP 2014213131A JP 2014213131 A JP2014213131 A JP 2014213131A JP 2016078185 A JP2016078185 A JP 2016078185A
Authority
JP
Japan
Prior art keywords
positional relationship
carriage
robot
arm
cart
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014213131A
Other languages
Japanese (ja)
Inventor
豊 高岡
Yutaka Takaoka
豊 高岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014213131A priority Critical patent/JP2016078185A/en
Publication of JP2016078185A publication Critical patent/JP2016078185A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】対象物を精度よく操作することができるロボットを提供する。【解決手段】ロボット1は、台車10と、台車10に直接又は間接的に設けられたアーム12と、アーム12に設けられ、対象物の少なくとも一部を把持するハンド13と、検出領域内の物体との距離情報を検出する距離センサ14と、制御装置15とを有する。制御装置15は、ハンド13が把持した状態でアーム12を動かす第1の動作と、第1の動作後の動作であって、ハンド13に把持された対象物が移動するよう台車10を移動する第2の動作とを制御する。また、制御装置15は、第1の動作により対象物と台車10の位置関係を距離情報に基づいて取得し、第2の動作時に、位置関係を維持するよう台車10の移動を制御する。【選択図】図5An object of the present invention is to provide a robot that can operate a target object with high precision. A robot 1 includes a cart 10, an arm 12 provided directly or indirectly on the cart 10, a hand 13 provided on the arm 12 and grasping at least a part of an object, and a hand 13 in a detection area. It has a distance sensor 14 that detects distance information to an object, and a control device 15. The control device 15 performs a first operation of moving the arm 12 while being gripped by the hand 13, and an operation after the first operation, and moves the cart 10 so that the object gripped by the hand 13 moves. and the second operation. Further, the control device 15 acquires the positional relationship between the object and the trolley 10 based on the distance information in the first operation, and controls the movement of the trolley 10 to maintain the positional relationship during the second operation. [Selection diagram] Figure 5

Description

本発明はロボットに関し、特に、対象物を移動させるロボットに関する。   The present invention relates to a robot, and more particularly to a robot that moves an object.

近年、生活支援ロボット(HSR:Human Support Robot)などでは、ロボットが家具などの対象物を操作することが求められている。また、このようなロボットにおいて、距離センサを用いて物体までの距離を計測し、計測結果に基づいて、自己位置を推定する技術が知られている。   2. Description of the Related Art In recent years, life support robots (HSR: Human Support Robot) and the like are required to operate objects such as furniture. In such a robot, a technique is known in which the distance to an object is measured using a distance sensor, and the self-position is estimated based on the measurement result.

例えば、特許文献1は、ロボットの周辺に存在する物体までの距離を計測するセンサによる計測結果を環境地図に幾何学的に合わせこむことで自己位置を推定する技術について開示している。   For example, Patent Document 1 discloses a technique for estimating a self-position by geometrically matching a measurement result obtained by a sensor that measures a distance to an object existing around a robot with an environment map.

特開2012−93811号公報JP 2012-93811 A

例えば、引き出しを開けるなどの家具操作の場合、ロボットのアームの移動のみでは対象物の移動量が不十分であるため、台車の移動が必要とされる。台車の移動は、距離センサによって自己位置を推定するが、距離センサの検知範囲には、操作により位置が変動している対象物も含まれており、自己位置推定の精度が十分ではなく、例えば台車の滑りが生じた場合には、対象物を精度よく操作することが難しいという問題がある。   For example, in the case of furniture operations such as opening a drawer, the amount of movement of an object is insufficient only by movement of a robot arm, and thus movement of a carriage is required. The movement of the carriage estimates its own position by a distance sensor, but the detection range of the distance sensor includes objects whose positions have been fluctuated by operation, and the accuracy of self-position estimation is not sufficient, for example When the cart slips, there is a problem that it is difficult to accurately operate the object.

本発明は、上記した事情を背景としてなされたものであり、対象物を精度よく操作することができるロボットを提供することを目的とする。   The present invention has been made against the background described above, and an object thereof is to provide a robot capable of operating a target object with high accuracy.

本発明にかかるロボットは、台車と、前記台車に直接又は間接的に設けられたアームと、前記アームに設けられ、対象物の少なくとも一部を把持する把持部と、検出領域内の物体との距離情報を検出する距離検出手段と、前記把持部が把持した状態で前記アームを動かす第1の動作と、前記第1の動作後の動作であって、前記把持部に把持された前記対象物が移動するよう前記台車を移動する第2の動作とを制御する制御手段とを有し、前記制御手段は、前記第1の動作により前記対象物と前記台車の位置関係を前記距離情報に基づいて取得し、前記第2の動作時に、前記位置関係を維持するよう前記台車の移動を制御する。   The robot according to the present invention includes a carriage, an arm provided directly or indirectly on the carriage, a grip provided on the arm and gripping at least a part of an object, and an object in a detection region. A distance detecting means for detecting distance information; a first operation for moving the arm in a state of being gripped by the gripping portion; and an operation after the first motion, the target being gripped by the gripping portion Control means for controlling the second operation of moving the carriage so that the vehicle moves, and the control means uses the first action to determine the positional relationship between the object and the carriage based on the distance information. And the movement of the carriage is controlled so as to maintain the positional relationship during the second operation.

このようなロボットによれば、対象物を把持した状態で台車が移動中に、台車と対象物との位置関係がずれるような場合であっても、位置関係を維持するよう台車の位置が制御される。したがって、例えば、第2の動作時に台車の滑りが発生したような場合であっても、台車の位置が修正され、対象物を把持した状態のロボットにおいて精度よく台車を制御することができる。このため、ロボットは、対象物を精度よく操作することができる。   According to such a robot, the position of the carriage is controlled so as to maintain the positional relation even when the positional relation between the carriage and the object is shifted while the carriage is moving while holding the object. Is done. Therefore, for example, even when the carriage slips during the second operation, the position of the carriage can be corrected and the carriage can be controlled with high accuracy in the robot in a state where the object is gripped. For this reason, the robot can operate the object with high accuracy.

本発明によれば、対象物を精度よく操作することができるロボットを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the robot which can operate a target object with a sufficient precision can be provided.

実施形態に係るロボットの外観を示す斜視図である。It is a perspective view which shows the external appearance of the robot which concerns on embodiment. 台車の制御について説明する平面図である。(a)は、時刻tにおける、台車の位置及び距離センサによる検知の様子を示し、(b)は、時刻t+1における、台車の位置及び距離センサによる検知の様子を示し、(c)は、時刻tにおける検知結果と、時刻t+1における検知結果のマッチングの様子を示している。It is a top view explaining control of a trolley. (A) shows the state of detection by the position and distance sensor of the carriage at time t, (b) shows the state of detection by the position and distance sensor of the carriage at time t + 1, and (c) A state of matching between the detection result at t and the detection result at time t + 1 is shown. 実施形態に係る制御装置の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the control apparatus which concerns on embodiment. 距離センサを用いた操作対象物の追跡について説明する模式図であり、(a)は第1の動作後であって第2の動作前の様子を示し、(b)は第2の動作中の様子を示している。It is a schematic diagram explaining the tracking of the operation target using a distance sensor, (a) shows a state after the first operation and before the second operation, and (b) during the second operation. It shows a state. 実施の形態に係る制御装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the control apparatus which concerns on embodiment. ロボットが引き出しを引き出す操作を上から見た様子を示す模式図であり、(a)は第1の動作前の様子を示し、(b)は第1の動作後であって第2の動作前の様子を示し、(c)は第2の動作中の様子を示している。It is a schematic diagram which shows a mode that operation which the robot pulls out drawer | drawer was seen from the top, (a) shows the mode before 1st operation | movement, (b) is after 1st operation | movement and before 2nd operation | movement. (C) shows a state during the second operation. ロボットがドアを開く操作を説明する模式図である。It is a schematic diagram explaining operation which a robot opens a door. ロボットがドアを開く操作を行っている際に障害物が侵入した様子を示す模式図である。It is a schematic diagram which shows a mode that the obstruction invaded when the robot is performing operation which opens a door.

以下、図面を参照して本発明の実施の形態について説明する。
図1は、実施形態に係るロボット1の外観を示す斜視図である。ロボット1は、台車10と、ロボット本体11と、アーム12と、ハンド13と、距離センサ14と、制御装置15とを備えている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a perspective view showing an appearance of a robot 1 according to the embodiment. The robot 1 includes a carriage 10, a robot body 11, an arm 12, a hand 13, a distance sensor 14, and a control device 15.

台車10は、例えば、図示しないキャスタと、図示しない一対の対向する駆動車輪とが設けられており、制御信号にしたがって移動する。具体的には、台車10は、モータなどにより構成された台車用駆動機構が制御装置15からの制御信号に基づいて動作することにより、移動する。   For example, the cart 10 is provided with a caster (not shown) and a pair of opposed driving wheels (not shown), and moves according to a control signal. Specifically, the carriage 10 moves when a carriage drive mechanism constituted by a motor or the like operates based on a control signal from the control device 15.

また、例えばエンコーダなどの台車状態検出センサによって、駆動車輪の回転情報を検出することにより、台車10の速さ、移動方向、移動軌跡などの状態が検出される。台車状態検出センサによる検出結果は、制御装置15に出力される。   In addition, for example, by detecting the rotation information of the driving wheel by a cart state detection sensor such as an encoder, the speed, moving direction, moving track, and the like of the cart 10 are detected. The detection result by the cart state detection sensor is output to the control device 15.

ロボット本体11は、台車10上に設置されており、台車10の移動にともない移動する。なお、ロボット本体11は、台車10に対して固定されて設置されていてもよいし、台車10に対して変動可能に設置されていてもよい。例えば、ロボット本体11は、台車10上で旋回可能に設置されていてもよい。また、ロボット本体11自体の位置姿勢を変更するための駆動機構が設けられていてもよい。   The robot body 11 is installed on the carriage 10 and moves as the carriage 10 moves. The robot body 11 may be fixedly installed with respect to the carriage 10 or may be installed so as to be variable with respect to the carriage 10. For example, the robot body 11 may be installed so as to be able to turn on the carriage 10. In addition, a drive mechanism for changing the position and orientation of the robot body 11 itself may be provided.

アーム12は、台車10に直接又は間接的に設けられており、例えば、多関節型アームとして構成されている。アーム12は、例えば、ロボット本体11の前面に設けられている。なお、本実施形態では、アーム12は、ロボット本体11に支持されており、間接的に台車10に設けられているが、アーム12は台車10に直接設けられてもよい。アーム12は、例えばモータなどを備えたアーム用駆動機構の動作により位置姿勢が変化する。アーム用駆動機構は、制御装置15からの制御信号にしたがって動作する。このような構成により、アーム12は、制御信号にしたがって、例えば、関節部分の回転及び屈折や、伸縮などといった各種動作を行う。   The arm 12 is directly or indirectly provided on the carriage 10 and is configured as an articulated arm, for example. The arm 12 is provided on the front surface of the robot body 11, for example. In the present embodiment, the arm 12 is supported by the robot body 11 and indirectly provided on the carriage 10, but the arm 12 may be provided directly on the carriage 10. The position and orientation of the arm 12 is changed by the operation of an arm driving mechanism including a motor or the like, for example. The arm drive mechanism operates in accordance with a control signal from the control device 15. With such a configuration, the arm 12 performs various operations such as rotation and refraction of the joint portion and expansion and contraction according to the control signal.

また、アーム12には、例えばエンコーダなどによって関節部分の回転情報を検出することによりアーム12の姿勢や位置といった状態を検出するアーム状態検出センサが設けられており、検出結果が制御装置15に出力される。   Further, the arm 12 is provided with an arm state detection sensor that detects a state such as a posture and a position of the arm 12 by detecting rotation information of the joint portion by an encoder or the like, for example, and the detection result is output to the control device 15. Is done.

ハンド13(把持部)は、アーム12の例えば先端に設けられ、操作対象物(把持対象)の少なくとも一部(例えば、対象物の取っ手)について把持等を行う操作機構として構成されている。ハンド13は、例えば、家具や建具などの対象物を操作する。ハンド13は、例えばモータなどを備えたハンド用駆動機構の動作により位置姿勢が変化する。ハンド用駆動機構は、制御装置15からの制御信号にしたがって動作する。   The hand 13 (gripping part) is provided as an operating mechanism that is provided at, for example, the distal end of the arm 12 and grips at least a part of the operation target (grip target) (for example, a handle of the target). For example, the hand 13 operates an object such as furniture or joinery. The position and orientation of the hand 13 change due to the operation of a hand drive mechanism including a motor, for example. The hand drive mechanism operates in accordance with a control signal from the control device 15.

また、ハンド13には、例えばエンコーダなどによって関節部分の回転情報を検出することによりハンド13の姿勢や位置といった状態を検出するハンド状態検出センサが設けられており、検出結果が制御装置15に出力される。   Further, the hand 13 is provided with a hand state detection sensor that detects a state such as the posture and position of the hand 13 by detecting rotation information of the joint portion by an encoder or the like, for example, and the detection result is output to the control device 15. Is done.

距離センサ14は、距離検出手段に相当し、ロボット1周辺の検出領域S内にある環境(物体)と台車10との距離情報を検出する。なお、図1において、検出領域Sは、平面的な領域として図示されているが、検出領域Sは2次元に限らず、3次元であってもよい。距離センサ14は、例えば、レーザレンジファインダが用いられる。例えば、レーザレンジファインダは、ロボット1の前方の検出領域Sへ放射状にレーザ光を放射し、その検出領域S内の物体からの反射光を受光することで、その物体の距離情報を検出することができる。なお、距離センサ14は、レーザレンジファインダに限られない。例えば、デプスセンサ、超音波センサ、赤外線センサ、カメラ等の任意の距離センサを用いることができる。   The distance sensor 14 corresponds to distance detection means, and detects distance information between the environment (object) in the detection region S around the robot 1 and the carriage 10. In FIG. 1, the detection area S is illustrated as a planar area, but the detection area S is not limited to two dimensions, and may be three dimensions. As the distance sensor 14, for example, a laser range finder is used. For example, the laser range finder radiates laser light radially to the detection area S in front of the robot 1 and detects the distance information of the object by receiving reflected light from the object in the detection area S. Can do. The distance sensor 14 is not limited to the laser range finder. For example, an arbitrary distance sensor such as a depth sensor, an ultrasonic sensor, an infrared sensor, or a camera can be used.

距離センサ14は、距離センサ14の検出領域Sとハンド13の動作領域との少なくとも一部が重複するよう配置されている。例えば、距離センサ14は、台車10又はロボット本体11の外周のうち、アーム12が取り付けられている方向を検出できる位置に設けられている。   The distance sensor 14 is arranged so that at least a part of the detection area S of the distance sensor 14 and the operation area of the hand 13 overlap. For example, the distance sensor 14 is provided at a position where the direction in which the arm 12 is attached can be detected on the outer periphery of the cart 10 or the robot body 11.

制御装置15(制御手段)は、例えばロボット本体11に内蔵されているが、台車10などの他の構成部分に設けられていてもよい。制御装置15は、例えば、制御処理、演算処理等を行う図示しないCPU(Central Processing Unit)、CPUによって実行される制御プログラム、演算プログラム、処理データ等を記憶する、ROM(Read Only Memory)及びRAM(Random Access Memory)などにより構成される図示しない記憶部等からなるマイクロコンピュータを中心にして、ハードウェア構成されている。   The control device 15 (control means) is built in, for example, the robot body 11, but may be provided in other components such as the carriage 10. The control device 15 includes, for example, a CPU (Central Processing Unit) (not shown) that performs control processing, arithmetic processing, and the like, a ROM (Read Only Memory) and a RAM that store control programs, arithmetic programs, processing data, and the like executed by the CPU The hardware is configured around a microcomputer including a storage unit (not shown) composed of (Random Access Memory).

制御装置15は、操作作業内容や移動内容などの指示が含まれる指示情報(指令値)、並びに、距離センサ14、上述の台車状態検出センサ、アーム状態検出センサ及びハンド状態検出センサからの検出結果などに基づいて、上述の各駆動機構を制御するとともに、後述する図3に示される処理を実行する。   The control device 15 includes instruction information (command value) including instructions such as operation work contents and movement contents, and detection results from the distance sensor 14, the above-described cart state detection sensor, arm state detection sensor, and hand state detection sensor. Based on the above, each of the above-described drive mechanisms is controlled, and the process shown in FIG.

ここで、台車10の移動の制御について説明する。本実施形態では、台車10は、距離センサ14によるレーザを用いた位置推定(レーザオドメトリ)により制御される。図2は、台車10の制御について説明する平面図である。図2において、台車10から放射状に延びる実線は、距離センサ14による計測を示している。また、図2において、壁2上の太線は、距離センサ14による検知結果から得られる形状を示している。また、図2(a)は、時刻tにおける、壁2に対する台車10の位置及び距離センサ14による検知の様子を示している。また、図2(b)は、時刻t+1における、壁2に対する台車10の位置及び距離センサ14による検知の様子を示している。なお、図に示されるように、時刻tから時刻t+1の間に、壁2に近づくように台車10は移動している。図2に示されるように、距離センサ14は、例えば検出領域S内のN点について測距し、検知結果から周囲に存在する環境(物体)の形状を判定する。制御装置15は、図2(c)に示されるように、時刻tにおける距離センサ14の検知結果に基づき識別された形状と、時刻t+1における距離センサ14の検知結果に基づき識別された形状とをマッチングさせることにより、ロボット1の自己位置を推定する。   Here, control of movement of the carriage 10 will be described. In this embodiment, the cart 10 is controlled by position estimation (laser odometry) using a laser by the distance sensor 14. FIG. 2 is a plan view for explaining the control of the carriage 10. In FIG. 2, a solid line extending radially from the carriage 10 indicates measurement by the distance sensor 14. In FIG. 2, the thick line on the wall 2 indicates the shape obtained from the detection result by the distance sensor 14. FIG. 2A shows the position of the carriage 10 relative to the wall 2 and the state detected by the distance sensor 14 at time t. FIG. 2B shows the position of the carriage 10 relative to the wall 2 and the state detected by the distance sensor 14 at time t + 1. As shown in the figure, the carriage 10 moves so as to approach the wall 2 from time t to time t + 1. As shown in FIG. 2, the distance sensor 14 measures, for example, N points in the detection region S, and determines the shape of the environment (object) existing around from the detection result. As shown in FIG. 2C, the control device 15 determines the shape identified based on the detection result of the distance sensor 14 at time t and the shape identified based on the detection result of the distance sensor 14 at time t + 1. By matching, the self position of the robot 1 is estimated.

このように、自己位置の推定には、ロボット1の周囲の形状が利用されるため、自己位置の正確な推定には、ロボット1の周囲環境が動かないこと(静的であること)が前提となる。図2に示されるようにロボット1が対象物を操作していない場合には、ロボット1の周囲環境が静的であるため、台車に滑り(例えば、横滑りや駆動車輪の空転による滑りなど)が発生しても、上記方法によりロボット1(台車10)の位置の推定を行うことが期待できる。しかしながら、ロボット1が、ドア開け、引き出し開けなどといった対象物の操作を行っている場合には、動いている対象物を距離センサ14が検知するため、図2に示されるマッチングが十分に行うことができず、結果として自己位置の推定精度が劣化する。このため、対象物の操作に際し、台車10の移動を伴う場合に、指令した軌道に追従するよう台車10の位置を精度よく制御することができず、対象物を精度よく操作できない。そこで、本実施形態では、ロボット1が対象物を操作する際には、以下に示される制御を行うことにより、対象物の操作の精度を向上させている。なお、本実施形態ではロボット1は、対象物を操作することなく台車10により移動する場合には、図2に示される上記方法により自己位置の推定が行われ制御される。また、自己位置の推定については、さらに、ロボット1が動作する環境について表された地図情報が用いられてもよい。例えば、制御装置15は、距離センサ14による検出により取得された検知結果と地図情報とのマッチングを自己位置の推定に利用してもよいし、他の公知の自己位置推定が適用されてもよい。   As described above, since the surrounding shape of the robot 1 is used for the self-position estimation, it is assumed that the surrounding environment of the robot 1 does not move (is static) for accurate estimation of the self-position. It becomes. As shown in FIG. 2, when the robot 1 is not operating an object, the surrounding environment of the robot 1 is static, so that the carriage is slipped (for example, side slip or slipping due to idling of driving wheels). Even if it occurs, it can be expected that the position of the robot 1 (cart 10) is estimated by the above method. However, when the robot 1 is operating an object such as opening a door or opening a drawer, the distance sensor 14 detects the moving object, so that the matching shown in FIG. 2 is sufficiently performed. As a result, the self-position estimation accuracy deteriorates. For this reason, when the operation of the object is accompanied by the movement of the carriage 10, the position of the carriage 10 cannot be accurately controlled so as to follow the commanded trajectory, and the object cannot be accurately operated. Therefore, in the present embodiment, when the robot 1 operates the object, the accuracy of the operation of the object is improved by performing the following control. In this embodiment, when the robot 1 is moved by the carriage 10 without operating the object, the robot 1 is estimated and controlled by the above method shown in FIG. In addition, for the self-position estimation, map information represented about the environment in which the robot 1 operates may be used. For example, the control device 15 may use the matching between the detection result acquired by the detection by the distance sensor 14 and the map information for estimation of the self position, or other known self position estimation may be applied. .

図3は、実施形態に係る制御装置15の機能構成の一部についての一例を示すブロック図である。なお、図3に示される各構成は、例えば、上記制御プログラム又は演算プログラムがCPU15aにより実行されることで実現されてもよいし、ハードウェアにより実現されてもよい。   FIG. 3 is a block diagram illustrating an example of a part of the functional configuration of the control device 15 according to the embodiment. Each configuration illustrated in FIG. 3 may be realized, for example, by the CPU 15a executing the control program or the arithmetic program, or may be realized by hardware.

制御装置15は、ハンド・アーム制御部151と、台車制御部152と、位置関係取得部153と、位置関係判定部154とを有している。   The control device 15 includes a hand / arm control unit 151, a cart control unit 152, a positional relationship acquisition unit 153, and a positional relationship determination unit 154.

ハンド・アーム制御部151は、指示情報(指令値)に応じた動作を実現するようアーム12及びハンド13の各駆動機構に対して制御信号を送り、アーム12及びハンド13の動作を制御する。ここで、本実施形態のハンド・アーム制御部151は、特に、ハンド13により操作対象物を把持すると、ハンド13が当該操作対象物を把持した状態でアーム12を動かす第1の動作を行うよう制御する。この第1の動作は、より具体的には、ハンド13が当該操作対象物を把持した状態で予め定められた移動量だけ当該操作対象物が移動するようアーム12の位置を移動させる動作である。なお、第1の動作の際には、台車10は移動せず静止している。   The hand / arm control unit 151 controls the operation of the arm 12 and the hand 13 by sending control signals to the drive mechanisms of the arm 12 and the hand 13 so as to realize the operation according to the instruction information (command value). Here, in particular, when the hand / arm control unit 151 of the present embodiment grips the operation target with the hand 13, the hand 13 performs the first operation of moving the arm 12 while holding the operation target. Control. More specifically, the first operation is an operation of moving the position of the arm 12 so that the operation target moves by a predetermined amount of movement while the hand 13 holds the operation target. . In the first operation, the carriage 10 does not move and is stationary.

台車制御部152は、距離センサ14による検知結果を用いて自己位置を推定し、指示情報(指令値)に応じた動作を実現するよう台車10の駆動機構に対して制御信号を送り、台車10の移動を制御する。ここで、本実施形態の台車制御部152は、特に、上述の第1の動作が完了すると、第2の動作を行うよう制御する。ここで、第2の動作とは、第1の動作後に行われる動作であり、具体的には、ハンド13により把持された当該操作対象物の位置が指令情報(指令値)に沿って移動するよう台車10の位置を移動する動作である。また、第2の動作の際には、アーム12及びハンド13の動作は行われず、台車10に対するアーム12及びハンド13の相対位置は変動しない。   The cart control unit 152 estimates the self-position using the detection result of the distance sensor 14 and sends a control signal to the drive mechanism of the cart 10 so as to realize the operation according to the instruction information (command value). Control the movement of. Here, the cart control unit 152 of the present embodiment controls to perform the second operation, particularly when the first operation described above is completed. Here, the second operation is an operation performed after the first operation, and specifically, the position of the operation target gripped by the hand 13 moves along the command information (command value). This is an operation of moving the position of the carriage 10. Further, during the second operation, the arm 12 and the hand 13 are not operated, and the relative positions of the arm 12 and the hand 13 with respect to the carriage 10 do not change.

また、台車制御部152は、第2の動作時に、後述する位置関係判定部154による判定結果にしたがって、台車10と操作対象物との位置関係が基準の位置関係を維持するよう台車10を制御する。具体的には、台車10と操作対象物との位置関係が後述する基準の位置関係からずれていると位置関係判定部154により判定された場合、台車制御部152は、ずれを解消する方向へと走行又は回転するよう台車10の移動を制御する。   In addition, during the second operation, the cart control unit 152 controls the cart 10 so that the positional relationship between the cart 10 and the operation target object maintains the standard positional relationship according to the determination result by the positional relationship determination unit 154 described later. To do. Specifically, when the positional relationship determination unit 154 determines that the positional relationship between the cart 10 and the operation target is deviated from a reference positional relationship described later, the cart control unit 152 moves in a direction to eliminate the deviation. The movement of the carriage 10 is controlled so as to run or rotate.

位置関係取得部153は、操作対象物と台車10の位置関係を距離センサ14による検知結果(距離情報)に基づいて取得する。ここで、位置関係取得部153は、第1の動作により操作対象物と台車10の基準となる位置関係(以下、基準位置関係という)を距離センサ14による検知結果(距離情報)に基づいて取得する。位置関係取得部153は、第1の動作前後の距離センサ14による検知結果から、第1の動作前後で変動が生じた計測点に基づいて、基準位置関係を取得する。具体的には、例えば、位置関係取得部153は、まず、第1の動作前の距離センサ14によるN点の測距データと、第1の動作後の距離センサ14によるN点の測距データとを比較し、N点の計測点のうち測距データが予め定められた値以上変動している計測点を抽出する。次に、位置関係取得部153は、抽出された計測点をつないだ形状を表す形状データを基準位置関係のデータとして、例えば制御装置15に設けられた記憶部に記憶する。なお、基準位置関係のデータとして、さらに、抽出された各計測点の距離を示す測距データが含まれてもよいし、基準位置関係のデータとして、形状データに代えて、抽出された各計測点の距離を示す測距データが用いられてもよい。   The positional relationship acquisition unit 153 acquires the positional relationship between the operation target and the carriage 10 based on the detection result (distance information) by the distance sensor 14. Here, the positional relationship acquisition unit 153 acquires a positional relationship (hereinafter referred to as a reference positional relationship) that serves as a reference between the operation target and the carriage 10 based on a detection result (distance information) by the distance sensor 14 by the first operation. To do. The positional relationship acquisition unit 153 acquires the reference positional relationship based on the measurement points where the variation occurred before and after the first operation from the detection results of the distance sensor 14 before and after the first operation. Specifically, for example, the positional relationship acquisition unit 153 first has N-point distance measurement data by the distance sensor 14 before the first operation and N-point distance measurement data by the distance sensor 14 after the first operation. And the measurement points where the distance measurement data fluctuates by a predetermined value or more are extracted from the N measurement points. Next, the positional relationship acquisition unit 153 stores shape data representing the shape obtained by connecting the extracted measurement points as reference positional relationship data, for example, in a storage unit provided in the control device 15. The reference position relationship data may further include distance measurement data indicating the distance of each extracted measurement point, or the reference position relationship data may be extracted instead of the shape data. Ranging data indicating the distance between points may be used.

また、位置関係取得部153は、第2の動作時、操作対象物と台車10の位置関係を取得する。ここで、第2の動作時における操作対象物の追跡方法について説明する。図4は、距離センサ14を用いた操作対象物の追跡について説明する模式図である。図4では、ロボット1がタンス4のタンス本体40から引き出し41を引き出す操作を上から見た様子を示している。図4に示した例では、タンス4は、コの字型に配置された壁3に寄せて置かれている。また、図中、台車10から延びる矢印は、距離センサ14によるN本のレーザスキャンを示している。なお、図4(a)は、第1の動作後であって第2の動作前の様子を示し、図4(b)は、第2の動作中の様子を示している。この例では、N本のレーザスキャンのうちL番目からM番目までのレーザスキャンが、操作対象物である引き出し41に対するスキャンであるとする。すなわち、上述の第1の動作前後において、検知結果に変動が生じたスキャンであると仮定する。この場合、位置関係取得部153は、第2の動作時、N本のレーザスキャンのうちL番目からM番目までのレーザスキャンについての検知結果を利用することで操作対象物の位置を追跡し、台車10と操作対象物の位置関係を取得する。これにより、例えば、図4(b)に示されるように、後方に移動中の台車10が滑り、第2の動作前と比べて傾いてしまった場合においては、L番目からM番目までのレーザスキャンの検知結果が第2の動作前の検知結果(図4(a)参照)から変化するため、この傾きを制御装置15は認識することができる。   Further, the positional relationship acquisition unit 153 acquires the positional relationship between the operation target and the carriage 10 during the second operation. Here, a method for tracking the operation target in the second operation will be described. FIG. 4 is a schematic diagram illustrating the tracking of the operation target using the distance sensor 14. FIG. 4 shows a state in which the robot 1 sees the operation of pulling out the drawer 41 from the chase body 40 of the chance 4 from above. In the example shown in FIG. 4, the chase 4 is placed close to the wall 3 arranged in a U-shape. In the drawing, an arrow extending from the carriage 10 indicates N laser scans by the distance sensor 14. 4A shows a state after the first operation and before the second operation, and FIG. 4B shows a state during the second operation. In this example, it is assumed that the Lth to Mth laser scans of the N laser scans are scans for the drawer 41 that is the operation target. That is, it is assumed that the scan is a change in the detection result before and after the first operation. In this case, in the second operation, the positional relationship acquisition unit 153 tracks the position of the operation target by using the detection results for the L-th to M-th laser scans of the N laser scans, The positional relationship between the carriage 10 and the operation target is acquired. Thereby, for example, as shown in FIG. 4B, when the carriage 10 moving backward slides and tilts compared to before the second operation, the Lth to Mth lasers. Since the detection result of the scan changes from the detection result before the second operation (see FIG. 4A), the control device 15 can recognize this inclination.

このように、位置関係取得部153は、基準位置関係の取得の際に抽出された計測点に対応する計測点(図4におけるL番目からM番目までのレーザスキャンの検知結果により特定される座標点)を抽出し、例えばこれらの計測点をつないだ形状を表す形状データを第2の動作時の位置関係のデータとする。位置関係取得部153は、第2の動作時、予め定められた時間間隔ごとに位置関係を取得してもよいし、予め定められた移動距離ごとに位置関係を取得してもよい。   As described above, the positional relationship acquisition unit 153 determines the measurement points corresponding to the measurement points extracted when acquiring the reference positional relationship (coordinates specified by the detection results of the Lth to Mth laser scans in FIG. 4). Point) is extracted, and for example, shape data representing a shape obtained by connecting these measurement points is used as positional relationship data during the second operation. The positional relationship acquisition unit 153 may acquire the positional relationship for each predetermined time interval during the second operation, or may acquire the positional relationship for each predetermined movement distance.

位置関係判定部154は、第2の動作時の位置関係のデータを基準位置関係のデータと比較し、第2の動作時の位置関係のデータが基準位置関係のデータからずれていないか判定する。具体的には、位置関係判定部154は、両データをマッチングして、予め定められた閾値を超える差異があるか否かを判定する。なお、予め定められた閾値は、0でもよい。位置関係判定部154は、第2の動作時の位置関係が、基準位置関係からずれていると判定した場合に、台車制御部152に対し通知する。位置関係判定部154は、例えば、ずれている方向及び距離などのずれ量を台車制御部152に通知し、これに対し、台車制御部152は、通知されたずれ量を解消するよう台車10を移動させる制御を行う。   The positional relationship determination unit 154 compares the positional relationship data during the second operation with the reference positional relationship data, and determines whether the positional relationship data during the second operation is deviated from the reference positional relationship data. . Specifically, the positional relationship determination unit 154 matches both data and determines whether there is a difference exceeding a predetermined threshold. The predetermined threshold value may be zero. If the positional relationship determination unit 154 determines that the positional relationship during the second operation is deviated from the reference positional relationship, the positional relationship determination unit 154 notifies the cart control unit 152 of the positional relationship. For example, the positional relationship determination unit 154 notifies the carriage control unit 152 of a deviation amount such as a deviation direction and a distance, and the carriage control unit 152 responds to the carriage 10 to eliminate the notified deviation amount. Control to move.

次に、上述の処理の流れの一例について、図5及び図6を参照して説明する。図5は、本実施の形態に係る制御装置15の動作の一例を示すフローチャートである。図6は、図4と同様、ロボット1がタンス4のタンス本体40から引き出し41を引き出す操作を上から見た様子を示している。なお、図6(a)は第1の動作前の様子を示し、図6(b)は第1の動作後であって第2の動作前の様子を示し、図6(c)は第2の動作中の様子を示している。   Next, an example of the above-described processing flow will be described with reference to FIGS. FIG. 5 is a flowchart showing an example of the operation of the control device 15 according to the present embodiment. FIG. 6 shows a state in which the robot 1 sees the operation of pulling out the drawer 41 from the chase body 40 of the chance 4 from the top, as in FIG. 6A shows the state before the first operation, FIG. 6B shows the state after the first operation and before the second operation, and FIG. 6C shows the state before the second operation. The state during operation is shown.

まず、ステップ100(S100)において、本処理の前提としてハンド13が、対象物を把持する(図6(a)参照)。例えば、台車制御部152が、指令情報に基づいて、対象物であるタンス4の前に移動するよう台車10を制御し、ハンド・アーム制御部151が、指示情報に応じてアーム12及びハンド13の動作を制御することで、ロボット1のハンド13は、引き出し41の取っ手を把持する。なお、タンス4の前への台車10の移動においては、例えば、図2に示されるように、距離センサ14の全ての計測点の情報を用いたレーザオドメトリにより移動する。   First, in step 100 (S100), the hand 13 grasps an object as a premise of this processing (see FIG. 6A). For example, the cart control unit 152 controls the cart 10 to move in front of the dresser 4 that is the object based on the command information, and the hand arm control unit 151 controls the arm 12 and the hand 13 according to the instruction information. By controlling this operation, the hand 13 of the robot 1 holds the handle of the drawer 41. In addition, in the movement of the carriage 10 in front of the chance 4, for example, as shown in FIG. 2, the movement is performed by laser odometry using information on all measurement points of the distance sensor 14.

ステップ101(S101)において、ハンド・アーム制御部151は、ハンド13が対象物を把持した状態で予め定められた移動量だけ対象物が移動するようアーム12の位置を移動させる動作(第1の動作)を行うよう制御する(図6(b)参照)。なお、第1の動作では、台車10の移動による対象物の移動は行われない。例えば、ハンド・アーム制御部151は、引き出し41の取っ手をハンド13が把持した状態で、予め定められた移動量としてXセンチメートルだけ引き出し41を引き出す。   In step 101 (S101), the hand / arm control unit 151 moves the position of the arm 12 so that the object moves by a predetermined amount of movement while the hand 13 is gripping the object (first operation). The operation is controlled (see FIG. 6B). In the first operation, the object is not moved by the movement of the carriage 10. For example, the hand arm control unit 151 pulls out the drawer 41 by X centimeters as a predetermined movement amount in a state where the handle of the drawer 41 is gripped by the hand 13.

ステップ102(S102)において、位置関係取得部153は、ステップ101におけるアーム12の移動前後において、距離センサ14による検知結果に変動が生じた計測点(図6(b)において破線で囲まれた部分参照)を認識する。変動が生じた計測点が存在する場合(ステップ103でYES)、処理はステップ104へ移行する。一方、変動が生じた計測点が存在しない場合(ステップ103でNo)、処理はステップ101へと戻り、再度、アーム12による移動を試みる。   In step 102 (S102), the positional relationship acquisition unit 153 determines the measurement points where the detection result by the distance sensor 14 has changed before and after the movement of the arm 12 in step 101 (the portion surrounded by the broken line in FIG. 6B). See). If there is a measurement point where fluctuation has occurred (YES in step 103), the process proceeds to step 104. On the other hand, if there is no measurement point at which fluctuation has occurred (No in step 103), the process returns to step 101, and the movement by the arm 12 is attempted again.

ステップ104(S104)において、位置関係取得部153は、対象物と台車10との関係である基準位置関係Rのデータを記憶する。具体的には、例えば、位置関係取得部153は、ステップ101で認識された計測点により表される対象物の形状データを基準位置関係Rのデータとして記憶部に記憶する。   In step 104 (S104), the positional relationship acquisition unit 153 stores data of the reference positional relationship R that is the relationship between the object and the carriage 10. Specifically, for example, the positional relationship acquisition unit 153 stores the shape data of the object represented by the measurement point recognized in Step 101 in the storage unit as data of the reference positional relationship R.

ステップ105(S105)において、台車制御部152は、指示情報(指令値)に応じた動作を実現するよう台車10の移動(第2の動作)を制御する(図6(c)参照)。なお、第2の動作では、アーム12及びハンド13の移動による対象物の移動は行われない。   In step 105 (S105), the cart control unit 152 controls the movement (second operation) of the cart 10 so as to realize the operation according to the instruction information (command value) (see FIG. 6C). In the second operation, the object is not moved by the movement of the arm 12 and the hand 13.

ステップ106(S106)において、位置関係取得部153は、対象物と台車10の位置関係を取得する。位置関係取得部153は、例えば、基準位置関係Rの取得の際に認識された計測点に対応する計測点をつないだ形状を表す形状データを位置関係のデータとして取得する。また、位置関係判定部154は、位置関係取得部153により取得された位置関係と、ステップ104で記憶された基準位置関係Rのデータとをマッチングして、位置関係に予め定められた閾値を超える差異が生じていないか判定する。差異が生じている場合(ステップ107でNo)、処理はステップ108へ移行する。一方、差異が生じていない場合(ステップ107でYes)、処理はステップ109へ移行する。   In step 106 (S106), the positional relationship acquisition unit 153 acquires the positional relationship between the object and the carriage 10. The positional relationship acquisition unit 153 acquires, for example, shape data representing the shape connecting the measurement points corresponding to the measurement points recognized when acquiring the reference positional relationship R as positional relationship data. Further, the positional relationship determination unit 154 matches the positional relationship acquired by the positional relationship acquisition unit 153 with the data of the reference positional relationship R stored in step 104, and exceeds a threshold value that is predetermined for the positional relationship. Determine if there is a difference. If there is a difference (No in Step 107), the process proceeds to Step 108. On the other hand, if there is no difference (Yes in Step 107), the process proceeds to Step 109.

ステップ108(S108)において、台車制御部152は、対象物と台車10との位置関係が基準位置関係Rに近づくよう台車10を移動させる制御を行う。具体的には、例えば、台車制御部152は、基準位置関係Rとのずれを解消する方向へと走行又は回転するよう台車10の移動を制御する。ステップ108を実施すると、処理は、ステップ106へと戻る。   In step 108 (S108), the cart control unit 152 performs control to move the cart 10 so that the positional relationship between the object and the cart 10 approaches the reference positional relationship R. Specifically, for example, the cart control unit 152 controls the movement of the cart 10 so as to run or rotate in a direction to eliminate the deviation from the reference positional relationship R. After performing step 108, the process returns to step 106.

ステップ109(S109)において、台車制御部152は、目標とした動作が完了したか否かを判定する。具体的には、例えば、台車制御部152は、指令情報で指示された動作が完了したか否かを判定する。動作が完了していない場合、処理はステップ105へと戻り、動作が完了した場合、処理は終了する。   In step 109 (S109), the carriage control unit 152 determines whether or not the target operation has been completed. Specifically, for example, the cart control unit 152 determines whether or not the operation instructed by the command information has been completed. If the operation has not been completed, the process returns to step 105. If the operation has been completed, the process ends.

本実施形態にかかるロボット1によれば、対象物を把持した状態で台車が移動中に、例えば台車が滑ったとしても、この滑りは基準位置関係との差異により検出される。そして、台車10と対象物との位置関係が基準位置関係に戻るよう台車10が制御されるため、対象物を把持した状態のロボットにおいて指令情報に従って精度よく台車を制御することができる。このため、ロボットは、対象物を精度よく操作することができる。また、本実施形態によれば、新規にセンサを増やすなどの機器の追加を伴わずに、ロジックの変更のみで、従来よりも精度のよい操作を実現することができる。   According to the robot 1 according to the present embodiment, even if the carriage slips while the carriage is moving while holding the object, for example, the slip is detected based on a difference from the reference positional relationship. And since the trolley | bogie 10 is controlled so that the positional relationship of the trolley | bogie 10 and a target object returns to reference | standard positional relationship, a trolley | bogie can be accurately controlled according to command information in the robot of the state which hold | gripped the target object. For this reason, the robot can operate the object with high accuracy. In addition, according to the present embodiment, it is possible to realize an operation with higher accuracy than the conventional one only by changing the logic without adding a device such as newly adding sensors.

以上、本発明の実施形態について説明したが、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。   While the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.

例えば、上述の実施形態では、タンス4の引き出し41を引く操作について例を挙げて説明したが、引き出し41をタンス本体40に入れる操作であっても同様に適用することができる。また、タンスの操作に限らず、他の家具、建具、その他の対象物の操作であってもよい。   For example, in the above-described embodiment, the operation of pulling the drawer 41 of the chase 4 has been described by way of example. However, the operation can be similarly applied even to the operation of putting the drawer 41 into the chase body 40. Moreover, it is not limited to the operation of the chase, but may be an operation of other furniture, joinery, or other objects.

例えば、ドアの開閉操作に適用されてもよい。図7は、ロボット1がドア5を開く操作を説明する模式図である。なお、図7では、ロボット1がドア5を開く操作を上から見た様子が描かれている。図7に示されるように、台車10は、第2の動作時に、基準位置関係Rを維持するために、ドア5の旋回に沿うよう移動する。このように、台車10を、基準位置関係Rを維持するよう制御することで、精度よくドアの開閉操作を実現することができる。   For example, the present invention may be applied to a door opening / closing operation. FIG. 7 is a schematic diagram illustrating an operation in which the robot 1 opens the door 5. Note that FIG. 7 illustrates a state in which the operation of the robot 1 opening the door 5 is viewed from above. As shown in FIG. 7, the cart 10 moves along the turning of the door 5 in order to maintain the reference positional relationship R during the second operation. Thus, by controlling the carriage 10 so as to maintain the reference positional relationship R, the door opening / closing operation can be realized with high accuracy.

また、ロボット1には、対象物の操作時に障害物を検知する異常検知機能が設けられてもよい。ロボット1は、例えば、図8に示されるように、ドア5の操作時に障害物6(例えば、人)を検知してもよい。ロボット1は、具体的には例えば次のように障害物を検知する。なお、図8において台車10からドア5又は障害物6に延びる実線は距離センサ14によるレーザスキャンを示している。   Moreover, the robot 1 may be provided with an abnormality detection function for detecting an obstacle when operating the object. For example, as illustrated in FIG. 8, the robot 1 may detect an obstacle 6 (for example, a person) when operating the door 5. Specifically, the robot 1 detects an obstacle as follows, for example. In FIG. 8, the solid line extending from the carriage 10 to the door 5 or the obstacle 6 indicates laser scanning by the distance sensor 14.

上述のように、台車10は基準位置関係を維持するよう移動が制御されるため、第2の動作時に逐次行われる位置関係の取得では、略同じ形状データが得られることとなる。しかしながら、距離センサ14の検出範囲内に障害物6が進入すると、距離センサ14の測距データに障害物6に対応するデータが現れることとなる。このため、例えば、位置関係判定部154は、あるべき計測距離(基準位置関係における距離)よりも予め定められた閾値以上に近い計測点が検出された場合、障害物が対象物の移動範囲に侵入したものとして、異常を検知してもよい。また、異常を検知した場合、ロボット1は、発話、警報音、表示などにより注意喚起のための報知を行ってもよいし、動作を緊急停止してもよい。   As described above, since the movement of the carriage 10 is controlled so as to maintain the reference positional relationship, in the acquisition of the positional relationship that is sequentially performed during the second operation, substantially the same shape data is obtained. However, when the obstacle 6 enters the detection range of the distance sensor 14, data corresponding to the obstacle 6 appears in the distance measurement data of the distance sensor 14. For this reason, for example, when a measurement point closer to a predetermined threshold or more than a desired measurement distance (a distance in the reference position relationship) is detected, the positional relationship determination unit 154 causes the obstacle to enter the movement range of the target object. An abnormality may be detected as having entered. Moreover, when abnormality is detected, the robot 1 may perform alerting | reporting for alerting by speech, an alarm sound, a display, etc., and may stop operation | movement urgently.

1 ロボット
10 台車
11 ロボット本体
12 アーム
13 ハンド
14 距離センサ
15 制御装置
151 ハンド・アーム制御部
152 台車制御部
153 位置関係取得部
154 位置関係判定部
DESCRIPTION OF SYMBOLS 1 Robot 10 Carriage 11 Robot main body 12 Arm 13 Hand 14 Distance sensor 15 Control apparatus 151 Hand arm control part 152 Carriage control part 153 Position relation acquisition part 154 Position relation determination part

Claims (1)

台車と、
前記台車に直接又は間接的に設けられたアームと、
前記アームに設けられ、対象物の少なくとも一部を把持する把持部と、
検出領域内の物体との距離情報を検出する距離検出手段と、
前記把持部が把持した状態で前記アームを動かす第1の動作と、前記第1の動作後の動作であって、前記把持部に把持された前記対象物が移動するよう前記台車を移動する第2の動作とを制御する制御手段と
を有し、
前記制御手段は、前記第1の動作により前記対象物と前記台車の位置関係を前記距離情報に基づいて取得し、前記第2の動作時に、前記位置関係を維持するよう前記台車の移動を制御する
ロボット。
Cart,
An arm provided directly or indirectly on the carriage,
A grip portion provided on the arm and gripping at least a part of the object;
Distance detecting means for detecting distance information with an object in the detection region;
A first operation of moving the arm in a state of being gripped by the gripping portion, and an operation after the first motion, wherein the carriage moves the carriage so that the object gripped by the gripping portion moves. Control means for controlling the operation of
The control means acquires the positional relationship between the object and the cart based on the distance information by the first operation, and controls the movement of the cart so as to maintain the positional relationship during the second operation. Robot.
JP2014213131A 2014-10-17 2014-10-17 robot Pending JP2016078185A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014213131A JP2016078185A (en) 2014-10-17 2014-10-17 robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014213131A JP2016078185A (en) 2014-10-17 2014-10-17 robot

Publications (1)

Publication Number Publication Date
JP2016078185A true JP2016078185A (en) 2016-05-16

Family

ID=55957165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014213131A Pending JP2016078185A (en) 2014-10-17 2014-10-17 robot

Country Status (1)

Country Link
JP (1) JP2016078185A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111195918A (en) * 2018-11-16 2020-05-26 发那科株式会社 Action program creating device
JP2021074791A (en) * 2019-11-05 2021-05-20 オムロン株式会社 Self-advancing carrying device
WO2022113707A1 (en) * 2020-11-24 2022-06-02 ソニーグループ株式会社 Information processing device, autonomous moving device, information processing method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111195918A (en) * 2018-11-16 2020-05-26 发那科株式会社 Action program creating device
US11325257B2 (en) * 2018-11-16 2022-05-10 Fanuc Corporation Operation program creation device
DE102019130008B4 (en) 2018-11-16 2022-09-29 Fanuc Corporation ACTIVITY PROGRAM CREATION INSTALLATION
CN111195918B (en) * 2018-11-16 2024-02-09 发那科株式会社 Action program creation device
JP2021074791A (en) * 2019-11-05 2021-05-20 オムロン株式会社 Self-advancing carrying device
JP7395967B2 (en) 2019-11-05 2023-12-12 オムロン株式会社 Self-propelled transport device
WO2022113707A1 (en) * 2020-11-24 2022-06-02 ソニーグループ株式会社 Information processing device, autonomous moving device, information processing method, and program

Similar Documents

Publication Publication Date Title
EP3466314B1 (en) Cleaning robot and method of surmounting obstacle
JP5668770B2 (en) Robot system and control method of robot system
US7778776B2 (en) Obstacle avoidance method and obstacle-avoidable mobile apparatus
KR102018832B1 (en) Automatic driving cart
EP2495079B1 (en) Slip detection apparatus and method for a mobile robot
EP1657612B1 (en) Moving distance sensing apparatus for robot cleaner and method therefor
JP4736607B2 (en) Robot controller
WO2012153629A1 (en) Device and method for controlling prediction of motion
JP6711138B2 (en) Self-position estimating device and self-position estimating method
JP2007310866A (en) Robot using absolute azimuth and map creation method using the same
US20160334802A1 (en) Robot and control method thereof
JP5276931B2 (en) Method for recovering from moving object and position estimation error state of moving object
EP3611589B1 (en) Method for controlling motion of robot based on map prediction
KR20190079322A (en) Robot control system
JP2010288112A (en) Self-position estimation apparatus and self-position estimation method
US20040210346A1 (en) Method and apparatus for allowing mobile robot to return to docking station
JP2019113926A (en) Model predictive control device
JP5553220B2 (en) Moving body
CN112654945A (en) Information processing device and mobile robot
TW202024666A (en) Information processing device and mobile robot
JP2007011978A (en) Robot motion control device
JP2016078185A (en) robot
JP2009223757A (en) Autonomous mobile body, control system, and self-position estimation method
JP4774401B2 (en) Autonomous mobile route setting device
JP2016062441A (en) Omnidirectional transfer vehicle