JP4961860B2 - Robot apparatus and control method of robot apparatus - Google Patents
Robot apparatus and control method of robot apparatus Download PDFInfo
- Publication number
- JP4961860B2 JP4961860B2 JP2006177361A JP2006177361A JP4961860B2 JP 4961860 B2 JP4961860 B2 JP 4961860B2 JP 2006177361 A JP2006177361 A JP 2006177361A JP 2006177361 A JP2006177361 A JP 2006177361A JP 4961860 B2 JP4961860 B2 JP 4961860B2
- Authority
- JP
- Japan
- Prior art keywords
- robot apparatus
- dimensional data
- robot
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、物体把持等の外部環境に応じた動作を実行するロボット装置及びその制御方法に関する。 The present invention relates to a robot apparatus that performs an operation according to an external environment such as object gripping, and a control method thereof.
作業環境内に存在する物体を認識して把持動作を実行するロボット装置や、作業環境内を自律的に移動するロボット装置など、外部環境に応じた動作を実行するロボット装置が従来から提案されている。例えば、特許文献1には、ステレオカメラを用いて作業環境の3次元データを取得し、取得した3次元データによって環境内に存在する把持対象物体の位置及び姿勢を認識して、これに対する把持動作を実行するロボット装置が開示されている。
従来から提案されている外部環境に応じた動作を実行するロボット装置は、自身が備えるステレオカメラ等の視覚センサによって取得した作業環境の3次元データに含まれている物体の像が、自己の身体の一部の像であるか、それとも作業環境内に存在している外部の物体の像であるかを識別できないという問題がある。 A conventionally proposed robot apparatus that performs an operation according to an external environment has an image of an object included in the three-dimensional data of the work environment acquired by a visual sensor such as a stereo camera included in the robot apparatus. There is a problem that it is not possible to identify whether the image is a part of the image or an image of an external object existing in the work environment.
この問題点の影響が顕著となるロボット装置の一例として、作業環境に存在する障害物を回避しつつ、腕部による把持対象物体の把持動作を行うロボット装置を想定する。当該ロボット装置が外部環境の3次元データに基づいて把持対象物体に対する腕部の移動経路を算出する際に、3次元データ中にロボット装置の身体の一部の像が含まれていると、本来であれば把持対象物体に対して直線的に腕部を移動できるにもかかわらず、障害物と認識してしまった身体の一部を回避する経路を生成してしまうために、最適な動作を実行できない可能性がある。また、把持を行う腕部を障害物と認識してしまうと、既に腕部と障害物とが衝突していることになり、腕部の移動経路を算出できないという弊害を生じる可能性がある。 As an example of a robot apparatus in which the influence of this problem becomes significant, a robot apparatus that performs a gripping operation of a gripping target object by an arm while avoiding an obstacle existing in a work environment is assumed. When the robot device calculates the movement path of the arm relative to the object to be grasped based on the three-dimensional data of the external environment, if the image of a part of the body of the robot device is included in the three-dimensional data, Then, even though the arm part can be moved linearly with respect to the object to be grasped, a path that avoids a part of the body that has been recognized as an obstacle is generated. It may not be possible to execute. Further, if the arm part to be grasped is recognized as an obstacle, the arm part and the obstacle have already collided, and there is a possibility that the movement path of the arm part cannot be calculated.
本発明は上述した問題点を考慮してなされたものであって、本発明の目的は、外部環境に応じた動作を実行するロボット装置において、外部環境の3次元データに含まれる自己の身体の像を識別可能とすることである。 The present invention has been made in consideration of the above-described problems, and an object of the present invention is a robot apparatus that executes an operation according to an external environment, and the body of the body included in the three-dimensional data of the external environment. It is to make the image identifiable.
本発明の第1の態様にかかるロボット装置は、外部環境に応じて動作を実行するロボット装置であって、外部環境を視覚的に認識する視覚センサと、前記視覚センサによる取得情報に基づいて、前記外部環境の3次元データを作成する3次元データ作成部と、前記3次元データの中に、当該ロボット装置の身体の像が含まれるか否かを判定する判定部と、前記判定部により前記3次元データの中に当該ロボット装置の身体の像が含まれると判定された場合に、前記3次元データ中における当該ロボット装置の身体の像が占める領域を特定する領域特定部とを備える。このような構成により、外部環境の3次元データに含まれる自己の身体の像を識別することができる。なお、ここでの身体の像とは、身体の一部分の像を意味している。また、以下で説明する発明の実施の形態1にかかるロット装置が備える環境復元部が、前記3次元データ作成部に相当する。また、発明の実施の形態1における身体推定部が、前記判定部及び前記領域特定部に相当する。 A robot apparatus according to a first aspect of the present invention is a robot apparatus that performs an operation in accordance with an external environment, based on a visual sensor that visually recognizes the external environment, and information acquired by the visual sensor, The three-dimensional data creation unit that creates the three-dimensional data of the external environment, the determination unit that determines whether or not the body image of the robot apparatus is included in the three-dimensional data, and the determination unit And a region specifying unit that specifies a region occupied by the body image of the robot device in the three-dimensional data when it is determined that the body image of the robot device is included in the three-dimensional data. With such a configuration, an image of the body included in the three-dimensional data of the external environment can be identified. The body image here means an image of a part of the body. An environment restoration unit included in the lot device according to the first embodiment of the invention described below corresponds to the three-dimensional data creation unit. Moreover, the body estimation part in Embodiment 1 of invention corresponds to the said determination part and the said area | region specific part.
なお、前記領域特定部による特定は、前記3次元データと当該ロボット装置の身体モデルとを照合することにより行うとよい。 Note that the specification by the region specifying unit may be performed by collating the three-dimensional data with the body model of the robot apparatus.
また、前記第1の態様にかかるロボット装置は、当該ロボット装置を構成する各部の位置及び姿勢を算出する算出部をさらに備えることとし、前記領域特定部は、前記算出部により算出された位置及び姿勢に基づいて、前記身体モデルと照合される前記3次元データの領域を特定することが望ましい。このような構成により、3次元データと身体モデルとの照合を効率よく行うことができる。 The robot device according to the first aspect further includes a calculation unit that calculates the position and orientation of each unit constituting the robot device, and the region specifying unit includes the position calculated by the calculation unit and It is desirable that the region of the three-dimensional data to be collated with the body model is specified based on the posture. With such a configuration, the three-dimensional data and the body model can be efficiently collated.
また、前記第1の態様にかかるロボット装置は、前記領域特定部による特定結果と、前記3次元データとに基づいて前記ロボット装置の動作内容を決定する動作計画部を備えることが望ましい。このような構成により、視覚センサによって取得した3次元データに自己の身体の像が含まれるか否かに応じてロボット装置の動作内容を変更するなど、ロボット装置の動作の多様性を向上できる。 In addition, the robot device according to the first aspect preferably includes an operation planning unit that determines the operation content of the robot device based on the specification result by the region specifying unit and the three-dimensional data. With such a configuration, it is possible to improve the variety of operations of the robot apparatus, such as changing the operation content of the robot apparatus depending on whether or not the 3D data acquired by the visual sensor includes an image of its own body.
また、前記第1の態様にかかるロボット装置は、前記ロボット装置の身体の像を前記3次元データから除去する補正部と、前記補正部によって補正された3次元データに基づいて、前記ロボット装置の動作内容を決定する動作計画部とを備えてもよい。このような構成により、視覚センサによって取得した3次元データに自己の身体の像が含まれることによるロボット装置の誤動作を抑制することができる。 The robot device according to the first aspect includes a correction unit that removes the body image of the robot device from the three-dimensional data, and the robot device based on the three-dimensional data corrected by the correction unit. An operation planning unit that determines the operation content may be provided. With such a configuration, it is possible to suppress malfunction of the robot apparatus due to the image of the body being included in the three-dimensional data acquired by the visual sensor.
本発明の第2の態様にかかる方法は、外部環境に応じて動作を実行するロボット装置の制御方法である。具体的には、まず、外部環境の3次元データの中に、当該ロボット装置の身体の像が含まれるか否かを判定する。次に、前記3次元データの中に当該ロボット装置の身体の像が含まれると判定された場合に、前記3次元データ中における当該ロボット装置の身体の像が占める領域を特定する。続いて、前記領域の検出結果と、前記3次元データとに基づいて前記ロボット装置の動作内容を決定する。このような方法により、外部環境の3次元データに含まれる自己の身体の像を識別し、外部環境の3次元データに自己の身体の像が含まれるか否かに応じてロボット装置の動作内容を変更するなど、ロボット装置の動作の多様性を向上できる。 The method according to the second aspect of the present invention is a method for controlling a robot apparatus that performs an operation in accordance with an external environment. Specifically, first, it is determined whether or not the body image of the robot apparatus is included in the three-dimensional data of the external environment. Next, when it is determined that the body image of the robot apparatus is included in the three-dimensional data, an area occupied by the body image of the robot apparatus in the three-dimensional data is specified. Subsequently, the operation content of the robot apparatus is determined based on the detection result of the region and the three-dimensional data. By such a method, an image of the body of the self included in the three-dimensional data of the external environment is identified, and the operation content of the robot apparatus is determined depending on whether the image of the self body is included in the three-dimensional data of the external environment It is possible to improve the diversity of operation of the robot device.
本発明の第3の態様にかかる方法は、外部環境に応じて動作を実行するロボット装置の制御方法である。具体的には、外部環境の3次元データを取得するとともに、前記ロボット装置の身体の位置及び姿勢を算出する。次に、算出した前記ロボット装置の身体の位置及び姿勢に基づいて前記3次元データから処理対象領域を選択し、選択した前記処理対象領域と当該ロボット装置の身体モデルとの照合により、前記3次元データの中で前記ロボット装置の身体の像が含まれる身体領域を検出するものである。このような方法により、外部環境の3次元データに含まれる自己の身体の像を識別することができる。 A method according to a third aspect of the present invention is a method for controlling a robot apparatus that performs an operation in accordance with an external environment. Specifically, the three-dimensional data of the external environment is acquired, and the body position and posture of the robot apparatus are calculated. Next, a processing target region is selected from the three-dimensional data based on the calculated body position and posture of the robot device, and the three-dimensional data is obtained by collating the selected processing target region with the body model of the robot device. In the data, a body region including an image of the body of the robot apparatus is detected. By such a method, it is possible to identify an image of the body included in the three-dimensional data of the external environment.
本発明により、外部環境の3次元データに含まれる自己の身体の像を識別可能なロボット装置及びロボット装置の制御方法を提供することができる。 According to the present invention, it is possible to provide a robot apparatus and a control method for the robot apparatus that can identify an image of the body included in three-dimensional data of the external environment.
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略する。なお、以下に示す発明の実施の形態は、物体把持を行う腕部を備えたロボットに本発明を適用したものである。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description will be omitted as necessary for the sake of clarity. In the following embodiments of the invention, the present invention is applied to a robot having an arm portion for gripping an object.
発明の実施の形態1.
本実施の形態にかかるロボット1の外観を図1に示す。ロボット1の頭部10には、外界の3次元の点群データ(以下、距離画像データと呼ぶ)を取得する視覚センサ101が設けられている。頭部10は、胴体部11に連結されている。また、胴体部11には、腕部12が連結されている。より詳細には、腕部12に含まれる上腕部121が胴体部11と肩関節機構(不図示)を介して連結され、上腕部121と前腕部123とが肘関節部122を介して連結され、前腕部123の先端に手部124が設けられている。さらに、胴体部11にはロボット1の移動機構である車輪131及び132が設けられている。
Embodiment 1 of the Invention
An appearance of the robot 1 according to the present embodiment is shown in FIG. The head 10 of the robot 1 is provided with a visual sensor 101 for acquiring external three-dimensional point group data (hereinafter referred to as distance image data). The head 10 is connected to the body 11. An arm 12 is connected to the body 11. More specifically, the upper arm part 121 included in the arm part 12 is connected to the body part 11 via a shoulder joint mechanism (not shown), and the upper arm part 121 and the forearm part 123 are connected via an elbow joint part 122. A hand portion 124 is provided at the tip of the forearm portion 123. Further, the body portion 11 is provided with wheels 131 and 132 which are moving mechanisms of the robot 1.
本実施の形態にかかるロボット1は、視覚センサ101によって取得した距離画像データを用いて把持対象である物体50の位置及び姿勢を認識する。次に、ロボット1は、認識した物体50を把持可能な位置まで腕部12を移動させるための経路計画を実行して、腕部12による物体50の把持を行う。なお、腕部12の経路計画の実行時は、物体50と腕部12との間に障害物が存在するか否かを視覚センサ101によって取得した距離画像データに基づいて判定し、障害物を回避して物体50に到達する経路を決定する。このとき、視覚センサ101によって取得した距離画像データに、腕部12が撮像されている場合がある。この場合に、腕部12を障害物と認識してしまうと最適な経路計画を実行することができないため、ロボット1は、腕部12を障害物と認識しないための仕組みを備えている。 The robot 1 according to the present embodiment recognizes the position and orientation of the object 50 that is the gripping object using the distance image data acquired by the visual sensor 101. Next, the robot 1 performs a route plan for moving the arm unit 12 to a position where the recognized object 50 can be gripped, and grips the object 50 by the arm unit 12. When executing the route planning of the arm unit 12, it is determined whether or not an obstacle exists between the object 50 and the arm unit 12 based on the distance image data acquired by the visual sensor 101, and the obstacle is detected. The route to reach the object 50 by avoiding is determined. At this time, the arm 12 may be captured in the distance image data acquired by the visual sensor 101. In this case, if the arm portion 12 is recognized as an obstacle, an optimal route plan cannot be executed. Therefore, the robot 1 has a mechanism for not recognizing the arm portion 12 as an obstacle.
以下では、ロボット1が行う物体50の把持動作について、特に、視覚センサ101によって取得した距離画像データに腕部12が撮像されている場合に、これを障害物と認識しないための仕組みについて、図2及び図3を用いて詳細に説明する。図2のブロック図は、物体50の把持を行うための処理に関係するロボット1の主要部の内部構成を示している。 In the following, regarding the gripping operation of the object 50 performed by the robot 1, a mechanism for not recognizing this as an obstacle when the arm 12 is imaged in the distance image data acquired by the visual sensor 101 will be described. This will be described in detail with reference to FIG. 2 and FIG. The block diagram of FIG. 2 shows the internal configuration of the main part of the robot 1 related to the process for gripping the object 50.
図2において、視覚センサ部101は、上述したように、ロボット1の外界の3次元点群データ(距離画像データ)を取得する。具体的には、レーザレンジファインダ等のアクティブ距離センサによって距離画像データを取得する。なお、CCDイメージセンサ又はCMOSイメージセンサ等の撮像素子を備えた複数のカメラを備え、これら複数のカメラによって撮影した画像データを用いて距離画像データを生成してもよい。具体的には、複数のカメラによって撮影した画像データから対応点を検出し、ステレオ視によって対応点の3次元位置を復元する。ここで、複数の撮影画像における対応点の探索は、複数の撮影画像に対する時空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。 In FIG. 2, the visual sensor unit 101 acquires three-dimensional point group data (distance image data) of the outside world of the robot 1 as described above. Specifically, distance image data is acquired by an active distance sensor such as a laser range finder. It should be noted that a plurality of cameras including an image sensor such as a CCD image sensor or a CMOS image sensor may be provided, and distance image data may be generated using image data photographed by the plurality of cameras. Specifically, corresponding points are detected from image data captured by a plurality of cameras, and the three-dimensional positions of the corresponding points are restored by stereo viewing. Here, the search for corresponding points in a plurality of captured images may be performed by applying a known method such as a gradient method or a correlation method using a time-space differential constraint formula for the plurality of captured images.
環境復元部102は、視覚センサ101によって得た距離画像データの近傍点の間を連結することによって三角ポリゴンを生成し、ロボット1の外部環境をモデル化したポリゴンデータ(以下、環境データと呼ぶ)を生成する。ここで、環境データの基準座標系は、ロボット1に固定された座標系としてもよいし、ロボット1が存在する環境内に固定された座標系としてもよい。 The environment restoration unit 102 generates triangular polygons by connecting neighboring points of distance image data obtained by the visual sensor 101, and polygon data obtained by modeling the external environment of the robot 1 (hereinafter referred to as environment data). Is generated. Here, the reference coordinate system of the environment data may be a coordinate system fixed to the robot 1 or a coordinate system fixed in the environment where the robot 1 exists.
なお、広範囲にわたる環境データを生成する場合には、視覚センサ101、つまり頭部10を動かすことによって複数の異なる視点における距離画像データを取得し、複数視点での距離画像データを統合した後の距離画像データをもとに環境データを生成する。ここで、複数視点で得られた距離画像データの統合は、オドメトリ情報、具体的には、頭部10と胴体部11を連結する首関節の関節角センサ(不図示)の計測情報を収集し、視覚センサ101による距離画像データ取得時の首関節の角度に基づいて複数の距離画像データを位置合わせすることにより行う。または、複数の距離画像データから対応点を求めることによって、距離画像データ相互の位置合わせを行ってもよい。環境復元部102によって生成された環境データは、環境データ記憶部103に格納される。 In addition, when generating environmental data over a wide range, distance image data obtained by moving the visual sensor 101, that is, the head 10, by acquiring distance image data at a plurality of different viewpoints and integrating the distance image data at the plurality of viewpoints. Environmental data is generated based on the image data. Here, the integration of the distance image data obtained from a plurality of viewpoints is obtained by collecting odometry information, specifically, measurement information of a joint angle sensor (not shown) of the neck joint connecting the head 10 and the body 11. This is performed by aligning a plurality of distance image data based on the angle of the neck joint when the distance image data is acquired by the visual sensor 101. Alternatively, the distance image data may be aligned with each other by obtaining corresponding points from a plurality of distance image data. The environment data generated by the environment restoration unit 102 is stored in the environment data storage unit 103.
身体推定部104は、環境データ中の腕部12の像が含まれている領域を特定する処理を行う。以下では、身体推定部104の処理フローを図3のフローチャートを用いて説明する。 The body estimation unit 104 performs processing for specifying an area in which the image of the arm unit 12 is included in the environmental data. Below, the process flow of the body estimation part 104 is demonstrated using the flowchart of FIG.
ステップS101では、制御部107からロボット1のオドメトリ情報を入力する。ここで、オドメトリ情報とは、ロボット1を構成する頭部10、腕部12、車輪132及び133の位置、角度、速度、角速度等を検出するためにロボット1が備えているエンコーダ(不図示)や関節角センサ(不図示)等の内界センサの計測情報である。 In step S101, odometry information of the robot 1 is input from the control unit 107. Here, the odometry information is an encoder (not shown) provided in the robot 1 for detecting the position, angle, speed, angular velocity, and the like of the head 10, the arm 12, and the wheels 132 and 133 constituting the robot 1. And measurement information of an internal sensor such as a joint angle sensor (not shown).
ステップS102では、ロボット1の身体モデルと、制御部107から入力したオドメトリ情報を利用して、ロボット1の位置及び姿勢を算出する。ここで、身体モデルとは、ロボット1の身体を幾何学的にモデル化したものであり、関節と、関節の間を繋ぐリンクとによって表現される。身体モデルは、ロボット1の身体と同じ自由度及び拘束条件を有する。 In step S102, the position and posture of the robot 1 are calculated using the body model of the robot 1 and the odometry information input from the control unit 107. Here, the body model is a geometric model of the body of the robot 1 and is represented by a joint and a link connecting the joints. The body model has the same degree of freedom and constraint conditions as the body of the robot 1.
ステップS103では、ステップS102において算出したロボット1の位置及び姿勢をもとに、視覚センサ101によって距離画像データを取得した際の視野内に、腕部12の像が存在しているか否かを判定する。当該判定は、身体モデルが構成する凸なポリゴン群と、視覚センサ101の画角がつくる四角錐形状のポリゴンの交差判定によって行うことができる。 In step S103, based on the position and orientation of the robot 1 calculated in step S102, it is determined whether or not the image of the arm portion 12 exists in the visual field when the distance image data is acquired by the visual sensor 101. To do. The determination can be made by determining the intersection of the convex polygon group formed by the body model and the quadrangular pyramid polygon created by the angle of view of the visual sensor 101.
視野内にロボット1の身体の一部が存在すると判定した場合は、ロボット1の身体モデルと、環境復元部102が生成した環境データとのマッチングを行って、環境データの中で腕部12の像が含まれている領域を特定する(ステップS104)。具体的には、ロボット1が予め記憶している腕部12の三次元形状データと、環境データとをマッチングして、環境データの中で腕部12の像が含まれている領域を特定する。ここで、マッチングは、従来から知られている画像認識の手法を採用して行えばよい。
When it is determined that a part of the body of the robot 1 is present in the field of view, the body model of the robot 1 is matched with the environment data generated by the environment restoration unit 102 , and the arm 12 An area including the image is specified (step S104). Specifically, the area in which the image of the arm 12 is included in the environment data is specified by matching the three-dimensional shape data of the arm 12 stored in advance by the robot 1 with the environment data. . Here, the matching may be performed by employing a conventionally known image recognition method.
なお、ステップS104の始めに、オドメトリ情報を用いて特定したロボット1の位置及び姿勢によって、環境データ中の腕部12の像が含まれる領域を大まかに特定し、これをマッチングの初期値とすることが望ましい。ステップS104の始めに初期値の設定を行わずに、環境データの全体を走査することも可能である。しかしながら、オドメトリ情報を用いて特定したロボット1の位置及び姿勢によって、身体モデルとマッチングされる環境データの領域を選択することによって、走査領域の減少による演算量の削減、及びマッチング処理の高速化が可能となる点で有効である。 At the beginning of step S104, the region including the image of the arm 12 in the environment data is roughly specified by the position and posture of the robot 1 specified using the odometry information, and this is used as the initial value of matching. It is desirable. It is also possible to scan the entire environment data without setting initial values at the beginning of step S104. However, by selecting the environment data area matched with the body model according to the position and posture of the robot 1 specified using the odometry information, the amount of calculation can be reduced by reducing the scanning area, and the matching process can be speeded up. It is effective in that it becomes possible.
図2に戻って説明を続ける。補正部105は、身体推定部104の処理結果に応じて、環境データ記憶部103に格納された環境データを補正する。具体的には、後述する経路計画部106において腕部12が障害物として検出されないように、環境データ中で腕部12の像が含まれると判定された領域のデータを削除する。 Returning to FIG. 2, the description will be continued. The correction unit 105 corrects the environmental data stored in the environmental data storage unit 103 according to the processing result of the body estimation unit 104. Specifically, the data of the area determined to include the image of the arm 12 in the environment data is deleted so that the arm 12 is not detected as an obstacle in the route planning unit 106 described later.
なお、補正部105による環境データの補正の目的は、環境データに含まれている腕部12に関する距離情報が、経路計画部106によって算出される腕部12の経路に影響を与えないように、腕部12の像を環境データから除去することである。このため、補正部105によるデータ補正の内容は、経路計画部106の処理に適したものにすればよく、例えば、環境データ中の腕部12の像が含まれると判定された領域のデータを削除してもよいし、腕部12の像が含まれていない周辺の距離データによって置換してもよいし、腕部12の像が含まれていない周辺の距離データによる補間によって代替の距離データを生成してもよい。 The purpose of the environmental data correction by the correction unit 105 is to prevent the distance information regarding the arm unit 12 included in the environmental data from affecting the path of the arm unit 12 calculated by the path planning unit 106. The image of the arm 12 is removed from the environmental data. For this reason, the content of the data correction performed by the correction unit 105 may be suitable for the processing of the route planning unit 106. For example, the data of the area determined to include the image of the arm 12 in the environmental data is included. It may be deleted, may be replaced by peripheral distance data that does not include the image of the arm portion 12, or may be replaced by alternative distance data by interpolation using peripheral distance data that does not include the image of the arm portion 12. May be generated.
経路計画部106は、補正部105による補正後の環境データと、ロボット1が予め記憶している物体50の三次元形状データとを照合することにより、物体50の位置及び姿勢を算出する。また、経路計画部106は、物体50とロボット1の間に存在する障害物の位置を、環境データを用いて算出する。さらに、経路計画部106は、算出した物体50の位置及び姿勢、並びに障害物の位置をもとに、障害物を回避して物体50を把持するための腕部12の移動経路を算出し、腕部12の動作情報を制御部107に出力する。 The path planning unit 106 calculates the position and orientation of the object 50 by collating the environment data corrected by the correction unit 105 with the three-dimensional shape data of the object 50 stored in advance by the robot 1. Further, the path planning unit 106 calculates the position of the obstacle existing between the object 50 and the robot 1 using the environmental data. Further, the path planning unit 106 calculates a movement path of the arm unit 12 for avoiding the obstacle and gripping the object 50 based on the calculated position and posture of the object 50 and the position of the obstacle, The operation information of the arm unit 12 is output to the control unit 107.
制御部107は、頭部10、腕部12、車輪132及び133の位置、角度、速度、角速度等を検出するためにロボット1が備えているエンコーダ(不図示)や関節角センサ(不図示)等の内界センサの計測情報を収集し、頭部10、腕部12、車輪132及び133を駆動するための制御信号を、これらを駆動する駆動部に対して出力する。さらに、制御部107は、経路計画部106によって決定された腕部12の移動経路に従って腕部12を動作させるための制御信号をアーム駆動部108に出力する。アーム駆動部108は、腕部12のアクチュエータを動作させるための駆動回路である。 The control unit 107 includes an encoder (not shown) and a joint angle sensor (not shown) included in the robot 1 for detecting the position, angle, speed, angular velocity, and the like of the head 10, the arm 12, and the wheels 132 and 133. And the like, and control signals for driving the head 10, the arm 12, and the wheels 132 and 133 are output to the driving unit that drives them. Further, the control unit 107 outputs a control signal for operating the arm unit 12 according to the movement path of the arm unit 12 determined by the path planning unit 106 to the arm driving unit 108. The arm drive unit 108 is a drive circuit for operating the actuator of the arm unit 12.
上述したように、本実施の形態にかかるロボット1は、視覚センサ101による計測データを用いて生成された環境データに存在する腕部12の像を検出し、腕部12の像を環境データから除去することによって環境データを補正するものである。これにより、ロボット1が置かれた環境内に存在する障害物を回避して物体50を把持するための腕部12の移動経路を決定する場合に、ロボット1の身体の一部である腕部12を障害物と認識することによる誤動作を防止することができる。 As described above, the robot 1 according to the present embodiment detects the image of the arm portion 12 existing in the environment data generated using the measurement data obtained by the visual sensor 101, and extracts the image of the arm portion 12 from the environment data. The environmental data is corrected by removing it. As a result, when determining the movement path of the arm 12 for holding the object 50 while avoiding the obstacle existing in the environment where the robot 1 is placed, the arm that is a part of the body of the robot 1 It is possible to prevent malfunction caused by recognizing 12 as an obstacle.
また、環境データ中での腕部12が存在する領域を単にオドメトリ情報のみによって特定すると、視覚センサ101による距離画像データの取得タイミングと、腕部12のオドメトリ情報の取得タイミングのズレ等に起因して、腕部12が存在する領域の特定誤差が増大する可能性がある。これに対して、本実施の形態にかかるロボット1は、オドメトリ情報を用いて特定したロボット1の位置及び姿勢によって、環境データ中の腕部12の像が含まれる領域を大まかに特定した後に、ロボット1の身体モデルと環境データとのマッチングを行って、環境データの中で腕部12の像が含まれている領域を特定している。このため、オドメトリ情報のみによる場合に比べて、環境データの中での腕部12の像が含まれている領域を詳細に特定することができる。 Further, if the region where the arm portion 12 is present in the environmental data is simply identified only by the odometry information, the distance image data acquisition timing by the visual sensor 101 and the deviation of the odometry information acquisition timing of the arm portion 12 are caused. Thus, there is a possibility that the specific error of the region where the arm portion 12 exists increases. On the other hand, the robot 1 according to the present embodiment roughly specifies a region including the image of the arm 12 in the environment data based on the position and posture of the robot 1 specified using the odometry information. The body model of the robot 1 is matched with the environmental data, and an area in which the image of the arm 12 is included in the environmental data is specified. For this reason, compared with the case where only odometry information is used, the area | region where the image of the arm part 12 in environmental data is included can be specified in detail.
その他の実施の形態.
発明の実施の形態1では、身体推定部104が、視覚センサ101によって取得した距離画像データをポリゴン化した環境データの中から、腕部12が存在する領域を検出する構成を説明した。しかしながら、身体推定部104は、視覚センサ101によって取得した点群データである距離画像データの中から腕部12が存在する領域を検出してもよい。
Other embodiments.
In the first embodiment of the invention, the configuration has been described in which the body estimation unit 104 detects a region where the arm 12 is present from the environment data obtained by converting the distance image data acquired by the visual sensor 101 into a polygon. However, the body estimation unit 104 may detect a region where the arm unit 12 exists from the distance image data that is the point cloud data acquired by the visual sensor 101.
また、発明の実施の形態1では、身体推定部104において、腕部12の像が環境データ中に含まれるか否かを検出することとしたが、腕部12に限らずロボット1の身体の他の部位を検出対象としてもよい。 In the first embodiment of the invention, the body estimation unit 104 detects whether or not the image of the arm unit 12 is included in the environmental data. Other parts may be detected.
また、発明の実施の形態1では、障害物を回避して腕部12の移動経路を動作計画部106において決定することとしたが、障害物を検出した場合には把持動作を停止することとしてもよいし、警報音等によって外部に対して注意を促すこととしてもよい。つまり、障害物の検出に応じたその後の動作は任意である。 In the first embodiment of the invention, the movement planning unit 106 determines the movement path of the arm unit 12 while avoiding the obstacle. However, when the obstacle is detected, the gripping operation is stopped. Alternatively, attention may be urged to the outside by an alarm sound or the like. That is, the subsequent operation according to the detection of the obstacle is arbitrary.
また、発明の実施の形態1では、ロボット1が視覚センサ101を備え、環境データを自律的に取得することとしたが、ロボット1の外部に設けた距離センサ等によって距離画像データを取得し、通信手段を介して取得した距離画像データをロボット1に送信してもよい。 In the first embodiment of the invention, the robot 1 includes the visual sensor 101 and autonomously acquires environmental data. However, the distance image data is acquired by a distance sensor or the like provided outside the robot 1, The distance image data acquired via the communication means may be transmitted to the robot 1.
また、発明の実施の形態1にかかるロボット1は、障害物を回避しながら物体50の把持動作を行うものとして説明した。しかしながら、本発明は、このような把持動作を行うロボットに限らず、視覚センサによって認識した外部環境に応じて動作を実行するロボットに対して広く適用可能である。 Further, the robot 1 according to the first embodiment of the invention has been described as performing the gripping operation of the object 50 while avoiding the obstacle. However, the present invention is not limited to a robot that performs such a gripping operation, but can be widely applied to a robot that performs an operation according to an external environment recognized by a visual sensor.
さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 Furthermore, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention described above.
1 ロボット
10 頭部
101 視覚センサ
102 環境復元部
103 環境データ記憶部
104 身体推定部
105 補正部
106 経路計画部
107 制御部
108 アーム駆動部
11 胴体部
12 腕部
121 上腕部
122 肘関節機構
123 前腕部
124 手部
50 物体
DESCRIPTION OF SYMBOLS 1 Robot 10 Head 101 Visual sensor 102 Environment restoration part 103 Environment data storage part 104 Body estimation part 105 Correction | amendment part 106 Path planning part 107 Control part 108 Arm drive part 11 Torso part 12 Arm part 121 Upper arm part 122 Elbow joint mechanism 123 Forearm Part 124 Hand part 50 Object
Claims (4)
外部環境を視覚的に認識する視覚センサと、
前記視覚センサによる取得情報に基づいて、前記外部環境の3次元データを作成する3次元データ作成部と、
前記ロボット装置自身の状態を計測する少なくとも1つの内界センサの計測情報を用いて、当該ロボット装置の身体の位置及び姿勢を算出する算出部と、
前記算出部により算出された位置及び姿勢に基づいて、前記3次元データの中に、当該ロボット装置の身体の像が含まれるか否かを判定する判定部と、
前記判定部により前記3次元データの中に当該ロボット装置の身体の像が含まれると判定された場合に、前記算出部により算出された位置及び姿勢に基づいて当該ロボット装置の身体の像が含まれるように前記3次元データの中から部分領域である処理対象領域を選択し、選択した前記処理対象領域と当該ロボット装置の身体モデルとを画像認識の手法を用いて照合することにより前記3次元データ中における当該ロボット装置の身体の像が占める領域を特定する領域特定部と、
前記領域特定部による特定結果と、前記3次元データとに基づいて前記ロボット装置の動作内容を決定する動作計画部と、
を備えるロボット装置。 A robot apparatus that performs an operation according to an external environment,
A visual sensor that visually recognizes the external environment;
A three-dimensional data creation unit that creates three-dimensional data of the external environment based on information acquired by the visual sensor;
A calculation unit that calculates the position and posture of the body of the robot apparatus using measurement information of at least one internal sensor that measures the state of the robot apparatus itself;
A determination unit that determines whether or not the image of the body of the robot apparatus is included in the three-dimensional data based on the position and orientation calculated by the calculation unit;
When it is determined by the determination unit that the body image of the robot apparatus is included in the three-dimensional data, the body image of the robot apparatus is included based on the position and orientation calculated by the calculation unit. As described above, the processing target region that is a partial region is selected from the three-dimensional data, and the selected processing target region and the body model of the robot apparatus are collated using an image recognition technique. An area specifying unit for specifying an area occupied by the body image of the robot apparatus in the data;
An operation planning unit for determining the operation content of the robot apparatus based on the identification result by the region identification unit and the three-dimensional data;
A robot apparatus comprising:
外部環境を視覚的に認識する視覚センサと、
前記視覚センサによる取得情報に基づいて、前記外部環境の3次元データを作成する3次元データ作成部と、
前記ロボット装置自身の状態を計測する少なくとも1つの内界センサの計測情報を用いて、当該ロボット装置の身体の位置及び姿勢を算出する算出部と、
前記算出部により算出された位置及び姿勢に基づいて、前記3次元データの中に、当該ロボット装置の身体の像が含まれるか否かを判定する判定部と、
前記判定部により前記3次元データの中に当該ロボット装置の身体の像が含まれると判定された場合に、前記算出部により算出された位置及び姿勢に基づいて当該ロボット装置の身体の像が含まれるように前記3次元データの中から部分領域である処理対象領域を選択し、選択した前記処理対象領域と当該ロボット装置の身体モデルとを画像認識の手法を用いて照合することにより前記3次元データ中における当該ロボット装置の身体の像が占める領域を特定する領域特定部と、
前記ロボット装置の身体の像を前記3次元データから除去する補正部と、
前記補正部によって補正された3次元データに基づいて、前記ロボット装置の動作内容を決定する動作計画部と、
を備えるロボット装置。 A robot apparatus that performs an operation according to an external environment,
A visual sensor that visually recognizes the external environment;
A three-dimensional data creation unit that creates three-dimensional data of the external environment based on information acquired by the visual sensor;
A calculation unit that calculates the position and posture of the body of the robot apparatus using measurement information of at least one internal sensor that measures the state of the robot apparatus itself;
A determination unit that determines whether or not the image of the body of the robot apparatus is included in the three-dimensional data based on the position and orientation calculated by the calculation unit;
When it is determined by the determination unit that the body image of the robot apparatus is included in the three-dimensional data, the body image of the robot apparatus is included based on the position and orientation calculated by the calculation unit. As described above, the processing target region that is a partial region is selected from the three-dimensional data, and the selected processing target region and the body model of the robot apparatus are collated using an image recognition technique. An area specifying unit for specifying an area occupied by the body image of the robot apparatus in the data;
A correction unit that removes the body image of the robot apparatus from the three-dimensional data;
An operation planning unit for determining the operation content of the robot apparatus based on the three-dimensional data corrected by the correction unit;
A robot apparatus comprising:
前記ロボット装置自身の状態を計測する少なくとも1つの内界センサの計測情報を用いて、当該ロボット装置の身体の位置及び姿勢を算出し、
算出した前記ロボット装置の身体の位置及び姿勢に基づいて、外部環境の3次元データの中に、当該ロボット装置の身体の像が含まれるか否かを判定し、
前記3次元データの中に当該ロボット装置の身体の像が含まれると判定された場合に、算出した前記ロボット装置の身体の位置及び姿勢に基づいて前記3次元データの中から当該ロボット装置の身体の像が含まれるように部分領域である処理対象領域を選択し、選択した前記処理対象領域と当該ロボット装置の身体モデルとを画像認識の手法を用いて照合することにより前記3次元データ中における当該ロボット装置の身体の像が占める領域を特定し、
前記領域の特定結果と、前記3次元データとに基づいて前記ロボット装置の動作内容を決定することとした制御方法。 A control method of a robot apparatus that performs an operation according to an external environment,
Using the measurement information of at least one internal sensor that measures the state of the robot device itself, the body position and posture of the robot device are calculated,
Based on the calculated body position and posture of the robot apparatus, it is determined whether or not an image of the body of the robot apparatus is included in the three-dimensional data of the external environment,
When it is determined that the body image of the robot apparatus is included in the three-dimensional data, the body of the robot apparatus is selected from the three-dimensional data based on the calculated position and posture of the body of the robot apparatus. In the three-dimensional data by selecting a processing target region that is a partial region so as to include the image and collating the selected processing target region with the body model of the robot apparatus using an image recognition technique. Identify the area occupied by the body image of the robotic device,
A control method in which the operation content of the robot apparatus is determined based on the result of specifying the region and the three-dimensional data.
外部環境の3次元データを取得し、
前記ロボット装置自身の状態を計測する少なくとも1つの内界センサの計測情報を用いて、当該ロボット装置の身体の位置及び姿勢を算出し、
算出した前記ロボット装置の身体の位置及び姿勢に基づいて、前記3次元データの中に当該ロボット装置の身体の像が含まれるか否かを判定し、
前記3次元データの中に当該ロボット装置の身体の像が含まれると判定された場合に、算出した前記ロボット装置の身体の位置及び姿勢に基づいて、当該ロボット装置の身体の像が含まれるように前記3次元データから処理対象領域を選択し、
選択した前記処理対象領域と当該ロボット装置の身体モデルとの照合により、前記3次元データの中で前記ロボット装置の身体の像が含まれる身体領域を検出し、
前記身体領域の検出結果に応じて前記3次元データを補正し、
補正後の3次元データに基づいて前記ロボット装置の動作内容を決定することとした制御方法。 A control method of a robot apparatus that performs an operation according to an external environment,
Acquire 3D data of external environment,
Using the measurement information of at least one internal sensor that measures the state of the robot device itself, the body position and posture of the robot device are calculated,
Based on the calculated body position and posture of the robot apparatus, it is determined whether or not the body image of the robot apparatus is included in the three-dimensional data,
When it is determined that the body image of the robot apparatus is included in the three-dimensional data, the body image of the robot apparatus is included based on the calculated position and posture of the body of the robot apparatus. To select a processing target area from the three-dimensional data,
By detecting the selected region to be processed and the body model of the robot apparatus, a body area including the body image of the robot apparatus is detected in the three-dimensional data.
Correcting the three-dimensional data according to the detection result of the body region,
A control method in which the operation content of the robot apparatus is determined based on corrected three-dimensional data.
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006177361A JP4961860B2 (en) | 2006-06-27 | 2006-06-27 | Robot apparatus and control method of robot apparatus |
| PCT/JP2007/062850 WO2008001793A1 (en) | 2006-06-27 | 2007-06-27 | Robot device and robot device control method |
| CN2007800240821A CN101479082B (en) | 2006-06-27 | 2007-06-27 | Robot device and robot device control method |
| EP07767653A EP2033748A1 (en) | 2006-06-27 | 2007-06-27 | Robot device and robot device control method |
| US12/305,040 US20090208094A1 (en) | 2006-06-27 | 2007-06-27 | Robot apparatus and method of controlling same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006177361A JP4961860B2 (en) | 2006-06-27 | 2006-06-27 | Robot apparatus and control method of robot apparatus |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008006519A JP2008006519A (en) | 2008-01-17 |
| JP4961860B2 true JP4961860B2 (en) | 2012-06-27 |
Family
ID=38845557
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006177361A Expired - Fee Related JP4961860B2 (en) | 2006-06-27 | 2006-06-27 | Robot apparatus and control method of robot apparatus |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20090208094A1 (en) |
| EP (1) | EP2033748A1 (en) |
| JP (1) | JP4961860B2 (en) |
| CN (1) | CN101479082B (en) |
| WO (1) | WO2008001793A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023042464A1 (en) | 2021-09-15 | 2023-03-23 | ソニーグループ株式会社 | Robot device and robot control method |
Families Citing this family (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010092343A (en) * | 2008-10-09 | 2010-04-22 | Sharp Corp | Control system of self-propelled vehicle |
| KR101581197B1 (en) * | 2009-01-06 | 2015-12-30 | 삼성전자주식회사 | Robot and control method thereof |
| JP5195465B2 (en) * | 2009-01-28 | 2013-05-08 | トヨタ自動車株式会社 | Robot control apparatus and method |
| KR101619076B1 (en) * | 2009-08-25 | 2016-05-10 | 삼성전자 주식회사 | Method of detecting and tracking moving object for mobile platform |
| JP5803043B2 (en) * | 2010-05-20 | 2015-11-04 | アイロボット コーポレイション | Mobile robot system and method for operating a mobile robot |
| WO2012093473A1 (en) * | 2011-01-05 | 2012-07-12 | 財団法人機械振興協会 | Tool collision prevention system and tool collision prevention method |
| EP2722640A4 (en) * | 2011-06-20 | 2014-11-19 | Yaskawa Denki Seisakusho Kk | DEVICE FOR MEASURING A THREE DIMENSIONAL SHAPE AND ROBOTIC SYSTEM |
| CN102608351B (en) * | 2012-02-14 | 2014-12-17 | 三一重工股份有限公司 | Detection method and system of three-dimensional gesture of mechanical arm and system controlling mechanical arm to operate |
| JP2014024162A (en) * | 2012-07-27 | 2014-02-06 | Seiko Epson Corp | Robot system, robot control device, robot control method and robot control program |
| JP2015056057A (en) * | 2013-09-12 | 2015-03-23 | トヨタ自動車株式会社 | Posture estimation method and robot |
| CN104608125B (en) * | 2013-11-01 | 2019-12-17 | 精工爱普生株式会社 | Robots, controls and robotic systems |
| JP2015147256A (en) * | 2014-02-04 | 2015-08-20 | セイコーエプソン株式会社 | Robot, robot system, control device, and control method |
| CN104827457B (en) * | 2014-02-07 | 2016-09-14 | 广明光电股份有限公司 | Teaching device and method for robot arm |
| US9625582B2 (en) | 2015-03-25 | 2017-04-18 | Google Inc. | Vehicle with multiple light detection and ranging devices (LIDARs) |
| JP6481635B2 (en) * | 2016-02-15 | 2019-03-13 | オムロン株式会社 | Contact determination device, control device, contact determination system, contact determination method, and contact determination program |
| CN109311159B (en) * | 2016-04-29 | 2022-03-25 | 软银机器人欧洲公司 | Mobile robot with enhanced balanced motion and behavior capabilities |
| US10534962B2 (en) | 2017-06-17 | 2020-01-14 | Matterport, Inc. | Automated classification based on photo-realistic image/model mappings |
| TWI650626B (en) * | 2017-08-15 | 2019-02-11 | 由田新技股份有限公司 | Robot processing method and system based on 3d image |
| JP2019185664A (en) * | 2018-04-17 | 2019-10-24 | トヨタ自動車株式会社 | Control device, object detection system, object detection method, and program |
| WO2019230037A1 (en) * | 2018-05-30 | 2019-12-05 | Sony Corporation | Control apparatus, control method, robot apparatus and program |
| WO2020110574A1 (en) * | 2018-11-27 | 2020-06-04 | ソニー株式会社 | Control device, control method, and program |
| JP2020194253A (en) * | 2019-05-27 | 2020-12-03 | ヤンマーパワーテクノロジー株式会社 | Obstacle determination system and autonomous travelling system |
| CN110782982B (en) * | 2019-12-05 | 2022-05-31 | 中科尚易健康科技(北京)有限公司 | Human body meridian path method based on two-dimensional code |
| WO2022091895A1 (en) * | 2020-10-30 | 2022-05-05 | パナソニックIpマネジメント株式会社 | Robot control method |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002362302A (en) * | 2001-06-01 | 2002-12-18 | Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai | Pedestrian detecting device |
| JP3831232B2 (en) * | 2001-11-07 | 2006-10-11 | 独立行政法人科学技術振興機構 | Image processing method |
| JP2003302470A (en) * | 2002-04-05 | 2003-10-24 | Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai | Pedestrian detection device and pedestrian detection method |
| JP2004001122A (en) * | 2002-05-31 | 2004-01-08 | Suzuki Motor Corp | Picking device |
| JP2004276165A (en) * | 2003-03-14 | 2004-10-07 | Sony Corp | Robot apparatus and image signal processing method in robot apparatus |
| WO2004085121A1 (en) * | 2003-03-27 | 2004-10-07 | Sony Corporation | Robot device and method of controlling the same |
| JP2005001022A (en) * | 2003-06-10 | 2005-01-06 | Yaskawa Electric Corp | Object model creation device and robot control device |
| JP4203648B2 (en) * | 2003-09-01 | 2009-01-07 | パナソニック電工株式会社 | Image processing device |
| JP3994950B2 (en) * | 2003-09-19 | 2007-10-24 | ソニー株式会社 | Environment recognition apparatus and method, path planning apparatus and method, and robot apparatus |
| JP2005140603A (en) * | 2003-11-06 | 2005-06-02 | Shigeki Kobayashi | Inspection apparatus for implementation substrate |
| JP2005144606A (en) * | 2003-11-17 | 2005-06-09 | Yaskawa Electric Corp | Mobile robot |
| JP2006021300A (en) * | 2004-07-09 | 2006-01-26 | Sharp Corp | Estimation device and gripping device |
| JP4137862B2 (en) * | 2004-10-05 | 2008-08-20 | ファナック株式会社 | Measuring device and robot control device |
-
2006
- 2006-06-27 JP JP2006177361A patent/JP4961860B2/en not_active Expired - Fee Related
-
2007
- 2007-06-27 CN CN2007800240821A patent/CN101479082B/en not_active Expired - Fee Related
- 2007-06-27 EP EP07767653A patent/EP2033748A1/en not_active Withdrawn
- 2007-06-27 US US12/305,040 patent/US20090208094A1/en not_active Abandoned
- 2007-06-27 WO PCT/JP2007/062850 patent/WO2008001793A1/en active Search and Examination
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023042464A1 (en) | 2021-09-15 | 2023-03-23 | ソニーグループ株式会社 | Robot device and robot control method |
Also Published As
| Publication number | Publication date |
|---|---|
| US20090208094A1 (en) | 2009-08-20 |
| CN101479082B (en) | 2011-07-13 |
| JP2008006519A (en) | 2008-01-17 |
| EP2033748A1 (en) | 2009-03-11 |
| WO2008001793A1 (en) | 2008-01-03 |
| CN101479082A (en) | 2009-07-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4961860B2 (en) | Robot apparatus and control method of robot apparatus | |
| JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
| JP6420229B2 (en) | A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot | |
| JP6180087B2 (en) | Information processing apparatus and information processing method | |
| JP6816070B2 (en) | Interference avoidance device and robot system | |
| WO2008099652A1 (en) | Environment map drawing method and mobile robot | |
| JP2007216350A (en) | Mobile robot | |
| JP2007319938A (en) | Robot apparatus and method for acquiring three-dimensional shape of object | |
| JP6777670B2 (en) | A robot system that uses image processing to correct robot teaching | |
| KR20140008262A (en) | Robot system, robot, robot control device, robot control method, and robot control program | |
| JP2020160594A (en) | Self-position estimating method | |
| CN111152243B (en) | Control system | |
| JP2007011978A (en) | Robot motion control device | |
| EP4400274A1 (en) | Command value generating device, method, and program | |
| JP4849178B2 (en) | Mobile robot | |
| JP2008168372A (en) | Robot apparatus and shape recognition method | |
| JP2014188617A (en) | Robot control system, robot, robot control method, and program | |
| JP6217322B2 (en) | Robot control apparatus, robot, and robot control method | |
| JP2006224291A (en) | Robot system | |
| CN119458364A (en) | A humanoid robot grasping method based on three-dimensional vision | |
| CN116100562B (en) | Visual guiding method and system for multi-robot cooperative feeding and discharging | |
| EP4370286B1 (en) | Teaching a robot system using hand gesture control and visual-inertial-odometry | |
| WO2023013698A1 (en) | Robot control device, robot control system, and robot control method | |
| JP7448884B2 (en) | Measurement system, measurement device, measurement method, and measurement program | |
| JP2012022600A (en) | Mask image creation system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100413 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100610 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101207 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110607 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110629 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111101 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111117 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120228 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120312 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 4961860 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150406 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |