[go: up one dir, main page]

JPH04239302A - Robot information processor - Google Patents

Robot information processor

Info

Publication number
JPH04239302A
JPH04239302A JP3012693A JP1269391A JPH04239302A JP H04239302 A JPH04239302 A JP H04239302A JP 3012693 A JP3012693 A JP 3012693A JP 1269391 A JP1269391 A JP 1269391A JP H04239302 A JPH04239302 A JP H04239302A
Authority
JP
Japan
Prior art keywords
agent
robot
information
function module
reaction force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3012693A
Other languages
Japanese (ja)
Inventor
Nobuyasu Oosato
大里 延康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3012693A priority Critical patent/JPH04239302A/en
Publication of JPH04239302A publication Critical patent/JPH04239302A/en
Pending legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)
  • Image Processing (AREA)
  • Control By Computers (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To add and change the programs for each function module by attaining a constitution where each function module autonomously process the information based on the input of the processing object and inputting the processing result to the next function module so as to control a robot. CONSTITUTION:A program is previously loaded to manipulate a robot arm 20 in accordance with the processing object based on the information that enables a motion control agent 14 to communicate with a visual sensor agent 11, a force sensor agent 12, and a reaction detection agent 13 respectively. Then the agent 14 instructs the arm 20 to move up to the prescribed height and then to move the arm 20 to a point above a prescribed position in order to mount a disk 22 put into a pole 21 in a three-dimensional space. In this connection, the agent 14 instructs the agent 11 to perform its control and to start its movement. Thus the programs can be added and changed for each function module.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明はロボットに関し、特にそ
の情報処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot, and more particularly to an information processing device thereof.

【0002】0002

【従来の技術】従来のロボットは、その制御機能が単一
、または複数の処理機構の中に必要に応じて組合わせて
構成されていた。
2. Description of the Related Art Conventional robots have control functions that are combined as necessary in a single processing mechanism or in a plurality of processing mechanisms.

【0003】0003

【発明が解決しようとする課題】上述した従来のロボッ
トは、その制御機能が、単一、または複数の処理機構の
中に組合わせて構成されているので、制御機能の追加、
変更が困難で設計上柔軟性に欠け、応用面でも限定され
るという欠点がある。
[Problems to be Solved by the Invention] In the conventional robots described above, the control functions are configured in a single processing mechanism or in combination in a plurality of processing mechanisms.
The drawbacks are that it is difficult to change, lacks flexibility in design, and is limited in terms of application.

【0004】本発明の目的は、ロボットの機能毎に独立
性のある自律的な情報処理を行なうように制御機能を機
能モジュール化することにより、ロボット作業の設計が
容易で、かつ各機能の追加、変更も容易なロボットの情
報処理装置を提供することである。
[0004] An object of the present invention is to facilitate the design of robot work and to facilitate the addition of each function by functionally modularizing the control functions so that each function of the robot performs independent and autonomous information processing. It is an object of the present invention to provide a robot information processing device that is easy to change.

【0005】[0005]

【課題を解決するための手段】本発明のロボットの情報
処理装置は、ロボットの動作の専門の機能毎に独立して
構成され、処理目的の入力に基いて自律的に情報処理を
行ない入力に対応する処理結果を出力する複数の機能モ
ジュールと、前記複数の機能モジュール間の通信手段と
を有する。
[Means for Solving the Problems] The robot information processing device of the present invention is configured independently for each specialized function of robot operation, and autonomously processes information based on the input for processing purpose. It has a plurality of functional modules that output corresponding processing results, and communication means between the plurality of functional modules.

【0006】[0006]

【作用】各機能モジュールが通信手段を介して処理目的
の入力を得ると、該入力に因り、独自に設定されている
プログラムにより処理、および判定を行ない、その処理
結果を出力し、通信手段を介して、次の機能モジュール
へ入力するので、機能モジュール毎の制御機能の設計、
および追加、変更が可能となる。
[Operation] When each functional module receives an input for processing purposes via a communication means, it processes and makes a judgment based on the input using a uniquely set program, outputs the processing results, and uses the communication means. Since the input is sent to the next function module through the
and can be added or changed.

【0007】[0007]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Embodiments Next, embodiments of the present invention will be described with reference to the drawings.

【0008】図1は本発明のロボットの情報処理装置の
機能モジュール群と機能モジュール間の情報の流れを示
す説明図、図2は本発明のロボットの情報処理装置の一
実施例のブロック図である。
FIG. 1 is an explanatory diagram showing a group of functional modules of a robot information processing device of the present invention and the flow of information between the functional modules, and FIG. 2 is a block diagram of an embodiment of the robot information processing device of the present invention. be.

【0009】本発明のロボットの情報処理装置は、機能
モジュールとして、それぞれ知覚系1と、状態識別系2
と、論理モデル構成系3と、データ表現系4と、実行結
果評価系5と、行動計画系6と、運動計画系7−1と、
道具計画系7−2と、運動制御系8−1と、道具制御系
8−2と、監視系9と、外部インタフェース系10とを
有する。
The robot information processing device of the present invention includes a perceptual system 1 and a state identification system 2 as functional modules.
, a logical model configuration system 3, a data representation system 4, an execution result evaluation system 5, an action planning system 6, a movement planning system 7-1,
It has a tool planning system 7-2, a motion control system 8-1, a tool control system 8-2, a monitoring system 9, and an external interface system 10.

【0010】知覚系1は、ロボットの動作対象物および
関連する外部環境の物理的状態をセンサによって検知し
、そのデータを計算機処理の対象となる情報として取り
込む。
The perceptual system 1 uses sensors to detect the physical state of the object to be operated by the robot and the related external environment, and takes in the data as information to be subjected to computer processing.

【0011】状態識別系2は、知覚系1から得た情報を
ロボットの行動に反映させるために処理し、外部の幾何
学的モデルおよび力学的な状態の記述として生成する。
The state identification system 2 processes the information obtained from the perceptual system 1 in order to reflect it in the robot's behavior, and generates an external geometric model and a description of the dynamic state.

【0012】論理モデル構成系3は、状態識別系2が生
成した外部の幾何学的モデルおよび力学的な状態の記述
に加えてロボットが実施すべき作業に関する知識を参照
しながら論理的な記述を生成する。
[0012] The logical model construction system 3 generates a logical description while referring to the external geometric model and the description of the dynamic state generated by the state identification system 2, as well as knowledge regarding the work to be performed by the robot. generate.

【0013】行動計画系6は、論理モデル生成系3が生
成した論理モデルを参照しながらユーザの操作を中心と
した高次の言語によるロボット行動プログラムを生成す
る。運動計画系7−1は行動計画系6が生成した高次の
言語による行動プログラムを運動制御のための低レベル
の行動プログラムである動作列に展開する。
The action planning system 6 generates a robot action program in a high-level language centered on user operations while referring to the logical model generated by the logical model generating system 3. The motor planning system 7-1 develops the high-level verbal action program generated by the action planning system 6 into a sequence of actions that is a low-level action program for motor control.

【0014】道具計画系7−2は前記行動プログラムを
道具制御のための動作列に展開する。
The tool planning system 7-2 develops the action program into an action sequence for tool control.

【0015】運動制御系8−1は運動計画系7−1によ
る動作列を実際の運動軌跡に翻訳してロボットの動作目
的である実作業を実行するハンド、マニピュレータ等効
果器系の運動を制御する。
The motion control system 8-1 translates the motion sequence produced by the motion planning system 7-1 into an actual motion trajectory and controls the motion of effector systems such as hands and manipulators that execute the actual work that is the purpose of the robot's motion. do.

【0016】道具制御系8−2は道具計画系7−2によ
る動作列を実際の道具の動きの軌跡に翻訳して道具の動
きを制御する。
The tool control system 8-2 controls the movement of the tool by translating the motion sequence produced by the tool planning system 7-2 into an actual movement trajectory of the tool.

【0017】実行結果評価系5は各機能モジュールの動
作をその基本要素動作レベルで監視し、プログラムの実
行の仕様上の充足性を保証する。
The execution result evaluation system 5 monitors the operation of each functional module at its basic element operation level and guarantees the sufficiency of the program execution specifications.

【0018】データ表現系4は、各機能ブロックから参
照される情報、モデル表現、ルール等を一括して保持す
る系で、それぞれ参照する機能ブロックに応じて構造化
されている。すなわち、知覚系1は、作業対象物の位置
データ、作業遂行時に発生する力のデータ、画像センサ
からのピクセルデータ等をこのデータ表現系4にリアル
タイムで記録し続ける。状態識別系2は、それらのデー
タを加工して幾何モデルを生成し、その結果をこのデー
タ表現系4に書き込む。この幾何モデルは、知覚系1か
らの更新が行なわれるとそれに伴なって更新される。論
理モデル構成系3も同様に外部の論理記述をこのデータ
表現系4上に作り出す。
The data representation system 4 is a system that collectively holds information, model expressions, rules, etc. referenced by each functional block, and is structured according to the functional blocks each referenced. That is, the perceptual system 1 continues to record, in real time, the position data of the work object, the force data generated during the work, the pixel data from the image sensor, etc. in the data representation system 4. The state identification system 2 processes the data to generate a geometric model, and writes the results into the data representation system 4. This geometric model is updated when updates from the perceptual system 1 are performed. The logical model construction system 3 similarly creates an external logical description on this data representation system 4.

【0019】監視系9はロボット内の異常を監視する。The monitoring system 9 monitors abnormalities within the robot.

【0020】外部インタフェース系10は、ロボット以
外の外部の情報ネットワークとのインタフェースおよび
ヒューマンインタフェースを司る。
The external interface system 10 is in charge of an interface with an external information network other than the robot and a human interface.

【0021】これらの機能モジュールは、個々の機能モ
ジュールとして、あるいはその中の複数の機能モジュー
ルをまとめて一つのモジュールとして構成されてもよい
[0021] These functional modules may be configured as individual functional modules or a plurality of functional modules may be combined into one module.

【0022】図2に示すロボットは、3次元空間におい
てポール21にさし込まれている円板22を取り出す作
業を行なうもので、機能モジュール(以下エージェント
と称する)は視覚センサエージェント11と、力センサ
エージェント12と、反力検出エージェント13と、運
動制御エージェント14を有し、また、図1に示すデー
タ表現系4に該当するデータ保持系内に、視覚センサオ
ブジェクト15、力センサオブジェクト16、反力判定
イベントオブジェクト17と、カメラ24と、カメラ画
像処理装置18と、力センサ19と、ロボットアーム2
0と、ハンド23を有している。ここにいうオブジェク
トは鈴木則久編「オブジェクト指向」に示されているデ
ータ構造を意味し、以下オブジェクト指向で説明する。
The robot shown in FIG. 2 performs the task of taking out a disk 22 inserted into a pole 21 in a three-dimensional space, and a functional module (hereinafter referred to as an agent) has a visual sensor agent 11 and a force It has a sensor agent 12, a reaction force detection agent 13, and a movement control agent 14, and also includes a visual sensor object 15, a force sensor object 16, and a reaction force sensor object in the data holding system corresponding to the data representation system 4 shown in FIG. Force determination event object 17, camera 24, camera image processing device 18, force sensor 19, and robot arm 2
0 and a hand 23. The object referred to here means the data structure shown in "Object-oriented" edited by Norihisa Suzuki, and will be explained below in terms of object-oriented.

【0023】視覚センサエージェント11は知覚系1で
あるカメラ24と、状態識別系2該当のカメラ画像処理
装置18から構成され、カメラ24を介して作業空間内
のポール21の2次元的な位置情報を得、その結果を視
覚センサオブジェクト15として定義されたデータ構造
のインスタンス変数に格納する。
The visual sensor agent 11 is composed of a camera 24 as a perceptual system 1 and a camera image processing device 18 corresponding to a state identification system 2, and obtains two-dimensional position information of the pole 21 in the work space via the camera 24. is obtained and the result is stored in an instance variable of a data structure defined as the visual sensor object 15.

【0024】力センサエージェント12は、図1に示す
状態識別系2に該当しロボットアーム20の先端に取り
付けられている図1に示す知覚系1該当の力センサ19
を制御して、ロボットアーム20の端部に設けられてい
るハンド23にかかる反力知覚情報を得、その結果を力
センサオブジェクト16のインスタンス変数に格納する
。  反力検出エージェント13は、力センサオブジェ
クト16の値を検査し、それに基いて予め格納されてい
る反力の条件と比較して、条件に達していると判定した
場合、反力判定イベントオブジェクト17を介してその
旨を通知するイベントを出力する、図1に示す論理モデ
ル構成系3該当のエージェントである。
The force sensor agent 12 corresponds to the state recognition system 2 shown in FIG. 1 and is attached to the tip of the robot arm 20. The force sensor 19 corresponds to the perception system 1 shown in FIG.
is controlled to obtain reaction force perception information applied to the hand 23 provided at the end of the robot arm 20, and the result is stored in an instance variable of the force sensor object 16. The reaction force detection agent 13 inspects the value of the force sensor object 16 and compares it with the reaction force conditions stored in advance based on the value, and if it is determined that the condition is met, the reaction force determination event object 17 is generated. This is an agent corresponding to the logical model configuration system 3 shown in FIG.

【0025】運動制御エージェント14は、図1に示す
行動計画系6、運動計画系7−1、道具計画系7−2、
運動制御系8−1、道具制御系8−2を含む運動系の制
御を総合した機能を有し、ロボットアーム20、ハンド
23に指令を発し、運動プログラムを実行する。
The motion control agent 14 includes an action planning system 6, a motion planning system 7-1, a tool planning system 7-2, and
It has a function that integrates the control of the movement system including the movement control system 8-1 and the tool control system 8-2, and issues commands to the robot arm 20 and hand 23 to execute movement programs.

【0026】次に、本実施例の動作について説明する。Next, the operation of this embodiment will be explained.

【0027】まず、作業指令者は、運動制御エージェン
ト14に対し、視覚センサエージェント11、力センサ
エージェント12、反力検出エージェント13と交信し
て得る情報によりロボットアーム20を処理目的に対応
して動かすプログラムをロードしておく。
First, the work commander instructs the motion control agent 14 to move the robot arm 20 in accordance with the processing purpose based on information obtained by communicating with the visual sensor agent 11, force sensor agent 12, and reaction force detection agent 13. Load the program.

【0028】その後、処理開始を指示することにより運
動制御エージェント14は、視覚センサエージェント1
1が生成した視覚センサオブジェクト15のデータによ
る、現在のポール21の位置を目標としてポール21の
上方に位置するようにハンド23を動かす。次に、反力
検出エージェント13に上向きの反力の検出を依頼し、
ロボットアーム20を下降させる。反力検出エージェン
ト13は、反力を検出するため、力センサエージェント
12に情報取得の開始を依頼し、上向きの反力の発生を
監視する。ロボットアーム20のハンド23の先端が円
板22に接触し、上向きの反力が発生すると、力センサ
エージェント12が継続的に更新している力センサオブ
ジェクト16の値に基いて、反力検出エージェント13
が上向反力を検出し、反力判定イベントオブジェクト1
7を介してイベントを送出する。このイベントは運動制
御エージェント14に送られ、運動制御エージェント1
4によりロボットアームの下降が中止され、ハンド23
が開かされる。
Thereafter, by instructing the start of processing, the motion control agent 14 controls the visual sensor agent 1.
The hand 23 is moved so as to be located above the pole 21, with the current position of the pole 21 as a target based on the data of the visual sensor object 15 generated by the hand 23. Next, request the reaction force detection agent 13 to detect an upward reaction force,
Lower the robot arm 20. In order to detect a reaction force, the reaction force detection agent 13 requests the force sensor agent 12 to start acquiring information, and monitors the occurrence of an upward reaction force. When the tip of the hand 23 of the robot arm 20 contacts the disk 22 and an upward reaction force is generated, the force sensor agent 12 detects the reaction force based on the value of the force sensor object 16 that is continuously updated. 13
detects an upward reaction force, and the reaction force judgment event object 1
The event is sent out via 7. This event is sent to the motion control agent 14, and the motion control agent 1
4, the lowering of the robot arm is stopped and the hand 23
will be opened.

【0029】その後、運動制御エージェント14は、ハ
ンド23の把握に関し、反力検出エージェント13に反
力検出を依頼して、ハンド23の把握反力の発生を監視
する。以下、前記と同様に、力センサエージェント12
の情報取得、力センサオブジェクト16の値の更新、反
力検出エージェント13の把握進度の判定、イベントの
送出による把握の進行の停止を経て円板22が把持され
る。
Thereafter, the motion control agent 14 requests the reaction force detection agent 13 to detect a reaction force regarding grasping the hand 23, and monitors the occurrence of a reaction force for grasping the hand 23. Hereinafter, similarly to the above, the force sensor agent 12
The disc 22 is grasped through acquisition of information, updating of the value of the force sensor object 16, determination of grasping progress by the reaction force detection agent 13, and stopping of grasping progress by sending an event.

【0030】次に、運動制御エージェント14は、ロボ
ットアーム20の所定高さまでの上昇を指示し、その後
、円板22の載置のために、所定位置上方迄のロボット
アーム20の移動に関し、視覚センサエージェント11
に対する制御の依頼と、移動開始の指示を行なう。さら
に所定位置の上方への移動と、その位置から所定位置迄
のハンド23の下降と円板22のレリーズについては、
前記に準ずる動作が行なわれる。
Next, the motion control agent 14 instructs the robot arm 20 to rise to a predetermined height, and then visually controls the movement of the robot arm 20 to a predetermined position above in order to place the disk 22 thereon. sensor agent 11
Requests control of the robot and instructs it to start moving. Furthermore, regarding the upward movement of the predetermined position, the lowering of the hand 23 from that position to the predetermined position, and the release of the disc 22,
An operation similar to the above is performed.

【0031】[0031]

【発明の効果】以上説明したように本発明は、処理目的
の入力に基いて各機能モジュールが自律的に情報処理を
行ない、その結果を次の機能モジュールへ入力すること
によってロボットの動作を制御するので、機能モジュー
ル毎のプログラムの追加・変更が可能となり、設計が容
易にでき、ロボットの用途の多様化が実現できる効果が
ある。
[Effects of the Invention] As explained above, in the present invention, each functional module autonomously processes information based on the input of the processing purpose, and the robot's operation is controlled by inputting the results to the next functional module. Therefore, it becomes possible to add and change programs for each functional module, which facilitates design and allows for diversification of the robot's uses.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明のロボットの情報処理装置の機能モジュ
ール群と情報の流れを示す説明図である。
FIG. 1 is an explanatory diagram showing a functional module group and information flow of a robot information processing device according to the present invention.

【図2】本発明のロボットの情報処理装置の一実施例の
ブロック図である。
FIG. 2 is a block diagram of an embodiment of the robot information processing device of the present invention.

【符号の説明】[Explanation of symbols]

1    知覚系 2    状態識別系 3    論理モデル構成系 4    データ表現系 5    実行結果評価系 6    行動計画系 7−1    運動計画系 7−2    道具計画系 8−1    運動制御系 8−2    道具制御系 9    監視系 10    外部インタフェース系 11    視覚センサエージェント 12    力センサエージェント 13    反力検出エージェント 14    運動制御エージェント 15    視覚センサオブジェクト 16    力センサオブジェクト 17    反力判定イベントオブジェクト18   
 カメラ画像処理装置 19    力センサ 20    ロボットアーム 21    ポール 22    円板 23    ハンド 24    カメラ
1 Perception system 2 State identification system 3 Logical model construction system 4 Data representation system 5 Execution result evaluation system 6 Action planning system 7-1 Movement planning system 7-2 Tool planning system 8-1 Movement control system 8-2 Tool control system 9 Monitoring system 10 External interface system 11 Visual sensor agent 12 Force sensor agent 13 Reaction force detection agent 14 Motion control agent 15 Visual sensor object 16 Force sensor object 17 Reaction force determination event object 18
Camera image processing device 19 Force sensor 20 Robot arm 21 Pole 22 Disk 23 Hand 24 Camera

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  センサが設けられており、その情報に
因り所定の作業を行なうロボットの情報処理装置におい
て、ロボットの動作の専門の機能毎に独立して構成され
、処理目的の入力に基いて自律的に情報処理を行ない入
力に対応する処理結果を出力する複数の機能モジュール
と、前記複数の機能モジュール間の通信手段とを有する
ことを特徴とするロボットの情報処理装置。
Claim 1: In an information processing device for a robot that is equipped with a sensor and performs a predetermined task based on the information, the information processing device is configured independently for each specialized function of the robot's operation, and is configured based on the input of the processing purpose. 1. A robot information processing device comprising: a plurality of functional modules that autonomously perform information processing and output processing results corresponding to input; and communication means between the plurality of functional modules.
JP3012693A 1991-01-11 1991-01-11 Robot information processor Pending JPH04239302A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3012693A JPH04239302A (en) 1991-01-11 1991-01-11 Robot information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3012693A JPH04239302A (en) 1991-01-11 1991-01-11 Robot information processor

Publications (1)

Publication Number Publication Date
JPH04239302A true JPH04239302A (en) 1992-08-27

Family

ID=11812460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3012693A Pending JPH04239302A (en) 1991-01-11 1991-01-11 Robot information processor

Country Status (1)

Country Link
JP (1) JPH04239302A (en)

Similar Documents

Publication Publication Date Title
Sanfilippo et al. Controlling Kuka industrial robots: Flexible communication interface JOpenShowVar
US6556892B2 (en) Control device and control method for robot
US12162151B2 (en) Robot control device, robot system and robot control method
Peters et al. Robonaut task learning through teleoperation
CN106945043A (en) A kind of master-slave mode telesurgery robot multi-arm cooperative control system
CN114516060A (en) Apparatus and method for controlling a robotic device
WO2020241037A1 (en) Learning device, learning method, learning program, automatic control device, automatic control method, and automatic control program
Zielinski The MRROC++ system
CN114714358A (en) Method and system for teleoperation of mechanical arm based on gesture protocol
CN114888809A (en) Robot control method, device, computer readable storage medium and robot
JP2025530009A (en) Systems and methods for learning sequences in robotic tasks for generalization to new tasks
CN113492414A (en) Web-based robot cross-platform man-machine interaction system and implementation method
JPH05108108A (en) Compliance control method and controller
CN112894827A (en) Mechanical arm motion control method, system and device and readable storage medium
JP2022500260A (en) Controls for robotic devices, robotic devices, methods, computer programs and machine-readable storage media
CN114603552B (en) Robot simulation method, electronic equipment and storage medium
WO2023092720A1 (en) Collaborative robot control system and method
CN106774178B (en) Automatic control system and method and mechanical equipment
Ogawara et al. Acquiring hand-action models in task and behavior levels by a learning robot through observing human demonstrations
CN109213101B (en) Method and system for preprocessing under robot system
JPH04239302A (en) Robot information processor
Sylari et al. Hand gesture-based on-line programming of industrial robot manipulators
Shaikh et al. Voice assisted and gesture controlled companion robot
Łukawski et al. A generic controller for teleoperation on robotic manipulators using low-cost devices
CN114603551A (en) Control method and electronic equipment