[go: up one dir, main page]

JP2001157978A - Robot device, and control method thereof - Google Patents

Robot device, and control method thereof

Info

Publication number
JP2001157978A
JP2001157978A JP34120799A JP34120799A JP2001157978A JP 2001157978 A JP2001157978 A JP 2001157978A JP 34120799 A JP34120799 A JP 34120799A JP 34120799 A JP34120799 A JP 34120799A JP 2001157978 A JP2001157978 A JP 2001157978A
Authority
JP
Japan
Prior art keywords
action
model
node
behavior
growth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP34120799A
Other languages
Japanese (ja)
Inventor
Kotaro Sabe
浩太郎 佐部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34120799A priority Critical patent/JP2001157978A/en
Priority to CNB008032971A priority patent/CN1151016C/en
Priority to US09/890,231 priority patent/US7117190B2/en
Priority to KR1020017009618A priority patent/KR20010101883A/en
Priority to PCT/JP2000/008472 priority patent/WO2001039932A1/en
Publication of JP2001157978A publication Critical patent/JP2001157978A/en
Priority to US11/244,341 priority patent/US20060041332A1/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To express natural growth in a pet robot. SOLUTION: In this robot device, and this control method for that, an action is generated by using a condition space in a part or all of an action model, and the condition space is changed to be enlarged or contracted. In the robot device and the control method for that, transition to a specified node in an action model comprising a probability condition transition model is described as transition to a supposed node comprising a supposable node, a first node group is alotted to the supposed node, and a group of nodes to be allotted to the supposed node are changed in order.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばペットロボットに適用して好
適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and a control method therefor, and is suitably applied to, for example, a pet robot.

【0002】[0002]

【従来の技術】近年、本願特許請求人により4足歩行型
のペットロボットが提案及び開発されている。かかるペ
ットロボットは、一般家庭において飼育される犬や猫に
似た形状を有し、「叩く」や「撫でる」といったユーザ
からの働きかけや、周囲の環境等に応じて自律的に行動
し得るようになされたものである。
2. Description of the Related Art In recent years, a pet robot of a four-legged walking type has been proposed and developed by the present applicant. Such a pet robot has a shape similar to a dog or cat bred in a general household, and can act autonomously in response to a user's action such as "hitting" or "patting" or the surrounding environment. It was done in.

【0003】またこのペットロボットには、ユーザから
の「叩く」及び「撫でる」といった働きかけに基づいて
対応する行動の発現確率を変化させる学習機能や、当該
働きかけの累積及び経過時間等に基づいて行動の難易度
や煩雑さのレベルを段階的に変化させる成長機能などが
搭載されており、これにより『ペットロボット』として
の高い商品性及びアミューズメント性を得ている。
The pet robot also has a learning function of changing the occurrence probability of a corresponding action based on a user's actions such as "hitting" and "stroking", and an action based on the accumulation of the actions and the elapsed time. It is equipped with a growth function that gradually changes the level of difficulty and complexity of the robot, thereby achieving high merchantability and amusement as a “pet robot”.

【0004】[0004]

【発明が解決しようとする課題】ところでかかるペット
ロボットにおいては、各成長段階(以下、これを「成長
ステージ」と呼ぶ)ごとに個別の確率状態遷移モデルで
なる行動モデルを用意し、ユーザからの働や経過時間の
累積等に基づいて行動モデルを上の「成長ステージ」の
行動モデルに切り換えることにより「成長」を表現して
いた。またかかるペットロボットにおいては、ユーザか
らの働きかけに応じて行動モデルの対応する箇所の遷移
確率を変化させることにより、上述の「学習」を表現し
ていた。
By the way, in such a pet robot, an action model consisting of an individual stochastic state transition model is prepared for each growth stage (hereinafter, referred to as a "growth stage"), and a user receives an action model. "Growth" was expressed by switching the behavior model to the behavior model of the "growth stage" based on the accumulation of work and elapsed time. Further, in such a pet robot, the above-mentioned “learning” is expressed by changing the transition probability of a corresponding part of the behavior model in accordance with the action of the user.

【0005】ところがこの方法によると、「成長」する
ごとに行動モデルを新しい行動モデルに切り換えること
から、「成長」の度に突然人格が変わってしまったかの
ごとく新しい行動を始めたり、それまでの「学習」の結
果が破棄されることとなり、それまでの行動パターンに
慣れ親しんだユーザからみて不自然さを感じさせる問題
があった。
However, according to this method, the behavior model is switched to a new behavior model each time the user grows up, so that a new behavior starts as if the personality has suddenly changed at each growth, The result of "learning" is discarded, and there is a problem that a user who is familiar with the behavior pattern up to that time feels unnatural.

【0006】またかかる方法によると、重複した行動パ
ターンがあったとしても各「成長ステージ」ごとにその
行動パターンのための行動モデル部分を用意する必要が
あり、その分行動モデルの生成作業が煩雑化する問題が
あった。
According to this method, even if there is an overlapping behavior pattern, it is necessary to prepare a behavior model part for the behavior pattern for each "growth stage", and the operation of generating the behavior model is complicated accordingly. There was a problem of becoming.

【0007】従って、例えば「成長」時において行動パ
ターンや学習結果を次の「成長ステージ」に持ち越すこ
とができるようにできれば、上述のような「成長」時の
不自然さを解消して、より一層生物的な「成長」を表現
することができ、その分エンターテイメント性を向上さ
せることができるものと考えられる。
Therefore, for example, if the behavior pattern and the learning result can be carried over to the next “growth stage” at the time of “growth”, the above-mentioned unnaturalness at the time of “growth” can be resolved, and It is thought that it is possible to express a more biological "growth" and to thereby improve the entertainment property.

【0008】本発明は以上の点を考慮してなされたもの
で、エンターテイメント性を向上させ得るロボット装置
及びその制御方法を提案しようとするものである。
The present invention has been made in view of the above points, and an object of the present invention is to propose a robot apparatus capable of improving entertainment characteristics and a control method thereof.

【0009】[0009]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、ロボット装置において、行動モデ
ルを保持する保持手段と、行動モデルの一部又は全部の
状態空間を用いて行動を生成する行動生成手段とを設
け、行動生成手段が、行動モデルのうちの行動生成に使
用する状態空間を、拡大縮小させながら変化させるよう
にした。この結果このロボット装置では、行動生成に使
用する状態空間が連続的に変化してゆくため、行動生成
に使用する状態空間の変化の前後における行動出力の不
連続性を低減することができる。
According to the present invention, in order to solve the above-mentioned problems, in a robot apparatus, an action is generated using a holding means for holding an action model and a part or all of the state space of the action model. An action generation means is provided, and the action generation means changes a state space used for action generation in the action model while scaling the state space. As a result, in this robot device, since the state space used for action generation changes continuously, discontinuity of action output before and after the change of the state space used for action generation can be reduced.

【0010】また本発明においては、状態遷移モデルで
なる行動モデルを有し、当該行動モデルに基づいて行動
を生成するロボット装置において、行動モデルにおける
所定のノードへの遷移を仮想的なノードでなる仮想ノー
ドへの遷移として記述し、当該仮想ノードに所定の第1
のノード群を割り当てると共に、仮想ノードに割り当て
るノード群を変更する変更手段を設けるようにした。こ
の結果このロボット装置では、基本となる行動モデルが
固定化されているため、出力行動に一貫性をもたせるこ
とができる。
According to the present invention, in a robot apparatus having an action model as a state transition model and generating an action based on the action model, a transition to a predetermined node in the action model is performed by a virtual node. Described as a transition to a virtual node, and a predetermined first
And a changing means for changing the node group to be assigned to the virtual node. As a result, in this robot device, since the basic behavior model is fixed, the output behavior can be made consistent.

【0011】さらに本発明においては、ロボット装置の
制御方法において、行動モデルの一部又は全部の状態空
間を用いて行動を生成する第1のステップと、行動モデ
ルのうちの行動生成に使用する状態空間を、拡大縮小さ
せながら変化させる第2のステップとを設けるようにし
た。この結果このロボット装置の制御方法によれば、行
動生成に使用する状態空間が連続的に変化してゆくた
め、行動生成に使用する状態空間の変更の前後における
行動出力の不連続性を低減することができる。
Further, according to the present invention, in the method for controlling a robot apparatus, a first step of generating an action by using a part or all of the state space of the action model; And a second step of changing the space while scaling it. As a result, according to the control method of the robot apparatus, since the state space used for generating the action changes continuously, the discontinuity of the action output before and after the change of the state space used for generating the action is reduced. be able to.

【0012】さらに本発明によれば、ロボット装置の制
御方法において、行動モデルにおける所定のノードへの
遷移を仮想的なノードでなる仮想ノードへの遷移として
記述すると共に、当該仮想ノードに所定のノード群を割
り当てる第1のステップと、仮想ノードに割り当てるノ
ード群を変更する第2のステップとを設けるようにし
た。この結果このロボット装置の制御方法によれば、基
本となる行動モデルが固定化されているため、出力行動
に一貫性をもたせることができる。
Further, according to the present invention, in the control method of the robot apparatus, the transition to the predetermined node in the behavior model is described as a transition to a virtual node which is a virtual node, and the predetermined node is described in the virtual node. A first step of allocating a group and a second step of changing a node group to be allocated to a virtual node are provided. As a result, according to the control method of the robot device, since the basic behavior model is fixed, the output behavior can be made consistent.

【0013】[0013]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0014】(1)第1の実施の形態 (1−1)第1の実施の形態によるペットロボットの構
成 図1において、1は全体として第1の実施の形態による
ペットロボットを示し、胴体部ユニット2の前後左右に
それぞれ脚部ユニット3A〜3Dが連結されると共に、
胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユ
ニット4及び尻尾部ユニット5が連結されることにより
構成されている。
(1) First Embodiment (1-1) Configuration of Pet Robot According to First Embodiment In FIG. 1, reference numeral 1 denotes a pet robot according to the first embodiment as a whole, The leg units 3A to 3D are connected to the front, rear, left and right of the unit 2, respectively.
The head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.

【0015】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit )10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read Only Memory)12、PC(Personal Com
puter )カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このペットロ
ボット1の動力源としてのバッテリ17とが収納されて
いる。また胴体部ユニット2には、ペットロボット1の
向きや動きの加速度を検出するための角速度センサ18
及び加速度センサ19なども収納されている。
As shown in FIG. 2, a CPU (Central Processing Unit) 10 and a DRA
M (Dynamic Random Access Memory) 11, Flash ROM (Read Only Memory) 12, PC (Personal Com
puter) A control unit 16 formed by connecting a card interface circuit 13 and a signal processing circuit 14 to each other via an internal bus 15 and a battery 17 as a power source of the pet robot 1 are housed therein. . The body unit 2 has an angular velocity sensor 18 for detecting the direction and the acceleration of the movement of the pet robot 1.
And an acceleration sensor 19 are also stored.

【0016】また頭部ユニット4には、外部の状況を撮
像するためのCCD(Charge Coupled Device )カメラ
20と、ユーザからの「撫でる」や「叩く」といった物
理的な働きかけにより受けた圧力を検出するためのタッ
チセンサ21と、前方に位置する物体までの距離を測定
するための距離センサ22と、外部音を集音するための
マイクロホン23と、鳴き声等の音声を出力するための
スピーカ24と、ペットロボット1の「目」に相当する
LED(Light Emitting Diode)(図示せず)となどが
それぞれ所定位置に配設されている。
Further, the head unit 4 detects a CCD (Charge Coupled Device) camera 20 for capturing an image of an external situation, and a pressure received by a physical action such as "stroke" or "hit" from the user. A touch sensor 21, a distance sensor 22 for measuring a distance to an object located ahead, a microphone 23 for collecting external sound, and a speaker 24 for outputting a sound such as a cry. , An LED (Light Emitting Diode) (not shown) corresponding to the “eyes” of the pet robot 1 and the like are arranged at predetermined positions.

【0017】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ251
〜25n 及びポテンショメータ261 〜26n が配設さ
れている。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D and the trunk unit 2
Each coupling portion of the head unit 4 and body unit connecting portion 2, and the tail unit actuator 25 1, respectively, etc. The consolidated portion of the tail 5A of freedom minutes 5
To 25 n and potentiometers 26 1 to 26 n are provided.

【0018】そしてこれら角速度センサ18、加速度セ
ンサ19、タッチセンサ21、距離センサ22、マイク
ロホン23、スピーカ24及び各ポテンショメータ26
1 〜26n などの各種センサ並びにLED及び各アクチ
ュエータ251 〜25n は、それぞれ対応するハブ27
1 〜27N を介してコントロール部16の信号処理回路
14と接続され、CCDカメラ20及びバッテリ17
は、それぞれ信号処理回路14と直接接続されている。
The angular velocity sensor 18, acceleration sensor 19, touch sensor 21, distance sensor 22, microphone 23, speaker 24 and potentiometer 26
Various sensors such as 1 to 26 n , LEDs and actuators 25 1 to 25 n are respectively connected to the corresponding hubs 27.
The CCD camera 20 and the battery 17 are connected to the signal processing circuit 14 of the control unit 16 through 1 to 27 N.
Are directly connected to the signal processing circuit 14, respectively.

【0019】このとき信号処理回路14は、上述の各セ
ンサから供給されるセンサデータや画像データ及び音声
データを順次取り込み、これらをそれぞれ内部バス15
を介してDRAM11内の所定位置に順次格納する。ま
た信号処理回路14は、これと共にバッテリ17から供
給されるバッテリ残量を表すバッテリ残量データを順次
取り込み、これをDRAM11内の所定位置に格納す
る。
At this time, the signal processing circuit 14 sequentially takes in the sensor data, image data and audio data supplied from each of the above-mentioned sensors,
, And sequentially stored in a predetermined position in the DRAM 11. In addition, the signal processing circuit 14 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 17 and stores the data at a predetermined position in the DRAM 11.

【0020】そしてこのようにしてDRAM11に格納
された各センサデータ、画像データ、音声データ及びバ
ッテリ残量データは、この後CPU10がこのペットロ
ボット1の動作制御を行う際に利用される。
The sensor data, image data, sound data and remaining battery data stored in the DRAM 11 in this manner are used when the CPU 10 controls the operation of the pet robot 1 thereafter.

【0021】実際上CPU10は、ペットロボット1の
電源が投入された初期時、胴体部ユニット2の図示しな
いPCカードスロットに装填されたメモリカード28又
はフラッシュROM12に格納された制御プログラムを
PCカードインターフェース回路13を介して又は直接
読み出し、これをDRAM11に格納する。
In practice, when the power of the pet robot 1 is turned on, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 inserted in the PC card slot (not shown) of the body unit 2 into the PC card interface. The data is read out via the circuit 13 or directly and stored in the DRAM 11.

【0022】またCPU10は、この後上述のように信
号処理回路14よりDRAM11に順次格納される各セ
ンサデータ、画像データ、音声データ及びバッテリ残量
データに基づいて自己及び周囲の状況や、ユーザからの
指示及び働きかけの有無などを判断する。
Further, the CPU 10 thereafter, based on the sensor data, image data, audio data, and remaining battery power data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above, and from the user, Judge whether or not there is an instruction for and action.

【0023】さらにCPU10は、この判断結果及びD
RAM11に格納した制御プログラムに基づいて続く行
動を決定すると共に、当該決定結果に基づいて必要なア
クチュエータ251 〜25n を駆動させることにより、
頭部ユニット4を上下左右に振らせたり、尻尾部ユニッ
ト5の尻尾5Aを動かせたり、各脚部ユニット3A〜3
Dを駆動させて歩行させるなどの行動を行わせる。
Further, the CPU 10 determines the result of this determination and D
And it determines a subsequent action based on the control program stored in the RAM 11, by driving the actuator 25 1 to 25 n required based on the determination result,
The head unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and each of the leg units 3A to 3A.
D is driven to perform an action such as walking.

【0024】またこの際CPU10は、必要に応じて音
声データを生成し、これを信号処理回路14を介して音
声信号としてスピーカ24に与えることにより当該音声
信号に基づく音声を外部に出力させたり、上述のLED
を点灯、消灯又は点滅させる。
At this time, the CPU 10 generates audio data as required, and supplies the generated audio data to the speaker 24 via the signal processing circuit 14 as an audio signal, thereby outputting an audio based on the audio signal to the outside, LED above
Is turned on, off or blinking.

【0025】このようにしてこのペットロボット1にお
いては、自己及び周囲の状況や、ユーザからの指示及び
働きかけに応じて自律的に行動し得るようになされてい
る。
As described above, the pet robot 1 can autonomously act according to its own and surrounding conditions, and instructions and actions from the user.

【0026】(1−2)制御プログラムのソフトウェア
構成 ここでペットロボット1における上述の制御プログラム
のソフトウェア構成を図3に示す。この図3において、
デバイス・ドライバ・レイヤ30は、この制御プログラ
ムの最下位層に位置し、複数のデバイス・ドライバから
なるデバイス・ドライバ・セット31から構成されてい
る。この場合各デバイス・ドライバは、CCDカメラ2
0(図2)やタイマ等の通常のコンピュータで用いられ
るハードウェアに直接アクセスすることを許されたオブ
ジェクトであり、対応するハードウェアからの割り込み
を受けて処理を行う。
(1-2) Software Configuration of Control Program The software configuration of the above-described control program in the pet robot 1 is shown in FIG. In FIG.
The device driver layer 30 is located at the lowest layer of the control program, and includes a device driver set 31 including a plurality of device drivers. In this case, each device driver is a CCD camera 2
0 (FIG. 2), an object such as a timer, which is allowed to directly access hardware used in a normal computer, and performs processing in response to an interrupt from the corresponding hardware.

【0027】またロボティック・サーバ・オブジェクト
32は、デバイス・ドライバ・レイヤ30の上位層に位
置し、例えば上述の各種センサやアクチュエータ251
〜25n 等のハードウェアにアクセスするためのインタ
ーフェースを提供するソフトウェア群でなるバーチャル
・ロボット33と、電源の切換えなどを管理するソフト
ウェア群でなるパワーマネージャ34と、他の種々のデ
バイス・ドライバを管理するソフトウェア群でなるデバ
イス・ドライバ・マネージャ35と、ペットロボット1
の機構を管理するソフトウェア群でなるデザインド・ロ
ボット36とから構成されている。
The robotic server object 32 is located above the device driver layer 30 and includes, for example, the various sensors and actuators 25 1 described above.
A virtual robot 33 comprising a software group that provides an interface for accessing the hardware, such as to 25 n, the power manager 34 made of a software suite for managing the power supply switching, the other various device drivers Device driver manager 35, which is a group of software to be managed, and pet robot 1
And a designed robot 36 which is a software group for managing the mechanism.

【0028】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。この場合オブジェクト・マネージ
ャ38は、ロボティック・サーバ・オブジェクト32、
ミドル・ウェア・レイヤ40、及びアプリケーション・
レイヤ41に含まれる各ソフトウェア群の起動や終了を
管理するソフトウェア群であり、サービス・マネージャ
39は、メモリカード28(図2)に格納されたコネク
ションファイルに記述されている各オブジェクト間の接
続情報に基づいて各オブジェクトの接続を管理するソフ
トウェア群である。
The manager object 37 includes an object manager 38 and a service manager 39.
It is composed of In this case, the object manager 38 has the robotic server object 32,
Middleware layer 40 and application
The service manager 39 is a software group that manages activation and termination of each software group included in the layer 41. The service manager 39 stores connection information between objects described in a connection file stored in the memory card 28 (FIG. 2). Is a group of software that manages the connection of each object based on.

【0029】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのペットロボット1の基本的
な機能を提供するソフトウェア群から構成されている。
またアプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてペットロボット1の行動を決定
するためのソフトウェア群から構成されている。
The middleware layer 40 is located on the upper layer of the robotic server object 32 and is composed of a group of software which provides basic functions of the pet robot 1 such as image processing and sound processing. I have.
Further, the application layer 41 is located in a layer above the middleware layer 40, and
It is composed of a software group for determining the behavior of the pet robot 1 based on the processing result processed by each software group constituting the layer 40.

【0030】なおミドル・ウェア・レイヤ40及びアプ
リケーション・レイヤ41の具体なソフトウェア構成を
それぞれ図4及び図5に示す。
FIGS. 4 and 5 show specific software configurations of the middleware layer 40 and the application layer 41, respectively.

【0031】ミドル・ウェア・レイヤ40においては、
図4からも明らかなように、音階認識用、距離検出用、
姿勢検出用、タッチセンサ用、動き検出用及び色認識用
の各信号処理モジュール50〜55並びに入力セマンテ
ィクスコンバータモジュール56などを有する認識系5
7と、出力セマンティクスコンバータモジュール57並
びに姿勢管理用、トラッキング用、モーション再生用、
歩行用、転倒復帰、LED点灯用及び音再生用の各信号
処理モジュール58〜64などを有する出力系65とか
ら構成されている。
In the middleware layer 40,
As is clear from FIG. 4, for scale recognition, for distance detection,
Recognition system 5 including signal processing modules 50 to 55 for posture detection, touch sensor, motion detection, and color recognition, input semantics converter module 56, and the like.
7 and the output semantics converter module 57 and for attitude management, tracking, motion playback,
An output system 65 includes signal processing modules 58 to 64 for walking, falling back, turning on LEDs, and reproducing sounds.

【0032】この場合認識系57の各信号処理モジュー
ル50〜55は、ロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33によりDRAM11
(図2)から読み出される各センサデータや画像データ
及び音声データのうちの対応するデータを取り込み、当
該データに基づいて所定の処理を施して、処理結果を入
力セマンティクスコンバータモジュール56に与える。
In this case, the signal processing modules 50 to 55 of the recognition system 57 are connected to the DRAM 11 by the virtual robot 33 of the robotic server object 32.
The corresponding data among the sensor data, image data, and audio data read out from FIG. 2 (FIG. 2) is fetched, predetermined processing is performed based on the data, and the processing result is provided to the input semantics converter module 56.

【0033】入力セマンティクスコンバータモジュール
56は、これら各信号処理モジュール50〜55から与
えられる処理結果に基づいて、「ボールを検出した」、
「転倒を検出した」、「撫でられた」、「叩かれた」、
「ドミソの音階が聞こえた」、「動く物体を検出した」
又は「障害物を検出した」などの自己及び周囲の状況
や、ユーザからの指令及び働きかけを認識し、認識結果
をアプリケーション・レイヤ41(図2)に出力する。
The input semantics converter module 56, based on the processing results given from each of the signal processing modules 50 to 55, "detects a ball"
"Detected fall,""stroke,""beaten,"
"I heard the domeso scale,""Detected a moving object."
Alternatively, it recognizes the situation of itself and surroundings, such as "detected an obstacle", and commands and actions from the user, and outputs the recognition result to the application layer 41 (FIG. 2).

【0034】アプリケーション・レイヤ41において
は、図5に示すように、行動モデルライブラリ70、行
動切換えモジュール71、学習モジュール72、感情モ
デル73及び本能モデル74の5つのモジュールから構
成されている。
As shown in FIG. 5, the application layer 41 is composed of five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73, and an instinct model 74.

【0035】この場合行動モデルライブラリ70には、
図6に示すように、「バッテリ残量が少なくなった場
合」、「転倒復帰する場合」、「障害物を回避する場
合」、「感情を表現する場合」、「ボールを検出した場
合」などの予め選択されたいくつかの条件項目にそれぞ
れ対応させて、それぞれ独立した行動モデル701 〜7
n が設けられている。
In this case, the behavior model library 70 includes
As shown in FIG. 6, "when the battery level is low", "when the vehicle returns to the fall", "when avoiding obstacles", "when expressing emotion", "when the ball is detected", and the like. Respectively correspond to several pre-selected condition items, and independent behavior models 70 1 to 7 respectively.
0 n is provided.

【0036】そしてこれら行動モデル701 〜70
n は、それぞれ入力セマンティクスコンバータモジュー
ル56から認識結果が与えられたときや、最後の認識結
果が与えられてから一定時間が経過したときなどに、必
要に応じて後述のように感情モデル73に保持されてい
る対応する情動のパラメータ値や、本能モデル74に保
持されている対応する欲求のパラメータ値を参照しなが
ら続く行動をそれぞれ決定し、決定結果を行動切換えモ
ジュール71に出力する。
The behavior models 70 1 to 70 1
n is stored in the emotion model 73 as described later as necessary when a recognition result is given from the input semantics converter module 56 or when a certain time has elapsed since the last recognition result was given. The next action is determined with reference to the corresponding emotion parameter value and the corresponding desire parameter value held in the instinct model 74, and the determination result is output to the action switching module 71.

【0037】なおこの実施の形態の場合、各行動モデル
701 〜70n は、次の行動を決定する手法として、図
7に示すような1つのノード(状態)NODE0 〜NO
DEn から他のどのノードNODE0 〜NODEn に遷
移するかを各ノードNODE0 〜NODEn 間を接続す
るアークARC1 〜ARCn1に対してそれぞれ設定され
た遷移確率P1 〜Pn に基づいて確率的に決定する確率
オートマトンと呼ばれるアルゴリズムを用いる。
In this embodiment, each of the behavior models 70 1 to 70 n uses one node (state) NODE 0 to NO as shown in FIG.
Based whether to transition from DE n to any other node NODE 0 ~NODE n the transition probability P 1 to P n which is set respectively arc ARC 1 ~ARC n1 to connect each node NODE 0 ~NODE n An algorithm called a probabilistic automaton that determines stochastically is used.

【0038】具体的に、各行動モデル701 〜70
n は、それぞれ自己の行動モデル701〜70n を形成
する各ノードNODE0 〜NODEn にそれぞれ対応さ
せて、これらノードNODE0 〜NODEn ごとの図8
に示すような状態遷移表80を有している。
More specifically, each of the behavior models 70 1 to 70
n corresponds to each of the nodes NODE 0 to NODE n forming their own behavior models 70 1 to 70 n , respectively, and FIG. 8 for each of these nodes NODE 0 to NODE n
Has a state transition table 80 as shown in FIG.

【0039】この状態遷移表80では、そのノードNO
DE0 〜NODEn において遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の行に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の行における対応する列に記
述されている。
In this state transition table 80, the node NO
Input events (recognition results) as transition conditions in DE 0 to NODE n are listed in order of priority in the row of “input event name”, and further conditions for the transition conditions are described in the rows of “data name” and “data range”. It is described in the corresponding column.

【0040】従って図8の状態遷移表80で表されるノ
ードNODE100 では、「ボールを検出(BALL)」
という認識結果が与えられた場合に、当該認識結果と共
に与えられるそのボールの「大きさ(SIZE)」が
「0から1000」の範囲であることや、「障害物を検出
(OBSTACLE)」という認識結果が与えられた場
合に、当該認識結果と共に与えられるその障害物までの
「距離(DISTANCE)」が「0から100 」の範囲
であることが他のノードに遷移するための条件となって
いる。
Therefore, in the node NODE 100 represented by the state transition table 80 of FIG. 8, "ball detected (BALL)"
When the recognition result is given, the "size (SIZE)" of the ball given together with the recognition result is in the range of "0 to 1000", or the recognition of "obstacle detected (OBSTACE)" is given. When the result is given, the condition for transition to another node is that the "distance" to the obstacle given together with the recognition result is in the range of "0 to 100". .

【0041】またこのノードNODE100 では、認識結
果の入力がない場合においても、行動モデル701 〜7
n が周期的に参照する感情モデル73及び本能モデル
74にそれそれ保持された各情動及び各欲求のパラメー
タ値のうち、感情モデル73に保持された「喜び(JO
Y)」、「驚き(SURPRISE)」若しくは「悲し
み(SUDNESS)」のいずれかのパラメータ値が
「50から100 」の範囲であるときには他のノードに遷移
することができるようになっている。
In the node NODE 100 , even when the recognition result is not input, the behavior models 70 1 to 70 1
0 n of the parameter values of each emotion and each desire held in the emotion model 73 and the instinct model 74 that are periodically referred to, the “joy (JO)” held in the emotion model 73.
When the parameter value of any of "Y)", "Surprise", or "Sadness" is in the range of "50 to 100", it is possible to make a transition to another node.

【0042】また状態遷移表80では、「他のノードへ
の遷移確率」の欄における「遷移先ノード」の列にその
ノードNODE0 〜NODEn から遷移できるノード名
が列記されると共に、「入力イベント名」、「データ
値」及び「データの範囲」の行に記述された全ての条件
が揃ったときに遷移できる他の各ノードNODE0 〜N
ODEn への遷移確率が「他のノードへの遷移確率」の
欄内の対応する箇所にそれぞれ記述され、そのノードN
ODE0 〜NODEn に遷移する際に出力すべき行動が
「他のノードへの遷移確率」の欄における「出力行動」
の行に記述されている。なお「他のノードへの遷移確
率」の欄における各行の確率の和は100 〔%〕となって
いる。
Further in the state transition table 80, with the node name that can transition from the node NODE 0 ~NODE n in the column of "transition destination node" in the column of "probability of transition to another node" is listed, the "input Other nodes NODE 0 to N that can transition when all the conditions described in the rows of “event name”, “data value”, and “data range” are met
The transition probability to ODE n is described in a corresponding part in the column of “transition probability to another node”, and the node N
The action to be output when transitioning from ODE 0 to NODE n is “output action” in the column of “transition probability to another node”.
Is described in the line. Note that the sum of the probabilities of the respective rows in the column of “transition probability to another node” is 100 [%].

【0043】従って図8の状態遷移表80で表されるノ
ードNODE100 では、例えば「ボールを検出(BAL
L)」し、そのボールの「SIZE(大きさ)」が「0
から1000」の範囲であるという認識結果が与えられた場
合には、「30〔%〕」の確率で「ノードNODE
120 (node 120)」に遷移でき、そのとき「ACTIO
N1」の行動が出力されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG.
L) "and the" SIZE "of the ball is" 0 ".
Is given in the range of “node NODE” with a probability of “30 [%]”.
120 (node 120) ”, and then“ ACTIO ”
The action of "N1" will be output.

【0044】そして各行動モデル701 〜70n は、そ
れぞれこのような状態遷移表80として記述されたノー
ドNODE0 〜NODEn がいくつも繋がるようにして
構成されており、入力セマンティクスコンバータモジュ
ール56から認識結果が与えられたときなどに、対応す
るノードNODE0 〜NODEn の状態遷移表80を利
用して確率的に次の行動を決定し、決定結果を行動切換
えモジュール71に出力するようになされている。
Each of the behavior models 70 1 to 70 n is configured such that a number of nodes NODE 0 to NODE n described as such a state transition table 80 are connected, and the input semantics converter module 56 For example, when a recognition result is given, the next action is stochastically determined using the state transition table 80 of the corresponding nodes NODE 0 to NODE n , and the determination result is output to the action switching module 71. ing.

【0045】行動切換えモジュール71は、行動モデル
ライブラリ70の各行動モデル701 〜70n からそれ
ぞれ出力される行動のうち、予め定められた優先順位の
高い行動モデル701 〜70n から出力された行動を選
択し、当該行動を実行すべき旨のコマンド(以下、これ
を行動コマンドと呼ぶ)をミドル・ウェア・レイヤ40
の出力セマンティクスコンバータ57に送出する。なお
この実施の形態においては、図6において下側に表記さ
れた行動モデル701 〜70n ほど優先順位が高く設定
されている。
The action switching module 71, among the actions respectively output from the behavior model 70 1 to 70 n of the action model library 70, output from the predetermined high priority behavior model 70 1 to 70 n A command for selecting an action and executing the action (hereinafter, referred to as an action command) is transmitted to the middleware layer 40.
To the output semantics converter 57. Incidentally in this embodiment, is denoted behavioral models 70 1 more to 70 n priority lower is set higher in FIG.

【0046】また行動切換えモジュール71は、行動完
了後に出力セマンティクスコンバータ57から与えられ
る行動完了情報に基づいて、その行動が完了したことを
学習モジュール72、感情モデル73及び本能モデル7
4に通知する。
Further, based on the action completion information provided from the output semantics converter 57 after the action is completed, the action switching module 71 notifies the learning module 72, the emotion model 73, and the instinct model 7 that the action has been completed.
Notify 4.

【0047】一方、学習モジュール72は、入力セマン
ティクスコンバータ56から与えられる認識結果のう
ち、「叩かれた」や「撫でられた」など、ユーザからの
働きかけとして受けた教示の認識結果を入力する。
On the other hand, the learning module 72 inputs the recognition result of the teaching received from the user, such as “hit” or “stroke”, among the recognition results given from the input semantics converter 56.

【0048】そして学習モジュール72は、この認識結
果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル701 〜7
n の対応する遷移確率を変更する。
Then, based on the recognition result and the notification from the action switching module 71, the learning module 72 lowers the probability of occurrence of the action when “beaten (scorched)” and “strokes (praise)”. was) "sometimes to increase the expression probability of that action, behavior model 70 1-7 corresponding in behavioral model library 70
Change the corresponding transition probability of 0 n .

【0049】他方、感情モデル73は、「喜び(joy
)」、「悲しみ(sadness )」、「怒り(anger
)」、「驚き(surprise)」、「嫌悪(disgust )」
及び「恐れ(fear)」の合計6つの情動について、各情
動ごとにその情動の強さを表すパラメータを保持してい
る。そして感情モデル73は、これら各情動のパラメー
タ値を、それぞれ入力セマンティクスコンバータモジュ
ール56から与えられる「叩かれた」及び「撫でられ
た」などの特定の認識結果と、経過時間及び行動切換え
モジュール71からの通知となどに基づいて順次更新す
るようになされている。
On the other hand, the emotion model 73 indicates “joy (joy)
) "," Sadness "," anger "
) "," Surprise "," disgust "
For a total of six emotions of “fear” and “fear”, a parameter indicating the strength of the emotion is stored for each emotion. Then, the emotion model 73 converts the parameter values of each of these emotions from the specific recognition results such as “hit” and “stroke” given from the input semantics converter module 56 and the elapsed time and action switching module 71, respectively. The notification is sequentially updated based on the notification and the like.

【0050】具体的に感情モデル73は、入力セマンテ
ィクスコンバータ56からの認識結果及びそのときのペ
ットロボット1の行動がその情動に対して作用する度合
い(予め設定されている)と、本能モデル74が保持し
ている各欲求のパラメータ値及びそのときのペットロボ
ット1の行動がその情動に対して作用する度合い(予め
設定されている)と、他の情動から受ける抑制及び刺激
の度合いと、経過時間となどに基づいて所定の演算式に
より算出されるその情動の変動量をΔE〔t〕、現在の
その情動のパラメータ値をE〔t〕、認識結果等に応じ
てその情動を変化させる割合(以下、これを感度と呼
ぶ)を表す係数をke として、所定周期で次式
Specifically, the emotion model 73 includes the recognition result from the input semantics converter 56 and the degree (preset) at which the behavior of the pet robot 1 acts on the emotion at that time. The held parameter values of each desire and the degree at which the behavior of the pet robot 1 acts on the emotion (preset), the degree of suppression and stimulation received from other emotions, the elapsed time ΔE [t], the current parameter value of the emotion E [t], and the rate of change of the emotion according to the recognition result, etc. hereinafter, the coefficient representing the same is referred to as sensitivity) as k e, the following expression in a predetermined cycle

【0051】[0051]

【数1】 (Equation 1)

【0052】を用いて次の周期におけるその情動のパラ
メータ値E〔t+1〕を算出する。
Is used to calculate the parameter value E [t + 1] of the emotion in the next cycle.

【0053】そして感情モデル73は、この演算結果を
現在のその情動のパラメータ値E〔t〕と置き換えるよ
うにしてその情動のパラメータ値を更新する。なお各認
識結果や行動切換えモジュール71からの通知に対して
どの情動のパラメータ値を更新するかは予め決められて
おり、例えば「叩かれた」といった認識結果が与えられ
た場合には「怒り」の情動のパラメータ値が上がり、
「撫でられた」といった認識結果が与えられた場合には
「喜び」の情動のパラメータ値が上がる。
The emotion model 73 updates the parameter value of the emotion by replacing the calculation result with the parameter value E [t] of the emotion. It is to be noted that the parameter value of the emotion to be updated in response to each recognition result or the notification from the action switching module 71 is determined in advance. For example, when a recognition result such as “hit” is given, “anger” is given. The emotion parameter value has increased,
When a recognition result such as “stroke” is given, the parameter value of the emotion of “joy” increases.

【0054】これに対して本能モデル74は、「運動欲
(exersise)」、「愛情欲(afection)」、「食欲(ap
petite)」及び「好奇心(curiocity )」の互いに独立
した4つの欲求について、これら欲求ごとにその欲求の
強さを表すパラメータを保持している。そして本能モデ
ル74は、これら欲求のパラメータ値を、それぞれ入力
セマンティクスコンバータモジュール56から与えられ
る認識結果や、経過時間及び行動切換えモジュール71
からの通知などに基づいて順次更新するようになされて
いる。
On the other hand, the instinct model 74 is composed of “exersise”, “affection”, “appetite” (ap
For each of the four independent desires "petite" and "curiocity", a parameter indicating the strength of the desire is held for each of the desires. Then, the instinct model 74 converts the parameter values of the desire into the recognition result given from the input semantics converter module 56, the elapsed time and the action switching module 71, respectively.
The information is sequentially updated based on a notification or the like.

【0055】具体的に本能モデル74は、「運動欲」、
「愛情欲」及び「好奇心」については、ペットロボット
1の行動出力、経過時間及び認識結果などに基づいて所
定の演算式により算出されるその欲求の変動量をΔI
〔k〕、現在のその欲求のパラメータ値をI〔k〕、そ
の欲求の感度を表す係数をki として、所定周期で次式
More specifically, the instinct model 74 is “movement desire”,
Regarding “affection desire” and “curiosity”, the change amount of the desire calculated by a predetermined arithmetic expression based on the action output, elapsed time, and recognition result of the pet robot 1 is ΔI
[K], I [k] of the current parameter value of the desire, the coefficient representing the sensitivity of the desire as k i, the following expression in a predetermined cycle

【0056】[0056]

【数2】 (Equation 2)

【0057】を用いて次の周期におけるその欲求のパラ
メータ値I〔k+1〕を算出し、この演算結果を現在の
その欲求のパラメータ値I〔k〕と置き換えるようにし
てその欲求のパラメータ値を更新する。なお行動出力や
認識結果等に対してどの欲求のパラメータ値を変化させ
るかは予め決められており、例えば行動切換えモジュー
ル71からの通知(行動を行ったとの通知)があったと
きには「運動欲」のパラメータ値が下がる。
Is used to calculate the parameter value I [k + 1] of the desire in the next cycle, and replaces the result of this operation with the current parameter value I [k] of the desire to update the parameter value of the desire. I do. It is to be noted that the parameter value of the desire to be changed with respect to the behavior output, the recognition result, and the like is determined in advance. Parameter value decreases.

【0058】また本能モデル74は、「食欲」について
は、入力セマンティクスコンバータモジュール56を介
して与えられるバッテリ残量データに基づいて、バッテ
リ残量をBL として、所定周期で次式
In the instinct model 74, the “appetite” is calculated based on the remaining battery level data provided via the input semantics converter module 56, by setting the remaining battery level to B L at a predetermined cycle as follows:

【0059】[0059]

【数3】 (Equation 3)

【0060】により「食欲」のパラメータ値I〔k〕を
算出し、この演算結果を現在の食欲のパラメータ値I
〔k〕と置き換えるようにして当該「食欲」のパラメー
タ値を更新する。
The parameter value I [k] of “appetite” is calculated by the
The parameter value of the “appetite” is updated by replacing with [k].

【0061】なお本実施の形態においては、各情動及び
各欲求のパラメータ値がそれぞれ0から100 までの範囲
で変動するように規制されており、また係数ke 、ki
の値も各情動及び各欲求ごとに個別に設定されている。
In the present embodiment, the parameter value of each emotion and each desire is regulated to fluctuate in the range of 0 to 100, and the coefficients k e and k i
Is also set individually for each emotion and each desire.

【0062】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール57は、図4に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換えモジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系65の対応する信号処理モジュール58〜64に与え
る。
On the other hand, as shown in FIG. 4, the output semantics converter module 57 of the middleware layer 40 provides “forward” and “pleased” provided by the action switching module 71 of the application layer 41 as described above. , "Sound" or "tracking (follow the ball)" to the corresponding signal processing modules 58 to 64 of the output system 65.

【0063】そしてこれら信号処理モジュール58〜6
4は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ251 〜25n (図2)に与えるべきサーボ指令値
や、スピーカ24(図2)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャルロボット33及び信号処理回路14
(図2)を順次介して対応するアクチュエータ251
25n 、スピーカ24又はLEDに順次送出する。
The signal processing modules 58 to 6
4, given the behavior command based on the action command, and servo command value to be applied to the actuator 25 1 to 25 n (Fig. 2) corresponding to perform that action, the output from the speaker 24 (FIG. 2) Generating sound data of the sound to be played and / or driving data to be given to the LED of the “eye”,
These data are transferred to the virtual robot 33 of the robotic server object 32 and the signal processing circuit 14.
The corresponding actuators 25 1 to 25 1 through (FIG. 2)
25 n , sequentially to the speaker 24 or the LED.

【0064】このようにしてこのペットロボット1にお
いては、制御プログラムに基づいて、自己及び周囲の状
況や、ユーザからの指示及び働きかけに応じた自律的な
行動を行うことができるようになされている。
As described above, the pet robot 1 can perform an autonomous action according to its own and surrounding conditions, and instructions and actions from the user, based on the control program. .

【0065】(1−3)ペットロボット1の成長モデル 次にこのペットロボット1に搭載された成長機能につい
て説明する。このペットロボット1には、ユーザからの
働きかけ等に応じて、あたかも「成長」するかのごとく
行動を変化させてゆく成長機能が搭載されている。
(1-3) Growth Model of Pet Robot 1 Next, a growth function mounted on the pet robot 1 will be described. The pet robot 1 is provided with a growth function that changes behavior as if it were "growing" in response to a user's action or the like.

【0066】すなわちこのペットロボット1には、成長
過程として「誕生期」、「幼年期」、「少年期」、「青
年期」及び「成人期」の5つの「成長ステージ」が設け
られている。そしてアプリケーション・レイヤ41の行
動モデルライブラリ70(図5)には、上述した「バッ
テリ残量が少なくなった場合」等の各条件項目のうち、
「モーション(動き)」や「行動」などの「成長」に関
係した全ての条件項目(以下、これを成長関連条件項目
と呼ぶ)について、図9に示すように、行動モデル70
k として、「誕生期」、「幼年期」、「少年期」、「青
年期」及び「成人期」にそれぞれ対応させた行動モデル
70k(1)〜70k(5)が設けられている。そして行動モデ
ルライブラリ71では、これら成長関連条件項目につい
て、初期時には「誕生期」の行動モデル70k(1)を用い
て次の行動を決定するようになされている。
That is, the pet robot 1 is provided with five “growth stages” as growth processes, “birth period”, “childhood period”, “childhood period”, “adolescence period”, and “adult period”. . Then, in the behavior model library 70 (FIG. 5) of the application layer 41, among the condition items such as “when the remaining battery power is low”,
As shown in FIG. 9, for all condition items related to “growth” such as “motion” and “behavior” (hereinafter referred to as “growth-related condition items”), the behavior model 70
As k , behavior models 70 k (1) to 70 k (5) corresponding to “birth”, “childhood”, “childhood”, “adolescence” and “adult” are provided, respectively. . In the behavior model library 71, the next behavior is initially determined for these growth-related condition items by using the behavior model 70k (1) of the “birth period”.

【0067】この場合「誕生期」の各行動モデル70
k(1)はノードNODE0 〜NODEn(図7)の数が少
なく、またこれら行動モデル70k(1)から出力される行
動の内容も「パターン1(「誕生期」用の歩行パター
ン)で前進」や、「パターン1(「誕生期」用の鳴き声
パターン)で鳴く」のように、「誕生期」に対応した行
動又は動作内容となっている。
In this case, each behavior model 70 of “birth period”
k (1) has a small number of nodes NODE 0 to NODE n (FIG. 7), and the behavior output from these behavior models 70 k (1) is “pattern 1 (walking pattern for“ birth period ”)”. The action or action content corresponds to the "birth period", such as "sound in pattern 1" (a crying pattern for "birth period").

【0068】かくしてこのペットロボット1において
は、初期時には「誕生期」の各行動モデル70k(1)に従
って、例えば「モーション」については単に「歩く」、
「立つ」、「寝る」程度の「単純」な動きとなるよう
に、「行動」については同じ行動を繰り返し行うことに
より「単調」となるように行動する。
Thus, in this pet robot 1, initially, for example, “walk” for “motion”, according to each behavior model 70 k (1) of “birth”,
The action is performed so as to be “monotonous” by repeatedly performing the same action so that the movement becomes “simple” movement such as “stand” and “sleep”.

【0069】またこのときアプリケーション・レイヤ4
1の学習モジュール72(図5)は、その内部に「成
長」の度合いを表すパラメータ(以下、これを成長パラ
メータと呼ぶを保持しており、入力セマンティクスコン
バータモジュール56から与えられる認識結果や経過時
間情報などに基づいて、成長パラメータの値を「撫でら
れた」や「叩かれた」等のユーザからの働きかけ(教
示)の回数や経過時間等に応じて順次更新するようにな
されている。
At this time, the application layer 4
The first learning module 72 (FIG. 5) holds therein a parameter indicating the degree of “growth” (hereinafter, referred to as a growth parameter), and the recognition result and the elapsed time given from the input semantics converter module 56. Based on the information and the like, the value of the growth parameter is sequentially updated in accordance with the number of times (teaching) from the user such as “stroke” or “hit”, the elapsed time, and the like.

【0070】そして学習モジュール72は、ペットロボ
ット1に電源が投入される度にこの成長パラメータの値
を評価し、当該値が「幼年期」に対応させて予め設定さ
れた閾値を越えた場合には、これを行動モデルライブラ
リ70に通知する。また行動モデルライブラリ70は、
この通知が与えられると、上述の各成長関連条件項目に
ついて、それぞれ使用する行動モデルを「幼年期」の行
動モデル70k(2)に変更する。
The learning module 72 evaluates the value of the growth parameter each time the power is turned on to the pet robot 1, and when the value exceeds a threshold value set in advance corresponding to “childhood”. Notifies the behavior model library 70 of this. In addition, the behavior model library 70
When this notification is given, the behavior model to be used is changed to the behavior model 70 k (2) of “childhood” for each of the above-mentioned growth-related condition items.

【0071】このとき「幼年期」の各行動モデル70
k(2)は「誕生期」の行動モデル70k(1)よりもノードN
ODE0 〜NODEn の数が多く、またこれら行動モデ
ル70k(2)から出力される行動の内容も「幼年期」の行
動に比べて難易度や複雑さのレベル(成長レベル)が高
くなっている。
At this time, each behavior model 70 of “childhood”
k (2) is the node N more than the behavior model 70 “birth” of k (1).
The number of ODE 0 to NODE n is large, and the content of the behavior output from the behavior model 70 k (2) also has a higher level of difficulty and complexity (growth level) than the behavior in “childhood”. ing.

【0072】かくしてこのペットロボット1において
は、この後はこれら行動モデル70k(2)に従って、例え
ば「モーション」については行動の数が増加することに
より「少しは高度かつ複雑」な動きとなるように、また
「行動」については「少しは目的をもった」行動となる
ように行動する。
Thus, in the pet robot 1, after that, according to the behavior model 70k (2) , for example, “motion” becomes “slightly sophisticated and complicated” by increasing the number of actions. In addition, regarding the "action", the action is performed so as to be "with a little purpose".

【0073】さらに学習モジュール74は、この後上述
の場合と同様にして、成長パラメータの値が「少年
期」、「青年期」及び「成人期」にそれぞれ対応させて
予め設定された各閾値を越える度にこれを行動モデルラ
イブラリ71に通知する。また行動モデルライブラリ7
1は、この通知が与えられる度に上述の各成長関連条件
項目について、それぞれ使用する行動モデルを「少年
期」、「青年期」及び「成人期」の行動モデル70k(3)
〜70k(5)に順次変更する。
Further, the learning module 74 thereafter sets the thresholds set in advance so that the values of the growth parameters correspond to “childhood”, “adolescence”, and “adulthood”, respectively, in the same manner as described above. This is notified to the behavior model library 71 each time it exceeds. Behavior model library 7
1. Each time this notification is given, the behavior model used for each of the above growth-related condition items is defined as a behavior model 70 k (3) of "childhood", "adolescence" and "adult".
Change sequentially to ~ 70k (5) .

【0074】このとき「少年期」、「青年期」及び「成
人期」の各行動モデル70k(3)〜70k(5)は、それぞれ
「成長ステージ」が上がるにつれてノードNODE0
NODEn の数が多くなり、またこれら行動モデル70
k(3)〜70k(5)から出力される行動の内容も「成長ステ
ージ」が上がるにつれて行動の難易度や複雑さのレベル
が高くなっている。
At this time, each of the behavior models 70 k (3) to 70 k (5) of “childhood”, “adolescence” and “adult” respectively includes nodes NODE 0 to NODE 0 to
The number of NODE n increases, and these behavior models 70
The content of the action output from k (3) to 70k (5) also increases in the level of difficulty and complexity of the action as the “growth stage” rises.

【0075】この結果このペットロボット1では、「成
長ステージ」が上がる(すなわち「誕生期」から「幼年
期」、「幼年期」から「少年期」、「少年期」から「青
年期」、「青年期」から「成人期」に変化する)に従っ
て、「モーション」が「単純」から「高度・複雑」に、
また「行動」が「単調」から「目的をもった行動」に順
次段階的に変化する。
As a result, in this pet robot 1, the “growth stage” is raised (ie, “birth stage” to “childhood”, “childhood” to “boyhood”, “childhood” to “adolescence”, “ "Adolescent" to "adult"), "motion" changes from "simple" to "advanced / complex"
Also, the “action” changes stepwise from “monotonous” to “action with purpose”.

【0076】このようにしてこのペットロボット1にお
いては、ユーザから与えられる教示や時間経過に応じ
て、行動及び動作が「誕生期」、「幼年期」、「少年
期」、「青年期」及び「成人期」の5段階で「成長」す
るようになされている。
As described above, in the pet robot 1, the actions and actions are changed to “birth period”, “childhood”, “boyhood”, “adolescence”, It is designed to "grow" in five stages of "adult".

【0077】なおこの実施の形態の場合、ペットロボッ
ト1の成長モデルは、図10に示すように「少年期」以
降において枝分かれするモデルとなっている。
In the case of this embodiment, the growth model of the pet robot 1 is a model that branches off after the "boyhood" as shown in FIG.

【0078】すなわちこのペットロボット1の場合、ア
プリケーション・レイヤ41(図5)の行動モデルライ
ブラリ70には、上述の各成長関連条件項目について、
「少年期」、「青年期」及び「成人期」の行動モデル7
k(3)〜70k(5)としてそれぞれ複数の行動モデルが用
意されている。
That is, in the case of the pet robot 1, the behavior model library 70 of the application layer 41 (FIG. 5) stores
Behavior model 7 for "childhood", "adolescence" and "adult"
A plurality of action models are prepared for each of 0 k (3) to 70 k (5) .

【0079】実際上、各成長関連条件項目の例えば「少
年期」の行動モデル70k(3)としては、動きが雑で速い
「荒々しい」性格の行動を行わせるための行動モデル
(CHILD 1)と、これよりも動きが滑らかで遅い「おっ
とり」とした性格の行動を行わせるための行動モデル
(CHILD 2)とが用意されている。
Actually, as the behavior model 70 k (3) of each growth-related condition item, for example, “childhood”, a behavior model (CHILD ) for performing an action with a rough and fast movement that is rough and fast. 1) and an action model (CHILD 2) for causing the user to perform an action of a “soft” character whose movement is smoother and slower than this.

【0080】また「青年期」の行動モデル70k(4)とし
ては、「少年期」の「荒々しい」性格よりもより動きが
雑で速い「いらいら」した性格の行動を行わせるための
行動モデル(YOUNG 1)と、これよりも動きが遅くかつ
滑らかな「普通」の性格の行動及び動作を行わせるため
の行動モデル(YOUNG 2)と、これよりも一層動作が遅
くかつ行動量が少ない「おっとり」とした性格の行動を
行わせるための行動モデル(YOUNG 3)とが用意されて
いる。
The behavior model 70 k (4) of the “adolescent” includes a behavior that is more sloppy and faster than the “rough” personality of the “boyhood” and has an “irritated” behavior. An action model (YOUNG 1) and an action model (YOUNG 2) for performing actions and actions of a “normal” character that is slower and smoother than this, and a slower action and an action amount An action model (YOUNG 3) is provided to allow the user to perform an action with a small "unseen" personality.

【0081】さらに「成人期」の行動モデル70k(5)
しては、「青年期」の「いらいら」した性格よりもより
動きが雑で速く、かつ非常に怒りやすい「攻撃的」な性
格の行動を行わせるための行動モデル(ADULT 1)と、
これよりも動きが滑らかで遅く、かつ怒りやすい「荒々
しい」性格の行動を行わせるための行動モデル(ADULT
2)と、これよりも動きが滑らかで遅く、かつ行動量が
少ない「おとなしい」性格の行動を行わせるための行動
モデル(ADULT 3)と、これよりもさらに一層動きが遅
く、かつ行動量が少ない「静かな」性格の行動を行わせ
るための行動モデル(ADULT 4)とが用意されている。
Further, the behavior model 70 k (5) of the “adult period” has a more aggressive “aggressive” character that moves more swiftly and is more angry than the “irritable” character of the “adolescent period”. Behavior model (ADULT 1)
An action model (ADULT) that allows the user to perform a behavior that is smoother, slower, and more angry and more angry.
2) and a behavior model (ADULT 3) for making the behavior “slow” with smoother and slower movement and less movement, and a movement that is even slower and lower than this An action model (ADULT 4) is provided to allow the user to perform actions with less "quiet" personality.

【0082】そしてアプリケーション・レイヤ41の学
習モジュール72(図5)は、上述のように行動モデル
ライブラリ70に対して「成長ステージ」を上げさせる
ための通知を行う際に、「少年期」以降では、その「成
長ステージ」において「叩かれた」及び「撫でられた」
回数等に基づいて、各成長関連条件項目の次の「成長ス
テージ」の行動モデルとしてどの「性格」の行動モデル
(CHILD 1、CHILD 2、YOUNG 1〜YOUNG 3、ADULT 1
〜ADULT 4)を用いるかを指定する。
When the learning module 72 (FIG. 5) of the application layer 41 notifies the behavior model library 70 to raise the “growth stage” as described above, the learning module 72 (FIG. 5) , "Strapped" and "stroked" in its "growth stage"
Based on the frequency, etc., the behavior model of any “character” (CHILD 1, CHILD 2, YOUNG 1 to YOUNG 3, ADULT 1) as the behavior model of the “growth stage” next to each growth-related condition item
~ ADULT 4) Specify whether to use.

【0083】この結果、行動モデルライブラリ70は、
この指定に基づいて、各成長関連条件項目について、
「少年期」以降では使用する行動モデル70k(3)〜70
k(5)を指定された「性格」の行動モデル(CHILD 1、CH
ILD 2、YOUNG 1〜YOUNG 3、ADULT 1〜ADULT 4)に
それぞれ変更する。
As a result, the behavior model library 70
Based on this designation, for each growth-related condition item,
Behavior model 70 k (3) -70 used after “childhood”
k (5) designated behavior model of “personality” (CHILD 1, CH
ILD2, YOUNG1 to YOUNG3, ADULT1 to ADULT4).

【0084】この場合「少年期」以降では、次の「成長
ステージ」に移る際、現在の「成長ステージ」での「性
格」によって次の「成長ステージ」での「性格」が決ま
っており、図10において矢印で結ばれた「性格」間で
の移行しかできない。従って例えば「少年期」において
「荒々しい」性格の行動モデル(CHILD 1)が用いられ
ている場合には、「青年期」において「おっとり」とし
た性格の行動モデル(YOUNG 3)に移行することができ
ない。
In this case, after “childhood”, when moving to the next “growth stage”, “character” in the next “growth stage” is determined by “character” in the current “growth stage”. Only the transition between the "characters" connected by arrows in FIG. 10 can be made. Therefore, for example, when the behavior model (CHILD 1) with the character “rough” in “childhood” is used, the behavior model (YOUNG 3) with the character “decoyed” in “adolescence” is used. Can not do.

【0085】このようにこのペットロボット1において
は、あたかも本物の動物が飼い主の飼育の仕方等によっ
て性格を形成してゆくかのごとく、ユーザからの働きか
け等に応じて、「成長」に伴って「性格」をも変化させ
てゆくようになされている。 (1−4)行動モデル70k の具体構成 次に、上述した各成長関連条件項目の行動モデル70k
(図9)の具体構成について説明する。
As described above, in this pet robot 1, as if a real animal forms a character according to the manner of breeding by the owner, etc., the pet robot 1 grows in accordance with the action of the user and the like. "Personality" is also changed. (1-4) Specific Configuration of Behavior Model 70 k Next, the behavior model 70 k of each of the growth-related condition items described above.
The specific configuration of FIG. 9 will be described.

【0086】このペットロボット1の場合、各成長関連
条件項目の行動モデル70k は、それぞれペットロボッ
ト1が発現できる全ての行動パターンが格納された広大
な状態空間を有している。
In the case of the pet robot 1, the behavior model 70 k of each growth-related condition item has a vast state space in which all behavior patterns that can be expressed by the pet robot 1 are stored.

【0087】そしてこれら行動モデル70k は、その状
態空間のうちの「歩く」、「寝る」及び「立つ」等のこ
のペットロボットにおける基本的な行動を生成する状態
空間部分をコアとして、「誕生期」には当該コアを含む
極一部だけを使用し、この後「成長」する度に、新たに
増やしたい状態空間部分(新たに発現できるようにする
行動や一連の行動パターンを生成する状態空間部分)へ
の遷移を許可すると共に使わなくなった状態空間部分
(発現しないようにする行動や一連の行動パターンを生
成する状態空間部分)を切り離すようにして、各「成長
ステージ」における行動モデル70k(1)〜70k(5)を生
成している。
The behavior model 70 k is based on a state space portion that generates basic behaviors of the pet robot such as “walk”, “sleep”, and “stand” in the state space as a core. In the “period”, only a very small part including the core is used, and each time the “growth” is performed, a state space part to be newly added (a state that creates a new action or a series of action patterns) The transition of the behavior model 70 in each “growth stage” is performed by permitting the transition to the “space stage” and separating the state space portion that is no longer used (the state space portion that generates a behavior or a series of behavior patterns that is not used). k (1) to 70 k (5) are generated.

【0088】そしてこのペットロボット1では、このよ
うに新たに増やしたい状態空間部分への遷移を許可した
り、不要な状態空間を切り離す方法として、その状態空
間への遷移確率を「成長」に応じて変更する方法を用い
ている。
In the pet robot 1, as a method of permitting a transition to a state space part to be newly added or separating an unnecessary state space, the transition probability to the state space is determined according to “growth”. Change method.

【0089】例えば図11において、ノードNODEA
からノードNODEB への遷移条件が『ボールを見つけ
た』ことであり、かつノードNODEB からの一連のノ
ード群90が『ボールに近づいてこれを蹴る』といった
一連の行動パターンを行うためのものであるとすると、
ノードNODEA においてボールを見つけたときには遷
移確率P1 で『ボールを追いかけてこれを蹴る』という
行動パターンPA1 が発現されるが、この遷移確率P1
が「0」である場合には、このような行動パターンPA
1 は決して発現されない。
For example, in FIG. 11, the node NODE A
The transition condition from the node NODE B to "node found" is that the series of nodes 90 from node NODE B perform a series of action patterns such as "approach the ball and kick it" Then
Although behavior pattern PA 1 of "kicking it chasing a ball" in the transition probability P 1 is when finding ball at node NODE A is expressed, the transition probability P 1
Is “0”, such an action pattern PA
1 is never expressed.

【0090】そこでこのペットロボット1においては、
ある「成長ステージ」になってからこのような行動パタ
ーンPA1 を発現させる場合には、初期時にはこの遷移
確率P1 を「0」に設定しておき、当該「成長ステー
ジ」になったときにこの遷移確率P1 を「0」よりも大
きい予め設定された数値に変更するようにする。またこ
れと逆に、ある「成長ステージ」となったときにこの行
動パターンPA1 を忘れさせる場合には、その「成長ス
テージ」になったときにノードNODEA からノードN
ODEB への遷移確率を「0」に変更するようにしてい
る。
Therefore, in this pet robot 1,
It is when the turned "growth stage" to express such behavior pattern PA 1 is the initial time may be set this transition probability P 1 to "0", when it is the "growth stage" the transition probability P 1 so as to change to a larger preset number than "0". On the contrary to this, in the case of forget this behavior pattern PA 1 when it becomes a "growth stage", the node NODE A from the node N when they become the "growth stage"
The transition probability to the ODE B are to be changed to "0".

【0091】そしてこのペットロボットでは、このよう
に必要箇所の遷移確率を更新するための具体的手法とし
て、上述の成長関連条件項目の各行動モデルには、「幼
年期」、「少年期」、「青年期」及び「成人期」の各
「成長ステージ」にそれぞれ対応させて、図12に示す
ようなファイル(以下、これを差分ファイルと呼ぶ)9
1A〜91Dが設けられている。
In this pet robot, as a specific method for updating the transition probabilities of the necessary portions, the behavior models of the growth-related condition items include “childhood”, “childhood”, Files corresponding to the “growth stages” of “adolescence” and “adult”, respectively, as shown in FIG.
1A to 91D are provided.

【0092】これら差分ファイル91A〜91Dは、そ
の「成長ステージ」に上がるに際して上述のように新た
な行動を発現させるために上述のように遷移確率を変更
すべきノード(図11におけるノードAに相当)のノー
ド名(番号)と、そのノードの状態遷移表80(図8)
における遷移確率を変更すべき箇所と、当該箇所におけ
る変更後の遷移確率とが格納されたものである。
The difference files 91A to 91D correspond to the nodes whose transition probabilities are to be changed as described above (to correspond to the node A in FIG. 11) in order to express a new action as described above when going up to the “growth stage”. ) And the node state transition table 80 (FIG. 8)
In which the transition probability at which the transition probability should be changed and the transition probability after the change at the location are stored.

【0093】そして各成長関連条件項目の行動モデル7
k は、初期時には「誕生期」用の行動モデル70k(1)
で行動を生成する一方、この後上述のように学習モジュ
ール72(図5)から「成長」したとの通知が与えられ
ると、対応する「成長ステージ」用の差分ファイル91
〜91Dに基づいて、当該差分ファイル91〜91Dに
記述された各ノードについて、それぞれ指定された箇所
の遷移確率を指定された数値に変更する。
The behavior model 7 for each growth-related condition item
0 k is initially the behavior model 70 k (1) for “birth period”
On the other hand, when the learning module 72 (FIG. 5) later gives a notification that "growth" has been performed as described above, the corresponding difference file 91 for "growth stage" is generated.
For each of the nodes described in the difference files 91 to 91D, the transition probabilities of the designated portions are changed to the designated numerical values based on 91D.

【0094】例えばこの図8及び図12に示す例の場合
において、「幼年期」に成長したときには、各成長関連
条件項目の行動モデル70k は、ノードNODE100
状態遷移表80における遷移確率が記述された領域(図
8において「出力行動」の列よりも下側でかつ「データ
の範囲」の行よりも右側部分)の「1行目」でかつ「1
列目」の遷移確率を「20」〔%〕に変更すると共に、当
該状態遷移表の「1行目」でかつ「n列目」の遷移確率
を「30」〔%〕、……のようにそれぞれ変更する。また
これと共に各成長関連条件項目の行動モデル70k は、
この「幼年期」用の差分ファイル91Aに記述された他
のノードNODE320 、NODE720 、……についても
同様にして対応する遷移確率をそれぞれ変更する。
For example, in the case of the examples shown in FIGS. 8 and 12, when the child grows up in “childhood”, the behavior model 70 k of each growth-related condition item has a transition probability in the state transition table 80 of the node NODE 100. "1st row" and "1" in the described area (in FIG. 8, below the column of "output action" and on the right side of the row of "data range")
The transition probability of the “column” is changed to “20” [%], and the transition probability of the “first row” and “n-th column” of the state transition table is “30” [%],. To each. At the same time, the behavior model 70 k of each growth-related condition item is:
The corresponding transition probabilities are similarly changed for the other nodes NODE 320 , NODE 720 ,... Described in the difference file 91A for “childhood”.

【0095】この場合このようにして数値を変更する遷
移確率の中には、それまでの遷移確率が「0」であった
(すなわち一連の行動パターンの起点となるノードへの
遷移が禁止されていた)ものや、変更後の遷移確率が
「0」となる(すなわち一連の行動パターンの起点とな
るノードへの遷移が禁止される)ものが含まれている
が、このようにその遷移確率が「0」から所定の数値に
変更されたり、又は変更後の遷移確率が「0」となるこ
とにより、新たな「成長ステージ」においてその一連の
行動パターンが発現されるようになったり、又はその一
連の行動パターンが発現されなくなったりする。
In this case, among the transition probabilities that change the numerical value in this way, the transition probability up to that point is “0” (that is, transition to a node serving as a starting point of a series of action patterns is prohibited). And the transition probability after change is “0” (that is, the transition to the node serving as the starting point of the series of action patterns is prohibited). By changing from "0" to a predetermined numerical value, or by changing the transition probability to "0", the series of behavior patterns comes to appear in a new "growth stage", or A series of behavior patterns may not be expressed.

【0096】なおこのようにして必要な遷移確率を変更
した場合においても、変更後の状態遷移表80における
対応する行に含まれる各遷移確率の和が100 〔%〕とな
るように各差分ファイル91A〜91Dにおける各遷移
確率の値が選定されている。
Even when the necessary transition probabilities are changed in this manner, each difference file is set so that the sum of the transition probabilities included in the corresponding row in the changed state transition table 80 becomes 100 [%]. The values of the respective transition probabilities in 91A to 91D are selected.

【0097】(1−5)本実施の形態の動作及び効果 以上の構成において、このペットロボット1では、全て
の行動パターンが格納された広大な状態空間のうちの基
本的な行動を行うための状態空間部分をコアとして、
「誕生期」には当該コアを含む極一部だけを使用し、こ
の後「成長」する度に、コア以外の使わなくなった状態
空間部分を切り離すと共に新たに増やしたい状態空間部
分への遷移を許可するようにして、各「成長ステージ」
における行動モデル70k(1)〜70k(n)を生成し、当該
生成した行動モデル70k(1)〜70k(n)に従って行動す
る。
(1-5) Operation and Effect of the Embodiment In the above configuration, the pet robot 1 performs basic actions in a vast state space in which all action patterns are stored. With the state space part as the core,
In the "birth period", only a very small part including the core is used, and each time "growth" thereafter, the unused state space other than the core is separated and the transition to the state space that you want to increase newly Allow each "growth stage" to allow
, The action models 70 k (1) to 70 k (n) are generated, and the action is performed according to the generated action models 70 k (1) to 70 k (n) .

【0098】従ってこのペットロボット1では、各「成
長ステージ」における行動モデル70k(1)〜70k(n)
状態空間が連続的に変化してゆくため、「成長」の前後
における出力行動の不連続性を軽減して、より自然に
「成長」を表現することができる。またこのペットロボ
ット1では、基本的な行動を生成するための状態空間部
分を全ての「成長ステージ」において共用しているた
め、基本的な行動の学習結果を順次次の「成長ステー
ジ」に持ち越すことができる。
Therefore, in the pet robot 1, the state space of the behavior models 70 k (1) to 70 k (n) in each “growth stage” changes continuously, so that the output behavior before and after “growth” is obtained. Can be reduced, and "growth" can be expressed more naturally. Further, in this pet robot 1, the state space portion for generating the basic action is shared by all the “growth stages”, so that the learning result of the basic action is sequentially carried over to the next “growth stage”. be able to.

【0099】さらにこのペットロボット1では、このよ
うに基本的な行動を生成する状態空間部分を全ての「成
長ステージ」において共用しているため、各「成長ステ
ージ」の行動モデル70k(1)〜70k(n)の作成作業が容
易であり、また従来のように各「成長ステージ」ごとに
個別の行動モデルを用意する場合に比べて行動モデル全
体としてのデータ量を削減することもできる。
Further, in the pet robot 1, since the state space part for generating the basic behavior is shared by all the “growth stages”, the behavior model 70 k (1) of each “growth stage” is used. It is easy to create up to 70 k (n) , and it is also possible to reduce the data amount of the entire behavior model as compared with the case where an individual behavior model is prepared for each "growth stage" as in the past. .

【0100】さらにこのペットロボット1では、上述の
ように「成長」に合わせて不要な一連の行動パターンの
状態空間を切り離し、必要な一連の行動パターンの状態
空間への遷移を許可するようにして各「成長ステージ」
における行動モデル70k(1)〜70k(n)を生成するよう
にしているため、各一連の行動パターンを部品化するこ
とができ、その分各成長関連条件項目の行動モデル70
K の生成作業をより一層容易化することができる。
Further, in the pet robot 1, as described above, the state space of a series of unnecessary action patterns is cut off in accordance with the "growth", and the transition of the series of necessary action patterns to the state space is permitted. Each "Growth Stage"
Since the behavior models 70 k (1) to 70 k (n) in the above are generated, each series of behavior patterns can be made into parts, and the behavior model 70
The operation of generating K can be further facilitated.

【0101】以上の構成によれば、全ての行動パターン
が格納された広大な状態空間のうちの基本的な行動を行
うための状態空間部分をコアとして、「誕生期」には当
該コアを含む極一部だけを使用し、この後「成長」する
度に、コア以外の使わなくなった状態空間部分を切り離
すと共に新たに増やしたい状態空間部分への遷移を許可
するようにして各「成長ステージ」における行動モデル
70k(1)〜70k(n)を生成するようにしたことにより、
各「成長ステージ」における行動モデル70k(1)〜70
k(n)の状態空間を連続的に変化させて、「成長」の前後
における出力行動の不連続性を軽減することができる。
かくするにつきより自然に「成長」を表現することがで
き、かくしてエンターテイメント性を向上させ得るペッ
トロボットを実現できる。
According to the above configuration, the state space portion for performing basic actions in the vast state space in which all action patterns are stored is used as a core, and the "birth period" includes the core. Using only a very small part, each time "growth" thereafter, separate the unused state space parts other than the core and allow transition to the state space part that you want to newly increase, each "growth stage" By generating the behavior models 70 k (1) to 70 k (n) in
Behavior model 70 k (1) to 70 in each “growth stage”
By continuously changing the state space of k (n) , it is possible to reduce the discontinuity of the output behavior before and after “growth”.
Thus, "growth" can be more naturally expressed, and thus a pet robot that can improve entertainment properties can be realized.

【0102】(2)第2の実施の形態 (2−1)原理 図11に示すように、「成長」によって新たに取得する
一連の行動パターンPA1 への遷移が特定の状態(ノー
ドNODEA )からしか起こらない場合には、その遷移
確率P1 を変更するだけでその行動パターンの発現を制
御することができる。しかしながら図13に示すよう
に、この遷移が複数の状態(ノードNODEA1〜NOD
A3)から起こる場合には、対応する全ての遷移確率P
10〜P12をコトロールすることは容易ではない。
[0102] (2) As shown in the second embodiment (2-1) Principle Figure 11, the transition to a series of behavior patterns PA 1 to get new by "growth" is a particular state (node NODE A If the only occur from), it can control the expression of the behavior patterns by simply changing the transition probabilities P 1. However, as shown in FIG. 13, this transition has a plurality of states (nodes NODE A1 to NOD
E A3 ), all corresponding transition probabilities P
To Kotororu the 10 to P 12 it is not easy.

【0103】そこでこのような場合には、図14に示す
ように、行動モデル中に仮想的なノード(以下、これを
仮想ノードと呼ぶ)NODEK を設けると共に、各ノー
ドNODEA1〜NODEA3から一連の行動パターンPA
1 の起点となるノードNODEB への遷移を仮想ノード
NODEK への遷移に置き換え、仮想ノードNODEK
と、上述の一連の行動パターンPA1 の起点のノードN
ODEB とを対応付けるようにすれば良い。
Therefore, in such a case, as shown in FIG. 14, a virtual node (hereinafter, referred to as a virtual node) NODE K is provided in the action model, and the nodes NODE A1 to NODE A3 are connected to each other. A series of action patterns PA
Replacing the transition to the node NODE B as the first starting point to the transition to the virtual node NODE K, the virtual node NODE K
And the node N at the starting point of the above-described series of action patterns PA 1
What is necessary is just to make it correspond to ODE B.

【0104】このようにすることによって、遷移確率の
コントロールも容易となり、また「成長」に伴ってこの
一連の行動パターンPA1 を他の一連の行動パターンP
2に切り換える場合においても、仮想ノードNODE
K に対する実ノードの対応付けを前の行動パターンPA
1 の起点のノードNODEB から次の行動パターンPA
2 の起点のノードNODEC に変更するだけでこれを容
易に行うことができる。
In this way, the transition probability can be easily controlled, and this series of action patterns PA 1 is replaced with another series of action patterns P
In the case of switching to the A 2 also, the virtual node NODE
The behavior pattern PA before the correspondence of the real node to K
From the node NODE B at the starting point of 1 to the next action pattern PA
This can be done easily only by changing the node NODE C for 2 origin.

【0105】(2−2)本実施の形態によるペットロボ
ット100の構成 ここで図1の100は全体として第2の実施の形態によ
るペットロボットを示すものであり、「成長」に伴う各
成長関連条件項目の行動モデル70k (図9)の構成が
異なる点を除いて第1の実施の形態のペットロボット1
と同様に構成されている。
(2-2) Configuration of the Pet Robot 100 According to the Present Embodiment Here, 100 in FIG. 1 shows the pet robot according to the second embodiment as a whole, and each of the pet robots related to “growth”. The pet robot 1 according to the first embodiment, except that the configuration of the action model 70 k (FIG. 9) of the condition item is different.
It is configured similarly to.

【0106】すなわちこのペットロボット100におい
て、各成長関連条件項目の行動モデル70k には、図1
5に示すように、それぞれ「立つ」、「座る」及び「歩
く」などの各「成長ステージ」に共通した基本的な行動
を生成するための行動モデル(以下、これを基本行動モ
デルと呼ぶ)101が設けられており、この基本行動モ
デル101内にいくつかの仮想ノードNODEK1〜NO
DEKnが設けられている。
That is, in this pet robot 100, the behavior model 70 k of each growth-related condition item includes
As shown in FIG. 5, an action model for generating a basic action common to each “growth stage” such as “stand”, “sit”, and “walk” (hereinafter referred to as a basic action model) 101, some virtual nodes NODE K1 to NODE are included in the basic behavior model 101.
DE Kn is provided.

【0107】また各成長関連条件項目の行動モデル70
k には、各「成長ステージ」にそれぞれ対応させて、行
動パターンファイル102A〜102Eが設けられてい
る。これら各行動パターンファイル102A〜102E
は、それぞれ図16に示すように、その「成長ステー
ジ」において基本行動モデル101内の各仮想ノードN
ODEK1〜NODEKnとそれぞれ対応付けられた各一連
の行動パターンPA1 〜PAn をそれぞれ生成するノー
ド群の状態遷移表を集めてファイル化したものである。
The behavior model 70 for each growth-related condition item
In k , behavior pattern files 102A to 102E are provided corresponding to the respective “growth stages”. These action pattern files 102A to 102E
Are, as shown in FIG. 16, each virtual node N in the basic behavior model 101 in the “growth stage”.
This is a file in which state transition tables of a group of nodes that respectively generate a series of action patterns PA 1 to PA n associated with ODE K1 to NODE Kn are collected.

【0108】さらに各成長関連条件項目の行動モデル7
k には、図17に示すように、各「成長ステージ」に
おける各仮想ノードNODEK1〜NODEKnと実ノード
(その「成長ステージ」の行動パターンファイル102
A〜102Eに格納されたいずれかの行動パターンPA
1 〜PAn の起点のノード、以下同じ)との対応関係を
表す対応表103A〜103Eをまとめたファイル(以
下、これを差分ファイル103と呼ぶ)が設けられてい
る。
Further, the behavior model 7 of each growth-related condition item
0 The k, as shown in FIG. 17, behavior pattern file 102 for each virtual node NODE K1 ~NODE Kn and the actual node in the "growth stage" (the "growth stage"
Any of the action patterns PA stored in A to 102E
There is provided a file (hereinafter, referred to as a difference file 103) in which correspondence tables 103A to 103E each representing a correspondence relationship with a node at a starting point of 1 to PA n (hereinafter the same).

【0109】そして各成長関連条件項目の行動モデル7
k は、初期時には「誕生期」用の行動パターンファイ
ル102Aのデータを読み出してこれを基本行動モデル
101に付加すると共に、差分ファイル103に格納さ
れている「誕生期」用の対応表103Aに基づいて基本
行動モデル101内の各仮想ノードNODEK1〜NOD
Knを実ノードに変換するようにして「誕生期」用の行
動モデル70k(1)を生成し、当該行動モデル70k(1)
基づいて行動を生成する。
The behavior model 7 for each growth-related condition item
0 k, together with the initial time to add it reads the data of the behavior pattern file 102A for the "birth stage" to the basic behavior model 101, the corresponding table 103A for "Birth-life" stored in the difference file 103 Based on each virtual node NODE K1 to NOD in the basic behavior model 101.
An action model 70 k (1) for “birth period” is generated by converting E Kn into a real node, and an action is generated based on the action model 70 k (1) .

【0110】また各成長関連条件項目の行動モデル70
k は、この後学習モジュール72(図5)から「成長」
したとの通知が与えられると、「誕生期」用の行動パタ
ーンファイル102Aのデータに代えて「幼年期」用の
行動パターンファイル102Bのデータを基本行動モデ
ル101に付加すると共に、差分ファイル103に格納
されている「幼年期」用の対応表103Bに基づいて基
本行動モデル101内の各仮想ノードNODEK1〜NO
DEKnを実ノードに変換するようにして「幼年期」用の
行動モデル70k(2)を生成し、当該行動モデル70k(2)
に基づいて行動を生成する。
The behavior model 70 for each growth-related condition item
k then "grows" from learning module 72 (FIG. 5).
When the notification is given, the data of the behavior pattern file 102B for "childhood" is added to the basic behavior model 101 in place of the data of the behavior pattern file 102A for "birth" and the difference file 103 Each virtual node NODE K1 to NO in the basic behavior model 101 based on the stored “childhood” correspondence table 103B
A behavior model 70 k (2) for “childhood” is generated by converting DE Kn into a real node, and the behavior model 70 k (2)
Generate an action based on

【0111】さらに各成長関連条件項目の行動モデル7
k は、この後これと同様にして、学習モジュール72
から「成長」したとの通知が与えられる度に、基本行動
モデル101に付加する行動パターンファイル102A
〜102Eのデータを「少年期」用、「青年期」用及び
「成人期」用のものに順次変更すると共に、差分ファイ
ル103に格納されたその「成長ステージ」の対応表1
03C〜103Eに基づいて基本行動モデル101内の
各仮想ノードNODEK1〜NODEKnを実ノードに変換
するようにして「少年期」用、「青年期」用及び「成人
期」用の行動モデル70k(3)〜70k(5)を順次生成し、
その行動モデル70k(3)〜70k(5)に基づいて行動を生
成する。
Further, the behavior model 7 for each growth-related condition item
0 k is then set to the learning module 72
Each time a notification of “growth” is given from the user, the behavior pattern file 102A added to the basic behavior model 101
The data of “-102E” are sequentially changed to those for “childhood”, “adolescence” and “adult”, and the “growth stage” correspondence table 1 stored in the difference file 103 is shown in FIG.
Each of the virtual nodes NODE K1 to NODE Kn in the basic behavior model 101 is converted into a real node based on the basic behavior model 03C to 103E, so that the behavior model 70 for “childhood”, “adolescence”, and “adult” is obtained. k (3) to 70 k (5) are sequentially generated,
An action is generated based on the action models 70 k (3) to 70 k (5) .

【0112】このようにしてこのペットロボット100
では、基本行動モデル101内の各仮想ノードNODE
K1〜NODEKnにそれぞれ対応させる行動パターンPA
1 〜PAn を「成長」に伴って順次変更するようにし
て、「成長」に応じて行動を変化させるようになされて
いる。
Thus, the pet robot 100
Then, each virtual node NODE in the basic behavior model 101
Behavior pattern PA corresponding to each of K1 to NODE Kn
And a 1 ~PA n to sequentially changed in accordance with the "growth", it has been made to alter act accordingly "growth".

【0113】(2−3)本実施の形態の動作及び効果 以上の構成において、このペットロボット100では、
基本行動モデル101内の各仮想ノードNODEK1〜N
ODEKnにそれぞれ対応させる行動パターンPA1 〜P
n を「成長」に伴って順次変更するようにして、「成
長」に応じて行動を変化させる。
(2-3) Operation and Effect of the Embodiment In the above configuration, the pet robot 100
Each virtual node NODE K1 to N in the basic behavior model 101
Behavior patterns PA 1 to P corresponding to ODE Kn
An is changed sequentially with “growth”, and the behavior is changed according to “growth”.

【0114】従ってこのペットロボット100では、基
本的な行動モデルを生成するための基本行動モデル10
1を全ての「成長ステージ」において共用しているた
め、全ての「成長ステージ」を通して行動に一貫性をも
たせることができ、また基本的な行動の学習結果を順次
次の「成長ステージ」に持ち越すことができる。
Therefore, in the pet robot 100, the basic behavior model 10 for generating a basic behavior model
1 is shared in all "Growth Stages", so that behavior can be consistent throughout all "Growth Stages" and learning results of basic behaviors are sequentially carried over to the next "Growth Stage" be able to.

【0115】またこのペットロボット100では、この
ように基本行動モデル101を全ての「成長ステージ」
において共用するため、行動モデルの作成作業が容易で
あり、また従来のように各「成長ステージ」ごとに個別
の行動モデルを用意する場合に比べて行動モデル全体と
してのデータ量を削減することもできる。
Further, in this pet robot 100, the basic behavior model 101 is thus converted into all the “growth stages”.
This makes it easy to create behavior models, and also reduces the data volume of the entire behavior model as compared to the case where individual behavior models are prepared for each "growth stage" as in the past. it can.

【0116】さらにこのペットロボット100では、基
本行動モデル101内の各仮想ノードNODEK1〜NO
DEKnに対応付ける各行動パターンPA1 〜PAn を部
品化することができ、その分各成長関連条件項目の行動
モデル70K の生成作業をより一層容易化することがで
きる。
Further, in the pet robot 100, the virtual nodes NODE K1 to NODE in the basic behavior model 101
Each of the behavior patterns PA 1 to PA n associated with DE Kn can be made into parts, and the task of generating the behavior model 70 K of each growth-related condition item can be further facilitated.

【0117】さらにこのペットロボット100では、こ
のような第1の実施の形態において得られる作用効果と
同様の作用効果に加えて、上述のように仮想ノードNO
DEK1〜NODEKnを利用するようにしているために、
例えば図13のようにある一連の行動パターンPA1
の遷移があちらこちらのノードNODEA1〜NODEA3
から起こる場合においても、各成長関連条件項目の行動
モデル70K を容易に生成し得るようにすることができ
る。
Further, in the pet robot 100, in addition to the same functions and effects as those obtained in the first embodiment, as described above, the virtual node NO
In order to use DE K1- NODE Kn ,
For example a series of behavior patterns node NODE A1 transition is here and there to PA 1 in as shown in FIG. 13 ~NODE A3
When that occurs from also it can be made to the behavior model 70 K of the growth-related condition item can readily generated.

【0118】以上の構成によれば、基本行動モデル10
1内に仮想ノードNODEK1〜NODEKnを設けると共
に、各仮想ノードNODEK1〜NODEKnにそれぞれ
「誕生期」用の各一連の行動パターンPA1 〜PA
n (の起点のノード)を対応付けるようにして各「誕生
期」用の行動モデル70k(1)を生成すると共に、この後
「成長」に伴って各仮想ノードNODEK1〜NODEKn
にそれぞれ対応付ける各一連の行動パターンPA1 〜P
n を「幼年期」用、「少年期」用、「青年期」用及び
「成人期」用に切り換えてゆくようにして、これら「幼
年期」用、「少年期」用、「青年期」用及び「成人期」
用の各行動モデル70k(2)〜70k(5)を生成するように
したことにより、全ての「成長ステージ」を通して行動
に一貫性をもたせることができる。かくするにつきより
自然に「成長」を表現することができ、かくしてエンタ
ーテイメント性を向上させ得るペットロボットを実現で
きる。
According to the above configuration, the basic behavior model 10
1, virtual nodes NODE K1 to NODE Kn are provided, and each of the virtual nodes NODE K1 to NODE Kn has a series of behavior patterns PA 1 to PA for “birth period”.
n (originating nodes) are associated with each other to generate the behavior model 70 k (1) for each “birth period”, and thereafter, with the “growth”, the virtual nodes NODE K1 to NODE Kn
Each of a series of action patterns PA 1 to P
For the "childhood" of the A n, "childhood" for, as Yuku is switched for the for the "adolescence" and "adulthood", for these "childhood", for the "childhood", "adolescence "And" Adult "
By generating the behavior models 70 k (2) to 70 k (5) , the behavior can be made consistent throughout all “growth stages”. Thus, "growth" can be more naturally expressed, and thus a pet robot that can improve entertainment characteristics can be realized.

【0119】(3)他の実施の形態 なお上述の第1及び第2の実施の形態においては、本発
明を4足歩行型のペットロボット1、100に適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、この他種々の形態のロボットに広く適用することが
できる。
(3) Other Embodiments In the above-described first and second embodiments, a case has been described in which the present invention is applied to the quadruped walking pet robots 1 and 100. However, the present invention is not limited to this, and can be widely applied to various other types of robots.

【0120】また上述の第1及び第2の実施の形態にお
いては、「成長」に伴って各「成長ステージ」の行動モ
デル70k(1)〜70k(5)の状態空間を順次拡大してゆく
場合について述べたが、本発明はこれに限らず、各「成
長ステージ」の行動モデル70k(1)〜70k(5)の状態空
間を順次縮小させたり、又は拡大の途中でいずれかの
「成長ステージ」においてその行動モデル70k(1)〜7
k(5)の状態空間を縮小させたりするようにしても良
い。
In the above-described first and second embodiments, the state space of the behavior models 70 k (1) to 70 k (5) of each “growth stage” is sequentially enlarged with “growth”. However, the present invention is not limited to this, and the state space of the behavior models 70 k (1) to 70 k (5) of each “growth stage” is sequentially reduced or changed during the expansion. At the "growth stage", the behavior model 70 k (1) -7
The state space of 0 k (5) may be reduced.

【0121】さらに上述の第1及び第2の実施の形態に
おいては、ペットロボット1、100が5段階で「成
長」するようにした場合について述べたが、本発明はこ
れに限らず、5以外の段階数で「成長」するようにして
も良い。
Furthermore, in the above-described first and second embodiments, the case where the pet robots 1 and 100 “grow” in five stages has been described. However, the present invention is not limited to this, and the present invention is not limited thereto. It may be made to "grow" in the number of steps of.

【0122】さらに上述の第1の実施の形態において
は、行動モデル(ペットロボット1が行える全ての行動
パターンを含む行動モデル)を保持する保持手段と、当
該行動モデルの一部又は全部の状態空間を用いて行動を
生成する行動生成手段とを1つの行動モデル70k 及び
CPU10により構成するようにした場合について述べ
たが、本発明はこれに限らず、この他種々の構成を広く
適用することができる。
Further, in the above-described first embodiment, the holding means for holding the behavior model (the behavior model including all behavior patterns that can be performed by the pet robot 1), and the state space of part or all of the behavior model Has been described in which the action generation means for generating an action by using one action model 70 k and the CPU 10 has been described. However, the present invention is not limited to this, and various other configurations can be widely applied. Can be.

【0123】さらに上述の第2の実施の形態において
は、仮想ノードNODEK1〜NODEKnに割り当てるノ
ード群を変更する変更手段を1つの行動モデル70k
びCPU10により構成するようにした場合について述
べたが、本発明はこれに限らず、この他種々の構成を広
く適用することができる。
Further, in the above-described second embodiment, a case has been described in which the changing means for changing the node group assigned to the virtual nodes NODE K1 to NODE Kn is constituted by one action model 70 k and the CPU 10. However, the present invention is not limited to this, and various other configurations can be widely applied.

【0124】[0124]

【発明の効果】上述のように本発明によれば、ロボット
装置及びその制御方法において、行動モデルの一部又は
全部の状態空間を用いて行動を生成し、その状態空間
を、拡大縮小させながら変化させるようにしたことによ
り、行動生成に使用する状態空間を連続的に変化させる
ことができ、行動生成に使用する状態空間の変化の前後
における行動出力の不連続性を低減することができる。
かくするにつき出力行動の種類等を滑らかにかつ自然に
順次変化させてゆくことができ、かくしてエンターテイ
メント性を向上させ得るロボット装置及びその制御方法
を実現できる。
As described above, according to the present invention, in a robot apparatus and a control method thereof, an action is generated using a part or all of a state space of an action model, and the state space is enlarged and reduced. By changing the state space, the state space used for generating the action can be changed continuously, and the discontinuity of the action output before and after the change of the state space used for generating the action can be reduced.
As a result, the type of output action and the like can be smoothly and naturally sequentially changed, and thus a robot apparatus and a control method thereof capable of improving entertainment characteristics can be realized.

【0125】またロボット装置及びその制御方法におい
て、確率状態遷移モデルでなる行動モデルにおける所定
のノードへの遷移を仮想的なノードでなる仮想ノードへ
の遷移として記述し、当該仮想ノードに所定の第1のノ
ード群を割り当てると共に、仮想ノードに割り当てるノ
ード群を順次変更するようにしたことにより、基本とな
る行動モデルが固定化されているため、出力行動に一貫
性をもたせながらこれを順次変化させることができる。
かくするにつき出力行動の種類等を滑らかにかつ自然に
順次変化させてゆくことができ、かくしてエンターテイ
メント性を向上させ得るロボット装置及びその制御方法
を実現できる。
Further, in the robot apparatus and the control method therefor, a transition to a predetermined node in the action model composed of the stochastic state transition model is described as a transition to a virtual node composed of a virtual node. By assigning one node group and sequentially changing the node group assigned to the virtual node, the basic behavior model is fixed, so that the output behavior is sequentially changed while maintaining consistency. be able to.
As a result, the type of output action and the like can be smoothly and naturally sequentially changed, and thus a robot apparatus and a control method thereof capable of improving entertainment characteristics can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1及び第2の実施の形態によるペットロボッ
トの外観構成を示す斜視図である。
FIG. 1 is a perspective view illustrating an external configuration of a pet robot according to first and second embodiments.

【図2】ペットロボットの回路構成を示すブロック図で
ある。
FIG. 2 is a block diagram illustrating a circuit configuration of the pet robot.

【図3】制御プログラムのソフトウェア構成を示す概念
図である。
FIG. 3 is a conceptual diagram showing a software configuration of a control program.

【図4】ミドル・ウェア・レイヤのソフトウェア構成を
示す概念図である。
FIG. 4 is a conceptual diagram showing a software configuration of a middleware layer.

【図5】アプリケーション・レイヤのソフトウェア構成
を示す概念図である。
FIG. 5 is a conceptual diagram showing a software configuration of an application layer.

【図6】行動モデルライブラリの説明に供する概念図で
ある。
FIG. 6 is a conceptual diagram serving to explain an action model library.

【図7】確率オートマトンを示す略線図である。FIG. 7 is a schematic diagram illustrating a stochastic automaton.

【図8】状態遷移表を示す図表である。FIG. 8 is a table showing a state transition table.

【図9】行動モデルライブラリの詳細構成を示す概念図
である。
FIG. 9 is a conceptual diagram showing a detailed configuration of an action model library.

【図10】ペットロボットの成長モデルを示す概念図で
ある。
FIG. 10 is a conceptual diagram showing a growth model of a pet robot.

【図11】成長に伴う行動パターンの獲得及び忘却の説
明に供する概念図である。
FIG. 11 is a conceptual diagram for describing acquisition and forgetting of a behavior pattern accompanying growth.

【図12】第1の実施の形態における差分ファイルの説
明に供する概念図である。
FIG. 12 is a conceptual diagram serving to explain a difference file according to the first embodiment.

【図13】複数のノードから1つの行動パターンの起点
ノードへの遷移の説明に供する概念図である。
FIG. 13 is a conceptual diagram explaining transition from a plurality of nodes to a starting node of one action pattern.

【図14】仮想ノードの利用の説明に供する概念図であ
る。
FIG. 14 is a conceptual diagram explaining the use of a virtual node.

【図15】第2の実施の形態における各行動関連条件項
目の行動モデルの構成を示す概念図である。
FIG. 15 is a conceptual diagram showing a configuration of an action model of each action-related condition item according to the second embodiment.

【図16】行動パターンファイルの説明に供する概念図
である。
FIG. 16 is a conceptual diagram serving to explain an action pattern file.

【図17】第2の実施の形態による差分ファイルの説明
に供する概念図である。
FIG. 17 is a conceptual diagram serving to illustrate a difference file according to the second embodiment.

【符号の説明】[Explanation of symbols]

1、100……ペットロボット、10……CPU、16
……コントロール部 33……バーチャルロボット、40……ミドル・ウェア
・レイヤ、41、100……アプリケーション・ウェ
ア、70……行動モデルライブラリ、701 〜70n
70k 、70k(1)〜 70k(5)、……行動モデル、91
A〜91D、103……差分ファイル、101……基本
行動モデル、102A〜102E……行動パターンファ
イル、PA1 〜PAn ……行動パターン、NODEK1
NODEKn……仮想ノード。
1, 100 ... pet robot, 10 ... CPU, 16
... Control unit 33... Virtual robot, 40... Middleware layer, 41, 100... Applicationware 70... Behavior model library, 70 1 to 70 n ,
70 k , 70 k (1) to 70 k (5) ,..., Behavior model, 91
A~91D, 103 ...... difference file, 101 ...... basic behavior model, 102A~102E ...... behavior pattern file, PA 1 ~PA n ...... behavior patterns, NODE K1 ~
NODE Kn ...... Virtual node.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 DF02 DF04 EF16 EF23 EF29 3F059 AA00 BA00 BB06 DA07 DB04 DC00 DC01 DC08 FC00 5H004 GA26 GB16 HA07 HB07 HB08 HB09 HB15 JB06 KD55 KD56 KD62 KD63 MA29 MA32 9A001 BB03 FF04 GG05 HH05 HH21 JJ07 KK29 KK31 KK32  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 DF02 DF04 EF16 EF23 EF29 3F059 AA00 BA00 BB06 DA07 DB04 DC00 DC01 DC08 FC00 5H004 GA26 GB16 HA07 HB07 HB08 HB09 HB15 JB29 KD55 KD56 MA63 BB03 FF04 GG05 HH05 HH21 JJ07 KK29 KK31 KK32

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】行動モデルを保持する保持手段と、 上記行動モデルの一部又は全部の状態空間を用いて行動
を生成する行動生成手段とを具え、 上記行動生成手段は、 上記行動モデルのうちの上記行動生成に使用する上記状
態空間を、拡大縮小させながら変化させることを特徴と
するロボット装置。
1. An apparatus comprising: holding means for holding an action model; and action generating means for generating an action using a part or all of the state space of the action model, wherein the action generating means includes: Wherein the state space used for generating the action is changed while being enlarged or reduced.
【請求項2】上記行動モデルは、確率状態遷移モデルで
なり、 上記行動生成手段は、 上記行動モデルのうちの遷移確率を0とすることで遷移
が禁止されていた状態への当該遷移確率を0よりも大き
い所定の値に変更することによって、上記行動モデルの
うちの上記行動生成に使用する上記状態空間を拡大する
ことを特徴とする請求項1に記載のロボット装置。
2. The behavior model is a stochastic state transition model. The behavior generation means sets the transition probability to a state in which transition is prohibited by setting the transition probability of the behavior model to 0. The robot apparatus according to claim 1, wherein the state space used for generating the action in the action model is expanded by changing the state space to a predetermined value larger than 0.
【請求項3】上記行動モデルは、確率状態遷移モデルで
なり、 上記行動生成手段は、 対象とする状態への遷移確率を0とすることによって、
上記行動モデルのうちの上記行動生成に使用する上記状
態空間を縮小することを特徴とする請求項1に記載のロ
ボット装置。
3. The behavior model is a probability state transition model, and the behavior generation means sets a transition probability to a target state to 0,
The robot apparatus according to claim 1, wherein the state space used for generating the action in the action model is reduced.
【請求項4】段階的に成長する成長モデルを有し、 上記行動生成手段は、 上記成長モデルの上記成長に合わせて上記行動モデルの
うちの上記行動生成に使用する状態空間を、拡大縮小さ
せながら変化させることを特徴とする請求項1に記載の
ロボット装置。
4. A growth model that grows in a stepwise manner, wherein the action generation means expands or contracts a state space used for the action generation in the action model in accordance with the growth of the growth model. The robot apparatus according to claim 1, wherein the change is performed while changing.
【請求項5】状態遷移モデルでなる行動モデルを有し、
当該行動モデルに基づいて行動を生成するロボット装置
において、 上記行動モデルでは、所定のノードへの遷移が仮想的な
ノードでなる仮想ノードへの遷移として記述されると共
に、当該仮想ノードに所定のノード群が割り当てられ、 上記仮想ノードに割り当てる上記ノード群を変更する変
更手段を具えることを特徴とするロボット装置。
5. An action model comprising a state transition model,
In the robot device that generates an action based on the action model, in the action model, a transition to a predetermined node is described as a transition to a virtual node that is a virtual node, and a predetermined node is assigned to the virtual node. A robot apparatus to which a group is assigned, comprising changing means for changing the node group assigned to the virtual node.
【請求項6】段階的に成長する成長モデルを有し、 上記変更手段は、 上記成長モデルの上記成長に合わせて上記仮想ノードに
割り当てる上記ノード群を変更するを具えることを特徴
とする請求項5に記載のロボット装置。
6. A growth model having a growth model that grows in a stepwise manner, wherein the changing means includes changing the node group assigned to the virtual node in accordance with the growth of the growth model. Item 6. The robot device according to item 5.
【請求項7】行動モデルを有し、当該行動モデルに基づ
いて行動を生成するロボット装置の制御方法において、 上記行動モデルの一部又は全部の状態空間を用いて上記
行動を生成する第1のステップと、 上記行動モデルのうちの上記行動生成に使用する上記状
態空間を、拡大縮小させながら変化させる第2のステッ
プとを具えることを特徴とするロボット装置の制御方
法。
7. A control method of a robot apparatus having an action model and generating an action based on the action model, wherein a first or second action space is generated using a part or all of the state space of the action model. A control method for a robot apparatus, comprising: a step; and a step of changing the state space of the behavior model used for generating the behavior while changing the state space.
【請求項8】上記行動モデルは、確率状態遷移モデルで
なり、 上記第2のステップでは、 上記行動モデルのうちの遷移確率を0とすることで遷移
が禁止されていた状態への当該遷移確率を0よりも大き
い所定の値に変更することによって、上記行動モデルの
うちの上記行動生成に使用する上記状態空間を拡大する
ことを特徴とする請求項7に記載のロボット装置の制御
方法。
8. The behavior model is a stochastic state transition model. In the second step, the transition probability to a state where transition is prohibited by setting the transition probability of the behavior model to 0 is set. The control method for the robot apparatus according to claim 7, wherein the state space used for generating the action in the action model is expanded by changing the value of the action model to a predetermined value larger than 0.
【請求項9】上記行動モデルは、確率状態遷移モデルで
なり、 上記第2のステップでは、 対象とする状態への遷移確率を0とすることによって、
上記行動モデルのうちの上記行動生成に使用する上記状
態空間を縮小することを特徴とする請求項7に記載のロ
ボット装置の制御方法。
9. The behavior model is a probability state transition model. In the second step, a transition probability to a target state is set to 0,
The method according to claim 7, wherein the state space used for generating the action in the action model is reduced.
【請求項10】上記ロボット装置は、段階的に成長する
成長モデルを有し、 上記第2のステップでは、 上記成長モデルの上記成長に合わせて上記行動モデルの
うちの上記行動生成に使用する状態空間を、拡大縮小さ
せながら変化させることを特徴とする請求項7に記載の
ロボット装置の制御方法。
10. The robot apparatus has a growth model that grows in a stepwise manner, and in the second step, a state used for generating the behavior in the behavior model in accordance with the growth of the growth model. The method according to claim 7, wherein the space is changed while being enlarged or reduced.
【請求項11】状態遷移モデルでなる行動モデルを有
し、当該行動モデルに基づいて行動を生成するロボット
装置の制御方法において、 上記行動モデルにおける所定のノードへの遷移を仮想的
なノードでなる仮想ノードへの遷移として記述すると共
に、当該仮想ノードに所定のノード群を割り当てる第1
のステップと、 上記仮想ノードに割り当てる上記ノード群を変更する第
2のステップとを具えることを特徴とするロボット装置
の制御方法。
11. A control method for a robot apparatus having an action model that is a state transition model and generating an action based on the action model, wherein transition to a predetermined node in the action model is performed by a virtual node. A first description that describes a transition to a virtual node and allocates a predetermined node group to the virtual node
And a second step of changing the node group assigned to the virtual node.
【請求項12】上記ロボット装置は、段階的に成長する
成長モデルを有し、 上記第2のステップでは、 上記成長モデルの上記成長に合わせて上記仮想ノードに
割り当てる上記ノード群を変更することを特徴とする請
求項11に記載のロボット装置の制御方法。
12. The robot apparatus has a growth model that grows in stages, and in the second step, changing the node group assigned to the virtual node in accordance with the growth of the growth model. The method for controlling a robot device according to claim 11, wherein:
JP34120799A 1999-11-30 1999-11-30 Robot device, and control method thereof Pending JP2001157978A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP34120799A JP2001157978A (en) 1999-11-30 1999-11-30 Robot device, and control method thereof
CNB008032971A CN1151016C (en) 1999-11-30 2000-11-30 Robot apparatus, control method thereof, and robot character discrimination method
US09/890,231 US7117190B2 (en) 1999-11-30 2000-11-30 Robot apparatus, control method thereof, and method for judging character of robot apparatus
KR1020017009618A KR20010101883A (en) 1999-11-30 2000-11-30 Robot apparatus, control method thereof, and method for judging character of robot apparatus
PCT/JP2000/008472 WO2001039932A1 (en) 1999-11-30 2000-11-30 Robot apparatus, control method thereof, and method for judging character of robot apparatus
US11/244,341 US20060041332A1 (en) 1999-11-30 2005-10-05 Robot apparatus and control method therefor, and robot character discriminating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34120799A JP2001157978A (en) 1999-11-30 1999-11-30 Robot device, and control method thereof

Publications (1)

Publication Number Publication Date
JP2001157978A true JP2001157978A (en) 2001-06-12

Family

ID=18344215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34120799A Pending JP2001157978A (en) 1999-11-30 1999-11-30 Robot device, and control method thereof

Country Status (1)

Country Link
JP (1) JP2001157978A (en)

Similar Documents

Publication Publication Date Title
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
US6445978B1 (en) Robot device and method for controlling the same
US6650965B2 (en) Robot apparatus and behavior deciding method
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP4985805B2 (en) Robot apparatus and operation control method
JP2005193331A (en) Robot device and its emotional expression method
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP2001191281A (en) Editing device, editing method, and storage medium
US20080058988A1 (en) Robots with autonomous behavior
JP3558222B2 (en) Robot behavior control system and behavior control method, and robot device
JP4296736B2 (en) Robot device
JP2004298975A (en) Robot device and obstacle searching method
US20030056252A1 (en) Robot apparatus, information display system, and information display method
JP2006110707A (en) Robot device
JP2001157979A (en) Robot device, and control method thereof
JP2001157980A (en) Robot device, and control method thereof
JP2001154707A (en) Robot device and its controlling method
JP2001157982A (en) Robot device and control method thereof
JP2001157978A (en) Robot device, and control method thereof
JP2001157981A (en) Robot device and control method thereof
JP2001157977A (en) Robot device, and control method thereof
JP2002120183A (en) Robot device and input information detecting method for robot device
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP2001334482A (en) Robot device and method of determining action of robot device
JP2003136439A (en) Robot device, and method and program for controlling gait of robot device