[go: up one dir, main page]

WO2001050265A1 - Systeme, appareil et procede de diagnostic - Google Patents

Systeme, appareil et procede de diagnostic Download PDF

Info

Publication number
WO2001050265A1
WO2001050265A1 PCT/JP2000/009418 JP0009418W WO0150265A1 WO 2001050265 A1 WO2001050265 A1 WO 2001050265A1 JP 0009418 W JP0009418 W JP 0009418W WO 0150265 A1 WO0150265 A1 WO 0150265A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual creature
diagnostic
communication means
robot device
state
Prior art date
Application number
PCT/JP2000/009418
Other languages
English (en)
French (fr)
Inventor
Hideki Noma
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP00985991A priority Critical patent/EP1164486A1/en
Priority to US09/914,408 priority patent/US7162409B2/en
Priority to KR1020017011024A priority patent/KR20010113718A/ko
Publication of WO2001050265A1 publication Critical patent/WO2001050265A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39412Diagnostic of robot, estimation of parameters

Definitions

  • the present invention relates to a diagnostic system, a diagnostic device, and a diagnostic method, and is suitably applied to, for example, a diagnostic system for performing a robot diagnosis via a network.
  • a character that is held as software by hardware having a recording medium such as a personal computer, a portable terminal device, an entertainment robot, and a stuffed toy, and is programmed to act or operate by the software.
  • a recording medium such as a personal computer, a portable terminal device, an entertainment robot, and a stuffed toy
  • the present invention has been made in view of the above points, and has as its object to propose a diagnostic system, a diagnostic apparatus, and a diagnostic method that can facilitate handling of a virtual creature or a robot apparatus.
  • the first communication means provided on the user side of the virtual creature diagnoses a software state of the virtual creature or a state of hardware holding the virtual creature.
  • the diagnostic data necessary for the communication is transmitted to the second communication means on the service provider side via a communication path, and the second communication means analyzes the diagnostic data provided from the first communication means. Based on the analysis result, the state of the software of the virtual creature or the hardware holding the virtual creature is diagnosed.
  • the state of the virtual creature can be easily confirmed, and thus a diagnostic system that can facilitate the handling of the virtual creature can be realized.
  • the software of the virtual creature or the virtual creature is transmitted from the first communication means provided on the user side of the virtual creature to the second communication means provided on the service provider side.
  • a second step of diagnosing the software of the virtual creature or the state of the hardware holding the virtual creature based on the analysis result is provided.
  • the diagnostic data necessary for diagnosing the software of the virtual creature or the hardware holding the virtual creature can be obtained from the hardware or the recording medium storing the software. Acquisition and the relevant day Analysis means for analyzing the data, and diagnosis means for diagnosing the state of the virtual creature based on the analysis result of the analysis means.
  • this diagnostic device the state of the virtual creature can be easily confirmed, and thus a diagnostic device capable of facilitating the handling of the virtual creature can be realized.
  • diagnosis method data necessary for diagnosing software of the virtual creature or hardware holding the virtual creature is stored from the hardware or a recording medium storing the software.
  • a first step of acquiring and analyzing the data and a second step of diagnosing the state of the virtual creature based on the analysis result are provided.
  • the first communication means provided on the user side of the robot apparatus communicates diagnostic data necessary for diagnosing the state of the hardware or software of the robot apparatus.
  • the second communication means analyzes the diagnostic data provided from the first communication means, and based on the analysis result, the hardware of the robot apparatus. Diagnose the state of software or software.
  • the diagnosis method the software of the robot apparatus is changed from the first communication means provided on the user side of the robot apparatus to the second communication means provided on the service provider side.
  • a second step of diagnosing the state of the software or hardware of the robot device based on the result is provided.
  • the soft communication of the robot device is performed from the first communication means provided on the user side of the robot device to the second communication means provided on the service provider side.
  • a second step of diagnosing the state of the software or hardware of the robot device based on the above.
  • the diagnosis method data necessary for diagnosing the hardware or software of the robot device is obtained from the robot device or a recording medium storing the software, and And a second step of diagnosing the state of the robot device based on the analysis result.
  • this diagnostic device the state of the hardware or software of the robot device can be easily confirmed, and thus a diagnostic method capable of facilitating the handling of the robot device can be realized.
  • FIG. 1 is a perspective view showing an external configuration of a pet robot according to the present embodiment.
  • FIG. 2 is a block diagram showing a circuit configuration of the robot according to the present embodiment.
  • Figure 3 is a conceptual diagram showing a petrobot growth model.
  • FIG. 4 is a block diagram for explaining the processing of the controller.
  • FIG. 5 is a conceptual diagram illustrating a stochastic automaton.
  • FIG. 6 is a conceptual diagram showing a first growth element list and a first growth element counter table.
  • FIG. 7 is a conceptual diagram showing a second growth element list and a second growth element counter table.
  • FIG. 8 is a block diagram showing a configuration of the robot diagnostic system according to the present embodiment.
  • FIG. 9 is a block diagram showing a schematic configuration of the server.
  • FIG. 10 is a flowchart showing a personality diagnosis procedure.
  • FIG. 11 is a flowchart showing a failure diagnosis procedure.
  • FIG. 12 is a schematic diagram showing a personality diagnosis screen.
  • FIG. 13 is a schematic diagram showing a question screen.
  • FIG. 14 is a schematic diagram showing a counseling result display screen.
  • FIG. 15 is a block diagram showing a pet robot's servo system.
  • FIG. 16 is a schematic diagram illustrating a failure diagnosis preparation screen.
  • FIG. 17 is a schematic diagram illustrating a first failure diagnosis result display screen.
  • FIG. 18 is a schematic diagram illustrating a second failure diagnosis result display screen.
  • FIG. 19 is a schematic diagram showing a destination display screen. BEST MODE FOR CARRYING OUT THE INVENTION
  • reference numeral 1 denotes a petrobot according to the present embodiment as a whole, and leg units 3A to 3D are connected to the front and rear and left and right of a unitary unit 2 of the moon, respectively.
  • the head unit 4 and the tail unit 5 are connected to the front end and the rear end of the unit unit 2, respectively.
  • the body unit 2 includes a controller 10 for controlling the operation of the entire pet robot 1, a battery 11 as a power source for the pet robot 1, and Internal sensor section consisting of battery sensor 12 and heat sensor 13 14 and so on are stored.
  • the head unit 4 also includes a microphone 15 corresponding to the “ears” of the pet robot 1, a CCD (Charge Couled De vice) camera 16 corresponding to the “eyes”, and a touch sensor. 17 and a speed 18 corresponding to a "mouth” are respectively provided at predetermined positions.
  • a microphone 15 corresponding to the “ears” of the pet robot 1
  • a CCD (Charge Couled De vice) camera 16 corresponding to the “eyes”
  • a touch sensor 17 and a speed 18 corresponding to a "mouth” are respectively provided at predetermined positions.
  • each leg unit 3A to 3D the joints of each leg unit 3A to 3D, the connecting portions of each leg unit 3A to 3D and the torso unit 2, the head unit 4 and the torso unit 2 connecting portion, and each of such the coupling portion of the tail Yuni' bets 5 and the body portion Yuni' Doo 2 and Akuchiyueta 1 9 Aj ⁇ 1 9 a n and potentiometers 1 ⁇ 1 9 B n are provided.
  • the microphone 15 of the head unit 4 collects command sounds such as "walk”, “down” or “chase the ball” given by the user via a sound commander (not shown) as a musical scale.
  • the transmitted audio signal S 1 is sent to the controller 10.
  • the CCD camera 16 captures an image of the surroundings, and sends the obtained image signal S 2 to the controller 10.
  • the touch sensor 17 is provided at the upper part of the head unit 4 as is apparent in FIG. 1, and detects the pressure received by a physical action such as ⁇ stroke '' or ⁇ slap '' from the user. Then, the detection result is sent to the controller 10 as a pressure detection signal S3.
  • the battery sensor 12 of the body unit 2 detects the remaining amount of the battery 11 and sends the detection result to the controller 10 as a battery remaining amount detection signal S4, and the heat sensor 13 is a petrobot. And detects the heat inside the controller 1 and sends the detection result to the controller 10 as a heat detection signal S5.
  • Controller 10 is a microphone 16, CCD camera 17, touch sensor 1 8, Roh Tterisensa 1 2, a thermal sensor 1 3 and the audio signal S 1 supplied from the respective potentiometers 1 ⁇ 1 9 B n, the image signal S 2, the pressure detection signal S 3, the battery remaining amount detecting signal 4, the thermal detection signal S 5 and the angle detection signal S 6 B, based on the like to S 6 B n, determines or surrounding conditions, such as the presence or absence of intervention from the command and Interview one the from Interview one the a.
  • the controller 1 0 advance in the memory 1 0 determines a subsequent action based on the control program that is stored in A, the determination result in driving the ⁇ Kuchiyueta 1 9 Ai ⁇ 1 9 A n necessary based this decision result Actions such as shaking the head unit 4 up, down, left and right, moving the tail 5A of the tail unit 5, and driving each leg unit 3A to 3D to walk. Is performed.
  • the controller 10 outputs a sound based on the sound signal S7 to the outside by giving a predetermined sound signal S7 to the speaker 18 as necessary.
  • LED (not shown)
  • L i g h t Em i t t i n D i o d e) is turned on, off or blinking. In this way, the robot 1 can autonomously act on the basis of the surrounding situation, the control program, and the like.
  • this petrobot 1 has four “growth stages” as growth processes: “childhood”, “childhood”, “adolescence” and “adult”.
  • the memory 10A of the controller 10 contains four items of “walking state”, “motion”, “action” and “sound” for each of these “growth stages”.
  • An action and an action model including various control parameters and a control program which are the basis of the action and the action are stored in advance.
  • the controller 10 initially follows the behavioral and behavioral model of “childhood”. For example, for "walking state”, the step length is reduced to “toddler”, and for "motion”, “simple” movement such as “walking", “standing”, and “sleeping". In the case of “action”, the same action is repeatedly performed so that the action becomes “monotonous”, and in the case of "sound”, the amplification rate of the voice signal S6 is reduced. Control each actuator 1 to 19 An and the audio output so that the sound is “small and short”.
  • the controller 10 receives a command input using the sound commander, a sensor input via the touch sensor 17 corresponding to “stroke” and “tapping”, and a determined number of successful actions and actions.
  • Pre-determined “growth” such as reinforcement learning
  • predetermined actions and actions such as “playing with a ball”
  • growth factors the multiple factors involved in the project
  • the controller 10 determines that the total value of the cumulative frequencies of each growth factor (hereinafter referred to as the total experience value of the growth factors) exceeds a preset threshold. Change the behavior and behavior model to be used to a "childhood" behavior and behavior model that has a higher growth level (level of difficulty and complexity of behavior and behavior) than the behavior and behavior model of "childhood” .
  • the controller 10 then proceeds in the same manner each time the total experience value of the growth factor exceeds each of the threshold values set in advance corresponding to "adolescent" and "adult”, respectively. sequentially change the model more actions and behavior model of high growth level “adolescence” or “adulthood”, the rotational speed Ya speaker power of each Akuchi Yueta 1 9 a ⁇ 1 9 a n in accordance with the behavior and motion model 1 gradually raising the length and the amplification factor of the audio signal S 6 to give 8, varying the like amount of rotation of each Akuchiyueta 1 9 a ⁇ 1 9 a n when performing a single operation.
  • Petrobot 1 has a higher “growth stage” (ie, changes from “childhood” to “childhood”, “childhood” to “adolescence”, and “adolescence” to “adulthood”).
  • “walking state” power S From “toddling” to “steady walking”
  • “motion” power S from “simple” to “altitude complex”
  • “Sound” power S gradually changes from “small and short” to “long and big”.
  • a plurality of behavioral and behavioral models are prepared for each of the “growth stages” of “childhood”, “adolescence” and “adult”. ing.
  • a behavior and behavior model of “childhood” is a behavior and behavior model (C hild 1) that performs a behavior and behavior with a rough and fast character, and a movement that is smoother than this.
  • a behavior and behavior model (C hild 2) that performs behavior and behavior with a slow “smooth” character is provided.
  • the behavior and behavior model (Y) that performs the behavior and behavior of the “irritated” character that is more coarse and faster than the “rough” character of the “childhood” as the behavior and behavior model of “adolescence” (Y oung 1) and a behavioral and behavioral model (Y oung 2) that performs slower and smoother "normal” personality behavior.
  • An action and action model (Young 3) that performs actions and actions with a “smooth” character that is slow and has a small amount of action is provided.
  • the behavior and behavior model of "adult” is “aggressive”, in which the movement is rougher and faster than the "irritable” character of "adolescence", and it is difficult to perform the movement in response to the command from the user.
  • a behavior and behavior model (A du It 1) that performs personal behavior and behavior, and a “slightly violent” personal behavior that is smoother and slower than this and that is easy to perform in response to commands from the user
  • the behavior and behavior model (Adult 2) that performs the behavior and the movement is smooth and slow, the amount of behavior is small, and the behavior in accordance with the command from the user is always performed.
  • a behavior and behavior model (Adult 3) that performs the work, and a behavior that is even slower, has a smaller amount of behavior, and always performs a behavior in response to a command from the user.
  • a behavior and motion model performs the operation (A d u 1 t 4) is provided.
  • the controller i 0 selects one behavior and / or behavior model from the respective behaviors and behavior models in the next “growth stage” based on the cumulative frequency of each growth factor. Then, the behavior and operation model to be used are changed to the selected behavior and behavior model.
  • a state recognition mechanism 20 for recognizing a state and a state recognition mechanism 20
  • An action decision mechanism 21 that determines the next action based on the recognition result of the action
  • an action generation mechanism 22 that actually causes the robot 1 to express an action based on the decision result of the action decision mechanism 21.
  • it can be divided into a growth control mechanism section 23 for controlling the “growth stage” of the pet robot 1 and a learning control mechanism section 24 for controlling learning as described later.
  • the state recognition mechanism unit 20 determines a specific state based on the audio signal S 1, the image signal S 2, and the pressure detection signal S 3 given from the microphone 15, the CCD camera 16, and the touch sensor 17, It detects and recognizes specific actions from the user and instructions from the user, and notifies the action determination mechanism section 21 of the recognition result as state recognition information D 1.
  • the state recognition mechanism section 20 constantly monitors the audio signal S 1 given from the microphone 15, and as a spectrum of the audio signal S 1, “walk”, “prone”, “chase the ball” When a spectrum having the same scale as the command sound output from the sound commander is detected in response to such a command, it is recognized that the command has been given, and the action determination mechanism unit 21 is notified of the recognition result.
  • the state recognition mechanism unit 20 constantly monitors the image signal S 2 given from the CCD camera 16, and includes, for example, a “red round object” or “vertical to the ground” in an image based on the image signal S 2. When a plane having a predetermined height or more is detected, it is recognized that "there is a ball” and “there is a wall”, and the result of the recognition is notified to the action decision mechanism 21.
  • the state recognition mechanism section 20 receives a pressure detection signal given from the touch sensor 17.
  • S3 is constantly monitored, and when a pressure exceeding a predetermined threshold value and for a short time (for example, less than 2 seconds) is detected based on the pressure detection signal S3, it is recognized as “hit”.
  • a pressure that is less than a predetermined threshold value and is detected for a long time for example, 2 seconds or more
  • the result of these recognition is determined by the action determination mechanism unit. 2 Notify 1.
  • the action determination mechanism 21 is stored in the memory 1 OA when the state recognition information D 1 is given from the state recognition mechanism 20 or when a certain time has elapsed since the transition to the current action.
  • control parameters for “behavior” of each behavior and behavior model “stand”, “sleep”, and “sleep” based on the control parameters for “behavior” of behavior and behavior model specified in advance by the growth control mechanism unit 23 Determine your next action, such as walking.
  • the action determination mechanism 21 sets the state to node NODE as shown in FIG. 5 as a method for determining the next action.
  • each node NODE indicates how to transition from one node NODE to any other node NODEi ⁇ NODE civilization.
  • Arc ARC ⁇ ⁇ ARC "each contrast +1 Re set transition probabilities Pi ⁇ ⁇ + ⁇ probability Otoma tons made with a probability state transition model to determine probabilistically based on connecting between ⁇ NODE n It uses an algorithm called.
  • transition condition for each node NODEj ⁇ NODE n in the probability Otoma ton ( "struck", “pat was” etc.) and the transition destination (node NODE. ⁇ NODE n) and The transition probabilities, ⁇ + 1, and the like are stored in advance as control parameters for “action” for each action and behavior model of each “growth stage”.
  • the action determining mechanism 21 receives, for example, the state recognition information D 1 from the state recognition mechanism 20 or the current node NOD based on the control parameter related to the “action”.
  • the node NOD at that time in the action and behavior model selected at that time, such as when a certain period of time has passed since the transfer to.
  • Pi to P n + 1 ODE Based on the transition conditions and the transition destination and the transition parameters Pi to P n + 1 ODE. Determine ⁇ NODE n and its node NODE.
  • the actions associated with the arcs ARC to ARC n + 1 on the path from ⁇ to NODE n are notified as action decision information D 2 to the action generation mechanism 22, the growth control mechanism 23, and the learning control mechanism 24.
  • the action generation mechanism unit 22 associates each action and action model of each “growth stage” with the “walking state”, “motion”, and “sound” for each action and action model. Are stored in the memory 1 OA.
  • the action generation mechanism 22 receives the “walking state” and “motion” of the action and action model stored in the memory 10 A.
  • the various control parameters for "" and “sound” the behavior determined by the behavior determining mechanism 21 based on the behavior and the various control parameters of the behavior model specified in advance by the growth control mechanism 23.
  • the behavior generation mechanism unit 2 2 the control signal S 6 A for Akuchiyueta 1 9 ⁇ 1 9 A n necessary based on the driving schedule, generate ⁇ S 6 A n, the control signals S 6 Ai to S 6 by a corresponding Akuchiyueta 1 9 ⁇ 1 9 a n for controlling driving on the basis of the a n, to perform the action determined by the action determination mechanism part 2 1 a pet preparative robot 1.
  • the state recognition mechanism unit 20 recognizes some state based on the audio signal S 1, the image signal S 2, and the pressure detection signal S 3 provided from the microphone 15, the CCD camera 16, and the touch sensor 17, respectively. When this is done, this is notified to the growth control mechanism 23 as state recognition information D 3.
  • the state notified from the state recognition mechanism section 20 to the growth control mechanism section 23 may be, in addition to the specific state notified to the action determination mechanism section 21 as described above, for example, "stroke” or " Input through the touch sensor 17 that does not correspond to There is power.
  • the growth control mechanism section 23 raises the “growth stage” among the various states based on the state recognition information D3 given from the state recognition mechanism section 20 as described above.
  • the list of growth factors mentioned above, which should be used as reference factors in this case (hereinafter referred to as the first growth factor list) 25 A, and Figure 6 ( A counter table such as B) (hereinafter referred to as a first growth factor power counter table) 25 B is stored in the memory 10A as a control parameter relating to “growth”.
  • the growth control mechanism unit 23 determines whether the state obtained based on the state recognition information D3 is a growth element or not. Judgment is made based on the list 25A, and if the state is a growth element, the corresponding count value (experience value) in the growth element counter table 25B of the second] is increased by one.
  • the growth control mechanism section 23 includes the “growth stage” of the actions obtained based on the action determination information D 2 given from the action determination mechanism section 21 as described above.
  • the counter table as shown in Fig. 7 (B) (hereinafter referred to as the second growth element counter table) 26 B is stored in the memory 10A as another control parameter for “growth”.
  • the growth control mechanism section 23 determines whether or not the behavior obtained based on the behavior determination information D 2 is a growth element. Judgment is made based on the list 26A, and if the action is a growth factor, the corresponding count value (experience value) in the second growth factor counter table 26B is increased by one.
  • the growth control mechanism unit 23 changes the behavior and the behavior model to the next “ Which action and behavior model in the ⁇ growth stage '' should be transited is determined based on each count value in the first and second growth factor counter tables 25 B and 26 B, and the decision result is an action decision mechanism Notify section 21 and action generation mechanism section 22.
  • the growth control mechanism section 23 notifies the action determination mechanism section 21 and the action generation mechanism section 22 of an instruction to select an action and an action model of “childhood”.
  • the action determination mechanism section 21 selects a control parameter for the specified action and the "action" of the behavior model, and thereafter, selects this control parameter. To determine the current behavior of the bot 1 as described above.
  • the action generation mechanism 22 receives various control parameters for “walking state”, “motion”, and “sound” of the specified action and motion model based on the notification from the growth control mechanism 23. After that, the actuators 19 to 19 An and the audio output are driven and controlled using the various control parameters.
  • the growth control mechanism 23 controls the “growth” of the pet robot 1 based on the input history of the user's actions and commands and the history of his / her own action.
  • 0 confirms “stroke” or “hit” based on the pressure detection signal S 3 given from the touch sensor 17, it notifies the learning control mechanism section 24.
  • the learning control mechanism section 24 always recognizes the current and past actions based on the action determination information D2 given from the action determination mechanism section 21. Then, when the recognition result indicating that the robot 1 has been “patched” during the action of the pet robot 1 is given from the state recognition mechanism section 20, the learning control mechanism section 24 determines this. 2 Notify 1.
  • the action determining mechanism 21 determines, among the control parameters for determining the “action” represented by the stochastic automaton shown in FIG. 5, the action expressed at that time. While the transition probabilities P 1 to P n + 1 of the arcs AR to ARC n + I associated with are reduced by a predetermined amount, the original node N ⁇ DE is reduced by an amount corresponding to this reduction amount. Other actions that can be expressed from ⁇ NOD E n the transition probability ⁇ P n + 1 of the (arc ARC! ⁇ ARC n + 1) to ⁇ .
  • the learning control mechanism 24 Notify the decision mechanism 21.
  • the action determining mechanism unit 21 determines, based on the notification, the arc ARC! That is associated with the currently-presented action among the control parameters for determining the “action”. While increasing the transition probabilities P ⁇ to P + 1 +1 of ARCARC n + 1 by a predetermined amount, the original node NODE is increased by the amount corresponding to this increase. arc aRC, reduces the transition probability to P n + 1 of ⁇ ARC n + 1). With such a control, when the user is “hit”, the transition probability of the arc AR Ci to ARC flick +1 corresponding to the action decreases, ⁇ , 1 + 1 , and the action becomes difficult to be expressed.
  • the increase in the arc ARC, ⁇ ARC tl + 1 transition probability ⁇ P, 1 + 1 corresponding to the action makes it easier for the action to be manifested. It is possible to change the behavior as if learning by changing the behavior.
  • the controller 10 can operate the petrobot 1 autonomously while “growing” and “learning” based on the input history of the user's actions and commands and the own action history. Has been made.
  • FIG. 5 shows a network system (hereinafter, referred to as a petrobot diagnostic system) capable of diagnosing such “character” and “failure” of the petrobot 1. 30 is shown.
  • a petrobot diagnostic system capable of diagnosing such “character” and “failure” of the petrobot 1. 30 is shown.
  • the personal terminals 31A to 31C are connected via a satellite communication line 32, a cable television line 33, a telephone line 34, or the like.
  • the Internet interface binder 35 is connected to the server 38 installed by the diagnostic company 37 of the robot 1, via the Internet 36, and furthermore, the server concerned A personal terminal 31D is directly connected to the terminal 38 via a general public line 39.
  • each of the personal terminals 31A to 31D is a normal personal computer installed in a general home or the like, and communicates with the server 38 via the Internet 36 or a general public line 39. Necessary data is transmitted and received to and from the server 38, and the data of the robot 1 connected via a connector (not shown) provided on the fuselage unit 2 of the robot 1 is provided. It communicates with the controller 10 so that necessary data can be read from the memory 10A.
  • the server 38 is a web server on which the diagnostician 38 performs diagnosis and “counseling” of “character” and “failure” of the pet robot 1, which will be described later. 6 or screen data of various screens and necessary image data as described below to the personal terminals 31A to 31D accessed via the public telephone line 39, and these screen data and images are transmitted. Screens and images based on the data can be displayed on the displays of the corresponding personal terminals 31A to 31D.
  • the server 38 is composed of a LAN (Local Area Network) card 40 having a built-in interface circuit for the Internet, and an interface for a general public line.
  • a modem 41 as a interface circuit, a CPU 42 for controlling the entire server 38, a temporary storage medium 43 such as a semiconductor memory as a work memory of the CPU 42, and a server 38 will be described later.
  • the storage medium includes a storage medium 44 such as a hard disk device for storing necessary data and the like.
  • the data / command supplied from the personal terminals 31A to 31D accessed via the internet 36 or the general public line 39 is transmitted to the LAN card 40 or the modem 4. It is taken into the CPU 42 via 1 and a predetermined process is executed based on the data command and the control information stored in the storage medium 44.
  • the CPU 42 transmits, for example, screen data of various screens as described later, other data, programs and commands via the LAN card 40 or the modem 41 to the personal terminal.
  • the data is sent to 31A to 31D.
  • a user who wants to diagnose the “personality” of his / her pet robot 1 is connected to the pet robot 1 and the personal terminal 3 1 via the above-described connector provided on the body unit 2 of the pet robot 1.
  • a to 31D are connected (step SP1), and then the personal terminals 31A to 31D access the server 38 of the diagnosing agent 37 to request a diagnosis of the pet robot 1 (step SP1). 2).
  • a personality diagnosis screen 50 as shown in FIG. 12 is displayed on the displays of the personal terminals 31A to 31D.
  • This personality diagnosis screen 50 shows the number of days (Age), the growth stage (P hase), the type such as "selfish” and “cheerful” (Tipe), etc., since the petrobot 1 was initially started, and the affection for the user. Diagnosis results for a number of preset items that represent the internal state, such as degree (Loveto Owner), degree of affection for items such as balls (Loveto Item), and wisdom (IQ) for days since initial startup. Is displayed on the screen. Initially, please connect the Petrobot or built-in storage media to the PC. ], “Start diagnosis? ], OK button 51A and Cancel button 51B are displayed effectively.
  • the controller 10 of the pet robot 1 transmits the server via the personal terminals 31A to 31D.
  • the data required for diagnosis (hereinafter referred to as diagnostic data) is read from the memory 10 A of the robot 1 controlled by the CPU 42 of the personal computer 31, and is read from the personal terminal 31 A. Uploaded to server 38 via ⁇ 31D (step SP3).
  • the diagnostic data necessary for such a personality diagnosis include all the nodes N ⁇ DE in the probability-to-ma- ton shown in Fig. 5 among the control parameters related to “action” of Petrobot 1. ⁇ All transition probabilities for NODE n ⁇ ⁇ ⁇ + ⁇ and the first and second countertables 25 ⁇ and 26 ⁇ among various control parameters related to ⁇ growth '' (Fig. 6 ( ⁇ ) Each of the count values in Fig. 7 ())), the count value of the above-mentioned total experience value counter among the various control parameters related to “growth”, and the type of action and behavior model (B aby 1, C hi 1 d 1, C hi I d2, Young:! ⁇ Young 3, Adult:! ⁇ Adu1 t4) or "Growth degree" or "Growth stage value".
  • the CPU 42 of the server 38 analyzes the diagnostic data thus obtained based on the program stored in the storage medium 44, and based on the analysis processing result, the petrobot 1 Diagnose the “personality” of the child (step SP 4). For example, if the behavior and behavior model of “Y oung 3” in Fig. 3 is used as the behavior and behavior model, the CPU 42 diagnoses the growth stage as “Y oung”, and additionally, If learning makes it difficult to perform various actions, the type is diagnosed as “slow”.
  • the CPU 42 generates the arcs ARC Q to ARC n + 1 (see Fig. 5) that are associated with the type of behavior and behavior model used and the aggressive behavior among the control parameters related to behavior. ),
  • the degree of affection for the user of the robot 1 is diagnosed based on the value of P n + 1 (changed by learning), etc.
  • Arc ARC is associated with actions such as "chase after" and "play with ball”.
  • P ⁇ P, 1 + 1 (changes due to learning) of ⁇ ARC n + 1
  • the petrobot 1 is diagnosed as having a good sensibility (Loveto Item) for various items.
  • the CPU 42 displays the diagnostic results obtained by such an analysis process in the corresponding diagnostic result display sections 52 A to 52 E of the personality diagnostic screen 50, and stores the diagnostic results in the storage medium 44.
  • a comment based on the result of the diagnosis is created based on the program, and the comment is displayed on the comment display section 53 in the personality diagnosis screen 50.
  • the CPU 42 calculates the score for the “personality” of the robot 1 based on the diagnostic data based on the program stored in the storage medium 44 (FIG. 9) together therewith.
  • the result is displayed on the total score display section 54 in the personality diagnosis screen 50, and the wisdom for the number of days from the initial startup of the robot 1 is calculated based on the diagnostic data, and the calculated result is wise. It is displayed on the display unit 55 (step SP 5;).
  • the CPU 42 of the server 38 displays a question screen 60 as shown in FIG. Is displayed on the displays of the personal terminals 31A to 31D (step SP6).
  • This question screen 60 is a screen for asking the user how he or she wants to grow the robot 1, and includes “daily life”, “artistic style”, “growth speed” and “a”. For some question items such as "Love for you,” etc., select buttons 61 A to 61 F, 62 A to 62, each of which has some predetermined answers for each question item. Displayed as E, 63A-63D, 64A-64D. Therefore, the user should select the appropriate selection button 61 A to 61 F, 62 A to 62 E, 63 A to 63 D, 64 A to 64 Click D to enter the desired answer.
  • the CPU 42 of the server 38 selects the user's answer to each question item on the question screen 60, and then clicks the OK button. Based on the above-mentioned diagnostic data and the program stored in the storage media, a predetermined analysis process is performed, and the counseling results on how to grow the robot 1 in the future are obtained. Get out (Step SP 7).
  • the CPU 42 uses the behavior and behavior model of “Young 1” in FIG. 3 as the behavior and behavior model, and is associated with the offensive behavior among the control parameters related to “behavior”.
  • Arc ARC. ⁇ ARC n + 1 of the transition probability P the value of ⁇ P n + 1 is greater summer than the initial value by the learning, the answer of the user with respect to the questions of "daily life” is "conservative" in the further questions screen 6 0 If so, give a counseling result such as "Stroking a little more or playing with the ball.”
  • the CPU 42 outputs a counseling result by such an analysis process, and displays a counseling result display screen 67 displaying the counseling result and the fee, for example, as shown in FIG. 3 Display on the 1A to 3 ID display (step SP8).
  • the pet robot diagnosis system 30 allows the user to diagnose and counsel the "character" of the pet robot 1 himself.
  • the behavior generation mechanism 22 described above with reference to FIG. 4 includes a CPU 71, a comparison operation circuit 72, and a pulse generation circuit 7 inside the controller 10. 3, the driver circuit 7 4 and has an analog / digital conversion circuits 7 5 is provided, and controls driving each Akuchiyueta 1 9 a! ⁇ 1 9 a n by these.
  • C PU 7 1 is Akuchiyueta 1 9 A Interview to 1 9 A hand upon n drives the rotation angle (angle command value) angle command value signal S 1 0 and to comparison operation circuit as a target of the output shaft 7 Send to 2.
  • the current angle value of the actuators 19 to 19 A is digitized by the analog-to-digital converter 75. It is converted and given as a current angle signal S 11.
  • the comparison operation circuit 72 calculates the angle difference between the angle command value based on the angle command value signal S10 and the current angle value obtained based on the current angle value signal S11, and compares the calculation result with the difference.
  • the signal is sent to the pulse generation circuit 73 as a signal S12.
  • Pulse generation circuit 7 3 generates a drive pulse for rotating the output shaft of Akuchiyueta 1 9 ⁇ 1 9 A n based on the difference signal S 1 2, this by the drive pulse signal S 1 3 Send to driver circuit 74.
  • the driver circuit 74 also generates drive signals S 6 A] to S 6 An having a voltage value according to the supplied drive pulse signal S 13, and sends them to the actuator. driving the 1 9 At ⁇ 1 9 a n .
  • the Akuchiyueta 1 9 A, ⁇ 1 9 rotational angle of the output shaft of A is detected by a potentiometer 1 9 ⁇ 1 9 B n, the angle detection signal SS 6 ⁇ S 6 B n made in the detection result is an analog / It is digitally converted by the digital conversion circuit 75 and is supplied to the comparison operation circuit 72 as the above-described current angle value signal S 11 1.
  • the output of the comparison operation circuit 72 Is "0" (Ie, until the angle command value matches the current angle value), the comparison operation circuit 72, the pulse generation circuit 73, the driver circuit 74, the actuator ⁇ ⁇ 9 19 ⁇ ⁇ , the potentiometers 1 to 1 9 B n and the same processing in a closed loop formed by the analysts port grayed / digital conversion circuit 7 5 are sequentially performed at a predetermined period (e.g., 1 [mu m]).
  • a predetermined period e.g. 1 [mu m]
  • the servo system 70 is provided with a failure diagnosis circuit 76 for diagnosing a failure of the servo system 70.
  • the failure diagnosis circuit 76 determines when a new angle command value is given as an angle command value signal S 10 from the CPU 71 to the comparison operation circuit 72 and when the actuators 19 A! When the current angle value of 9 ⁇ recreationalcoincides with the angle command value, the start signal S 14 and the end signal S 15 are given from the comparison operation circuit 72.
  • the failure diagnosis circuit 76 starts counting time when the start signal S14 is given, and determines that there is no failure when the end signal S15 is given within a predetermined time, while determining that there is no failure. If the end signal S15 is not given within this, it is determined that there is a failure, and the result of the determination is sent to the CPU 71 as a failure diagnosis signal S16.
  • the CPU 71 can easily recognize the presence or absence of a failure based on the failure diagnosis signal S16.
  • this robot diagnosis system 30 a user who wants to diagnose the failure of the robot 1 accesses the server 38 using the personal terminals 31 A to 31 D, and Request a failure diagnosis of the robot 1 (step SP10).
  • a failure diagnosis preparation screen 80 as shown in FIG. 16 is displayed on the displays of the personal terminals 31A to 31D.
  • the failure diagnosis preparation screen 80 is a screen for notifying the user of the preparation procedure for performing the failure diagnosis of the pet robot 1, and is initially described as “Start failure diagnosis. ], "Connect the robot and the terminal. ", "are you ready. ], Only the first OK button 81A and the first cancel button 81B are validly displayed.
  • the user 38 clicks the first OK button 81A. , "Download the fault diagnosis program. ”,“ I ’m happy. ”And the second OK button 82 A and the second cancel button 82 B are displayed effectively.
  • failure diagnosis preparation screen 80 when the user clicks the second OK button 82A, a program for performing failure diagnosis from the server 38 to the personal terminals 31A to 31D is displayed. (Hereinafter, referred to as a failure diagnosis program), and the failure diagnosis program is stored (downloaded) on the hard disk in the personal terminals 31A to 31D.
  • the personal terminals 31 A to 31 D control the controller 10 of the petrobot 1 to first drive a predetermined one actuator 1. At this time, the result of the presence / absence of a failure based on the failure diagnosis signal S 16 output from the failure diagnosis circuit 76 described above with reference to FIG. 15 is obtained by the CPU 7 in the controller 10 of the robot 1. 1 is notified to the personal terminals 31A to 31D.
  • the personal terminals 31A to 31D determine whether there is a failure in the servo system 70 for the actuator 19A, based on the notification.
  • the personal terminal 3 1 A ⁇ 3 1 D this and similarly controls the controller 1 0 pets Torobo' sheet 1, for all the Akuchiyue Ichita 1 9 Ai ⁇ 1 9 A n , corresponding mono- It is determined whether or not the system 70 has a failure.
  • the personal terminal 3 1 A ⁇ 3 1 D when this way completes testing of the presence or absence of failure for all of Akuchiyue Ichita 1 9 A, ⁇ mono- Boshisutemu 7 0 1 9 Alpha [pi, the inspection results
  • the data is sent to the server 38 as diagnostic data.
  • the CPU 42 of the server 38 analyzes the diagnostic data transferred from the personal terminals 31 ⁇ to 31D, and diagnoses whether or not the robot 1 has a failure based on the analysis result. I do. Then, when the CPU 42 diagnoses that there is no failure, for example, as shown in FIG. ], "There is no failure in this petrobot. Are displayed on the displays of the personal terminals 31A to 31D.
  • the CPU 42 diagnoses that there is a failure
  • the CPU 42 displays a second failure diagnosis result display screen 85 as shown in FIG. 18 on the display of the personal terminals 31A to 31D. Display.
  • the CPU 42 displays data on the failure location obtained as a result of the failure diagnosis as described above.
  • the data read out from the memory 10A of the petrobot 1 such as the serial number of the socket 1 is sent to a service center or the like, and the second failure diagnosis result display screen 85
  • the destination display screen 87 shown in FIG. 19 is displayed on the next page.
  • the destination display screen 87 displays the address and name of the destination (destination) of Petropot 1 when requesting repair, the address and name of the sender (pre-registered by the user), The date of the diagnosis, the number of the diagnosis, the serial number of Petrobot 1 and the location of the failure are described.
  • the user prints out the destination display screen 87, attaches it to the packing box storing the petropot 1, and sends it out to request repair of the petrobot 1. Can be.
  • the user can check whether or not the user's own robot 1 has a failure, and easily repair the failure when the failure is detected. Can be requested.
  • the pet robot 1 is connected to the personal terminals 31A to 31D, and the diagnosis service is performed using the personal terminals 13A to 31D.
  • 7 accesses the server 38 to request a personality diagnosis, the various control parameters related to the behavior and growth of the pet robot 1 are uploaded to the server 38 as diagnostic data, and The server 38 diagnoses the status of the pet robot 1 based on the data, and the diagnosis results are stored in the personal terminals 31A to 31D. Displayed on the display.
  • the Petrobot Examination I-Folding System 30 then answers the question on how to grow this pet mouth port 1, and based on the answer to the question and the diagnostic data, The counseling by 38 is performed, and the result is displayed on the displays of the personal terminals 31A to 31D.
  • this petrobot diagnostic system 30 when the petrobot 1 is connected to the personal terminals 31 A to 31 D and accesses the server 38 to request a failure diagnosis, the personal The failure diagnosis program is transferred to the terminals 31A to 31D, the failure diagnosis is performed based on the failure diagnosis program, and the diagnosis result is displayed on the displays of the personal terminals 31A to 3ID.
  • the user can easily detect the current state of “action” and “growth” of his / her pet robot 1, detect a failure, and the like. .
  • the character diagnosis and the failure diagnosis of the robot 1 can be performed under the control of the server 38.
  • a petrobot diagnostic system can be realized which can easily confirm the state of the petrobot 1 and thus facilitate the handling of the petrobot 1.
  • the present invention is applied to the pet robot diagnostic system 30 configured to diagnose the pet mouth port 1 configured as shown in FIG. 1.
  • the present invention is not limited to this.
  • diagnosis of a virtual creature other than the pet robot 1 (failure of hardware holding the virtual creature, status of various parameters, presence / absence of program destruction, etc.) It can be widely applied to various diagnostic devices in addition to diagnosing the state of a living thing such as a stuffed animal in a three-dimensional space.
  • the server 38 performs the diagnosis processing of the characteristics and the failure of the pet robot 1, but the present invention is not limited to this.
  • a program necessary for performing these processes may be given to the personal terminals 31A to 31D so that the personal terminals 31A to 31D can perform these processes.
  • the target of the failure diagnosis in the petrobot 1 is the servo system 70 (FIG. 15), but the present invention is not limited to this, and other hardware It may be possible to diagnose the failure of the vehicle.
  • damage to software such as the control program of the robot 1 and various control data may be targeted for failure diagnosis.
  • the present invention is not limited to this.
  • a part or all of the software such as the control program and various control data in the robot 1 is stored in a removable recording medium such as a memory card, and the character diagnosis is performed.
  • the recording medium may be taken out from the robot 1 and loaded into the personal terminals 31A to 31D.
  • the memory 1 OA is applied as a recording medium for storing the control program of the robot 1 and the software of various control parameters.
  • the invention is not limited to this, and various other recording media can be widely applied.
  • the diagnostic data read from the memory 1 OA of the pet robot 1 and the fault diagnostic signal output from the fault diagnostic circuit 76 (FIG. 15) of the pet robot 1 An analysis means for analyzing S16, a diagnosis means for diagnosing the state of the pet robot 1 (an internal state such as a character and an external state such as a failure) based on the analysis result, and an analysis result obtained by the analysis means.
  • the counseling processing means for performing the counseling processing based on the CPU 40 of the server 30 has been described.
  • the present invention is not limited to this, and the analyzing means, the diagnosing means, and the counseling means are not limited thereto. May be provided separately.
  • the means for extracting the data necessary for diagnosing the personality or the failure from the pet robot 1 and the display means for visually displaying the diagnosis results of the server 38 are the same personal terminals 31A to 31A.
  • the present invention relates to a diagnostic system, a diagnostic device, and a diagnostic method, and can be used, for example, in a diagnostic system for performing a robot diagnosis via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Toys (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

明 細 書 診断システム、 診断装置及び診断方法 技術分野
本発明は診断システム、 診断装置及び診断方法に関し、 例えばネッ トワークを 介してぺッ トロボッ トの診断を行う診断システムに適用して好適なものである。 背景技術
近年、 外部入力及び周囲の状況等に応じて自律的に行動するようになされたェ ンタ一ティンメントロボッ トゃぬいぐるみなどが数多く商品化されている。 また このような 3次元空間での実体を有さずに、 パーソナルコンピュータや、 ゲーム 機器及び電話などの携帯端末機器においてソフ トウユアとして保持され、 これら パーソナルコンピュータ又は携帯端末機器のディスプレイ上において自律的に行 動するキャラクタなども数多く登場している。
なお以下においては、 パーソナルコンピュータ、 携帯端末機器、 エンターティ ンメントロボッ ト及びぬいぐるみなどの記録媒体をもつハードウエアにソフ トウ ユアとして保持され、 当該ソフ トウエアによって行動又は動作することをプログ ラムされたキャラクタを仮想生物と呼ぶ。
ところでかかる仮想生物においては、 その行動や成長などがソフ トウエア的に 処理される。 このため例えば行動や成長に関する制御パラメ一タの値が経時的に 変化するような場合において、 現在の仮想生物の行動や成長に関する状態がどの ようになっているかをユーザが認識し難い問題があった。 またロボッ ト及びぬい ぐるみなどでは、 故障が生じた場合にその故障の箇所を特定し難い場合があった そこで仮想生物やロボッ トなどについて、 その内部状態や、 故障箇所などをュ 一ザが容易に確認し得るようにすることができれば、 仮想生物やロボッ トの取り 扱いを容易化し得るようにすることができるものと考えられる。 発明の開示
本発明は以上の点を考慮してなされたもので、 仮想生物又はロボッ ト装置の取 り扱いを容易化し得る診断システム、 診断装置及び診断方法を提案しようとする ものである。
かかる課題を解決するため本発明においては、 診断システムにおいて、 仮想生 物のユーザ側に設けられた第 1の通信手段が、 仮想生物のソフ トウユア又は当該 仮想生物を保持するハードウェアの状態を診断するのに必要な診断用データを通 信路を介してサービス提供者側の第 2の通信手段に送信し、 第 2の通信手段が、 第 1の通信手段から与えられる診断用データを解析し、 解析結果に基づいて仮想 生物のソフ トウ ア又は仮想生物を保持するハ一ドウエアの状態を診断するよう にした。 この結果この診断システムによれば、 仮想生物の状態を容易に確認する ことができ、 かく して仮想生物の取り扱いを容易化し得る診断システムを実現で さる。
また本発明においては、 診断方法において、 仮想生物のユーザ側に設けられた 第 1の通信手段からサービス提供者側に設けられた第 2の通信手段に対して、 仮 想生物のソフ トウエア又は当該仮想生物を保持するハードウユアの状態を診断す るのに必要な診断用データを送信する第 1のステップと、 第 2の通信手段が、 第 1の通信手段から与えられる診断用データを解析し、 解析結果に基づいて仮想生 物のソフ トウユア又は仮想生物を保持するハードウエアの状態を診断する第 2の ステップとを設けるようにした。 この結果この診断方法によれば、 仮想生物の状 態を容易に確認することができ、 かく して仮想生物の取り扱いを容易化し得る診 断方法を実現できる。
さらに本発明においては、 診断装置において、 仮想生物のソフ トウェア又は仮 想生物を保持するハードウユアの状態を診断するのに必要な診断用データを当該 ハードウ ア又は当該ソフ トウエアが格納された記録媒体から取得し、 当該デー タを解析する解析手段と、 解析手段の解析結果に基づいて仮想生物の状態を診断 する診断手段とを設けるようにした。 この結果この診断装置によれば、 仮想生物 の状態を容易に確認することができ、 かく して仮想生物の取り扱いを容易化し得 る診断装置を実現できる。
さらに本発明においては、 診断方法において、 仮想生物のソフ トウェア又は仮 想生物を保持するハードウェアの状態を診断するのに必要なデータを当該ハード ウェア又は当該ソフ トウ アが格納された記録媒体から取得し、 当該データを解 析する第 1のステップと、 当該解析結果に基づいて仮想生物の状態を診断する第 2のステップとを設けるようにした。 この結果この診断方法によれば、 仮想生物 の状態を容易に確認することができ、 かく して仮想生物の取り扱いを容易化し得 る診断方法を実現できる。
さらに本発明においては、 診断システムにおいて、 ロボッ ト装置のユーザ側に 設けられた第 1の通信手段が、 ロボッ ト装置のハードウエア又はソフ トウエアの 状態を診断するのに必要な診断用データを通信路を介してサービス提供者側の第 2の通信手段に送信し、 第 2の通信手段が、 第 1の通信手段から与えられる診断 用データを解析し、 解析結果に基づいてロボッ ト装置のハードウエア又はソフト ウエアの状態を診断するようにした。 この結果この診断システムによれば、 ロボ ッ ト装置のハードウエア又はソフ トウエアの状態を容易に確認することができ、 かく してロボッ ト装置の取り扱いを容易化し得る診断システムを実現できる。 さらに本発明においては、 診断方法において、 ロボッ ト装置のユーザ側に設け られた第 1 の通信手段から、 サービス提供者側に設けられた第 2の通信手段に対 して、 ロボッ ト装置のソフ トウェア又はハ一ドウエアの状態を診断するのに必要 な診断用データを送信する第 1 のステップと、 第 2の通信手段が、 第 1 の通信手 段から与えられる診断用データを解析し、 解析結果に基づいてロボッ ト装置のソ フ トウエア又はハードウエアの状態を診断する第 2のステップとを設けるように した。 この結果この診断システムによれば、 ロボッ ト装置のハードウェア又はソ フトウエアの状態を容易に確認することができ、 かく してロボッ ト装置の取り扱 いを容易化し得る診断方法を実現できる。
さらに本発明においては、 診断装置において、 ロボッ ト装置のユーザ側に設け られた第 1 の通信手段から、 サービス提供者側に設けられた第 2の通信手段に対 して、 ロボッ ト装置のソフ トウエア又はハードウエアの状態を診断するのに必要 な診断用データを送信する第 1 のステップと、 第 2の通信手段が、 第 1 の通信手 段から与えられる診断用データを解析し、 解析結果に基づいてロボッ ト装置のソ フ トウエア又はハードウエアの状態を診断する第 2のステップとを設けるように した。 この結果この診断装置よれば、 ロボッ ト装置のハードウェア又はソフ トゥ エアの状態を容易に確認することができ、 かく してロボッ ト装置の取り扱いを容 易化し得る診断装置を実現できる。
さらに本発明においては、 診断方法において、 ロボッ ト装置のハードウェア又 はソフ トウユアを診断するのに必要なデータを当該ロボッ ト装置又は当該ソフ ト ウエアが格納された記録媒体から取得し、 当該データを解析する第 1のステップ と、 当該解析結果に基づいてロボッ ト装置の状態を診断する第 2のステップとを 設けるようにした。 この結果この診断装置によれば、 ロボッ ト装置のハードゥエ ァ又はソフ トウエアの状態を容易に確認することができ、 かく してロボッ ト装置 の取り扱いを容易化し得る診断方法を実現できる。 図面の簡単な説明
図 1は、 本実施の形態によるぺッ トロボッ トの外観構成を示す斜視図である。 図 2は、 本実施の形態によるぺッ トロボッ トの回路構成を示すブロック図であ る。
図 3は、 ペッ トロボッ トの成長モデルを示す概念図である。
図 4は、 コントローラの処理の説明に供するブロック図である。
図 5は、 確率オートマ トンを示す概念図である。
図 6は、 第 1 の成長要素リス ト及び第 1 の成長要素カウンタテーブルを示す概 念図である。 図 7は、 第 2の成長要素リス ト及び第 2の成長要素カウンタテーブルを示す概 念図である。
図 8は、 本実施の形態によるぺッ トロボッ ト診断システムの構成を示すプロッ ク図である。
図 9は、 サーバの概略構成を示すブロック図である。
図 1 0は、 性格診断手順を示すフローチャートである。
図 1 1は、 故障診断手順を示すフローチャートである。
図 1 2は、 性格診断画面を示す略線図である。
図 1 3は、 質問画面を示す略線図である。
図 1 4は、 カウンセリング結果表示画面を示す略線図である。
図 1 5は、 ペッ トロボッ トのサ一ボシステムを示すブロック図である。
図 1 6は、 故障診断準備画面を示す略線図である。
図 1 7は、 第 1の故障診断結果表示画面を示す略線図である。
図 1 8は、 第 2の故障診断結果表示画面を示す略線図である。
図 1 9は、 宛先表示画面を示す略線図である。 発明を実施するための最良の形態
以下図面について、 本発明の一実施の形態を詳述する。
( 1 ) 本実施の形態によるぺッ トロボッ ト 1の構成
( 1 - 1 ) ペッ トロボッ ト 1の概略構成
図 1において、 1は全体として本実施の形態によるぺッ トロボッ トを示し、 月同 体部ュニッ ト 2の前後左右にそれぞれ脚部ュニッ ト 3 A〜 3 Dが連結されると共 に、 胴体部ュニッ ト 2の前端部及び後端部にそれぞれ頭部ュニッ ト 4及び尻尾部 ユニッ ト 5が連結されることにより構成されている。
この場合胴体部ユニッ ト 2には、 図 2に示すように、 このペッ トロボッ ト 1全 体の動作を制御するコントローラ 1 0 と、 このぺッ トロボッ ト 1の動力源として のバッテリ 1 1 と、 バッテリセンサ 1 2及び熱センサ 1 3からなる内部センサ部 1 4となどが収納されている。
また頭部ユニッ ト 4には、 このペッ トロボッ ト 1の 「耳」 に相当するマイクロ ホン 1 5と、 「目」 に相当する CCD (C h a r g e C o u l e d D e— v i c e) カメラ 1 6と、 タツチセンサ 1 7と、 「口」 に相当するスピ一力 1 8 となどがそれぞれ所定位置に配設されている。
さらに各脚部ュニッ ト 3 A〜 3 Dの関節部分や、 各脚部ュニッ ト 3 A〜 3 D及 び胴体部ュニッ ト 2の各連結部分、 頭部ュニッ ト 4及び胴体部ュニッ ト 2の連結 部分、 並びに尻尾ュニッ ト 5及び胴体部ュニッ ト 2の連結部分などにはそれぞれ ァクチユエータ 1 9 Aj 〜 1 9 An 及びポテンショメータ 1 〜 1 9 Bn と が配設されている。
そして頭部ュニッ ト 4のマイクロホン 1 5は、 ユーザから図示しないサゥンド コマンダを介して音階として与えられる 「歩け」、 「伏せ」 又は 「ボールを追いか けろ」 等の指令音を集音し、 得られた音声信号 S 1をコントローラ 1 0に送出す る。 また CCDカメラ 1 6は、 周囲の状況を撮像し、 得られた画像信号 S 2をコ ントロ一ラ 1 0に送出する。
さらにタツチセンサ 1 7は、 図 1において明らかなように頭部ュニッ ト 4の上 部に設けられており、 ユーザからの 「なでる」 や 「たたく」 といった物理的な働 きかけにより受けた圧力を検出し、 検出結果を圧力検出信号 S 3としてコン ト口 ーラ 1 0に送出する。
さらに胴体部ュニッ ト 2のバッテリセンサ 1 2は、 バッテリ 1 1の残量を検出 し、 検出結果をバッテリ残量検出信号 S 4としてコン トローラ 1 0に送出し、 熱 センサ 1 3は、 ペッ トロボッ ト 1内部の熱を検出して検出結果を熱検出信号 S 5 としてコン トローラ 1 0に送出する。
さらに各ポテンショメータ 1 〜 1 9 Bn は、 対応するァクチユエ一タ 1 9 A, 〜 1 9 An の出力軸の回転角度を検出し、 検出結果を角度検出信号 S 6 B ! ~ S 6 Bn としてコン トローラ 1 0に送出する。
コントローラ 1 0は、 マイクロホン 1 6、 CCDカメラ 1 7、 タツチセンサ 1 8、 ノ ッテリセンサ 1 2、 熱センサ 1 3及び各ポテンショメータ 1 〜 1 9 Bn から与えられる音声信号 S 1、 画像信号 S 2、 圧力検出信号 S 3、 バッテリ 残量検出信号 4、 熱検出信号 S 5及び角度検出信号 S 6 B, 〜S 6 Bn などに基 づいて、 周囲の状況や、 ュ一ザからの指令及びュ一ザからの働きかけの有無など を判断する。
そしてコントローラ 1 0は、 この判断結果と予めメモリ 1 0 Aに格納されてい る制御プログラムとに基づいて続く行動を決定し、 決定結果に基づいて必要なァ クチユエータ 1 9 Ai 〜 1 9 An を駆動させることにより、 頭部ュニッ ト 4を上 下左右に振らせたり、 尻尾部ユニッ ト 5の尻尾 5 Aを動かせたり、 各脚部ュニッ ト 3 A〜3 Dを駆動して歩行させるなどの行動を行わせる。
またこの際コン トローラ 1 0は、 必要に応じて所定の音声信号 S 7をスピーカ 1 8に与えることにより当該音声信号 S 7に基づく音声を外部に出力させたり、 このペッ トロボッ ト 1の 「目」 の位置に設けられた図示しない L E D (
L i g h t Em i t t i n g D i o d e ) を点灯、 消灯又は点滅させる。 このようにしてこのぺッ トロボッ ト 1においては、 周囲の状況及び制御プログ ラム等に基づいて自律的に行動し得るようになされている。
かかる構成に加えてこのぺッ トロボッ ト 1の場合、 ユーザからの働きかけやサ ゥンドコマンダを用いた指令などの操作入力の履歴と、 自己の行動及び動作履歴 とに応じて、 あたかも本物の動物が 「成長」 するかのごとく行動及び動作を変化 させるようになされている。
すなわちこのペッ トロボッ ト 1には、 成長過程として 「幼年期」、 「少年期」、 「 青年期」 及び 「成人期」 の 4つの 「成長段階」 が設けられている。 そしてコント ローラ 1 0のメモリ 1 0 Aには、 これら各 「成長段階」 ごとに、 「歩行状態」、 「 モーショ ン (動き)」、 「行動」 及び 「サウンド (鳴き声)」 の 4つの項目に関する 行動及び動作の基礎となる各種制御パラメ一タ及び制御プログラムからなる行動 及び動作モデルが予め格納されている。
そしてコン トローラ 1 0は、 初期時には 「幼年期」 の行動及び動作モデルに従 つて、 例えば 「歩行状態」 については歩幅を小さくするなどして 「よちよち歩き 」 となるように、 「モーショ ン」 については単に 「歩く」、 「立つ」、 「寝る」 程度 の 「単純」 な動きとなるように、 「行動」 については同じ行動を繰り返し行うよ うにするなどして 「単調」 な行動となるように、 また 「サウンド」 については音 声信号 S 6の増幅率を低下させるなどして 「小さく短い」 鳴き声となるように、 各ァクチユエータ 1 〜 1 9 A n 及び音声出力を制御する。
またこの際コントローラ 1 0は、 サウンドコマンダを用いた指令入力と、 「な でる」 及び 「たたく」 に該当するタツチセンサ 1 7を介してのセンサ入力及び決 められた行動及び動作の成功回数などでなる強化学習と、 「なでる」 及び 「たた く」 に該当しないタツチセンサ 1 7を介してのセンサ入力と、 「ボールで遊ぶ」 などの所定の行動及び動作となどの予め決められた 「成長」 に関与する複数の要 素 (以下、 これらを成長要素と呼ぶ) について、 その発生を常時監視してカウン 卜する。
そしてコントローラ 1 0は、 これら成長要素の累積度数に基づいて、 各成長要 素の累積度数の合計値 (以下、 これを成長要素の総合経験値と呼ぶ) が予め設定 された閾値を越えると、 使用する行動及び動作モデルを 「幼年期」 の行動及び動 作モデルよ り も成長レベル (行動や動作の難易度や煩雑さなどのレベル) が高い 「少年期」 の行動及び動作モデルに変更する。
そしてコン トローラ 1 0は、 この後この 「少年期」 の行動及び動作モデルに従 つて、 例えば 「歩行状態」 については各ァクチユエータ 1 9 〜 1 9 A n の回 転速度を速くするなどして 「少しはしつかり」 と歩く ように、 「モーショ ン」 に ついては動きの数を増加させるなどして 「少しは高度かつ複雑」 な動きとなるよ うに、 「行動」 については前の行動を参照して次の行動を決定するようにするな どして 「少しは目的」 をもった行動となるように、 また 「サウンド」 については 音声信号 S 6の長さを延ばしかつ増幅率を上げるなどして 「少しは長く大きい」 鳴き声となるように、 各ァクチユエータ 1 〜 1 9 A ,, ゃスピー力 1 8から の音声出力を制御する。 さらにコン トローラ 1 0は、 この後これと同様にして、 成長要素の総合経験値 が 「青年期」 や 「成人期」 にそれぞれ対応させて予め設定された各閾値を越える ごとに、 行動及び動作モデルをより成長レベルの高い 「青年期」 又は 「成人期」 の行動及び動作モデルに順次変更し、 当該行動及び動作モデルに従って各ァクチ ユエータ 1 9 A 〜 1 9 An の回転速度ゃスピー力 1 8に与える音声信号 S 6の 長さや増幅率を徐々に上げたり、 1つの動作を行う際の各ァクチユエータ 1 9 A 丄 〜 1 9 An の回転量などを変化させる。
この結果ペッ トロボッ ト 1は、 「成長段階」 が上がる (すなわち 「幼年期」 力 ら 「少年期」、 「少年期」 から 「青年期」、 「青年期」 から 「成人期」 に変化する) に従って、 「歩行状態」 力 S 「よちよち歩き」 から 「しっかり した歩き」 に、 「モー シヨ ン」 力 S 「単純」 から 「高度 '複雑」 に、 「行動」 力 「単調」 から 「目的をも つて行動」 に、 かつ 「サウンド」 力 S 「小さく短い」 から 「長く大きレ、」 に段階的 に変化する。
このようにしてこのぺッ トロボッ ト 1においては、 外部からの入力ゃ自己の行 動及び動作の履歴に応じて、 「幼年期」、 「少年期」、 「青年期」 及び 「成人期」 の 4段階で 「成長」 するようになされている。
なおこの実施の形態の場合、 図 3からも明らかなように、 「少年期」、 「青年期 」 及び 「成人期」 の各 「成長段階」 について、 それぞれ複数の行動及び動作モデ ルが用意されている。
実際上例えば 「少年期」 の行動及び動作モデルとして、 動きが雑で速い 「荒々 しい」 性格の行動及び動作を行う行動及び動作モデル (C h i l d 1 ) と、 こ れよりも動きが滑らかで遅い 「おっと り」 とした性格の行動及び動作を行う行動 及び動作モデル (C h i l d 2 ) とが設けられている。
また 「青年期」 の行動及び動作モデルと して、 「少年期」 の 「荒々しい」 性格 よりもより動きが雑で速い 「いらいら」 した性格の行動及び動作を行う行動及び 動作モデル (Y o u n g 1 ) と、 これよりも動きが遅くかつ滑らかな 「普通」 の性格の行動を行う行動及び動作モデル (Y o u n g 2) と、 これよりも一層 動作が遅く、 かつ行動量が少ない 「おっと り」 した性格の行動及び動作を行う行 動及び動作モデル (Y o u n g 3 ) とが設けられている。
さらに 「成人期」 の行動及び動作モデルとして、 それぞれ 「青年期」 の 「いら いら」 した性格よりもより動きが雑で速く、 かつユーザからの指令に応じた動き を行い難い 「攻撃的」 な性格の行動及び動作を行う行動及び動作モデル (A d u I t 1 ) と、 これよりも動きが滑らかで遅く、 かつユーザからの指令に応じた 動きを行い易い 「少し荒々しい」 性格の行動及び動作を行う行動及び動作モデル (A d u l t 2) と、 これによりも動きが滑らかで遅く、 行動量が少く、 かつ ユーザからの指令に応じた動きを必ず行う 「少しおとなしい」 性格の行動及び動 作を行う行動及び動作モデル (A d u l t 3) と、 これによりもさらに一層動 きが遅く、 行動量が少なく、 かつユーザからの指令に応じた動きを必ず行う 「お となしい」 性格の行動又は動作を行う行動及び動作モデル (A d u 1 t 4) と が設けられている。
そしてコン トローラ i 0は、 「成長段階」 を上げる際、 各成長要素の累積度数 に基づいて次の 「成長段階」 内の各行動及び動作モデルのなかから 1つの行動及 び又は動作モデルを選択して、 使用する行動及び動作モデルを当該選択した行動 及び動作モデルに変更するようになされている。
この場合 「少年期」 以降では、 次の 「成長段階」 に移る際、 現在の 「成長段階 」 の行動及び動作モデルから遷移できる次の 「成長段階」 の行動及び動作モデル は決まっており、 図 3において矢印で結ばれた行動及び動作モデル問の遷移しか できない。 従って例えば 「少年期」 において 「荒々しい」 行動及び動作を行う行 動及び動作モデル (C h i l d 1 ) が選択されている場合には、 「青年期」 に おいて 「おっと り」 と行動及び動作を行う行動及び動作モデル (Y o u n g 3 ) に遷移することができない。
このようにこのぺッ トロボッ トにおいては、 あたかも本物の動物が飼い主の飼 育の仕方等によって性格を形成してゆくかのごとく、 ユーザからの働きかけ及び 指令の入力履歴や自己の行動履歴に応じて、 「成長」 に伴って 「性格」 をも変化 させるようになされている。 なお以下においては、 ペッ トロボッ ト 1の 「成長」 の度合いを適宜 「成長度」 又は 「成長段階値」 と呼ぶ。
( 1— 2 ) コン トローラ 1 0の処理
ここでこのようなぺッ トロボッ ト 1の行動生成に関するコントローラ 1 0の処 理について説明する。
図 4に示すように、 ペッ トロボッ ト 1の行動生成に関するコン トローラコン ト ローラ 1 0の処理の内容を機能的に分類すると、 状態を認識する状態認識機構部 2 0と、 状態認識機構部 2 0の認識結果に基づいて続く行動を決定する行動決定 機構部 2 1 と、 行動決定機構部 2 1の決定結果に基づいて実際にぺッ トロボッ ト 1に行動を発現させる行動生成機構部 2 2と、 このペッ トロボッ ト 1の 「成長段 階」 を制御する成長制御機構部 2 3 と、 後述のような学習を制御する学習制御機 構部 2 4 とに分けることができる。
この場合状態認識機構部 2 0は、 マイクロホン 1 5、 C C Dカメラ 1 6及びタ ツチセンサ 1 7から与えられる音声信号 S 1、 画像信号 S 2及び圧力検出信号 S 3に基づいて、 特定の状態や、 ユーザからの特定の働きかけ及びユーザからの指 示を検出及び認識し、 認識結果を状態認識情報 D 1 として行動決定機構部 2 1 に 通知する。
具体的に状態認識機構部 2 0は、 マイクロホン 1 5から与えられる音声信号 S 1を常時監視し、 当該音声信号 S 1 のスペク トラムとして 「歩け」、 「伏せ」、 「ボ —ルを追いかけろ」 等の指令に応じてサゥンドコマンダから出力される指令音と 同じ音階のスぺク トラムを検出したときにはその指令が与えられたと認識して、 当該認識結果を行動決定機構部 2 1に通知する。
また状態認識機構部 2 0は、 C C Dカメラ 1 6から与えられる画像信号 S 2を 常時監視し、 当該画像信号 S 2に基づく画像内に例えば 「赤い丸いもの」 や 「地 面に対して垂直なかつ所定高さ以上の平面」 を検出したときには 「ボールがある 」、 「壁がある」 と認識して、 当該認識結果を行動決定機構部 2 1 に通知する。
さらに状態認識機構部 2 0は、 タツチセンサ 1 7から与えられる圧力検出信号 S 3を常時監視し、 当該圧力検出信号 S 3に基づいて所定の閾値以上のかつ短時 間 (例えば 2秒未満) の圧力を検出したときには 「たたかれた (しかられた)」 と認識し、 所定の閾値未満のかつ長時間 (例えば 2秒以上) の圧力を検出したと きには 「なでられた (ほめられた)」 と認識して、 これら認識結果を行動決定機 構部 2 1に通知する。
行動決定機構部 2 1は、 状態認識機構部 2 0から状態認識情報 D 1が与えられ たときや、 現在の行動に移ってから一定時間経過したときなどに、 メモリ 1 O A に格納されている各行動及び動作モデルの 「行動」 についての制御パラメータの うち、 成長制御機構部 2 3により予め指定された行動及び動作モデルの 「行動」 についての制御パラメータに基づいて 「立つ」、 「寝る」、 「歩く」 などの次の行動 を決定する。
具体的に行動決定機構部 2 1は、 次の行動を決定する手法と して、 図 5に示す ように、 状態をノード NODE。 〜 NODE„ として表現し、 ] つのノード NO DE。 から他のどのノード NODEi 〜NODE„ に遷移するかを、 各ノード N ODE。 〜NODEn 間を接続するアーク A R C〗 〜ARC„+1 に対してそれぞ れ設定された遷移確率 Pi 〜Ρη+ι に基づいて確率的に決定する確率状態遷移モ デルでなる確率ォートマ トンと呼ばれるァルゴリズムを用いる。
そしてメモリ 1 O Aには、 この確率ォートマ トンにおける各ノード NODEj 〜NODEn ごとの遷移条件 (「たたかれた」、 「なでられた」 など) や遷移先 ( ノード NODE。 〜NODEn ) 及びその遷移確率 〜 Ρ η+1 等が、 各 「成長 段階」 の各行動及び動作モデルごとに、 それぞれ 「行動」 に関する制御パラメ一 タとして予め格納されている。
そして行動決定機構部 2 1は、 この 「行動」 に関する制御パラメータに基づい て、 例えば状態認識機構部 20から状態認識情報 D 1が与えられたときや、 現在 のノード NOD Ε。 に移ってから一定時間経過したときなどに、 そのとき選択し ている行動及び動作モデルにおけるそのときのノード N O D Ε。 での遷移条件や 遷移先及びその遷移確率 Pi 〜Pn+1 の制御パラメ一タに基づいて次のノード N ODE。 〜NODEn を決定し、 そのノード NODE。 〜NODEn に至る経路 上のアーク ARC 〜ARCn+1 に対応付けられた行動を行動決定情報 D 2とし て行動生成機構部 2 2、 成長制御機構部 2 3及び学習制御機構部 24に通知する 行動生成機構部 2 2は、 上述の各 「成長段階」 の各行動及び動作モデルにそれ ぞれ対応させて、 各行動及び動作モデルごとの 「歩行状態」、 「モーショ ン」 及び 「サウンド」 についての各種制御パラメータをメモリ 1 O A内に有している。 そして行動生成機構部 2 2は、 行動決定機構部 2 1から行動決定情報 D 2が与 えられると、 メモリ 1 0 Aに格納されているこれら行動及び動作モデルの 「歩行 状態」、 「モーショ ン」 及び 「サウンド」 についての各種制御パラメータのうち、 成長制御機構部 2 3により予め指定された行動及び動作モデルの各種制御パラメ —タに基づいて、 行動決定機構部 2 1 により決定された行動を実行するための具 体的な行動計画を生成する。 実際上この行動計画は、 その行動を実行するのに必 要な各ァクチユエ一タ 1 〜 1 9 An をどの程度回転させれば良いかといつ た数値として算出される。
そして行動生成機構部 2 2は、 この駆動計画に基づいて必要なァクチユエータ 1 9 〜 1 9 An に対する制御信号 S 6 A, 〜 S 6 An を生成し、 これら制御 信号 S 6 Ai 〜S 6 An に基づいて対応するァクチユエータ 1 9 〜 1 9 An を駆動制御することにより、 行動決定機構部 2 1により決定された行動をぺッ ト ロボッ ト 1に実行させる。
一方、 このとき状態認識機構部 20は、 マイクロホン 1 5、 CCDカメラ 1 6 及びタツチセンサ 1 7からそれぞれ与えられる音声信号 S 1、 画像信号 S 2及び 圧力検出信号 S 3に基づいて、 なんらかの状態を認識したときにはこれを状態認 識情報 D 3 として成長制御機構部 2 3に通知する。
なお状態認識機構部 20から成長制御機構部 2 3に通知されるなんらかの状態 としては、 上述のように行動決定機構部 2 1に通知される特定の状態の他に、 例 えば 「なでる」 や 「たたく」 に該当しない程度のタツチセンサ 1 7を介しての入 力などがある。
また成長制御機構部 2 3は、 図 6 ( A ) に示すように、 このように状態認識機 構部 2 0から与えられる状態認識情報 D 3に基づく各種状態のうち、 「成長段階 」 を上げる際の参考要素とすべき上述の成長要素のリス ト (以下、 これを第 1の 成長要素リス トと呼ぶ) 2 5 Aと、 これら成長要素の累積度数をそれぞれ計数す るための図 6 ( B ) のようなカウンタテーブル (以下、 これを第 1の成長要素力 ゥンタテーブルと呼ぶ) 2 5 Bとを 「成長」 に関する制御パラメータとしてメモ リ 1 0 A内に有している。
そして成長制御機構部 2 3は、 状態認識機構部 2 0から状態認識情報 D 3が与 えられると、 当該状態認識情報 D 3に基づき得られる状態が成長要素か否かを第 1 の成長要素リ ス ト 2 5 Aに基づいて判断し、 当該状態が成長要素である場合に は第 ] の成長要素カウンタテーブル 2 5 B内の対応するカウント値 (経験値) を 1つ増加させる。
さらに成長制御機構部 2 3は、 図 7 ( A ) に示すように、 上述のように行動決 定機構部 2 1から与えられる行動決定情報 D 2に基づき得られる行動のうち、 「 成長段階」 を上げる際の参考要素とすべき上述の成長要素のリス ト (以下、 これ を第 2の成長要素リス トと呼ぶ) 2 6 Aと、 これら成長要素の累積度数をそれぞ れ計数するための図 7 ( B ) のようなカウンタテーブル (以下、 これを第 2の成 長要素カウンタテーブルと呼ぶ) 2 6 Bとを 「成長」 に関するもう 1つの制御バ ラメータとしてメモリ 1 0 A内に有している c
そして成長制御機構部 2 3は、 行動決定機構部 2 1から行動決定情報 D 2が与 えられると、 当該行動決定情報 D 2に基づき得られる行動が成長要素か否かを第 2の成長要素リス ト 2 6 Aに基づいて判断し、 当該行動が成長要素である場合に は第 2の成長要素カウンタテーブル 2 6 B内の対応するカウン ト値 (経験値) を 1つ増加させる。
さらに成長制御機構部 2 3は、 上述のように第 1又は第 2の成長要素カウンタ テーブル 2 5 B、 2 6 B内のカウント値を増加させたときには、 第 1及び第 2の 成長要素カウンタテーブル 2 5 B、 2 6 Bとは別に用意した 「成長段階」 を上げ るか否かを判定するためのカウンタ (以下、 これを総合経験値カウンタと呼ぶ) のカウント値を 1増加させ、 この後当該総合経験値カウンタのカウント値が現在 の 「成長段階」 の終了条件と して予め設定されたカウント値に達したか否かを判 断する。
そして成長制御機構部 2 3は、 総合経験値カウンタのカウント値が現在の 「成 長段階」 の終了条件として予め設定されたカウント値に達した場合には、 行動及 び動作モデルを次の 「成長段階」 内のいずれの行動及び動作モデルに遷移させる かを第 1及び第 2の成長要素カウンタテーブル 2 5 B、 2 6 B内の各カウント値 に基づいて決定し、 決定結果を行動決定機構部 2 1及び行動生成機構部 2 2に通 知する。 なお成長制御機構部 2 3は、 初期時には 「幼年期」 の行動及び動作モデ ルを選択するような指示を行動決定機構部 2 1及び行動生成機構部 2 2に通知す る。
この結果行動決定機構部 2 1は、 この成長制御機構部 2 3からの通知に基づい て、 指定された行動及び動作モデルの 「行動」 についての制御パラメータを選択 し、 これ以降はこの制御パラメータを用いて上述のように現在のぺッ ト口ボッ ト 1の行動を決定する。
また行動生成機構部 2 2は、 成長制御機構部 2 3からの通知に基づいて、 指定 された行動及び動作モデルの 「歩行状態」、 「モーショ ン」 及び 「サウンド」 につ いての各種制御パラメータを選択し、 これ以降はこの各種制御パラメータを用い て各ァクチユエータ 1 9 〜 1 9 A n や音声出力を駆動制御する。
このよ うにして成長制御機構部 2 3は、 ユーザからの働きかけ及び指令の入力 履歴や、 自己の行動履歴に基づいてこのペッ トロボッ ト 1 の 「成長」 を制御する 他方、 状態認識機構部 2 0は、 タツチセンサ 1 7から与えられる圧力検出信号 S 3に基づいて、 「なでられた」 や 「たたかれた」 ことを確認すると、 これを学 習制御機構部 2 4に通知する。 このとき学習制御機構部 2 4は、 行動決定機構部 2 1から与えられる行動決定 情報 D 2に基づき現在及び過去の行動を常に認識している。 そして学習制御機構 部 2 4は、 ペッ トロボッ ト 1が行動を発現中に 「なでられた」 との認識結果が状 態認識機構部 2 0から与えられた場合には、 これを決定機構部 2 1 に通知する。 かく して行動決定機構部 2 1は、 この通知に基づいて、 図 5に示す確率オート マトンで表現される 「行動」 を決定するための制御パラメータのうちの、 そのと き発現されている行動と対応付けられたアーク A R 〜A R Cn+I の遷移確率 P1 〜 Pn+1 を所定量だけ減少させる一方、 この減少量に応じた量だけもとのノ —ド N〇D E。 〜NOD En から発現できる他の行動 (アーク A R C! 〜A R C n+1 ) の遷移確率 〜Pn+1 を增加させる。
これに対して学習制御機構部 2 4は、 ぺッ トロボッ ト 1が行動を発現中に 「な でられた」 との認識結果が状態認識機構部 2 0から与えられた場合には、 これを 決定機構部 2 1 に通知する。
かく して行動決定機構部 2 1は、 この通知に基づいて、 「行動」 を決定するた めの制御パラメータのうちの、 そのとき ¾現されている行動と対応付けられたァ ーク A R C! 〜A R Cn+1 の遷移確率 P〗 〜 P„+1 を所定量だけ増加させる一方、 この増加量に応じた量だけもとのノー ド N O D E。 〜ΝΟ ϋ Ε„ から発現できる 他の行動 (アーク A R C, 〜A R Cn+1 ) の遷移確率 〜Pn+1 を減少させる。 そしてこのような制御によって、 「たたかれた」 ときにはその行動に対応する アーク A R Ci 〜A R C„+1 の遷移確率 〜Ρ,1+1 が減少するによりその行動が 発現され難くなり、 「なでられた」 ときにはその行動に対応するアーク A R C, 〜A R Ctl+1 の遷移確率 〜P,1+1 が増加することによりその行動が発現され易 くなることから、 あたかも本物の動物が飼い主の镁けによつて学習して行動を変 化させてゆくかのごとく行動を変化させることができる。
このようにしてコントーラ 1 0においては、 ユーザからの働きかけ及び指令の 入力履歴や、 自己の行動履歴に基づいてペッ トロボッ ト 1を 「成長」 や 「学習」 させるながら、 自律的に行動させ得るようになされている。 (2) 本実施の形態によるぺッ トロボッ ト診断システム 3 0の構成
( 2— 1 ) ペッ トロボッ ト診断システム 3 0の構成
ここで図 5は、 このようなペッ トロボッ ト 1の 「性格」 及び 「故障」 の診断を 行い得るようになされたネッ トヮ一クシステム (以下、 これをペッ トロボッ ト診 断システムと呼ぶ) 3 0を示すものである。
かかるぺッ ト口ボッ ト診断システム 3 0においては、 個人端末 3 1 A〜 3 1 C が衛星通信回線 3 2や、 ケーブルテレビジョン回線 3 3又は電話回線 3 4等を通 じてィンタ一ネッ トプロバイダ 3 5と接続されると共に、 当該ィンターネッ トプ 口バイダ 3 5がィンタ一ネッ ト 3 6を介してぺッ トロボッ ト 1の診断業者 3 7が 設置したサーバ 3 8と接続され、 さらに当該サーバ 3 8に一般公衆回線 3 9を介 して個人端末 3 1 Dが直接に接続されることにより構成されている。
この場合、 各個人端末 3 1 A〜3 1 Dは、 一般家庭等に設置された通常のパー ソナルコンピュータであり、 インターネッ ト 3 6又は一般公衆回線 3 9を介して サーバ 3 8と通信して当該サーバ 3 8 との間で必要なデータを送受信したり、 ぺ ッ トロボッ ト 1の胴体部ュ-ッ ト 2に設けられた図示しないコネクタを介して接 続された当該ぺッ トロボッ ト 1のコン トローラ 1 0と通信し、 メモリ 1 O Aから 必要なデータを読み出したりすることができるようになされている。
またサーバ 3 8は、 診断業者 3 8がペッ トロボッ ト 1の後述のような 「性格」 や 「故障」 の診断及び 「カウンセリ ング」 に関する各種処理を行う We bサーバ であり、 インタ一ネッ ト 3 6又は一般公衆回線 3 9を介してアクセスしてきた個 人端末 3 1 A〜 3 1 Dに対して後述のような各種画面の画面データや必要な画像 データを送出して、 これら画面データや画像データに基づく画面や画像を対応す る個人端末 3 1 A〜3 1 Dのディスプレイに表示させることができるようになさ れている。
なおこのサーバ 3 8の構成を図 9に示す。 この図 9からも明らかなように、 サ —バ 3 8は、 インターネッ ト用のインターフェース回路を内蔵する LAN ( L o c a l A r e a N e t w o r k) カード 4 0と、 一般公衆回線用のィン タ一フェース回路としてのモデム 4 1 と、 サーバ 3 8全体の制御を司る C P U 4 2と、 C P U 4 2のワークメモリとしての半導体メモリ等でなる一時記憶メディ ァ 4 3と、 サーバ 3 8が後述のような処理を行うための各種プログラムやデ一タ が格納されると共に、 必要なデータ等を格納されするためのハードディスク装置 等のス トレ一ジメディア 4 4とから構成されている。
そしてサーバ 3 8においては、 ィンタ一ネッ ト 3 6又は一般公衆回線 3 9を介 してアクセスしてきた個人端末 3 1 A 〜 3 1 Dから供給されるデータゃコマンド を L A Nカード 4 0又はモデム 4 1を介して C P U 4 2に取り込み、 当該データ ゃコマンドと、 ス トレージメディァ 4 4に格納されている制御情報とに基づいて 所定の処理を実行する。
そして C P U 4 2は、 この処理結果に基づいて、 例えは後述のような各種画面 の画面データや、 他のデータ、 プログラム及びコマンドなどを L A Nカード 4 0 又はモデム 4 1を介して対応する個人端末 3 1 A〜 3 1 Dに送出するようになさ れている。
( 2 - 2 ) 性格診断及び故障診断の手順
次にこのぺッ トロボッ ト診断システム 3 0を用いたぺッ トロボッ ト 1 の 「性格 」 及び 「故障」 の診断手順について説明する。 このペッ トロボッ ト診断システム 3 0においては、 図 1 0に示す性格診断手順 R T 1 に従ってぺッ トロボッ ト 1 の 性格診断や力ゥンセリングを行ったり、 図 1 1に示す故障診断手順 R T 2に従つ て故障診断を行うことができるようにしたものである。
まず性格診断について説明する。 自己のペッ トロボッ ト 1 の 「性格」 を診断し てもらいたいユーザは、 ペッ トロボッ ト 1 の胴体部ュニッ ト 2に設けられた上述 のコネクタを介して当該ぺッ トロボッ ト 1 と個人端末 3 1 A〜 3 1 Dを接続し ( ステップ S P 1 )、 その後その個人端末 3 1 A〜 3 1 Dを診断業者 3 7のサーバ 3 8にアクセスしてペッ トロボッ ト 1 の診断を依頼する (ステップ S P 2 )。 こ の結果その個人端末 3 1 A〜 3 1 Dのディスプレイには、 図 1 2に示すような性 格診断画面 5 0が表示される。 この性格診断画面 5 0は、 ペッ トロボッ ト 1が初期起動されてからの日数 ( Ag e ), 成長段階 (P h a s e )、 「わがまま」、 「陽気」 等のタイプ (T i p e )、 ユーザに対する愛情度 (L o v e t o O w n e r )、 ボール等のアイテム に対する愛情度 (L o v e t o I t e m) 及び初期起動からの日数に対する 賢さ ( I Q) などの内部状態を表す予め設定されたいくつかの項目に対する診断 結果を表示するための画面であり、 初期時には、 『ペッ トロボッ トもしくは、 内 蔵ス トレ一ジメディアを P Cに接続して下さい。』、 『診断を開始しますか?』 の 文字と、 OKボタン 5 1 A及びキャンセルボタン 5 1 Bが有効表示される。
そしてこの性格診断画面 5 0では、 ユーザが OKボタン 5 1 Aをク リ ックする と、 ペッ トロボッ ト 1のコントローラ 1 0 (図 2) が個人端末 3 1 A〜3 1 Dを 介してサーバ 3 8の C PU 4 2により制御され、 当該ぺッ トロボッ ト 1のメモリ 1 0 Aから診断に必要なデータ (以下、 これを診断用データと呼ぶ) が読み出さ れて、 これが個人端末 3 1 A〜3 1 Dを介してサーバ 3 8にアップロードされる (ステップ S P 3 )。
なおこのような性格診断に必要な診断用データとしては、 ペッ トロボッ ト 1の 「行動」 に関する制御パラメータのうちの図 5に示す確率ォ一 トマトンにおける 全てのノード N〇DE。 〜NODEn についての全ての遷移確率 〜Ρη+Ι や 、 「成長」 に関する各種制御パラメ一タのうちの第 1及び第 2のカウンタテープ ル 2 5 Β、 2 6 Β (図 6 (Β)、 図 7 (Β)) における各カウント値、 「成長」 に 関する各種制御パラメ一タのうちの上述の総合経験値カウンタのカウント値、 並 びに現在使用している行動及び動作モデルの種類 (B a b y 1、 C h i 1 d 1、 C h i I d 2、 Y o u n g :!〜 Y o u n g 3、 A d u l t :!〜 A d u 1 t 4) 又は 「成長度」 若しくは 「成長段階値」 などがある。
そしてサーバ 3 8の C PU 4 2は、 このようにして得られた診断用データをス トレージメディァ 44に格納されたプログラムに基づいて解析処理し、 当該解析 処理結果に基づいてそのペッ トロボッ ト 1の 「性格」 を診断する (ステップ S P 4)。 例えば C PU 4 2は、 行動及び動作モデルとして図 3における 「Y o u n g 3」 の行動及び動作モデルが使用されている場合には、 成長段階が 「Y o u n g 」 と診断し、 またこれに加えて学習により各種行動を行い難くなつている場合に はタイプが 「おとなしい」 と診断する。
また C PU4 2は、 使用している行動及び動作モデルの種類や、 「行動」 に関 する制御パラメータのうちの攻撃的な行動と対応付けられたアーク ARCQ 〜A RCn+1 (図 5) の遷移確率 〜Pn+1 の値 (学習により変化) などに基づいて ぺッ トロボッ ト 1のュ一ザに対する愛情度を診断したり、 「行動」 に関する制御 パラメータのうちの 「ポ一ルを追いかける」、 「ボールと遊ぶ」 などの行動と対応 付けられたアーク ARC。 〜A RCn+1 の遷移確率 Pュ 〜P,1+1 の値 (学習により 変化) などに基づいてペッ トロボッ ト 1の各種アイテムに対する好感度 ( L o v e t o I t e m) を診断する。
そして C PU 4 2は、 このような解析処理により得られた診断結果を性格診断 画面 50の対応する診断結果表示部 5 2 A〜5 2 E内に表示させる一方、 ス ト レ ージメディア 44に格納されたプログラムに基づいて当該診断結果に基づく コメ ントを作成し、 これを性格診断画面 5 0内のコメン ト表示部 5 3に表示する。 さらに C PU4 2は、 これと共にス ト レージメディア 44 (図 9) に格納され たプログラムに基づいて、 ぺッ トロボッ ト 1の 「性格」 に対する得点を診断用デ —タに基づいて算出し、 算出結果を性格診断画面 5 0内の総合得点表示部 5 4に 表示させる一方、 診断用データに基づいてそのぺッ トロボッ ト 1の初期起動から の日数に対する賢さを算出し、 算出結果を賢さ表示部 5 5に表示する (ステップ S P 5;)。
一方、 サーバ 3 8の C P U 4 2は、 この後性格診断画面 5 0の O Kボタン 5 6 A、 5 6 Bがク リ ックされると、 図 1 3に示すような質問画面 60をそのユーザ の個人端末 3 1 A〜3 1 Dのディスプレイに表示させる (ステップ S P 6)。 この質問画面 6 0は、 ユーザがそのぺッ トロボッ ト 1をどのように成長させた いかを質問するための画面であり、 「日常生活」、 「芸風」、 「成長速度」 及び 「あ なたに対する愛」 等のいくつかの質問項目について、 各質問項目ごとに予め定め られたいくつかの答えがそれぞれ文字が表示された選択ボタン 6 1 A〜 6 1 F、 6 2 A〜 6 2 E、 6 3 A〜 6 3 D、 6 4 A〜 6 4 Dとして表示される。 従ってュ —ザは、 これら質問項目について、 当該質問項目ごとに該当する選択ボタン 6 1 A〜 6 1 F、 6 2 A〜 6 2 E、 6 3 A〜 6 3 D、 6 4 A〜 6 4 Dをクリ ックする ようにして所望する答えを入力することができる。
そしてサーバ 3 8の C P U 4 2は、 この質問画面 6 0における各質問項目に対 するユーザの答えの選択が行われた後、 OKボタンがクリ ックされると、 これら 質問項目に対するユーザの答えと、 上述の診断用データと、 ス トレ一ジメディア に格納されたプログラムとに基づいて所定の解析処理を行い、 そのぺッ トロボッ ト 1を今後どのように育てれば良いかのカウンセリング結果を出す (ステップ S P 7 )。
例えば C P U 4 2は、 行動及び動作モデルとして図 3における 「Y o u n g 1」 の行動及び動作モデルが使用されており、 「行動」 に関する制御パラメ一タ のうちの攻撃的な行動と対応付けられたアーク A R C。 〜A R Cn+1 の遷移確率 P, 〜Pn+1 の値が学習により初期値よりも大きくなつており、 さらに質問画面 6 0における 「日常生活」 の質問項目に対するユーザの答えが 「控えめ」 であつ た場合には、 『もう少しなでてあげたり、 ボールで遊んであげる』 といったカウ ンセリング結果を出す。
そして C P U 4 2は、 このような解析処理によりカウンセリング結果を出すと 、 当該カウンセリ ング結果と、 料金とが記載された例えば図 1 4に示すような力 ゥンセリ ング結果表示画面 6 7をその個人端末 3 1 A〜 3 I Dのディスプレイに 表示させる (ステップ S P 8 )。
このようにしてこのぺッ トロボッ ト診断システム 3 0においては、 ユーザが自 己のペッ トロボッ ト 1の 「性格」 についての診断やカウンセリングを行うことが できるようになされている。
次に、 ペッ トロボッ ト診断システム 3 0による故障診断について説明する。 こ れに際してまずぺッ トロポッ ト 1におけるサーボシステムについて説明する。 ペッ トロボッ ト 1においては、 図 1 5に示すように、 図 4について上述した行 動生成機構部 2 2として、 コントローラ 1 0の内部に C PU 7 1、 比較演算回路 7 2、 パルス発生回路 7 3、 ドライバ回路 7 4及びアナログ/ディジタル変換回 路 7 5が設けられており、 これらによって各ァクチユエータ 1 9 A! 〜1 9 An を駆動制御している。
この場合 C PU 7 1は、 ァクチユエータ 1 9 Aュ 〜1 9 An を駆動するに際し てその出力軸の目標とする回転角度 (角度指令値) を角度指令値信号 S 1 0とし て比較演算回路 7 2に送出する。
また比較演算回路 7 2には、 対応するポテンショメータ 1 9 〜 1 9 B„ に より検出されたそのときのァクチユエータ 1 9 〜 1 9 A„ の現在角度値がァ ナログノディジタル変換回路 7 5によりディジタル変換されて、 現在角度値信号 S 1 1 として与えられる。
かく して比較演算回路 7 2は、 角度指令値信号 S 1 0に基づく角度指令値と、 現在角度値信号 S 1 1に基づき得れる現在角度値との角度差を演算し、 演算結果 を差分信号 S 1 2としてパルス発生回路 7 3に送出する。
パルス発生回路 7 3は、 差分信号 S 1 2に基づいてァクチユエータ 1 9 〜 1 9 An の出力軸を回転駆動させるための駆動パルスを発生し、 これを駆動パル ス信号 S 1 3 と してドライバ回路 7 4に送出する。
またドライバ回路 7 4は、 供給される駆動パルス信号 S 1 3に応じた電圧値の 駆動信号 S 6 A】 〜S 6 An を生成し、 これをァクチユエータに送出することに より、 対応するァクチユエータ 1 9 At 〜 1 9 An を駆動させる。
このときこのァクチユエータ 1 9 A, 〜1 9 A„ の出力軸の回転角度はポテン ショメータ 1 9 〜 1 9 Bn により検出され、 検出結果でなる角度検出信号 S S 6 〜S 6 Bn がアナログ/ディジタル変換回路 7 5においてディジタル変 換されて、 上述の現在角度値信号 S 1 1 と して比較演算回路 7 2に与えられる。 そしてこのサ一ボシステム 7 0においては、 比較演算回路 7 2の出力が 「0」 となるまで (すなわち角度指令値と、 現在角度値とがー致するまで)、 比較演算 回路 7 2、 パルス発生回路 7 3、 ドライバ回路 74、 ァクチユエータ Ι Θ Α 1 9 Αη 、 ポテンショメータ 1 〜 1 9 Bn 及びアナ口グ/ディジタル変換 回路 7 5により形成される閉ループにおいて同様の処理が所定周期 (例えば 1 〔 μ m]) で順次行われる。 このようにしてこのサーボシステム 70においては、 ァクチユエータ 1 9 A 〜 1 9 An の出力軸の回転角度を角度指令値とするよう に制御することができるようになされている。
なおこのサーボシステム 70には、 当該サーボシステム 7 0の故障を診断する ための故障診断回路 7 6が設けられている。 そしてこの故障診断回路 7 6には、 C PU 7 1から比較演算回路 7 2に角度指令値信号 S 1 0と して新たな角度指令 値が与えられたときと、 ァクチユエータ 1 9 A! 〜 1 9 Λ„ の現在角度値が角度 指令値に一致したときに比較演算回路 7 2から開始信号 S 1 4及び終了信号 S 1 5がそれぞれ与えられる。
ここで、 このサーボシステム 7 0の閉ループにおいて、 比較演算回路 7 2、 パ ルス発生回路 7 3、 ドライバ回路 74、 ァクチユエ一タ 1 〜 1 9 Λη 、 ポ テンショメータ 1 9 Β 〜 1 9 Βη 及びアナ口グ/ディジタル変換回路 7 5のい ずれかが壊れていたり、 又はいずれかの箇所で断線していると当該サーボシステ ム 70が正しく機能せずに比較演算回路 7 2の出力がいつまでも 「0」 とならな レ、。
そこで故障診断回路 7 6は、 開始信号 S 1 4が与えられると時間のカウントを 開始し、 所定時間内に終了信号 S 1 5が与えられたときには故障がないと判断す る一方、 当該所定時間内に終了信号 S 1 5が与えられなかったときには故障があ ると判断して、 判断結果を故障診断信号 S 1 6 として C PU 7 1に送出するよう になされている。 これにより このサーボシステム 70においては、 この故障診断 信号 S 1 6に基づいて C P U 7 1が故障の有無を容易に認識し得るようになされ ている。
そして図 8に示すぺッ トロボッ ト診断システム 3 0では、 このようなぺッ トロ ボッ ト 1のサーポシステム 7 0における自己故障検出機能を利用して、 図 1 1に 示す故障診断手順 R T 2に従って当該ぺッ トロボッ ト 1の故障の有無を診断し得 るようになされている。
実際上、 このぺッ トロボッ ト診断システム 3 0において、 ぺッ トロボッ ト 1の 故障診断をしてもらいたいユーザは、 個人端末 3 1 A〜 3 1 Dを用いてサーバ 3 8にアクセスし、 ペッ トロボッ ト 1の故障診断を依頼する (ステップ S P 1 0 ) 。 この結果その個人端末 3 1 A〜3 1 Dのディスプレイに、 図 1 6に示すような 故障診断準備画面 8 0が表示される。
この故障診断準備画面 8 0は、 ペッ トロボッ ト 1の故障診断を行うに際しての 準備手順をユーザに知らせるための画面であり、 初期時には 『故障診断を開始し ます。』、 『ぺッ トロボッ トと端末を接続してくださレ、。』、 『準備はできましたか。 』 の文字と、 第 1の O Kポタン 8 1 A及び第 1のキャンセルボタン 8 1 Bだけが 有効表示される。
そしてユーザ 3 8が上述の性格診断のときと同様にしてその個人端末 3 1 A〜 3 1 Dとペッ トロボッ ト 1 とを接続した後、 第 1の O Kボタン 8 1 Aをク リ ック すると、 『故障診断プログラムをダウンロードします。』、 『よろしいです力、。』 の 文字と、 第 2の O Kボタン 8 2 A及び第 2のキャンセルボタン 8 2 Bが有効表示 される。
さらにこの故障診断準備画面 8 0では、 ユーザが第 2の O Kボタン 8 2 Aをク リ ックすると、 サーバ 3 8からその個人端末 3 1 A〜 3 1 Dに故障診断を行うた めのプログラム (以下、 これを故障診断プログラムと呼ぶ) が転送され、 当該故 障診断プログラムがその個人端末 3 1 A〜 3 1 D内のハードディスクに保存 (ダ ゥンロード) される。
またこの故障診断プログラムのダウンロードが終了すると、 故障診断準備画面 8 0に 『ダウンロード終了しました。』、 『診断を開始します。』、 『よろしいですか 。』 の文字と、 第 3の O Kボタン 8 3 A及び第 3のキャンセルボタン 8 3 Bが有 効表示される。 そしてユーザが第 3の OKボタン 8 3 Aをクリ ックすると、 個人端末 3 1 A〜 3 1 Dにダウンロードされた故障診断プログラムに基づいて、 当該個人端末 3 1 A〜3 I Dによるぺッ トロボッ ト 1の故障診断が行われる。
実際上、 このような故障診断として、 個人端末 3 1 A〜3 1 Dは、 ぺッ トロボ ッ ト 1のコン トローラ 1 0を制御してまず所定の 1つのァクチユエータ 1 を駆動させる。 そしてこのとき図 1 5について上述した故障診断回路 7 6から出 力される故障診断信号 S 1 6に基づく故障の有無の結果がぺッ トロボッ ト 1のコ ントロ一ラ 1 0内の C PU 7 1から個人端末 3 1 A〜 3 1 Dに通知される。
かく して個人端末 3 1 A〜 3 1 Dは、 この通知に基づいてそのァクチユエ一タ 1 9 A, に対するサ一ボシステム 70に故障がないか否かを判断する。 また個人 端末 3 1 A〜3 1 Dは、 これと同様にしてぺッ トロボッ ト 1のコン トローラ 1 0 を制御し、 全てのァクチユエ一タ 1 9 Ai 〜 1 9 An について、 対応するサ一ボ システム 70に故障がないか否かを判断する。
そして個人端末 3 1 A〜3 1 Dは、 このようにして全てのァクチユエ一タ 1 9 A, 〜 1 9 Απ のサ一ボシステム 7 0に対する故障の有無の検査を終えると、 検 査結果を診断用データとしてサーバ 3 8に送出する。
そしてサーバ 3 8の C PU 4 2は、 この個人端末 3 1 Α〜3 1 Dから転送され る診断用データを解析し、 当該解析結果に基づいてぺッ トロボッ ト 1の故障の有 無を診断する。 そして C PU 4 2は、 故障がないと診断したときには、 例えば図 1 7に示すように 『診断を終了しました。』、 『このぺッ トロボッ トには故障はあ りません。』 と記載された第 1の故障診断結果表示画面 84をその個人端末 3 1 A〜3 1 Dのディスプレイに表示させる。
これに対して C PU 4 2は、 故障があると診断したときには、 図 1 8に示すよ うな第 2の故障診断結果表示画面 8 5をその個人端末 3 1 A〜 3 1 Dのディスプ レイに表示させる。
この場合この第 2の故障診断結果画面 8 5では、 初期時、 『診断を終了しまし た。』、 『このぺッ トロボッ トに故障を発見しました。』 及び 『修理を依頼します か?』 の文字と、 O Kボタン 8 6 A及びキャンセルボタン 8 6 Bが有効表示され る。
また C P U 4 2は、 この第 2の故障診断結果表示画面 8 5の O Kボタン 8 6 A がクリ ックされると、 上述のような故障診断の結果として得られた故障箇所に関 するデータと、 ペッ トロボッ ト 1のメモリ 1 0 Aから読み出した当該ぺッ ト口ボ ッ ト 1のシリアル番号となどのデータをサービスセンタ等に送出する一方、 第 2 の故障診断結果表示画面 8 5に 『ぺッ トロボッ 卜の修理に関する詳細を送信しま した。』、 『修理の準備を整えておきます。』、 『次ページの修理依頼をプリントァゥ トして、 ぺッ トロボッ トの梱包箱に貼り、 発送して下さい。』 の文字を表示する 一方、 次ページに図 1 9に示すような宛先表示画面 8 7を表示する。
この場合この宛先表示画面 8 7には、 修理依頼する際のぺッ トロポッ ト 1の送 り先 (宛先) の住所及び名称や、 発送主の住所及び氏名 (予めユーザにより登録 されたもの)、 診断日、 診断受け付け番号、 ペッ トロボッ ト 1のシリアル番号及 び故障箇所等が記述される。
かく してユーザは、 この宛先表示画面 8 7をプリントアウ トし、 これをペッ ト ロポッ ト 1 を収納した梱包箱に貼りつけて発送することにより、 ぺッ トロボッ ト 1の修理を依頼することができる。
このようにしてこのぺッ ト口ボッ ト診断システム 3 0においては、 ユーザが自 己のぺッ トロボッ ト 1の故障の有無を検査し得る一方、 故障が検出されたときに も容易にその修理を依頼することができるようになされている。
( 3 ) 本実施の形態の動作及び効果
以上の構成において、 このペッ トロボッ ト診断シスムテ 3 0では、 ペッ トロボ ッ ト 1を個人端末 3 1 A〜 3 1 Dに接続し、 当該個人端末 1 3 A〜 3 1 Dを用い て診断業者 3 7のサーバ 3 8にアクセスして性格診断を依頼すると、 ぺッ トロボ ッ ト 1の 「行動」 や 「成長」 に関する各種制御パラメータが診断用データと して サーバ 3 8にアップロードされ、 当該診断用データに基づいてサーバ 3 8により ぺッ トロボッ ト 1の状態が診断され、 その診断結果が個人端末 3 1 A〜 3 1 Dの ディスプレイに表示される。
またこのぺッ トロボッ ト診 I折システム 3 0では、 この後このペッ ト口ポッ ト 1 をどのように育てたいかの質問に答えることによって、 当該質問に対する答え及 び診断用データに基づいてサーバ 3 8によるカウンセリングが行われ、 その結果 が個人端末 3 1 A〜3 1 Dのディスプレイに表示される。
さらにこのぺッ トロボッ ト診断システム 3 0では、 ペッ トロボッ ト 1 を個人端 末 3 1 A〜 3 1 Dに接続し、 サーバ 3 8にアクセスして故障診断を依頼すると、 サーバ 3 8からその個人端末 3 1 A〜 3 1 Dに故障診断プログラムが転送され、 当該故障診断プログラムに基づいて故障診断が行われて、 その診断結果が個人端 末 3 1 A〜3 I Dのディスプレイに表示される。
従ってこのぺッ トロボッ ト診断システム 3 0によれば、 ユーザが自己のぺッ ト ロボッ ト 1 の 「行動」 や 「成長」 の現在の状態や、 故障の検出等を容易に行うこ とができる。
以上の構成によれば、 サーバ 3 8の制御のもとにぺッ トロボッ ト 1の性格診断 や故障診断を行い得るようにしたことにより、 ユーザが自己のぺッ トロポッ ト 1 の性格や故障等の状態を容易に確認することができ、 かく してペッ トロボッ ト 1 の取り扱いを容易化し得るぺッ トロボッ ト診断システムを実現できる。
( 4 ) 他の実施の形態
なお上述の実施の形態においては、 本発明を図 1のように構成されたぺッ ト口 ボッ ト 1を診断するぺッ トロボッ ト診断システム 3 0に適用するようにした場合 について述べたが、 本発明はこれに限らず、 ぺッ トロボッ ト 1以外の例えば仮想 生物の状態 (当該仮想生物を保持するハードウェアの故障や、 各種パラメータの 状態、 プログラムの破壊の有無など) の診断や、 仮想生物の 3次元空間上での実 体としてのぬいぐるみなどの状態を診断するこの他種々の診断装置に広く適用す ることができる。
また上述の実施の形態においては、 ペッ トロボッ ト 1の性格や故障の診断処理 をサーバ 3 8が行うようにした場合について述べたが、 本発明はこれに限らず、 これらの処理を行うために必要なプログラムを個人端末 3 1 A 〜 3 1 Dに与え、 当該個人端末 3 1 A〜 3 1 Dがこれら処理を行えるようにするようにしても良い さらに上述の実施の形態においては、 ぺッ トロボッ ト 1における故障診断の対 象をサーボシステム 7 0 (図 1 5 ) とするようにした場合について述べたが、 本 発明はこれに限らず、 これ以外のハードウエアの故障を診断し得るようにしても 良い。 さらにはぺッ トロボッ ト 1の制御プログラムや各種制御データ等のソフ ト ウェアの損壊等をも故障診断の対象とするようにしても良い。
さらに上述の実施の形態においては、 ペッ トロボッ ト 1 と個人端末 3 1 A〜 3 1 Dとをケーブル等を介して接続して性格診断に必要なデータを取得するように した場合について述べたが、 本発明はこれに限らず、 例えばぺッ トロボッ ト 1に おける制御プログラムや各種制御データ等のソフ トウェアの一部又は全部をメモ リカード等の着脱自在の記録媒体に格納しておき、 性格診断を行うときにはこの 記録媒体をぺッ トロボッ ト 1から取り出して個人端末 3 1 A〜 3 1 Dに装填する ようにして行うようにしても良レ、。
さらに上述の実施の形態においては、 ぺッ 卜ロボッ ト 1の制御プログラムや各 種制御パラメータのソフ トウエアを格納しておく記録媒体としてメモリ 1 O Aを 適用するようにした場合について述べたが、 本発明はこれに限らず、 この他種々 の記録媒体を広く適用することができる。
さらに上述の実施の形態においては、 ぺッ トロボッ ト 1のメモリ 1 O Aから読 み出した診断用データや、 ペッ トロボッ ト 1 の故障診断回路 7 6 (図 1 5 ) から 出力される故障診断信号 S 1 6を解析する解析手段と、 当該解析結果に基づいて ペッ トロボッ ト 1の状態 (性格等の内部状態及び故障等の外部状態) の診断を行 う診断手段と、 解析手段の解析結果に基づいてカウンセリング処理を行うカウン セリング処理手段とをサーバ 3 0の C P U 4 2により構成するようにした場合に ついて述べたが、 本発明はこれに限らず、 これら解析手段、 診断手段及びカウン セリング手段を別体に設けるようにしても良い。 さらに上述の実施の形態においては、 ペッ トロボット 1から性格又は故障の診 断に必要なデータを取り出す手段と、 サーバ 3 8の診断結果を可視表示する表示 手段とを同じ個人端末 3 1 A〜 3 1 Dにより構成するようにした場合について述 ベたが、 本発明はこれに限らず、 これらを別体とするようにしても良い。
さらに上述の実施の形態においては、 個人端末 3 1 A〜 3 1 D及びサーバ 3 8 をインタ一ネッ ト 3 6又は一般公衆回線 (網) 3 9を介して接続するようにした 場合について述べたが、 本発明はこれに限らず、 これらインタ一ネット 3 6又は 一般公衆回線 (網) 3 9以外の例えば L A N等のネットワークで接続するように しても良い。 産業上の利用の可能性
本発明は診断システム、 診断装置及び診断方法に関し、 例えばネッ トワークを 介してぺッ トロボッ トの診断を行う診断システムに利用できる。

Claims

請 求 の 範 囲
1 . ソフ トウェアとして存在し、 行動又は動作することをプログラムされた仮想 生物のユーザ側に設けられた第 1の通信手段と、
上記仮想生物の上記ソフ トウユア又は上記仮想生物を保持するハードウエアの 状態を診断するサービスを提供するサービス提供者側に設けられた第 2の通信手 段と、
上記第 1及び第 2の通信手段間を接続する通信路と
を具え、
上記第 1 の通信手段は、
上記仮想生物の上記ソフ トウエア又は当該仮想生物を保持する上記ハードゥエ ァの状態を診断するのに必要な診断用データを上記通信路を介して上記第 2の通 信手段に送信し、
上記第 2の通信手段は、
上記第 1 の通信手段から与えられる上記診断用データを解析し、 解析結果に基 づいて上記仮想生物の上記ソフ トウェア又は上記仮想生物を保持するハードゥエ ァの上記状態を診断する
ことを特徴とする診断-
2 . 上記第 2の通信手段は、
上記診断結果を上記通信路を介して上記第 1の通信手段に送信し、
上記第 1 の通信手段は、
上記第 2の通信手段から与えられる上記診断結果を可視表示する表示手段を具 える
ことを特徴とする請求の範囲第 1項に記載の診断
3 . 上記仮想生物は、 当該仮想生物の行動及び動作の発現推移をモデル化した確率状態遷移モデルと 、 当該仮想生物の感情変化をモデル化した感情モデルと、 当該仮想生物の成長を モデル化した成長モデルとのうちの少なく とも 1つを有する共に、 外部状態、 内 部状態及び又は外部からの働きかけに基づいて、 上記確率状態遷移モデルの対応 箇所の遷移確率、 上記感情モデルの対応するパラメ一タ値及び又は上記成長モデ ルにおける当該仮想生物の現在の成長段階を必要に応じて変化させ、
上記第 1の通信手段は、
上記仮想生物の上記ソフトウユアの上記状態を診断するための上記診断用デー タとして、 上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各上記 パラメータ値及び又は上記成長モデルにおける現在の成長段階を表す成長段階値 を上記第 2の通信手段に送信し、
上記第 2の通信手段は、
上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各上記パラメ一 タ値及び又は上記成長段階値を解析し、 解析結果に基づいて、 上記仮想生物の上 記状態として、 上記仮想生物の性格を診断する
ことを特徴とする請求の範囲第 1項に記載の診断
4 . 上記第 2の通信手段は、
上記仮想生物の上記性格を診断後、 当該仮想生物をどのように育てたいかを当 該仮想生物の上記ユーザに質問するための質問データを上記第 1の通信手段に送 信し、
上記第 1の通信手段から送信される当該質問に対する上記ユーザの答えと、 当 該仮想生物の上記診断用データとに基づいて所定のカウンセリング処理を行い、 当該カウンセリング処理により得られた当該仮想生物をどのように育てれば良い かのカウンセリング結果を上記第 1の通信手段に送信する
ことを特徴とする請求の範囲第 3項に記載の診断
5 . 上記第 2の通信手段は、
上記仮想生物を保持する上記ハードウエアの状態を診断するためのコンビユー タプログラムでなる故障診断用プログラムを送信し、
上記第 1 の通信手段は、
当該故障診断用プログラムに基づいて、 上記仮想生物を保持する上記ハードウ ユアの故障の有無を検査すると共に、 当該検査結果を上記第 2の通信手段に送信 し、
上記第 2の通信手段は、
上記第 1 の通信手段から送信される当該検査結果を解析し、 解析結果に基づい て、 上記仮想生物を保持する上記ハードウユアの上記状態として、 故障の有無を 診断する
ことを特徴とする請求の範囲第 1項に記載の診断
6 . 上記第 2の通信手段は、
上記仮想生物を保持する上記ハードウエアに故障があった場合には、 当該故障 の関するデータ及び又は上記第 1 の通信手段を介して取得した上記仮想生物のシ リアル番号を含む必要なデータを所定のサービスセンタに通知する
ことを特徴とする請求の範囲第 5項に記載の診断システム。
7 . 上記第 2の通信手段は、
上記仮想生物を保持する上記ハ一ドウエアに故障があった場合には、 修理依頼 先を上記第 1 の通信手段に送信する
ことを特徴とする請求の範囲第 5項に記載の診断システム。
8 , ソフ トウェアとして存在し、 行動又は動作することをプログラムされた仮想 生物のユーザ側に設けられた第 の通信手段から、 当該仮想生物の上記ソフ トウ エア又は上記仮想生物を保持するハードウェアの状態を診断するサービスを提供 するサービス提供者側に設けられた第 2の通信手段に対して、 上記仮想生物の上 記ソフ トウエア又は当該仮想生物を保持する上記ハードウエアの状態を診断する のに必要な診断用データを送信する第 1のステップと、
上記第 2の通信手段が、 上記第 1の通信手段から与えられる上記診断用データ を解析し、 解析結果に基づいて上記仮想生物の上記ソフトウユア又は上記仮想生 物を保持するハ一ドウ アの上記状態を診断する第 2のステップと
を具えることを特徴とする診断方法。
9 . 上記第 2の通信手段が、 上記診断結果を上記通信路を介して上記第 1の通信 手段に送信し、 上記第 1の通信手段が、 上記第 2の通信手段から与えられる上記 診断結果を可視表示する第 3のステップを具える
ことを特徴とする請求の範囲第 8項に記載の診断方法。
1 0 . 上記仮想生物は、
当該仮想生物の行動及び動作の発現推移をモデル化した確率状態遷移モデルと 、 当該仮想生物の感情変化をモデル化した感情モデルと、 当該仮想生物の成長を モデル化した成長モデルとのうちの少なく とも 1つを有する共に、 外部状態、 内 部状態及び又は外部からの働きかけに基づいて、 上記確率状態遷移モデルの対応 箇所の遷移確率、 上記感情モデルの対応するパラメータ値及び又は上記成長モデ ルにおける当該仮想生物の現在の成長段階を必要に応じて変化させ、
上記第 1のステップでは、
上記仮想生物の上記ソフ トウユアの上記状態を診断するための上記診断用デー タとして、 上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各上記 パラメータ値及び又は上記成長モデルにおける現在の成長段階を表す成長段階値 を上記第 2の通信手段に送信し、
上記第 2のステップでは、
上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各上記パラメ一 タ値及び又は上記成長段階値を解析し、 解析結果に基づいて、 上記仮想生物の上 記状態として、 上記仮想生物の性格を診断する
ことを特徴とする請求の範囲第 8項に記載の診断方法。
1 1 . 上記第 2のステップは、
上記仮想生物の上記性格を診断後、 当該仮想生物をどのように育てたいかを当 該仮想生物の上記ユーザに質問するための質問データを上記第 1の通信手段に送 信する質問デ一タ送信ステップと、
上記第 1の通信手段から送信される当該質問に対する上記ユーザの答えと、 当 該仮想生物の上記診断用データとに基づいて所定の力ゥンセリング処理を行う力 ゥンセリング処理ステップと、
当該カウンセリング処理により得られた当該仮想生物をどのように育てれば良 いかのカウンセリング結果を上記第 1の通信手段に送信するカウンセリング結果 送信ステップとを具える
ことを特徴とする請求の範囲第 1 0項に記載の診断方法。
1 2 . 上記第 1のステップは、
上記仮想生物を保持する上記ハ一ドウエアの状態を診断するためのコンビユー タプログラムでなる故障診断用プログラムを送信する故障診断用プログラムを送 信する故障診断用プログラム送信ステップと、
当該故障診断用プログラムに基づいて、 上記仮想生物を保持する上記ハードウ エアの故障の有無を検査する検査ステップと、
当該検査結果を上記第 2の通信手段に送信する検査結果送信ステップとを具え 上記第 2のステップでは、
上記第 1の通信手段から送信される当該検査結果を解析する解析し、 解析結果 に基づいて、 上記仮想生物を保持する上記ハードウエアの上記状態として、 故障 の有無を診断する
ことを特徴とする請求の範囲第 1 0項に記載の診断方法。
1 3 . 上記第 2のステップは、
上記仮想生物を保持する上記ハードウユアに故障があった場合には、 当該故障 の関するデータ及び又は上記第 1の通信手段を介して取得した上記仮想生物のシ リアル番号を含む必要なデータを所定のサービスセンタに通知する通知ステップ を具える
ことを特徴とする請求の範囲第 1 2項に記載の診断方法。
1 . 上記第 2のステップは、
上記仮想生物を保持する上記ハードウユアに故障があった場合には、 修理依頼 先を上記第 1 の通信手段に送信する修理依頼先通知ステップを具える
ことを特徴とする請求の範囲第 1 2項に記載の診断方法。
1 5 . ソフ トウェアとして存在し、 行動又は動作することをプログラムされた仮 想生物の当該ソフ トウエア又は当該仮想生物を保持するハードウエアの状態を診 断するのに必要な診断用データを当該ハードウエア又は当該ソフ トウユアが格納 された記録媒体から取得し、 当該データを解析する解析手段と、
上記解析手段の解析結果に基づいて上記仮想生物の上記状態を診断する診断手 段と
を具えることを特徴とする診断装置。
1 6 . 上記解析手段は、
上記診断用データを所定のネッ トワークを介して上記ハードウエア又は上記記 録媒体から取得する
ことを特徴とする請求の範囲第 1 5項に記載の診断装置。
1 7 . 上記診断手段による上記診断結果を可視表示する表示手段を具える ことを特徴とする請求の範囲第 1 5項に記載の診断装置。
1 8 . 上記仮想生物は、
当該仮想生物の行動及び動作の発現推移をモデル化した確率状態遷移 、 当該仮想生物の感情変化をモデル化した感情モデルと、 当該仮想生物の成長を モデル化した成長モデルとのうちの少なく とも 1つを有する共に、 外部状態、 内 部状態及び又は外部からの働きかけに基づいて、 上記確率状態遷移モデルの対応 箇所の遷移確率、 上記感情モデルの対応するパラメータ値及び又は上記成長モデ ルにおける当該仮想生物の現在の成長段階を必要に応じて変化させ、
上記解析手段は、
上記仮想生物の上記ソフ トウエアの上記状態を診断するための上記診断用デ一 タとして、 上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各上記 パラメータ値及び又は上記成長モデルにおける現在の成長段階を表す成長段階値 を、 上記ハードウェア又は上記記録媒体から取得して、 当該取得した上記確率状 態遷移モデルの各上記遷移確率、 上記感情モデルの各上記パラメータ値及び又は 上記成長段階値を解析し、
上記診断手段は、
上記仮想生物の上記状態と して、 上記仮想生物の性格を診断する
ことを特徴とする請求の範囲第 1 5項に記載の診断装置。
1 9 . 上記診断手段は、
上記仮想生物の上記性格を診断後、 当該仮想生物をどのように育てたいかを当 該仮想生物の上記ュ一ザに質問するための質問データを上記表示手段に表示させ 当該質問に対する上記ユーザの答えと、 当該仮想生物の上記診断用データとに 基づいて所定のカウンセリング処理を行い、 当該カウンセリング処理により得ら れた当該仮想生物をどのように育てれば良いかのカウンセリング結果を上記表示 手段に表示させる
ことを特徴とする請求の範囲第 1 7項に記載の診断装置。
2 0 . 上記仮想生物を保持する上記ハードウエアの状態を診断するためのコンビ ユータブログラムでなる故障診断用プログラムを、 上記ネッ トワークを介して上 記仮想生物のュ一ザ側に送信し、
上記解析手段は、
上記故障診断用プログラムに基づき上記ユーザ側から送信される、 上記仮想生 物を保持する上記ハードウエアの故障の有無の検査結果を解析し、
上記診断手段は、
上記解析手段の解析結果に基づいて、 上記仮想生物を保持する上記ハードゥエ ァの上記状態として、 故障の有無を診断する
ことを特徴とする請求の範囲第 1 6項に記載の診断装置。
2 1 . 上記診断手段は、
上記仮想生物を保持する上記ハードウユアに故障があった場合には、 当該故障 の関するデータ及び又は上記ネッ トワークを介して取得した上記仮想生物のシリ アル番号を含む必要なデータを所定のサービスセンタに通知する
ことを特徴とする請求の範囲第 2 0項に記載の診断装置。
2 2 . 上記診断手段は、
上記仮想生物を保持する上記ハードウユアに故障があった場合には、 修理依頼 先を上記ユーザ側に通知する
ことを特徴とする請求の範囲第 2 0項に記載の診断装置。
2 3 . ソフ トウェアとして存在し、 行動又は動作することをプログラムされた仮 想生物の当該ソフトウ ア又は当該ソフトウエアを保持するハードウエアの状態 を診断するのに必要な診断用データを当該ハードウエア又は当該ソフトウエアが 格納された記録媒体から取得し、 当該データを解析する第 1のステップと、 当該解析結果に基づいて上記仮想生物の上記状態を診断する第 2のステップと を具えることを特徴とする診断方法。
2 4 . 上記第 1のステップでは、
上記診断に必要な上記データを所定のネッ トワークを介して上記ハードウヱァ 又は記録媒体から取得する
ことを特徴とする請求の範囲第 2 3項に記載の診断方法。
2 5 . 上記第 2のステップでは、
上記診断結果を可視表示する第 3のステップを具える
ことを特徴とする請求の範囲第 2 3項に記載の診断方法。
2 6 . 上記仮想生物は、
当該仮想生物の行動及び動作の発現推移をモデル化した確率状態遷移モデルと 、 当該仮想生物の感情変化をモデル化した感情モデルと、 当該仮想生物の成長を モデル化した成長モデルとのうちの少なく とも 1つを有する共に、 外¾状態、 内 部状態及び又は外部からの働きかけに基づいて、 上記確率状態遷移モデルの対応 箇所の遷移確率、 上記感情モデルの対応するパラメータ値及び又は上記成長モデ ルにおける当該仮想生物の現在の成長段階を必要に応じて変化させ、
上記第 1のステップでは、
上記仮想生物の上記ソフ トウエアの上記状態を診断するための上記診断用デー タとして、 上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各上記 パラメータ値及び又は上記成長モデルにおける現在の成長段階を表す成長段階値 を取得して、 当該取得した上記確率状態遷移モデルの各上記遷移確率、 上記感情 モデルの各上記パラメ一タ値及び又は上記成長段階値を解析し、
上記第 2のステップでは、
上記解析結果に基づいて、 上記仮想生物の上記状態として、 上記仮想生物の性 格を診断する
ことを特徴とする請求の範囲第 2 3項に記載の診断方法。
2 7 . 上記仮想生物の上記性格を診断後、 当該仮想生物をどのように育てたいか を当該仮想生物の上記ユーザに質問するための質問データを上記ネッ トワークを 介して当該ユーザに送信する第 3のステップと、
上記ネッ トワークを介して送信される当該質問に対する上記ユーザの答えと、 当該仮想生物の上記診断用データとに基づいて所定のカウンセリング処理を行う 第 4のステップと、
当該カウンセリング処理により得られた当該仮想生物をどのように育てれば良 いかのカウンセリング結果を上記ユーザに送信する第 5のステップとを具える ことを特徴とする請求の範囲第 2 6項に記載の診断方法。
2 8 . 上記第 1のステップは、
上記仮想生物を保持する上記ハードウユアの状態を診断するためのコンビユ ー タプログラムでなる故障診断用プログラムを上記ネッ トワークを介して上記仮想 生物の上記ユーザに送信する故障診断用プログラムを送信する故障診断用プログ ラム送信ステップと、
当該故障診断用プログラムに基づき上記ユーザ側において行われた上記仮想生 物を保持する上記ハードウ アの故障の有無の検査の検査結果を上記診断用デ一 タとして取得する診断用データ取得ステップと、
当該取得した診断用データを解析する解析ステップとを具え、
上記第 2のステップでは、 上記解析ステップにおける解析結果に基づいて、 上記仮想生物を保持する上記 ハードウェアの上記状態として、 故障の有無を診断する
ことを特徴とする請求の範囲第 2 4項に記載の診断方法。
2 9 . 上記第 2のステップは、
上記仮想生物を保持する上記ハードウエアに故障があった場合には、 当該故障 の関するデータ及び又は上記ネッ トワークを介して取得した上記仮想生物のシリ アル番号を含む必要なデータを所定のサービスセンタに通知する通知ステップを 具える
ことを特徴とする請求の範囲第 2 8項に記載の診断方法。
3 0 . 上記第 2のステップは、
上記仮想生物を保持する上記ハードウエアに故障があった場合には、 修理依頼 先を上記第 1の通信手段に送信する修理依頼先通知ステップを具える
ことを特徴とする請求の範囲第 2 8項に記載の診断方法。
3 1 . ロボッ ト装置のユーザ側に設けられた第 1 の通信手段と、
上記ロボッ ト装置のハドウユア又はソフ トウェアを診断するサービスを提供す るサ一ビス提供者側に設けられた第 2の通信手段と、
上記第 1及び第 2の通信手段間を接続する通信路と
を具え、
上記第 1 の通信手段は、
上記ロボッ ト装置の上記ハードウエア又は上記ソフ トウェアの状態を診断する のに必要な診断用データを上記通信路を介して上記第 2の通信手段に送信し、 上記第 2の通信手段は、
上記第 1の通信手段から与えられる上記診断用データを解析し、 解析結果に基 づいて上記ロボッ ト装置の上記ハードウエア又は上記ソフ トウェアの上記状態を 診断する
ことを特徴とする診断システム。
3 2 . 上記第 2の通信手段は、
上記診断結果を上記通信路を介して上記第 1 の通信手段に送信し、
上記第 1 の通信手段は、
上記第 2の通信手段から与えられる上記診断結果を可視表示する表示手段を具 える
ことを特徴とする請求の範囲第 3 1項に記載の診断 >
3 3 . 上記ロボッ ト装置は、
当該ロボッ ト装置の行動及び動作の発現推移をモデル化した確率状態遷移モデ ルと、 当該ロボッ ト装置の感情変化をモデル化した感情モデルと、 当該ロボッ ト 装置のの成長をモデル化した成長モデルとのうちの少なく とも 1つを有する共に 、 外部状態、 内部状態及び又は外部からの働きかけに基づいて、 上記確率状態遷 移モデルの対応箇所の遷移確率、 上記感情モデルの対応するパラメータ値及び又 は上記成長モデルにおける当該ロボッ ト装置の現在の成長段階を必要に応じて変 化させ、
上記第 1 の通信手段は、
上記ロボッ ト装置の上記ソフ トウエアの上記状態を診断するための上記診断用 データとして、 上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各 上記パラメータ値及び又は上記成長モデルにおける現在の成長段階を表す成長段 階値を上記第 2の通信手段に送信し、
上記第 2の通信手段は、
上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各上記パラメ一 タ値及び又は上記成長段階値を解析し、 解析結果に基づいて、 上記ロボッ ト装置 の上記状態として、 上記ロボッ ト装置の性格を診断する とを特徴とする請求の範囲第 3 1項に記載の診断
3 4 . 上記第 2の通信手段は、
上記ロボッ ト装置の上記性格を診断後、 当該ロボッ ト装置をどのように育てた いかを当該ロボッ ト装置の上記ユーザに質問するための質問データを上記第 1の 通信手段に送信し、
上記第 1の通信手段から送信される当該質問に対する上記ユーザの答えと、 当 該ロボッ ト装置の上記診断用データとに基づいて所定のカウンセリング処理を行 い、 当該カウンセリング処理により得られた当該ロボッ ト装置をどのように育て れば良いかのカウンセリング結果を上記第 1の通信手段に送信する
ことを特徴とする請求の範囲第 3 3項に記載の診断:
3 5 . 上記第 2の通信手段は、
上記ロボッ ト装置の上記ハ一ドウエアの状態を診断するためのコンピュータプ ログラムでなる故障診断用プログラムを送信し、
上記第 1 の通信手段は、
当該故障診断用プログラムに基づいて、 上記ロボッ ト装置の上記ハードウェア の故障の有無を検査すると共に、 当該検査結果を上記第 2の通信手段に送信し、 上記第 2の通信手段は、
上記第 1 の通信手段から送信される当該検査結果を解析し、 解析結果に基づい て、 上記ロボッ ト装置の上記ハードウェアの上記状態として、 故障の有無を診断 する
ことを特徴とする請求の範囲第 3 1項に記載の診断
3 6 . 上記第 2の通信手段は、
上記ロボッ ト装置を保持する上記ハードウェアに故障があった場合には、 当該 故障の関するデータ及び又は上記第 1の通信手段を介して取得した上記ロボッ ト 装置のシリアル番号を含む必要なデータを所定のサービスセンタに通知する ことを特徴とする請求の範囲第 3 5項に記載の診断 V
3 7 . 上記第 2の通信手段は、
上記ロボッ ト装置の上記ハードウユアに故障があった場合には、 修理依頼先を 上記第 1の通信手段に送信する
ことを特徴とする請求の範囲第 3 5項に記載の診断 >
3 8 . ロボッ ト装置のユーザ側に設けられた第 1の通信手段から、 当該ロボッ ト 装置のハードウエア又はソフトウエアの状態を診断するサービスを提供するサ一 ビス提供者側に設けられた第 2の通信手段に対して、 上記ロボッ ト装置の上記ソ フ トウエア又は上記ハードウエアの状態を診断するのに必要な診断用データを送 信する第 1 のステップと、
上記第 2の通信手段が、 上記第 1の通信手段から与えられる上記診断用データ を解析し、 解析結果に基づいて上記ロボッ ト装置の上記ソフ トゥユア又は上記ハ 一ドウエアの上記状態を診断する第 2のステップと
を具えることを特徴とする診断方法。
3 9 . 上記第 2の通信手段が、 上記診断結果を上記通信路を介して上記第 1 の通 信手段に送信し、 上記第 1 の通信手段が、 上記診断結果を可視表示する第 3のス テップを具える
ことを特徴とする請求の範囲第 3 8項に記載の診断方法。
4 0 . 上記ロボッ ト装置は、
当該ロボッ ト装置の行動及び動作の発現推移をモデル化した確率状態遷移モデ ルと、 当該ロボッ ト装置の感情変化をモデル化した感情モデルと、 当該ロボッ ト 装置の成長をモデル化した成長モデルとのうちの少なく とも 1つを有する共に、 外部状態、 内部状態及び又は外部からの働きかけに基づいて、 上記確率状態遷移 モデルの対応箇所の遷移確率、 上記感情モデルの対応するパラメータ値及び又は 上記成長モデルにおける当該ロボッ ト装置の現在の成長段階を必要に応じて変化 させ、
上記第 1のステップでは、
上記ロボッ ト装置の上記ソフ トウ アの上記状態を診断するための上記診断用 データとして、 上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各 上記パラメータ値及び又は上記成長モデルにおける当該ロボッ ト装置の現在の成 長段階を表す成長段階値を上記第 2の通信手段に送信し、
上記第 2のステップでは、
上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各上記パラメ一 タ値及び又は上記成長段階値を解析し、 解析結果に基づいて、 上記ロボッ ト装置 の上記状態として、 上記ロボッ ト装置の性格を診断する
ことを特徴とする請求の範囲第 3 8項に記載の診断方法。
4 1 . 上記第 2のステップは、
上記ロボッ ト装置の上記性格を診断後、 当該ロボッ ト装置をどのように育てた いかを当該ロボッ ト装置の上記ユーザに質問するための質問データを上記第 1の 通信手段に送信する質問デ一タ送信ステップと、
上記第 1の通信手段から送信される当該質問に対する上記ユーザの答えと、 当 該ロボッ ト装置の上記診断用データとに基づいて所定のカウンセリング処理を行 う.カウンセリング処理ステップと、
当該カウンセリング処理により得られた当該ロボッ ト装置をどのように育てれ ば良いかのカウンセリング結果を上記第 1の通信手段に送信するカウンセリング 結果送信ステップとを具える
ことを特徴とする請求の範囲第 4 0項に記載の診断方法。
4 2 . 上記第 1のステップは、
上記ロボッ ト装置の上記ハードウエアの状態を診断するためのコンピュータプ ログラムでなる故障診断用プログラムを送信する故障診断用プログラムを送信す る故障診断用プログラム送信ステップと、
当該故障診断用プログラムに基づいて、 上記ロボッ ト装置の上記ハードウユア の故障の有無を検査する検查ステップと、
当該検査結果を上記第 2の通信手段に送信する検査結果送信ステップとを具え 上記第 2のステップでは、
上記第 1の通信手段から送信される当該検査結果を解析する解析し、 解析結果 に基づいて、 上記ロボッ ト装置の上記ハードウェアの上記状態として、 故障の有 無を診断する
ことを特徴とする請求の範囲第 4 0項に記載の診断方法。
4 3 . 上記第 2のステップは、
上記ロボッ ト装置の上記ハードウェアに故障があった場合には、 当該故障の関 するデ一タ及び又は上記第 1の通信手段を介して取得した上記ロボッ ト装置のシ リアル番号を含む必要なデータを所定のサ一ビスセンタに通知する通知ステップ を具える
ことを特徴とする請求の範囲第 4 2項に記載の診断方法。
4 4 . 上記第 2のステップは、
上記ロボッ ト装置の上記ハードウェアに故障があった場合には、 修理依頼先を 上記第 1の通信手段に送信する修理依頼先通知ステップを具える
ことを特徴とする請求の範囲第 4 2項に記載の診断方法。
4 5 . ロボッ ト装置のハードウエア又はソフ トウェアを診断するのに必要なデー タを当該ロボッ ト装置又は当該ソフトウユアが格納された記録媒体から取得し、 当該データを解析する解析手段と、
上記解析手段の解析結果に基づいて上記ロボッ ト装置の状態を診断する診断手 段と
を具えることを特徴とする診断装置。
4 6 . 上記解析手段は、
上記診断に必要な上記データを所定のネッ トワークを介して上記ロボッ ト装置 又は上記記録媒体から取得する
ことを特徴とする請求の範囲第 4 5項に記載の診断装置。
4 7 . 上記診断手段による上記診断結果を可視表示する表示手段を具える ことを特徴とする請求の範囲第 4 5項に記載の診断装置。
4 8 . 上記ロボッ ト装置は、
当該ロボッ ト装置の行動及び動作の発現推移をモデル化した確率状態遷移モデ ルと、 当該ロボッ ト装置の感情変化をモデル化した感情モデルと、 当該口ポッ ト 装置の成長をモデル化した成長モデルとのうちの少なく とも 1つを有する共に、 外部状態、 内部状態及び又は外部からの働きかけに基づいて、 上記確率状態遷移 モデルの対応箇所の遷移確率、 上記感情モデルの対応するパラメ一タ値及び又は 上記成長モデルにおける当該ロボッ ト装置の現在の成長段階を必要に応じて変化 させ、
上記解析手段は、
上記ロボッ ト装置の上記ソフ トウエアの上記状態を診断するための上記診断用 データとして、 上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各 上記パラメータ値及び又は上記成長モデルにおける現在の成長段階を表す成長段 階値を取得して、 当該取得した上記確率状態遷移モデルの各上記遷移確率、 上記 感情モデルの各上記パラメータ値及び又は上記成長段階値を解析し、 上記診断手段は、
上記ロボッ ト装置の上記状態として、 上記ロボッ ト装置の性格を診断する ことを特徴とする請求の範囲第 4 5項に記載の診断装置。
4 9 . 上記診断手段は、
上記ロボッ ト装置の上記性格を診断後、 当該ロボッ ト装置をどのように育てた いかを当該ロボッ ト装置の上記ユーザに質問するための質問データを上記表示手 段に表示させ、
当該質問に対する上記ユーザの答えと、 当該ロボッ ト装置の上記診断用データ とに基づいて所定のカウンセリング処理を行い、 当該カウンセリング処理により 得られた当該ロボッ ト装置をどのように育てれば良いかの力ゥンセリング結果を 上記表示手段に表示させる
ことを特徴とする請求の範囲第 4 7項に記載の診断装置。
5 0 . 上記ロボッ ト装置の上記ハードウユアの状態を診断するためのコンビュ一 タプログラムでなる故障診断用プログラムを、 上記ネッ トワークを介して上記口 ボッ ト装置のユーザ側に送信し、
上記解析手段は、
上記故障診断用プログラムに基づき上記ユーザ側から送信される、 上記口ボッ ト装置の上記ハードウエアにおける故障の有無の検査結果を解析し、
上記診断手段は、
上記解析手段の解析結果に基づいて、 上記ロボッ ト装置の上記ハードウェアの 上記状態として、 故障の有無を診断する
ことを特徴とする請求の範囲第 4 6項に記載の診断装置。
5 1 . 上記診断手段は、 上記ロボッ ト装置の上記ハードウェアに故障があった場合には、 当該故障の関 するデータ及び又は上記ネッ トワークを介して取得した上記ロボッ ト装置のシリ アル番号を含む必要なデータを所定のサービスセンタに通知する
ことを特徴とする請求の範囲第 5 0項に記載の診断装置。
5 2 . 上記診断手段は、
上記ロボッ ト装置の上記ハードウェアに故障があった場合には、 修理依頼先を 上記ユーザ側に通知する
ことを特徴とする請求の範囲第 5 0項に記載の診断装置。
5 3 . ロボッ ト装置のハードウエア又はソフ トウェアを診断するのに必要なデ一 タを当該ロボッ ト装置又は当該ソフ トウエアが格納された記録媒体から取得し、 当該データを解析する第 1のステップと、
当該解析結果に基づいて上記ロボッ 卜装置の状態を診断する第 2のステップと を具えることを特徴とする診断方法。
5 4 . 上記第 1 のステップでは、
上記診断に必要な上記データを所定のネッ トワークを介して上記ロボッ ト装置 又は上記記録媒体から取得する
ことを特徴とする請求の範囲第 5 3項に記載の診断方法。
5 5 . 上記第 2のステップでの上記診断結果を可視表示する第 3のステップを具 える
ことを特徴とする請求の範囲第 5 3項に記載の診断方法。
5 6 . 上記ロボッ ト装置は、
当該ロボッ ト装置の行動及び動作の発現推移をモデル化した確率状態遷移モデ ルと、 当該ロボッ ト装置の感情変化をモデル化した感情モデルと、 当該ロボッ ト 装置の成長をモデル化した成長モデルとのうちの少なく とも 1つを有する共に、 外部状態、 内部状態及び又は外部からの働きかけに基づいて、 上記確率状態遷移 モデルの対応箇所の遷移確率、 上記感情モデルの対応するパラメータ値及び又は 上記成長モデルにおける当該ロボッ ト装置の現在の成長段階を必要に応じて変化 させ、
上記第 1のステップでは、
上記ロボッ ト装置の上記ソフ トウェアの上記状態を診断するための上記診断用 データとして、 上記確率状態遷移モデルの各上記遷移確率、 上記感情モデルの各 上記パラメータ値及び又は上記成長モデルにおける現在の成長段階を表す成長段 階値を取得して、 当該取得した上記確率状態遷移モデルの各上記遷移確率、 上記 感情モデルの各上記パラメータ値及び又は上記成長段階値を解析し、
上記第 2のステップでは、
上記解析結果に基づいて、 上記ロボッ ト装置の上記状態として、 上記ロボッ ト 装置の性格を診断する
ことを特徴とする請求の範囲第 5 3項に記載の診断方法。
5 7 . 上記ロボッ ト装置の上記性格を診断後、 当該ロボッ ト装置をどのように育 てたいかを当該ロボッ ト装置の上記ユーザに質問するための質問デ一タを上記ネ ッ トワークを介して当該ユーザに送信する第 3のステップと、
上記ネッ トワークを介して送信される当該質問に対する上記ユーザの答えと、 当該ロボッ ト装置の上記診断用データとに基づいて所定のカウンセリング処理を 行う第 4のステップと、
当該カウンセリング処理により得られた当該ロボッ ト装置をどのように育てれ ば良いかのカウンセリング結果を上記ユーザに送信する第 5のステップとを具え る
ことを特徴とする請求の範囲第 5 6項に記載の診断方法。
5 8 . 上記第 1のステップは、
上記ロボッ ト装置の上記ハードウエアの状態を診断するためのコンピュータプ ログラムでなる故障診断用プログラムを上記ネッ トヮ一クを介して上記ロボッ ト 装置の上記ユーザに送信する故障診断用プログラムを送信する故障診断用プログ ラム送信ステップと、
当該故障診断用プログラムに基づき上記ユーザ側において行われた上記ロボッ ト装置の上記ハードウユアの故障の有無の検査の検査結果を上記診断用データと して取得する診断用データ取得ステップと、
当該取得した診断用データを解析する解析ステップとを具え、
上記第 2のステップでは、
上記解析ステップにおける解析結果に基づいて、 上記ロボッ ト装置の上記ハー ドウユアの上記状態として、 故障の有無を診断する
ことを特徴とする請求の範囲第 5 4項に記載の診断方法。
5 9 . 上記第 2のステップは、
上記ロボッ ト装置の上記ハードウユアに故障があった場合には、 当該故障の関 するデータ及び又は上記ネッ トワークを介して取得した上記ロボッ ト装置のシリ アル番号を含む必要なデータを上記ネッ トワークを介して所定のサービスセンタ に通知する通知ステップを具える
ことを特徴とする請求の範囲第 5 8項に記載の診断方法。
6 0 . 上記第 2のステップは、
上記ロボッ ト装置の上記ハードウェアに故障があった場合には、 上記ネッ トヮ ークを介して修理依頼先を上記第 1 の通信手段に送信する修理依頼先通知ステツ プを具える
ことを特徴とする請求の範囲第 5 8項に記載の診断方法。
PCT/JP2000/009418 1999-12-30 2000-12-28 Systeme, appareil et procede de diagnostic WO2001050265A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP00985991A EP1164486A1 (en) 1999-12-30 2000-12-28 Diagnosis system, diagnosis apparatus, and diagnosis method
US09/914,408 US7162409B2 (en) 1999-12-30 2000-12-28 Diagnostic system, diagnostic device and diagnostic method
KR1020017011024A KR20010113718A (ko) 1999-12-30 2000-12-28 진단 시스템, 진단 장치, 및 진단 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP37727899 1999-12-30
JP11/377278 1999-12-30

Publications (1)

Publication Number Publication Date
WO2001050265A1 true WO2001050265A1 (fr) 2001-07-12

Family

ID=18508555

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/009418 WO2001050265A1 (fr) 1999-12-30 2000-12-28 Systeme, appareil et procede de diagnostic

Country Status (5)

Country Link
US (1) US7162409B2 (ja)
EP (1) EP1164486A1 (ja)
KR (1) KR20010113718A (ja)
CN (1) CN1342281A (ja)
WO (1) WO2001050265A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002028603A1 (fr) * 2000-10-05 2002-04-11 Sony Corporation Robot et procede de commande de celui-ci
JP2005157409A (ja) * 2003-09-03 2005-06-16 Mitsubishi Electric Corp 検査装置デバッグシステム
CN201113093Y (zh) * 2007-07-24 2008-09-10 东莞市邦正实业投资有限公司 一种多功能插座
US8021172B2 (en) * 2007-07-24 2011-09-20 Pulse Design, Inc. Rotary receptacle assembly
KR101013415B1 (ko) * 2009-08-10 2011-02-14 강원대학교산학협력단 RTC〔Robot Technology Component〕규격을 따르는 모듈을 테스트 하는 장치 및 방법
US8924011B2 (en) * 2012-04-03 2014-12-30 Knu-Industry Cooperation Foundation Intelligent robot apparatus responsive to environmental change and method of controlling and reconfiguring intelligent robot apparatus
EP2952300A1 (en) * 2014-06-05 2015-12-09 Aldebaran Robotics Collision detection
US10616080B2 (en) 2014-11-26 2020-04-07 Fanuc America Corporation System for diagnosis of robot state
JP6581050B2 (ja) * 2016-08-24 2019-09-25 川崎重工業株式会社 ロボットの遠隔監視システム
JP6500867B2 (ja) * 2016-09-23 2019-04-17 カシオ計算機株式会社 ロボット、故障診断システム、故障診断方法及びプログラム
WO2019123744A1 (ja) * 2017-12-22 2019-06-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
EP3902658A4 (en) * 2018-12-24 2022-10-19 ABB Schweiz AG METHOD OF DIAGNOSTICS A ROBOT, DEVICE AND SERVER
CN112308978B (zh) * 2020-10-30 2021-06-15 武汉市真意境文化科技有限公司 一种对虚拟仿真空间虚拟实体的动态更新方法及系统
KR102295836B1 (ko) * 2020-11-20 2021-08-31 오로라월드 주식회사 성장형 스마트 토이 장치 및 스마트 토이 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535751A (ja) * 1991-10-24 1993-02-12 Osaka Kiko Co Ltd 工作機械の定期診断、故障診断ならびに故障修復方法
JPH1049221A (ja) * 1996-08-08 1998-02-20 Shimao Hori 自動制御機器のメンテナンスシステム
WO1998018065A1 (fr) * 1996-10-22 1998-04-30 Fanuc Ltd Procede et dispositif permettant de gerer un equipement connecte au dispositif de commande d'une machine de production
JPH10222564A (ja) * 1997-02-04 1998-08-21 Hitachi Building Syst Co Ltd 保全作業支援装置
EP0924034A2 (en) * 1997-12-22 1999-06-23 Sony Corporation Robot devices and driving control methods

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4362977A (en) * 1980-06-30 1982-12-07 International Business Machines Corporation Method and apparatus for calibrating a robot to compensate for inaccuracy of the robot
JPS62212705A (ja) * 1986-03-14 1987-09-18 Agency Of Ind Science & Technol ロボツトの保守保全装置
JPH0447412A (ja) * 1990-06-14 1992-02-17 Tokyo Electric Power Co Inc:The 作業ロボット支援装置
JPH06110739A (ja) * 1992-09-25 1994-04-22 Nitto Kohki Co Ltd コンピュータシステム
JPH07311618A (ja) * 1994-05-19 1995-11-28 Nissan Motor Co Ltd ロボットプログラム診断装置
JP4363177B2 (ja) * 2003-01-31 2009-11-11 日本ビクター株式会社 移動ロボット

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535751A (ja) * 1991-10-24 1993-02-12 Osaka Kiko Co Ltd 工作機械の定期診断、故障診断ならびに故障修復方法
JPH1049221A (ja) * 1996-08-08 1998-02-20 Shimao Hori 自動制御機器のメンテナンスシステム
WO1998018065A1 (fr) * 1996-10-22 1998-04-30 Fanuc Ltd Procede et dispositif permettant de gerer un equipement connecte au dispositif de commande d'une machine de production
JPH10222564A (ja) * 1997-02-04 1998-08-21 Hitachi Building Syst Co Ltd 保全作業支援装置
EP0924034A2 (en) * 1997-12-22 1999-06-23 Sony Corporation Robot devices and driving control methods

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KABUSHIKI KAISHA OMUSHA, ELECTRONICS, vol. 43, no. 3, 1 March 1998 (1998-03-01), JAPAN, pages 34 - 35, XP002937471 *

Also Published As

Publication number Publication date
US20020138822A1 (en) 2002-09-26
US7162409B2 (en) 2007-01-09
CN1342281A (zh) 2002-03-27
KR20010113718A (ko) 2001-12-28
EP1164486A1 (en) 2001-12-19

Similar Documents

Publication Publication Date Title
US6934604B1 (en) Robot apparatus, method of controlling robot apparatus, method of display, and medium
WO2001050265A1 (fr) Systeme, appareil et procede de diagnostic
US6381515B1 (en) Robot apparatus
JP2001222316A (ja) ロボットの管理システム及びロボットの管理方法
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
JP2001282570A (ja) 診断システム、診断装置及び診断方法
JP2003205179A (ja) ペット型ロボット
JP4759806B2 (ja) 診断装置
KR102348308B1 (ko) 사용자 인터랙션 반응 로봇
JP3501123B2 (ja) ロボット装置及びロボット装置の行動制御方法
CN117207986A (zh) 驾驶员的健康监测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00804399.X

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2000985991

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09914408

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020017011024

Country of ref document: KR

Ref document number: 1020017011025

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWR Wipo information: refused in national office

Ref document number: 1020017011025

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: 1020017011025

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2000985991

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020017011024

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: 2000985991

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1020017011024

Country of ref document: KR