[go: up one dir, main page]

JP7432430B2 - Movement support device and movement support method - Google Patents

Movement support device and movement support method Download PDF

Info

Publication number
JP7432430B2
JP7432430B2 JP2020071886A JP2020071886A JP7432430B2 JP 7432430 B2 JP7432430 B2 JP 7432430B2 JP 2020071886 A JP2020071886 A JP 2020071886A JP 2020071886 A JP2020071886 A JP 2020071886A JP 7432430 B2 JP7432430 B2 JP 7432430B2
Authority
JP
Japan
Prior art keywords
user
control
movement
motion
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020071886A
Other languages
Japanese (ja)
Other versions
JP2021041522A (en
Inventor
淳一朗 古川
淳 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Publication of JP2021041522A publication Critical patent/JP2021041522A/en
Application granted granted Critical
Publication of JP7432430B2 publication Critical patent/JP7432430B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)
  • Prostheses (AREA)

Description

本発明は、ユーザの動作を支援する動作支援装置の技術に関し、より特定的には、アクチュエータ装置を使用して、使用者(ユーザ)の行う運動を支援するパワーアシストロボットに関するものである。 TECHNICAL FIELD The present invention relates to a technique for a motion support device that supports a user's motions, and more specifically to a power assist robot that uses an actuator device to support motions performed by a user.

日本をはじめ多くの国で少子高齢化社会が問題になる中、ロボティクス技術を応用したアシスト機器への要望が高まっている。一方、バランスや歩行が可能なロボットが開発されてきている。例えば、運動に必要な作用力を空間上の任意の複数接触点に最適に配分し,ヒトと同じように各関節のトルクを発生できるロボットが存在する(特許文献1参照)。
ロボット工学における最近の進歩によって、外骨格型ロボットのようなウェアラブルなロボットは、活動中の人間の運動と物理的に相互作用しつつ、運動を支援する、こととなるものと予想される。
With the declining birthrate and aging society becoming a problem in many countries including Japan, demand for assistive devices that apply robotics technology is increasing. On the other hand, robots that can balance and walk are being developed. For example, there is a robot that can optimally distribute the acting force necessary for movement to any plurality of contact points in space and generate torque at each joint in the same way as a human (see Patent Document 1).
With recent advances in robotics, it is anticipated that wearable robots, such as exoskeletons, will be able to physically interact with and assist in human movement during activities.

たとえば、手の外骨格型ロボットおよび上半身と下半身の外骨格型ロボットが、研究されてきた(非特許文献1、2、3,4を参照)。 For example, hand exoskeleton robots and upper and lower body exoskeleton robots have been studied (see Non-Patent Documents 1, 2, 3, and 4).

このような外骨格型ロボットの制御には、いわゆる「モデル予測制御」を使用した技術なども報告されている(特許文献2を参照)。 Techniques using so-called "model predictive control" have also been reported for controlling such exoskeletal robots (see Patent Document 2).

一方で、これらの応用に対しては、体表面の筋電計(EMG)の使用は、ユーザの運動意図の評価により直観的にロボットを制御することが可能なアプローチになりえる(非特許文献5を参照)。 On the other hand, for these applications, the use of body surface electromyography (EMG) can be an approach that allows for intuitive control of the robot by evaluating the user's motor intention (Non-patent Document 5).

図22は、従来の制御方法である「回帰法」と「判別法」を対比して示す概念図である。 FIG. 22 is a conceptual diagram showing a comparison between conventional control methods, ie, a "regression method" and a "discrimination method."

外骨格型ロボットのようなアシスト装置をコントロールするために、回帰アプローチはユーザの運動意図を評価するためにしばしば使用されてきた。 In order to control assistive devices such as exoskeleton robots, regression approaches have often been used to evaluate the user's motor intentions.

これらのアプローチでは、運動意図は、線形か非線形のモデルを備えた、EMG信号と関節トルクの関係を見出すことにより評価されてきた(たとえば、非特許文献6を参照)。 In these approaches, motor intention has been evaluated by finding the relationship between EMG signals and joint torques, with linear or non-linear models (see, for example, Non-Patent Document 6).

この方法では、ロボットは、連続的にモニターされた筋活動によってコントロールすることができる。 In this way, the robot can be controlled by continuously monitored muscle activity.

ユーザの運動意図を評価する別の頻繁に用いられているアプローチとしては、判別法が使用される。 Another frequently used approach to assessing a user's motor intentions uses discriminant methods.

例えば、サポートベクトルマシン(SVM) あるいは線形の判別分析(LDA)は人間のユーザから検知された、測定された情報を判別するために採用された(非特許文献7,8を参照)。 For example, support vector machines (SVM) or linear discriminant analysis (LDA) have been employed to discriminate sensed and measured information from human users (see [7, 8]).

判別結果は評価されたクラス・ラベルに関連した、あらかじめ設計されたコントロール出力パターンを開始するために使用される。 The determination result is used to initiate a pre-designed control output pattern associated with the evaluated class label.

一方で、上述のとおり、複数のEMGチャンネルを使用して、さまざまなユーザー自身の運動意図が取得される例はあるものの、たとえば、日常的な産業応用の状況では、アシスト制御として、他者との交流や自動運転などのように周辺環境とのインタラクションなどでの利用が必要である。この場合、インタラクションする相手側の運動意図の検出が必要になる。 On the other hand, as mentioned above, although there are cases where multiple EMG channels are used to obtain various user's own motor intentions, for example, in everyday industrial application situations, it is difficult to communicate with others as assist control. It is necessary to use it for interactions with the surrounding environment, such as in communication with cars and autonomous driving. In this case, it is necessary to detect the motor intention of the interacting partner.

なお、たとえば、人や車等の対象物の移動経路の選択をモデリングする手法として、逆強化学習(IRL:Inverse Reinforcement Learning)と呼ばれる手法が利用されている例がある(例えば、特許文献3、特許文献4)。IRLでは、対象物の一例である人の移動の際に通る道や場所に潜在的なコストが存在し、人は経路全体で支払うコストの和が小さい経路をより高い確率で選択しやすくなると仮定してモデル化される。 Note that, for example, a method called inverse reinforcement learning (IRL) is used as a method for modeling the selection of movement routes for objects such as people and cars (for example, Patent Document 3, Patent Document 4). IRL assumes that there is a latent cost in the routes and places people travel, which is an example of an object, and that people are more likely to choose a route with a lower sum of costs over the entire route. It is modeled as follows.

WO2007/139135号公報WO2007/139135 publication

特開2019-25104号公報JP 2019-25104 Publication

特開2018-197892号公報Japanese Patent Application Publication No. 2018-197892

特開2019-82755号公報JP2019-82755A

J. Ngeo, T. Tamei, T. Shibata, M. Orlando, L. Behera, A. Saxena, and A. Dutta, “Control of an optimal finger exoskeleton based on continuous joint angle estimation from emg signals,”pp. 338-341, July 2013.J. Ngeo, T. Tamei, T. Shibata, M. Orlando, L. Behera, A. Saxena, and A. Dutta, “Control of an optimal finger exoskeleton based on continuous joint angle estimation from emg signals,”pp. 338 -341, July 2013.

C. J. Gearhart, B. Varone, M. H. Stella, and B. F. BuSha,“An effective 3-fingered augmenting exoskeleton for the human hand,” in 2016 38th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC),Aug 2016, pp. 590-593.C. J. Gearhart, B. Varone, M. H. Stella, and B. F. BuSha,“An effective 3-fingered augmenting exoskeleton for the human hand,” in 2016 38th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC),Aug 2016, pp. 590-593.

J. Furukawa, T. Noda, T. Teramae, and J. Morimoto, “Estimating joint movements from observed emg signals with multiple electrodes under sensor failure situations toward safe assistive robot control,” in IEEE International Conference on Robotics and Automation (ICRA), May 2015, pp. 4985-4991.J. Furukawa, T. Noda, T. Teramae, and J. Morimoto, “Estimating joint movements from observed emg signals with multiple electrodes under sensor failure situations toward safe assistive robot control,” in IEEE International Conference on Robotics and Automation (ICRA) , May 2015, pp. 4985-4991.

A. J. Young and D. P. Ferris, “State of the art and future directions for lower limb robotic exoskeletons,” IEEE Transactions on Neural Systems and Rehabilitation Engineering, vol. 25,no. 2, pp. 171-182, Feb 2017.A. J. Young and D. P. Ferris, “State of the art and future directions for lower limb robotic exoskeleton,” IEEE Transactions on Neural Systems and Rehabilitation Engineering, vol. 25, no. 2, pp. 171-182, Feb 2017.

K. Nagata and K. Magatani, “Basic study on combined motion estimation using multichannel surface emg signals,” 33rd Annual International Conference of the IEEE EMBS Boston,Massachusetts USA, August 30 - September 3, pp. 7865-7868,2011.K. Nagata and K. Magatani, “Basic study on combined motion estimation using multichannel surface emg signals,” 33rd Annual International Conference of the IEEE EMBS Boston,Massachusetts USA, August 30 - September 3, pp. 7865-7868,2011.

J. Furukawa, T. Noda, T. Teramae, and J. Morimoto, “Human movement modeling to detect biosignal sensor failures for myoelectric assistive robot control,” IEEE Transactions on Robotics, vol. PP, no. 99, pp. 1-12, 2017.J. Furukawa, T. Noda, T. Teramae, and J. Morimoto, “Human movement modeling to detect biosignal sensor failures for myoelectric assistive robot control,” IEEE Transactions on Robotics, vol. PP, no. 99, pp. 1- 12, 2017.

M. A. Oskoei and H. Hu, “Support vector machine-based classification scheme for myoelectric control applied to upper limb,” IEEE Transactions on Biomedical Engineering, vol. 55, no. 8, pp. 1956-1965, Aug 2008.M. A. Oskoei and H. Hu, “Support vector machine-based classification scheme for myoelectric control applied to upper limb,” IEEE Transactions on Biomedical Engineering, vol. 55, no. 8, pp. 1956-1965, Aug 2008.

D. Zhang, X. Zhao, J. Han, and Y. Zhao, “A comparative study on pca and lda based emg pattern recognition for anthropomorphic robotic hand,” in 2014 IEEE International Conference on Robotics and Automation (ICRA), May 2014, pp. 4850-4855.D. Zhang, X. Zhao, J. Han, and Y. Zhao, “A comparative study on pca and lda based emg pattern recognition for anthropomorphic robotic hand,” in 2014 IEEE International Conference on Robotics and Automation (ICRA), May 2014 , pp. 4850-4855.

しかしながら、判別法では、目標タスクに関連したアシスト制御のすべてが、あらかじめ計算されておく必要があるので、このようなアプローチを、制限のある個数の個別の目標タスクに使用することができるのみである。 However, since discriminant methods require that all assist controls related to a target task be calculated in advance, such an approach can only be used for a limited number of individual target tasks. be.

一方で、回帰アプローチでは、単純なEMGに基づいた制御戦略に基づいて与えられたタスクを遂行するためには、人間のユーザは、事前に高度に調整されたEMGプロファイルを自身で生成する必要がある。また、システム側の計算負荷も大きくなる。 On the other hand, in regression approaches, in order to perform a given task based on a simple EMG-based control strategy, a human user needs to generate a highly tuned EMG profile himself in advance. be. Moreover, the calculation load on the system side also increases.

さらに、ユーザ単独での運動ではなく、ユーザとパートナーとの間の協調的な運動・作業をアシストする必要も想定されるものの、従来、このような協調的な運動に対するアシスト制御については、十分な検討がされているとは言えない状況である。 Furthermore, although it is assumed that it will be necessary to assist the user with cooperative exercise/work between the user and a partner, rather than the user's exercise alone, conventionally, there has been insufficient assistance control for such cooperative exercise. The situation is such that it cannot be said that it is being considered.

本発明は、上記のような問題点を解決するためになされたものであって、その目的は、ユーザの事前の負担を軽減しつつ、ユーザの動作目的に適合した外骨格型ロボットの制御を可能とする動作支援装置および動作支援方法を提供することである。 The present invention has been made to solve the above-mentioned problems, and its purpose is to control an exoskeleton robot that suits the user's purpose of operation while reducing the burden on the user in advance. An object of the present invention is to provide a motion support device and a motion support method that make it possible.

本発明の他の目的は、ユーザと他者との協調的な運動や作業において、ユーザの事前の負担を軽減しつつ、ユーザおよび他者の動作目的に適合した外骨格型ロボットの制御を可能とする動作支援装置および動作支援方法を提供することである。 Another object of the present invention is to make it possible to control an exoskeleton robot that suits the purpose of movement of the user and others while reducing the burden on the user in advance during cooperative movements and tasks between the user and others. An object of the present invention is to provide a motion support device and a motion support method.

この発明の1つの局面に従うと、ユーザの関節の運動をアシストするための動作支援装置であって、アシストを受けるユーザの複数の関節部に装着され、関節部へのアシストトルクを生成するアクチュエータ手段を有する能動関節と、能動関節の状態を検出するためのセンサ手段と、ユーザの関節の運動に対するユーザの中枢からの指令に基づいて生成される生体由来信号を検出するための生体信号検知手段と、能動関節が発生するアシストトルクを制御するための制御信号を生成する制御部とを備え、制御部は、センサ手段および生体信号検知手段からの信号に基づいて、ユーザの動作目的を推定する動作目的推定手段を含み、動作目的推定手段は、アシストする動作の初期において、センサ手段により検出される所定の能動関節の角速度が所定値を超える点を運動出発点として、アシストする運動の開始前の所定期間の特徴量を学習することでユーザの動作目的を推定し、複数の離散的な動作目的にそれぞれ対応した最適制御のための複数の制御方策を特定する情報を予め記憶する記憶手段と、推定されたユーザの動作目的に応じて、複数の制御方策を対応する重みで線形に組み合わせて、推定された動作目的に対応する混合制御則を導出する混合手段と、導出された混合制御則に応じて、アシストトルクを制御する信号を生成する制御信号生成手段とをさらに含む。 According to one aspect of the present invention, there is provided a motion support device for assisting movement of a user's joints, the actuator means being attached to a plurality of joints of the user receiving assistance and generating assist torque to the joints. a sensor means for detecting the state of the active joint; and a biosignal detection means for detecting a biosignal generated based on a command from the user's center regarding the movement of the user's joint. , a control unit that generates a control signal for controlling the assist torque generated by the active joint, and the control unit operates to estimate the purpose of the user's movement based on the signals from the sensor means and the biological signal detection means. The motion purpose estimating means includes a purpose estimating means, and the motion purpose estimating means determines a point before the start of the assisting motion, with a point at which the angular velocity of a predetermined active joint detected by the sensor means exceeds a predetermined value as a starting point of the assisting motion. a storage means for pre-storing information for estimating a user's movement objective by learning feature quantities for a predetermined period and specifying a plurality of control strategies for optimal control corresponding to each of the plurality of discrete movement objectives; A mixing means for linearly combining a plurality of control strategies with corresponding weights according to the estimated user's operational purpose to derive a mixed control law corresponding to the estimated operational purpose; The apparatus further includes control signal generation means for generating a signal for controlling the assist torque accordingly.

好ましくは、動作目的推定手段は、計測された記センサ手段および生体信号検知手段からの信号から、部分的最小二乗法アルゴリズムにより、低次元の特徴量空間の信号を生成して、動作目的ラベルを生成し、混合手段は、動作目的ラベルに予め対応付けられている複数の制御方策を、対応する重みで線形に組み合わせる。 Preferably, the motion purpose estimating means generates a signal in a low-dimensional feature space using a partial least squares algorithm from the measured signals from the sensor means and the biological signal detection means, and assigns a motion purpose label. The generating and mixing means linearly combines a plurality of control strategies that are previously associated with the operational objective label using corresponding weights.

好ましくは、動作目的推定手段が推定する動作目的ラベルは、複数の離散的な動作目的を内挿するものである。 Preferably, the motion purpose label estimated by the motion purpose estimating means is one that interpolates a plurality of discrete motion purposes.

好ましくは、混合手段は、線形ベルマン組合せ法により、推定された動作目的に対応する制御則を導出する。 Preferably, the mixing means derives a control law corresponding to the estimated operating objective by a linear Bellman combination method.

好ましくは、アクチュエータ手段は、空圧式エアマッスルを含む。 Preferably the actuator means includes a pneumatic air muscle.

この発明の他の局面に従うと、外骨格型ロボットによってユーザの関節の運動をアシストするための動作支援方法であって、外骨格型ロボットは、アシストを受けるユーザの複数の関節部に装着され、関節部へのアシストトルクを生成するアクチュエータ手段を有する能動関節と、複数の離散的な動作目的にそれぞれ対応した最適制御のための複数の制御方策を特定する情報を予め記憶する記憶手段とを備えており、能動関節の状態を検出するためのセンサ手段からの信号と、ユーザの関節の運動に対するユーザの中枢からの指令に基づいて生成される生体由来信号を検出するための生体信号検知手段からの信号とに基づいて、ユーザの動作目的を推定するステップを備え、ユーザの動作目的を推定するステップは、アシストする動作の初期において、センサ手段により検出される所定の能動関節の角速度が所定値を超える点を運動出発点として、アシストする運動の開始前の所定期間の特徴量を学習することでユーザの動作目的を推定するステップを含み、推定されたユーザの動作目的に応じて、複数の制御方策を対応する重みで線形に組み合わせて、推定された動作目的に対応する混合制御則を導出するステップと、導出された混合制御則に応じて、能動関節が発生するアシストトルクを制御するための制御信号を生成するステップとをさらに備える。 According to another aspect of the invention, there is provided a motion support method for assisting joint movements of a user with an exoskeleton robot, the exoskeleton robot being attached to a plurality of joints of the user receiving assistance; The active joint includes an actuator means for generating an assist torque to the joint, and a storage means for storing in advance information specifying a plurality of control strategies for optimal control corresponding to a plurality of discrete movement objectives. A signal from a sensor means for detecting the state of an active joint, and a biosignal detection means for detecting a biosignal generated based on a command from the user's center regarding the movement of the user's joint. the step of estimating the purpose of the user's movement based on the signal of The step includes a step of estimating the purpose of the user's movement by learning the feature values for a predetermined period before the start of the movement to be assisted, using a point exceeding the point as the movement starting point. linearly combining the control strategies with corresponding weights to derive a mixed control law corresponding to the estimated motion objective; and controlling the assist torque generated by the active joint according to the derived mixed control law. and generating a control signal.

この発明のさらに他の局面に従うと、パートナーとの協調した運動において、ユーザの関節の運動をアシストするための動作支援装置であって、アシストを受けるユーザの関節部に装着され、関節部へのアシストトルクを生成するアクチュエータ手段を有する能動関節と、能動関節の状態を検出するためのセンサ手段と、ユーザの関節の運動に対するユーザの中枢からの指令に基づいて生成される生体由来信号を検出するための生体信号検知手段と、パートナーを撮像する画像センサと、能動関節が発生するアシストトルクを制御するための制御信号を生成する制御部とを備え、制御部は、画像センサからの信号に基づいて、パートナーの動作目的を推定する動作目的推定手段と、生体信号検知手段からの信号に基づいて、ユーザの運動開始意図を検出する動作意図推定手段と、複数の離散的な動作目的にそれぞれ対応した最適制御のための複数の制御方策を特定する情報を予め記憶する記憶手段と、推定された動作目的に応じて、複数の制御方策を対応する重みで線形に組み合わせて、推定された動作目的に対応する混合制御則を導出する混合手段と、運動開始意図の検出に応答して、導出された混合制御則に応じて、アシストトルクを制御する信号を生成する制御信号生成手段とを含む。 According to still another aspect of the present invention, there is provided a motion support device for assisting joint motion of a user in a coordinated exercise with a partner, the motion support device being attached to the joint of the user receiving the assistance, and providing support to the joint of the user. An active joint having an actuator means for generating an assist torque, a sensor means for detecting the state of the active joint, and detecting a biologically derived signal generated based on a command from the user's center regarding the movement of the user's joint. an image sensor that images the partner, and a control unit that generates a control signal for controlling the assist torque generated by the active joint, and the control unit is configured to detect a biological signal based on the signal from the image sensor. a movement purpose estimating means for estimating the partner's movement purpose, a movement intention estimation means for detecting the user's intention to start exercising based on the signal from the biological signal detection means, and each corresponding to a plurality of discrete movement purposes. storage means for pre-storing information specifying a plurality of control strategies for optimal control based on the estimated motion objective; and a control signal generating means that generates a signal for controlling the assist torque according to the derived mixed control law in response to detection of an intention to start movement.

好ましくは、動作目的推定手段は、撮像された画像センサの信号から、逆強化学習アルゴリズムにより、動作目的ラベルを生成し、混合手段は、動作目的ラベルに予め対応付けられている複数の制御方策を、対応する重みで線形に組み合わせる。 Preferably, the motion purpose estimating means generates a motion purpose label using an inverse reinforcement learning algorithm from the captured image sensor signal, and the mixing means generates a plurality of control measures that are associated in advance with the motion purpose label. , linearly combined with corresponding weights.

好ましくは、混合手段は、線形ベルマン組合せ法により、推定された動作目的に対応する制御則を導出する。 Preferably, the mixing means derives a control law corresponding to the estimated operating objective by a linear Bellman combination method.

この発明のさらに他の局面に従うと、パートナーとの協調した運動において、外骨格型ロボットによってユーザの関節の運動をアシストするための動作支援方法であって、外骨格型ロボットは、アシストを受けるユーザの関節部に装着され、関節部へのアシストトルクを生成するアクチュエータ手段を有する能動関節と、複数の離散的な動作目的にそれぞれ対応した最適制御のための複数の制御方策を特定する情報を予め記憶する記憶手段とを備えており、パートナーを撮像する画像センサからの信号に基づいて、パートナーの動作目的を推定するステップと、ユーザの関節の運動に対するユーザの中枢からの指令に基づいて生成される生体由来信号を検出するための生体信号検知手段からの信号に基づいて、ユーザの運動開始意図を検出するステップと、推定されたパートナーの動作目的に応じて、複数の制御方策を対応する重みで線形に組み合わせて、推定された動作目的に対応する混合制御則を導出するステップと、運動開始意図の検出に応答して、導出された混合制御則に応じて、能動関節が発生するアシストトルクを制御するための制御信号を生成するステップとを備える。 According to still another aspect of the present invention, there is provided a motion support method for assisting a joint movement of a user by an exoskeleton robot in a coordinated exercise with a partner, wherein the exoskeleton robot Active joints that are attached to joints and have actuator means that generate assist torque to the joints, and information that specifies multiple control strategies for optimal control corresponding to multiple discrete motion objectives, respectively. a step of estimating the purpose of the partner's movement based on a signal from an image sensor that images the partner; a step of detecting a user's intention to start an exercise based on a signal from a biological signal detection means for detecting a biological signal derived from a biological signal; and a step of determining a weight corresponding to a plurality of control measures according to an estimated purpose of movement of the partner. and an assist torque generated by the active joint in response to the detection of the movement initiation intention in response to the derived mixture control law. and generating a control signal for controlling.

この発明の動作支援装置および動作支援方法によれば、ユーザの事前の負担を軽減しつつ、ユーザの動作目的に適合した外骨格型ロボットの制御ができる。 According to the motion support device and motion support method of the present invention, it is possible to control an exoskeletal robot that suits the user's motion purpose while reducing the user's prior burden.

この発明の動作支援装置および動作支援方法によれば、ユーザと他者との協調的な運動や作業において、ユーザの事前の負担を軽減しつつ、ユーザおよび他者の動作目的に適合した外骨格型ロボットの制御が可能となる。 According to the motion support device and motion support method of the present invention, an exoskeleton that is compatible with the purpose of movement of the user and others while reducing the user's prior burden during cooperative exercise or work between the user and others. It becomes possible to control type robots.

上肢に対する外骨格型ロボットのブロック図の例である。It is an example of a block diagram of an exoskeletal robot for an upper limb. 右上腕のための外骨格の運動学的な構成を示す図である。FIG. 3 shows the kinematic configuration of the exoskeleton for the right upper arm. 実施の形態1の1自由度の空圧式アクチュエータシステムの構成を説明する図である。FIG. 2 is a diagram illustrating the configuration of a pneumatic actuator system with one degree of freedom according to the first embodiment. 本実施の形態の制御則(制御方策)による制御の概要を説明するための概念図である。FIG. 2 is a conceptual diagram for explaining an overview of control based on a control law (control strategy) according to the present embodiment. 混合制御方策を決定するための手続きの流れを示す概念図である。FIG. 2 is a conceptual diagram showing the flow of a procedure for determining a mixed control policy. 図5の各手続の内容を説明するための概念図である。6 is a conceptual diagram for explaining the contents of each procedure in FIG. 5. FIG. 提案するアプローチを評価するための具体的な運動タスクを示す概念図である。FIG. 2 is a conceptual diagram showing a specific motor task for evaluating the proposed approach. 筋活動を測定されたEMG電極のユーザの体表面での位置を示す図である。FIG. 3 is a diagram showing the position of an EMG electrode on the user's body surface whose muscle activity was measured. 最適制御方策によって生成された状態遷移のシミュレーション結果を示す図である。FIG. 6 is a diagram showing simulation results of state transitions generated by an optimal control strategy. 2mのゴールシュートのために、最適制御方策の混合方法から得られた方策における状態遷移を示す図である。FIG. 4 is a diagram illustrating state transitions in a strategy obtained from a mixed method of optimal control strategies for a 2m goal shot. PLS法および対応するユーザの動作目的によって得られた1人の被験者の特徴量の代表的な傾向を示す図である。FIG. 3 is a diagram illustrating a typical tendency of one subject's feature amount obtained by the PLS method and the corresponding user's motion purpose. ボールが投げられた10回の試行の間に生成されたすべてのEMG信号の平均および標準偏差、%最大随意収縮を示す図である。Figure 2 shows the mean and standard deviation of all EMG signals generated during the 10 trials in which the ball was thrown, %maximal voluntary contraction. 各被験者によって、条件の各々の中でボールを10回投げる場合、ゴールシュート率を示す図である。FIG. 4 is a diagram showing the goal shooting rate when each subject throws the ball 10 times in each condition. 実施の形態2の外骨格ロボットの制御手法を説明するための概念図である。FIG. 7 is a conceptual diagram for explaining a method of controlling an exoskeleton robot according to a second embodiment. 実施の形態2の上肢に対する外骨格型ロボットのブロック図の例を示す図である。FIG. 7 is a diagram illustrating an example of a block diagram of an exoskeletal robot for an upper limb according to a second embodiment. 実施の形態2の制御器134の構成を説明するための機能ブロック図である。FIG. 3 is a functional block diagram for explaining the configuration of a controller 134 according to the second embodiment. 実験を実施したバスケットボールのパス運動のタスクを示す概念図である。FIG. 2 is a conceptual diagram showing a basketball passing task in which an experiment was conducted. パートナーが始点から目標位置に向かって移動したときの混合比の時系列平均と標準偏差を示す図である。FIG. 7 is a diagram showing the time-series average and standard deviation of the mixing ratio when the partner moves from the starting point toward the target position. 本制御法とアシストなしの制御とで、EMG信号の振幅の総和を比較する図である。FIG. 4 is a diagram comparing the sum of amplitudes of EMG signals between the present control method and control without assistance. パートナーがボールをキャッチした際のパートナーの顔中心からキャッチ位置を示す図である。FIG. 6 is a diagram showing the catch position from the center of the partner's face when the partner catches the ball. パートナーがボールをキャッチした際のパートナーの顔中心からキャッチ位置を示す別の図である。FIG. 7 is another diagram showing the catch position from the center of the partner's face when the partner catches the ball. 従来の制御方法である「回帰法」と「判別法」を対比して示す概念図である。FIG. 2 is a conceptual diagram illustrating a comparison between a "regression method" and a "discrimination method" which are conventional control methods.

以下、本発明の実施の形態の外骨格型ロボットを用いたアシスト装置の構成について、図に従って説明する。なお、以下の実施の形態において、同じ符号を付した構成要素および処理工程は、同一または相当するものであり、必要でない場合は、その説明は繰り返さない。 The configuration of an assist device using an exoskeletal robot according to an embodiment of the present invention will be described below with reference to the drawings. In the following embodiments, components and processing steps with the same reference numerals are the same or equivalent, and the description thereof will not be repeated unless necessary.

また、外骨格型ロボットの関節を駆動するためのアクチュエータとしては、一例として、以下に説明する「空圧式アクチュエータ(空気圧人工筋)」を例として説明する。 Further, as an example of an actuator for driving the joints of an exoskeletal robot, a "pneumatic actuator (pneumatic artificial muscle)" described below will be described as an example.

そこで、以下、本実施の形態において、上肢の運動のアシストのための外骨格型ロボットについて説明する。 Therefore, in the present embodiment, an exoskeletal robot for assisting the movement of the upper limbs will be described below.

ただし、本発明の外骨格型ロボットは、上肢の運動をアシストするための外骨格型ロボットに対してだけでなく、下肢の運動をアシストする外骨格型ロボットとしても使用することが可能である。 However, the exoskeleton robot of the present invention can be used not only as an exoskeleton robot for assisting the movement of the upper limbs, but also as an exoskeleton robot for assisting the movement of the lower limbs.

また、以下の説明では、上肢の一方としての運動をアシストする外骨格型ロボットについて説明するが、上肢の一対、または、下肢のうちのいずれか一方又は一対の運動をアシストする外骨格型ロボットとして使用することも可能である。 In addition, in the following explanation, an exoskeleton robot that assists the movement of one of the upper limbs will be explained, but an exoskeleton robot that assists the movement of a pair of upper limbs, or one or a pair of the lower limbs. It is also possible to use

さらに、本発明の外骨格型ロボットは、対象となる人間の筋骨格系の運動をアシストするのであれば、上述したような「上肢のうちの少なくともいずれか一方、または、下肢のうちの少なくともいずれか一方の運動」に限定されるものではなく、たとえば、対象となる人間の腰の運動のみをアシストするものであってもよいし、歩行または走行時において下肢の運動と連動して腰の運動をアシストするものであってもよい。本明細書では、このような対象となる人間の運動のアシストを総称して、「対象となる人間の筋骨格系運動の支援」と呼ぶことにする。 Furthermore, if the exoskeletal robot of the present invention is to assist the musculoskeletal system of a target human, it may be necessary to perform at least one of the upper limbs or at least one of the lower limbs. For example, it may assist only the movement of the lower back of the target human, or it may assist the movement of the lower back in conjunction with the movement of the lower limbs when walking or running. It may also be something that assists. In this specification, such assistance for the exercise of a target human will be collectively referred to as "assistance for the musculoskeletal system exercise of a target human."

本実施の形態の外骨格型ロボットは、外骨格を有する。「外骨格」とは、人間の骨格構造に対応してロボットが有する骨格構造のことである。より特定的には、「外骨格」とは、外骨格型ロボットを装着する人間の体の一部を、外部から支えるフレーム(枠組み)構造のことをいう。 The exoskeleton robot of this embodiment has an exoskeleton. An “exoskeleton” is a skeletal structure that a robot has that corresponds to the human skeletal structure. More specifically, an "exoskeleton" refers to a frame structure that externally supports a part of the human body on which an exoskeleton robot is attached.

このフレーム構造には、さらに、フレーム構造の各部を人間の骨格構造に基づく運動に応じて動かすための関節が設けられる。 This frame structure is further provided with joints for moving each part of the frame structure in response to movements based on the human skeletal structure.

特に、上肢の運動をアシストする外骨格型ロボットは、肩部、肘部、手首部とを有し、少なくとも肩、肘、手首の位置に、関節を有するロボットである。また、当該関節は、空圧式アクチュエータ駆動の関節とできる。以下、このように、外骨格型ロボットにおいて、ユーザの関節に対してサポート力を与えるためにアクチュエータにより駆動される関節のことを「能動関節」と呼ぶ。また、ユーザの動きにより受動的に動く関節を「受動関節」と呼ぶ。 In particular, an exoskeletal robot that assists in the movement of an upper limb is a robot that has a shoulder, an elbow, and a wrist, and has joints at least at the positions of the shoulder, elbow, and wrist. Further, the joint can be a pneumatic actuator-driven joint. Hereinafter, in the exoskeleton robot, the joints that are driven by actuators to provide support force to the user's joints will be referred to as "active joints." Furthermore, joints that passively move due to the user's movements are called "passive joints."

[実施の形態1]
図1は、上肢に対する外骨格型ロボットのブロック図の例である。
[Embodiment 1]
FIG. 1 is an example of a block diagram of an exoskeleton robot for an upper limb.

外骨格型ロボット40を制御するためのコマンドが、外部制御装置20から、通信経路を介して外骨格型ロボットに与えられる。特に限定されないが、外部制御装置20は、汎用のパーソナルコンピュータを用いることが可能であり、通信経路としては、イーサネット(登録商標)ケーブルを用いることができる。もちろん、通信経路としては、その他の規格の有線通信の経路の他、無線による通信経路、たとえば、無線LAN(Local Area Network)や他の通信規格の無線などを使用してもよい。 A command for controlling the exoskeleton robot 40 is given to the exoskeleton robot from the external control device 20 via the communication path. Although not particularly limited, a general-purpose personal computer can be used as the external control device 20, and an Ethernet (registered trademark) cable can be used as the communication path. Of course, as a communication path, in addition to a wired communication path of other standards, a wireless communication path, such as a wireless LAN (Local Area Network) or a wireless communication standard of another communication standard, may be used.

外部制御装置20は、ユーザからの指示入力を受ける入力部208と、コマンドを生成するためのプログラムや、様々な制御パラメータなど制御のために必要とされるデータが記録された不揮発性の記憶装置206と、外部制御装置20を起動するためのファームウェアが記憶されたROM(Read Only Memory)や、ワーキングメモリとして動作するRAM(Random Access Memory)などを含むメモリ204と、プログラムに応じて、コマンドを生成する処理を実行する演算装置210と、コマンドを通信経路を介して、外骨格型ロボットに送信するためのインタフェース(I/F)部202と、演算装置210の制御の下で、外骨格型ロボット1への制御の状態に関する情報などを表示するための表示装置212とを備える。 The external control device 20 includes an input unit 208 that receives instructions input from the user, and a nonvolatile storage device in which data necessary for control such as programs for generating commands and various control parameters are recorded. 206, a memory 204 including a ROM (Read Only Memory) in which firmware for starting the external control device 20 is stored, a RAM (Random Access Memory) that operates as a working memory, and a memory 204 that executes commands according to the program. An arithmetic unit 210 that executes processing to generate an exoskeleton robot, an interface (I/F) unit 202 that sends commands to the exoskeleton robot via a communication path, and an The robot 1 includes a display device 212 for displaying information regarding the control state of the robot 1 and the like.

上述のとおり、外部制御装置20が、汎用のパーソナルコンピュータである場合は、演算装置210は、CPU(Central Processing Unit)で構成され、不揮発性の記憶装置206としては、ハードディスクドライブやソリッドステートドライブなどを用いることができる。ただし、外部制御装置20の機能ブロックの一部または全部は、専用のハードウェアにより構成されてもよい。 As described above, when the external control device 20 is a general-purpose personal computer, the arithmetic device 210 is configured with a CPU (Central Processing Unit), and the nonvolatile storage device 206 is a hard disk drive, solid state drive, etc. can be used. However, some or all of the functional blocks of the external control device 20 may be configured by dedicated hardware.

また、外部制御装置20は、たとえば、外骨格型ロボットが装着される使用者について、検知される関節角度や収縮力から関節トルクを推定するためのモデルをキャリブレーション時に構成する処理を行う。 Further, the external control device 20 performs a process of configuring, during calibration, a model for estimating joint torque from detected joint angles and contractile forces, for example, for a user to whom an exoskeletal robot is attached.

外骨格型ロボットは、さらに、外骨格部121と内部制御装置10を備える。なお、図では、右腕の外骨格部121のみを例示している。 The exoskeleton robot further includes an exoskeleton section 121 and an internal control device 10. Note that in the figure, only the exoskeleton portion 121 of the right arm is illustrated.

外骨格部121は、上肢の上腕、前腕および掌にそれぞれ対応するフレームと、能動関節122、受動関節123、検出機構124を備える。さらに、能動関節122は、肩部の関節SFEと、肘部の関節EFEとを含む。能動関節は、後に説明するように、エアマッスル(図示せず)から駆動力伝達ケーブルにより伝達される収縮力により駆動されるプーリー(図示せず)を備える。また、前腕には、受動関節WRが設けられる。 The exoskeleton section 121 includes frames corresponding to the upper arm, forearm, and palm of the upper limb, respectively, an active joint 122, a passive joint 123, and a detection mechanism 124. Furthermore, the active joints 122 include a shoulder joint SFE and an elbow joint EFE. The active joint includes a pulley (not shown) that is driven by a contractile force transmitted from an air muscle (not shown) by a driving force transmission cable, as will be described later. Furthermore, a passive joint WR is provided on the forearm.

つまり、能動関節123は、エアマッスルからの駆動力を受けるハイブリッド型アクチュエータである。なお、アクチュエータは、制御目標値となるトルク値を駆動信号として受け付け、受け付けたトルク値に基づいて制御する機能を有している。たとえば、能動関節123にトルクセンサを配設し、当該トルクセンサにより検出した値を駆動回路にフィードバックすることにより、高精度のトルク制御を可能とすることもできる。 In other words, the active joint 123 is a hybrid actuator that receives driving force from the air muscle. Note that the actuator has a function of receiving a torque value serving as a control target value as a drive signal and performing control based on the received torque value. For example, highly accurate torque control can be achieved by disposing a torque sensor in the active joint 123 and feeding back the value detected by the torque sensor to the drive circuit.

また、内部制御装置10は、I/F部11、記録装置131、記憶装置 132、計測装置133、制御部134、出力装置135を備える。 The internal control device 10 also includes an I/F section 11, a recording device 131, a storage device 132, a measuring device 133, a control section 134, and an output device 135.

I/F部11は、外部制御蔵置20から指令されたトルクまたは位置指令等を受け付けることができる。 The I/F section 11 can receive torque or position commands, etc., commanded from the external control device 20.

検出機構124は、各関節の関節角度や各関節に係るトルクを検知する。検出機構124は、例えば、各関節に配置された関節角度を検出する角度センサや、各エアマッスルの駆動力を検知するロードセルなどである。また、検出機構124は、後述するように、ユーザの体表面に装着された電極からの信号により、筋電信号を検出する。 The detection mechanism 124 detects the joint angle of each joint and the torque related to each joint. The detection mechanism 124 is, for example, an angle sensor arranged at each joint that detects the joint angle, a load cell that detects the driving force of each air muscle, or the like. Furthermore, the detection mechanism 124 detects myoelectric signals based on signals from electrodes attached to the user's body surface, as will be described later.

なお、以下では、ユーザの関節の運動に対するユーザの中枢からの指令に基づいて生成される生体由来信号として、筋電信号を例にとって説明する。ただし、たとえば、このような生体由来信号としては、脳波や、脳に対する近赤外検出信号(NIRS信号:Near Infrared Spectroscopy信号)など、他の信号を使用してもよい。 In the following, a myoelectric signal will be explained as an example of a biological signal generated based on a command from the user's center regarding the movement of the user's joints. However, for example, as such a biologically derived signal, other signals such as an electroencephalogram or a near infrared detection signal (NIRS signal: Near Infrared Spectroscopy signal) for the brain may be used.

内部制御装置10は、能動関節123を動作させる。内部制御装置10は、I/F部11が受け付けた目標トルクまたは位置指令等に対応して、能動関節123を動作させる。 Internal control device 10 operates active joint 123. The internal control device 10 operates the active joint 123 in response to the target torque, position command, etc. received by the I/F unit 11.

計測装置133は、センサ等の検出機構124から検出結果を示す様々な信号(データ)を受け付ける。制御部134は、制御目標値の算出等の様々な演算を行う。 The measuring device 133 receives various signals (data) indicating detection results from the detection mechanism 124 such as a sensor. The control unit 134 performs various calculations such as calculating a control target value.

出力装置135は、駆動部30に制御信号を出力する。出力装置135は、例えば、目標とするエアマッスルの圧力値をエアバルブ34に出力してエアマッスル36を駆動する。コンプレッサ40により圧縮されエアタンク32に蓄えられた圧縮空気が、エアバルブ34経由で、エアマッスル36に供給されて、エアマッスル36の収縮力が駆動力伝達ケーブルにより駆動力として能動関節に伝達される。 The output device 135 outputs a control signal to the drive section 30. For example, the output device 135 outputs a target pressure value of the air muscle to the air valve 34 to drive the air muscle 36. Compressed air compressed by the compressor 40 and stored in the air tank 32 is supplied to the air muscle 36 via the air valve 34, and the contractile force of the air muscle 36 is transmitted as driving force to the active joint by the driving force transmission cable.

電源50は、内部制御装置10や駆動部30に電源を供給する。 The power supply 50 supplies power to the internal control device 10 and the drive unit 30.

駆動部30と電源50は、たとえば、地上に固定されていてもよいし、あるいは、被験者が車椅子に乗っている場合は、車椅子の後部などに搭載されてもよい。 The drive unit 30 and the power source 50 may be fixed on the ground, for example, or when the subject is in a wheelchair, they may be mounted on the rear of the wheelchair.

また、「駆動力伝達ケーブル」とは、自転車のブレーキ機構にも用いられるような、外被ケースの中に金属製のワイヤーを通すことで、可撓性を有しつつ、力の伝達が可能なボーデンケーブルを用いることができる。以下では、駆動力伝達ケーブルが、ボーデンケーブルであるものとして説明する。 In addition, a "driving force transmission cable" is a metal wire that is passed through an outer case, similar to those used in bicycle brake mechanisms, and is flexible while transmitting force. A standard Bowden cable can be used. In the following description, it is assumed that the driving force transmission cable is a Bowden cable.

また、内部制御装置10、駆動部30および電源50とは、一体のコントローラユニット1として、たとえば、上述したような車椅子の後部などに搭載されてもよい。 Further, the internal control device 10, the drive section 30, and the power source 50 may be mounted as an integrated controller unit 1, for example, in the rear part of the wheelchair as described above.

また、上述したような空圧式エアマッスルは軽量であり、圧縮空気(または圧縮気体:以下、総称して「圧縮流体」と呼ぶ)のエネルギーをゴムチューブにより収縮力に変換することにより大きな力を生み出すことができる。 In addition, the pneumatic air muscle described above is lightweight and can generate large amounts of force by converting the energy of compressed air (or compressed gas; hereinafter collectively referred to as "compressed fluid") into contraction force using a rubber tube. can be produced.

エアマッスルが、力を発生させる原理は、空圧式の空気袋が埋め込まれたらせん状のファイバーが、圧縮空気が送り込まれて空気袋が膨張すると、長手方向(縦方向)に収縮するというものである。 The principle behind how Air Muscle generates force is that a spiral fiber in which a pneumatic air bladder is embedded contracts in the longitudinal direction (vertical direction) when compressed air is pumped into the air bladder and the air bladder expands. be.

より詳しく説明すると、両端部に栓をしたゴムチューブに対して、動径方向を拘束するよう、表面にらせん状にまかれたファイバーを被せた構造になっている。このゴムチューブの中に空気を送り込むと、空気の圧力でゴムチューブが膨張する。しかし、動径方向はファイバーによって拘束されているため膨張できず、径方向の膨張に引っ張られて縦方向に収縮する。膨らみながら収縮する様が動物の筋肉に似ているところが人工筋肉と呼ばれる。 To explain in more detail, it has a structure in which a rubber tube with plugs at both ends is covered with fibers spread in a spiral shape so as to restrict the radial direction. When air is pumped into this rubber tube, the rubber tube expands due to the pressure of the air. However, since the radial direction is restricted by the fibers, it cannot expand, and is pulled by the radial expansion and contracts in the vertical direction. Artificial muscles resemble animal muscles in the way they expand and contract.

アクチュエータ自体が軽く、柔らかい。さらに、ゴムチューブの内面全体がアクチュエータの収縮に寄与するため、断面積のみで圧力を受ける構造になっている一般的なエアシリンダー等よりも、パワー・ウェイト・レシオを大きく取りやすい。 The actuator itself is light and soft. Furthermore, since the entire inner surface of the rubber tube contributes to the contraction of the actuator, it is easier to achieve a larger power-to-weight ratio than a general air cylinder, etc., which is structured to receive pressure only through its cross-sectional area.

なお、「空気袋」は、流体により膨張ないし収縮運動をするものであれば、袋中に流入するものは、空気に限られないので、より一般には、「流体袋」と表現する。 Note that the term "air bag" is more generally referred to as a "fluid bag," since what flows into the bag is not limited to air, as long as it is inflated or deflated by fluid.

そこで、空圧式エアマッスルを、「空気圧人工筋」とも呼ぶこととし、より一般的には、空気以外の流体の場合を含む場合は、「流体圧人工筋」と呼ぶことにする。 Therefore, pneumatic air muscles are also referred to as "pneumatic artificial muscles," and more generally, when fluids other than air are included, they are referred to as "fluid pressure artificial muscles."

ただし、以下では、具体例として、空圧式エアマッスルを例にとって説明する。 However, below, a pneumatic air muscle will be explained as a specific example.

図2は、右上腕のための外骨格の運動学的な構成を示す図である。 FIG. 2 shows the kinematic configuration of the exoskeleton for the right upper arm.

図2(a)に示すように、外骨格の肩と肘の能動関節部は、ボーデンケーブルを備えた空気圧人工筋(PAM)によって動力が供給される。 As shown in Figure 2(a), the shoulder and elbow active joints of the exoskeleton are powered by pneumatic artificial muscles (PAMs) with Bowden cables.

後述するように、制御部134は、算出された最適方策(混合制御方策)にしたがって、外骨格型ロボットの上肢2つの関節をコントロールする。 As described later, the control unit 134 controls the two joints of the upper limbs of the exoskeleton robot according to the calculated optimal policy (mixed control policy).

肩の能動関節は、ユーザの肩の屈曲運動/拡張運動(Shoulder E/F)をアシストし、肘の能動関節は、ユーザの肘の屈曲運動/拡張運動(Elbow E/F)をアシストする。 The shoulder active joint assists the user's shoulder flexion/extension movement (Shoulder E/F), and the elbow active joint assists the user's elbow flexion/extension movement (Elbow E/F).

図2(a)の中で描かれるように、ロボットにはあと2つの自由度として、肩の外転/内転(Shoulder A/A)および手首の屈曲運動/内転運動(Wrist E/F)がある。ただし、図2(a)の構成では、これらは自由な関節(受動関節)である。 As depicted in Figure 2(a), the robot has two additional degrees of freedom: shoulder abduction/adduction (Shoulder A/A) and wrist flexion/adduction (Wrist E/F). ). However, in the configuration of FIG. 2(a), these are free joints (passive joints).

図2(b)は、このような上肢用の外骨格型ロボットの外観を示す。
[1自由度の空圧式アクチュエータ]
以下では、本実施の形態の空圧式アクチュエータの構成と動作を説明するために、1自由度の空圧式アクチュエータを例として説明する。
FIG. 2(b) shows the appearance of such an exoskeleton robot for upper limbs.
[1 degree of freedom pneumatic actuator]
Below, in order to explain the configuration and operation of the pneumatic actuator of this embodiment, a pneumatic actuator with one degree of freedom will be described as an example.

図3は、実施の形態1の1自由度の空圧式アクチュエータシステムの構成を説明する図である。 FIG. 3 is a diagram illustrating the configuration of a pneumatic actuator system with one degree of freedom according to the first embodiment.

2つの拮抗する空圧式エアマッスル302aおよび302bは、拮抗する収縮力を生成し、この収縮力は、ボーデンケーブル310aおよび310b内の内側ワイヤー308aおよび308bにより、プーリー320にそれぞれ伝達される。 Two opposing pneumatic air muscles 302a and 302b generate opposing contractile forces that are transmitted to pulley 320 by inner wires 308a and 308b in Bowden cables 310a and 310b, respectively.

ボーデンケーブルは、内側ワイヤーおよび柔軟な外側ケースから成る。ボーデンケーブルを力の伝達に用いることにより、人間に装着される外骨格型ロボット40の重量を減らし、ロボットの骨組みの構造上のスペースを節約できる。 Bowden cables consist of an inner wire and a flexible outer case. By using Bowden cables for force transmission, the weight of the exoskeleton robot 40 worn on a human being can be reduced and the structural space of the robot skeleton can be saved.

プーリー320でのトルクτは、空圧式エアマッスルのトルク(τPAM)である。 The torque τ at pulley 320 is the pneumatic air muscle torque (τ PAM ).

なお、必要に応じて、プーリー320に電動モータを接続する構成とすることも可能である。電動モータのトルクと空圧式エアマッスルの時間応答性により、空圧式エアマッスルは、重力補償か低周波トルク生成用の大きなトルクをカバーし、モータは、高周波トルクをカバーするものの、そのトルクは、バックドライバビリティのために、低い減速歯車で小さくする、という構成とすることも可能である。 Note that it is also possible to configure an electric motor to be connected to the pulley 320, if necessary. Due to the torque of the electric motor and the time response of the pneumatic air muscle, the pneumatic air muscle covers a large torque for gravity compensation or low frequency torque generation, and the motor covers high frequency torque, but its torque is For back-drivability, it is also possible to use a small reduction gear with a low reduction gear.

空圧式エアマッスルが納められる外部フレームの底部と、空圧式エアマッスル302aおよび302bの下端との間には、空圧式エアマッスルの収縮力を検知するためのロードセル304aおよび304bがそれぞれ設けられる。
[制御則(制御方策)による制御の概要]
図4は、本実施の形態の制御則(制御方策)による制御の概要を説明するための概念図である。
Load cells 304a and 304b for detecting the contraction force of the pneumatic air muscles are provided between the bottom of the external frame in which the pneumatic air muscles are housed and the lower ends of the pneumatic air muscles 302a and 302b, respectively.
[Overview of control using control law (control strategy)]
FIG. 4 is a conceptual diagram for explaining an overview of control based on the control law (control policy) of this embodiment.

後述するように、制御部134による空圧式エアマッスルの制御にあたっては、事前にあらかじめ複数個の離散的な動作目的(動作目的#1~#n)に対して最適化されたアシスト制御則を準備する。このようなアシスト制御則を特定するための情報が、予め記憶装置132に格納されているものとする。 As will be described later, when controlling the pneumatic air muscle by the control unit 134, assist control laws optimized for a plurality of discrete motion objectives (motion objectives #1 to #n) are prepared in advance. do. It is assumed that information for specifying such an assist control law is stored in the storage device 132 in advance.

制御部134は、後述するように、筋電信号等に基づいて、ユーザの動作目的(動作目的#1~#n自体に限られず、それらの中間的な目的でもよい)を推定し、予め準備された最適制御則が、外骨格型ロボットのための連続的な最適制御出力を生成するために線形のベルマン組合せ法を使用して組み合わせられる。 As described later, the control unit 134 estimates the user's movement purpose (not limited to movement purposes #1 to #n, but may be an intermediate purpose among them) based on myoelectric signals, etc., and makes preparations in advance. The optimal control laws created are combined using a linear Bellman combination method to generate continuous optimal control outputs for the exoskeleton robot.

このような「線形のベルマン組合せ法」については、たとえば、以下の文献に開示がある。 Such a "linear Bellman combination method" is disclosed, for example, in the following documents.

文献1:M. da Silva, F. Durand, and J. Popovic, “Linear bellman combination for control of character animation,” 2009, pp.82:1-82:10.
このような制御方法では、ユーザの動作によって引き起こされた測定データから評価された与えられたタスクに対して最適方策を、後述するように線形のベルマン組合せ法によって「混合制御則(混合制御方策)」として導出するので、人間のユーザは、事前に自分のEMG信号を注意深く生成しておかなくとも、多様な動作目的に対応した制御を実施することが可能である。
Reference 1: M. da Silva, F. Durand, and J. Popovic, “Linear bellman combination for control of character animation,” 2009, pp.82:1-82:10.
In this type of control method, the optimal policy for a given task evaluated from measurement data caused by user actions is determined by a linear Bellman combination method (mixed control law) as described below. ”, it is possible for a human user to perform control corresponding to various operational purposes without having to carefully generate his or her own EMG signal in advance.

更に、与えられたタスクに対して、対応する最適方策を導出するために、あらかじめ最適化された複数の制御則を単に組み合わせるだけであるので、本実施の形態の制御のためのアプローチは計算負荷が軽く、容易にリアル・タイムの方策を導出することができる。
(制御方法)
以下では、ユーザの動作目的を支援する混合制御方策を決定するためのアプローチについて説明する。
Furthermore, the control approach of this embodiment has a low computational load because it simply combines multiple pre-optimized control laws in order to derive the corresponding optimal policy for a given task. It is lightweight and can easily derive real-time policies.
(Control method)
In the following, an approach for determining a blended control strategy that supports the user's operational objectives is described.

図5は、このような混合制御方策を決定するための手続きの流れを示す概念図である。 FIG. 5 is a conceptual diagram showing the flow of procedures for determining such a mixture control strategy.

図6は、図5の各手続の内容を説明するための概念図である。 FIG. 6 is a conceptual diagram for explaining the contents of each procedure in FIG. 5.

(A. ユーザの動作目的評価)
図5および図6を参照して、演算装置210または制御部134は、ユーザの動作目的の連続的な変更に対処するために、あらかじめ最適化されたコントロール出力をいかに組み合わせるかを決定するために、低次元の特徴量空間を最初に見出しておくものとする。
(A. Evaluation of user movement objectives)
Referring to FIGS. 5 and 6, the computing device 210 or the control unit 134 is configured to determine how to combine pre-optimized control outputs to accommodate continuous changes in the user's operational objectives. , a low-dimensional feature space is first found.

この実施の形態では、タスクに関連した低次元の特徴量空間を見出すために、部分的最小二乗法(PLS)アルゴリズムを使用する。 This embodiment uses a partial least squares (PLS) algorithm to find a low-dimensional feature space relevant to the task.

このような部分的最小二乗法については、以下の文献に開示がある。 Such a partial least squares method is disclosed in the following documents.

文献2:H. Wold, “Soft modeling by latent variables: the nonlinear iterative partial least squares approach,” in Perspective in Probability and Statistics, Paper in Honour of M. S. Bartlett,pp. 520-540, 1975.
文献3:S. Wold, M. Sjostrom, and L. Eriksson, “Pls-regression: a basic tool of chemometrics,” Chemometrics and Intelligent Laboratory Systems, vol. 2, pp. 109-130, 2001.
まず、動作目的ラベルyに関連付けられたユーザの状態ψ=[ξ, ξ, …, ξmが観測される。
Reference 2: H. Wold, “Soft modeling by latent variables: the nonlinear iterative partial least squares approach,” in Perspective in Probability and Statistics, Paper in Honor of MS Bartlett, pp. 520-540, 1975.
Reference 3: S. Wold, M. Sjostrom, and L. Eriksson, “Pls-regression: a basic tool of chemometrics,” Chemometrics and Intelligent Laboratory Systems, vol. 2, pp. 109-130, 2001.
First, is the user's state ψ=[ξ 1 , ξ 2 , ..., ξ m ] associated with the action purpose label y ? is observed.

ここで、nサンプル分の時間経過に従うユーザの状態ψおよび動作目的ラベルyの訓練用のデータセットを以下のように規定する。 Here, a training data set of the user's state ψ and the action objective label y according to the passage of time for n samples is defined as follows.

PLSアルゴリズムにおいては、与えられたサンプル・セットに対して、ψiとyiとのサンプル共分散が、特徴空間において最大限にされるように、j次元の特徴量空間への射影行列W∈Rm×jが、以下のように決定される。 In the PLS algorithm, for a given sample set, a projection matrix W∈ into the j-dimensional feature space is used such that the sample covariance between ψ i and y i is maximized in the feature space. R m×j is determined as follows.

オリジナルのm次元の特徴量空間からj次元の空間(j<m)への射影は、以下のように行なうことができる。 Projection from the original m-dimensional feature space to a j-dimensional space (j<m) can be performed as follows.

上述したように、部分空間がクラス・ラベルの共分散を考慮して決定されるので、ラベル情報を反映した低次元の特徴を得ることができる。 As described above, since the subspace is determined in consideration of the covariance of class labels, it is possible to obtain low-dimensional features that reflect label information.

この実施の形態では、ユーザの動作目的は、低次元の特徴μとラベルyの間の回帰モデルによって直接評価されることになる。
なお、特に限定されないが、推定される動作目的としては、事前に設定された動作目的を内挿するような動作目的であることが望ましい。
In this embodiment, the user's action objective will be directly evaluated by a regression model between the low-dimensional feature μ and the label y.
Note that, although not particularly limited, it is desirable that the estimated motion purpose is one that interpolates a preset motion purpose.

評価された動作目的ラベルy(ハット:以下、文字Xの頭部に^が付されたものは推定値であることを示し、「X(ハット)」と表記するものとする)は、式(3)の中の線形のベルマン組合せに対する係数wiを決定するために使用される。 The evaluated motion objective label y (hat: hereinafter, the letter X with ^ attached to the beginning indicates an estimated value and will be written as "X (hat)") is calculated by the formula ( 3) is used to determine the coefficients w i for the linear Bellman combinations.

混合の重みが0と1の間の重みwiとして、y(ハット)を写像するために、以下のようにシグモイド関数を使用する。 To map y (hat) as a weight w i whose mixing weight is between 0 and 1, we use a sigmoid function as follows.

ここで、a(>0)およびbは、実験によって事前に調整されたパラメータである。
(B. 運動意図に基づいた最適制御)
この実施の形態では、ユーザの動作目的に従って、制御方策を以下のように導出する。
Here, a (>0) and b are parameters adjusted in advance by experiment.
(B. Optimal control based on motor intention)
In this embodiment, a control strategy is derived as follows according to the user's operational purpose.

ここで、π*'は、最終の動作目的を達成するための最適制御方策(混合制御方策)を示し、xは状態変数を示し、ψはユーザの動作目的を反映する。 Here, π *' indicates the optimal control strategy (mixed control strategy) to achieve the final operating objective, x indicates the state variable, and ψ reflects the user's operating objective.

そこで、制御器134は、ユーザの動作目的を達成する最適方策を見つける処理を以下のようにして実行する。 Therefore, the controller 134 executes the process of finding the optimal policy to achieve the user's operational purpose as follows.

なお、一見すると、単純な方法は、ユーザの最終動作目的に対応する目的関数を設定し、かつそれを最適化することである。しかしながら、目標を達成する制御器を生成することは、通常は、最適化のためには、経験に基づいて時間を要する手動調整あるいはコスト集約的な計算上の負荷のいずれかを要する。さらに、目標が連続的に変わる場合、各目標に対応する制御器を生成するのは難しい。 Note that at first glance, a simple method is to set an objective function corresponding to the user's final operational objective and optimize it. However, generating a controller that achieves a goal typically requires either empirical, time-consuming manual tuning or cost-intensive computational effort for optimization. Furthermore, if the goals change continuously, it is difficult to generate a controller corresponding to each goal.

したがって、制御器134は、以下のようにそれらを組み合わせることにより新しい目的のために得られた最適な制御方策を使用して、空圧式アクチュエータを制御する。 Therefore, the controller 134 controls the pneumatic actuator using the optimal control strategy obtained for the new purpose by combining them as follows.

ここで、α(x、t)は混合係数である。また、π nは、コスト関数(あるいは目的関数)v(・)を以下のようにして最小化することにより得られた、n番目の動作目的タスクに対応する要素であるサブ最適制御方策を示す。 Here, α(x, t) is the mixing coefficient. In addition, π * n is the sub-optimal control policy, which is the element corresponding to the n-th operational objective task, obtained by minimizing the cost function (or objective function) v(・) as follows. show.

ここで、g(・)およびl(・)は、終端コストおよび瞬時コストをそれぞれ示す。 Here, g(·) and l(·) represent the terminal cost and instantaneous cost, respectively.

終端コストは、最終状態での位置誤差等を表し、瞬時コストは、動作途中におけるトルク変化の状態などを示す。 The terminal cost represents the position error etc. in the final state, and the instantaneous cost represents the state of torque change during the operation.

式(5)の終端コストg(x(T))を除く、すべての設定を共有するN個の有限なホライズン制御を収集することが可能であると仮定すると、線形ベルマン組合せ法を使用することができ、α(x、t)を以下の式(7)のように書くことができる。 Assuming that it is possible to collect N finite horizon controls that share all settings except the terminal cost g(x(T)) in Equation (5), using the linear Bellman combination method , and α(x, t) can be written as the following equation (7).

このような「線形ベルマン組合せ法」については、上述した文献1の他に、以下の文献に開示がある。 Such a "linear Bellman combination method" is disclosed in the following documents in addition to the above-mentioned document 1.

文献4:E. Todorov, “Compositionality of optimal control laws,” 2009, pp. 1856-1864. Reference 4: E. Todorov, “Compositionality of optimal control laws,” 2009, pp. 1856-1864.

ここで、zi(x, t)=exp(-v*(x, t)), v* (x, t) = vπ* (x, t)は、現在の状態に対する方策の実現可能性を示し、wiは制御器の目標を決定するための固定の重み係数である。 Here, z i (x, t) = exp(-v * (x, t)), v * (x, t) = vπ* (x, t) expresses the feasibility of the policy for the current state. where w i is a fixed weighting factor for determining the target of the controller.

サブ最適制御方策π* nの各々を導出するために、最適制御として、反復する線形二次レギュレータ法(iLQR)を以下のように記述された非線形システムの動力学に使用する。 To derive each of the sub-optimal control strategies π * n , as the optimal control, we use the iterative linear quadratic regulator method (iLQR) to the dynamics of the nonlinear system described as follows:

ここで、xは状態を示し、uは入力を示す。 Here, x indicates the state and u indicates the input.

このような「線形二次レギュレータ法(iLQR)」については、以下の文献に開示がある。 Such "linear quadratic regulator method (iLQR)" is disclosed in the following documents.

文献5:E. Todorov, C. Hu, A. Simpkins, and J. Movellan, “A generalized iterative lqg method for locally-optimal feedback control of constrained nonlinear stochastic systems,” 2005, pp. 300-306.
最適化に関する問題は、目的関数(5)を最小化する最適制御方策πを見つけることである。制御方策は以下のように計算される。
Reference 5: E. Todorov, C. Hu, A. Simpkins, and J. Movellan, “A generalized iterative lqg method for locally-optimal feedback control of constrained nonlinear stochastic systems,” 2005, pp. 300-306.
The optimization problem is to find the optimal control strategy π * that minimizes the objective function (5). The control strategy is calculated as follows.

ここで、kはサンプリング番号であり、Δtはサンプリング時間である。 Here, k is the sampling number and Δt is the sampling time.

iLQR法の反復はそれぞれ、名目上のコントロール・シーケンスu(バー)(t)(以後、文字Xの頭部に-が付されたものは、「X(バー)」と表記する)および対応する軌道x(バー)(t)から始まり、x(バー)(0)についての運動方程式(8)に、u(バー)(t)を適用することにより得られる。 Each iteration of the iLQR method consists of a nominal control sequence u (bar) (t) (hereinafter the letter Starting from the trajectory x(t), it is obtained by applying u(t) to the equation of motion (8) for x(0).

iLQR法は、システム・ダイナミックスの線形化、および名目上のコントロール・シーケンスu(バー)(k)のまわりの目的関数および対応する名目上の軌道x(バー)(k)に対する2次までの近似により、非線形のシステムに対する最適化問題を解くというものである。 The iLQR method linearizes the system dynamics and the objective function around the nominal control sequence u(k) and the corresponding nominal trajectory x(k) up to second order. It solves optimization problems for nonlinear systems by approximation.

したがって、iLQR法では、リッカチ方程式を使用して問題が解かれ、制御則δu(k)は、以下のようになる。 Therefore, in the iLQR method, the problem is solved using the Riccati equation, and the control law δu(k) is as follows.

ここで、δx(k)=x(k)-x(k)(バー)であり、l(k)=-H-1(k)g(k)は、開ループ項であり、L(k)=-H(k)-1G(k)は、フィードバック項である。
(実験装置の構成)
以上説明したようなアプローチを検証するために、インフォームド・コンセントを得た後、3人の健康な右利きの被験者に対して実験を行った。
(A. 上肢外骨格型ロボット)
このロボット実験では、最適方策は外骨格型ロボットの上肢2つの関節をコントロールするために導出された。
Here, δx(k)=x(k)−x(k) (bar), l(k)=−H −1 (k)g(k) is the open-loop term, and L(k )=−H(k) −1 G(k) is the feedback term.
(Configuration of experimental equipment)
To test the approach described above, we conducted an experiment on three healthy right-handed subjects after obtaining their informed consent.
(A. Upper limb exoskeleton robot)
In this robot experiment, the optimal policy was derived to control the two joints of the upper limbs of the exoskeleton robot.

関節トルクは、空圧式アクチュエータ(PAM)によって以下のように生成される。 Joint torque is generated by a pneumatic actuator (PAM) as follows.

ここで、rはプーリーの半径であり、fpamは、空気袋に埋め込まれていた螺旋状のファイバーのパス方向の短縮によって生成された空気圧人工筋の力である。 where r is the radius of the pulley and f pam is the force of the pneumatic artificial muscle generated by the pathwise shortening of the helical fiber that was embedded in the air bladder.

機械的な設計および圧力力モデルの詳細は、発明者らの先行する以下の論文において紹介されている。 Details of the mechanical design and pressure force model are introduced in the inventors' previous papers:

文献6:J. Furukawa, T. Noda, T. Teramae, and J. Morimoto, “Human movement modeling to detect biosignal sensor failures for myoelectric assistive robot control,” IEEE Transactions on Robotics, vol. PP, no. 99, pp. 1-12, 2017.
この実施の形態では、2リンク・ロボット・モデルの動力学を考慮する。
Reference 6: J. Furukawa, T. Noda, T. Teramae, and J. Morimoto, “Human movement modeling to detect biosignal sensor failures for myoelectric assistive robot control,” IEEE Transactions on Robotics, vol. PP, no. 99, pp .1-12, 2017.
In this embodiment, we consider the dynamics of a two-link robot model.

ユーザの運動を支援する制御方策を導出するときに、動力学を人間とロボットのシステムとして以下のように見なす。 When deriving control strategies to support user movement, we consider dynamics as a human-robot system as follows.

1)ユーザのリンクの重量は、被験者の身体パラメータから計算されたリンク質量の重心がロボット・リンク重量に加えられる。 1) The weight of the user's link is determined by adding the center of gravity of the link mass calculated from the subject's physical parameters to the robot link weight.

2)動力学方程式(8)において、状態変数xは、関節角度θ、角速度θ(ドット:以下、変数Xの時間微分は、変数Xの頭部に・を付すことにより表すものとし、「X(ドット)」と表記する)、計測されたエアマッスルの内部圧力である空気圧人工筋PAMの圧力 Pを含んでおり、以下のようにあらわされるものとする。 2) In the dynamic equation (8), the state variable x is the joint angle θ, the angular velocity θ (dot: Hereinafter, the time differential of the variable It includes the pressure P of the pneumatic artificial muscle PAM, which is the measured internal pressure of the air muscle, and is expressed as follows.

x = [θ, θ, θ(ドット), θ(ドット),P, P
ここで、右下の添字1および2は、肩の関節と肘の関節をそれぞれ表わす。
x = [θ 1 , θ 2 , θ 1 (dot), θ 2 (dot), P 1 , P 2 ] ?
Here, subscripts 1 and 2 on the lower right represent the shoulder joint and elbow joint, respectively.

制御出力uは空圧アクチュエータに対する目標圧力Prefであり、以下のようにあらわされる。 The control output u is the target pressure P ref for the pneumatic actuator, and is expressed as follows.

u= [Pref1,Pref2
目標圧力Prefと測定された内部圧力Pの間の動力学は、空気力学により非線形であるものの、一次遅れのシステムにより、以下のように、この動力学を近似することができる。
u= [ Pref1 , Pref2 ] ?
Although the dynamics between the target pressure P ref and the measured internal pressure P is non-linear due to aerodynamics, a system of first-order lags can approximate this dynamics as follows.

ここで、tcは時定数で、以下のように設定される: Here, t c is a time constant and is set as follows:

さらに、最大圧力は安全性のために0.8MPaに設定される。 Furthermore, the maximum pressure is set at 0.8 MPa for safety.

最小化のための終端コストg(・)は以下のように設定される。 The terminal cost g(·) for minimization is set as follows.

あるいは、行列として正確に表記すると以下の通りである。 Or, if expressed correctly as a matrix, it is as follows.

ここで、後述するようなバスケットボールを投げるタスクに対しては、ボールをリリースする時点でびTは最終時間であり、θtargetはターゲット角であり、θtarget(ドット)は、目標角速度であって、目標距離に応じて計算される。 Here, for the task of throwing a basketball as described below, T is the final time at which the ball is released, θtarget is the target angle, θtarget (dot) is the target angular velocity, and T is the final time at which the ball is released. Calculated according to distance.

瞬時のコストl(・)は、以下のように設定された: The instantaneous cost l(·) was set as follows:

ここでも、行列として正確に表記すると以下の通りである。 Here, too, the exact representation as a matrix is as follows.

ここで、Ca、Cv、Cp、Cpdは、通常の最適制御での実施の際のように、実験により手動で選択されるものとできる。
(B. 運動タスク)
図7は、提案するアプローチを評価するための具体的な運動タスクを示す概念図である。
Here, Ca, Cv, Cp, and Cpd can be manually selected through experiments, as in the case of normal optimal control.
(B. Motor task)
FIG. 7 is a conceptual diagram showing a specific motor task for evaluating the proposed approach.

図7に示すように、運動タスクとして、バスケットボールのゴールシュートを設定する。 As shown in FIG. 7, a basketball goal shot is set as an exercise task.

このタスクでは、被験者は、着席状態でアンダーハンドでの運動でバスケットボールを投げ、ゴールの距離は1m、2m、3mまで変更された。 In this task, subjects threw a basketball in an underhand motion while seated, and the distance of the goal was varied from 1 m, 2 m, and 3 m.

被験者は、それらの腕だけでボールを投げるように指示され、2つの条件の下のボールを投げるように依頼された;
・外骨格型ロボットを装着するものの無アシスト(NA)状態
・外骨格型ロボットを着用してアシストされる(A)状態
被験者は、各状態でボールを10回投げた。
Subjects were instructed to throw the ball with only those arms and were asked to throw the ball under two conditions;
・No-assist (NA) condition with an exoskeleton robot attached ・Assistant (A) condition with an exoskeleton robot attached The subject threw the ball 10 times in each condition.

ボールのリリースのタイミングを測定するために、1つの触覚センサーが被験者の中指の先端に付けられた。
(C. PLS法に基づいた特徴選択およびパラメータ同定)
ユーザのごく初期の運動からの動作目的を評価するために、整流されフィルタ処理されたEMG信号eと、肩および肘の関節の角度、並びに肩と肘関節によって生成された角速度が、特徴量として使用される。したがって、以下のような12次元の特徴量が使用される。
One tactile sensor was attached to the tip of the subject's middle finger to measure the timing of ball release.
(C. Feature selection and parameter identification based on PLS method)
In order to evaluate the movement purpose from the user's very early movements, the rectified and filtered EMG signal e and the angles of the shoulder and elbow joints as well as the angular velocities generated by the shoulder and elbow joints are used as features. used. Therefore, the following 12-dimensional features are used.

ψ = [e,e,e,e,e,e,e,e(ドット),θ(ドット)]T
筋電信号(EMG)信号は被験者の右の腕から測定された。
ψ = [e 1 , e 2 , e 3 , e 4 , e 5 , e 6 , e 7 , e 8 , θ 1 , θ 2 , θ 1 (dot), θ 2 (dot)] T
Electromyography (EMG) signals were measured from the subject's right arm.

図8は、筋活動を測定されたEMG電極のユーザの体表面での位置を示す図である。 FIG. 8 is a diagram showing the position of the EMG electrode on the user's body surface whose muscle activity was measured.

筋電信号は、8個のセンサー・チャンネル(Ch1:e、Ch2:e、Ch3:e、Ch4:e、Ch5:e、Ch6:e、Ch7:e、Ch8:e)を使用して計測された。 The myoelectric signals are transmitted through eight sensor channels (Ch1: e 1 , Ch2: e 2 , Ch3: e 3 , Ch4: e 4 , Ch5: e 5 , Ch6: e 6 , Ch7 : e 7 , Ch8: e 8 ).

各チャンネルと計測する筋肉との関係は、以下のとおりである。 The relationship between each channel and the muscles to be measured is as follows.

Ch1:三角筋前面部
Ch2:上腕二頭筋
Ch3:三角筋背面部
Ch4:三頭筋
Ch5:尺側手根屈筋
Ch6:橈側手根屈筋
Ch7:橈側手根伸筋
Ch8:尺側手根伸筋
Ag/AgClのバイポーラの表面EMG電極を使用することができる。
Ch1: Front deltoid Ch2: Biceps Brachii Ch3: Back deltoid Ch4: Triceps Ch5: Flexor carpi ulnaris Ch6: Flexor carpi radialis Ch7: Extensor carpi radialis Ch8: Extensor carpi radialis logic
Ag/AgCl bipolar surface EMG electrodes can be used.

上肢外骨格型ロボット・システムのエンコーダを使用して、同時に肩と肘関節の角度および角速度を同時に取得される。 The angle and angular velocity of the shoulder and elbow joints are simultaneously acquired using the encoder of the upper limb exoskeletal robotic system.

バスケットボールのゴールへのシュートの運動中に、肩関節の角速度がしきい値を越えるポイントは、運動出発点として定義される。 During the movement of shooting a basketball to the goal, the point at which the angular velocity of the shoulder joint exceeds a threshold is defined as the movement starting point.

これは、予備的な試験から、このタスクにおいては、肩関節は、肘より早く運動する傾向が、観察されたからである。 This is because preliminary tests have shown that the shoulder joint tends to move faster than the elbow in this task.

さらに、しきい値は予備的な試験から0.2に設定された。 Additionally, the threshold was set at 0.2 from preliminary testing.

特に限定されないが、たとえば、運動開始前の数十ミリセカンドの各データの平均値が特徴値ψとして使用される。 Although not particularly limited, for example, the average value of each data for several tens of milliseconds before the start of the movement is used as the feature value ψ.

特に、EMG信号は、実際の手足動作に60-100ミリセカンド先立って活性化され、この遅れはトレーニング・データの交差検証によって設定される。 Specifically, the EMG signal is activated 60-100 milliseconds in advance of the actual limb movement, and this delay is set by cross-validation of the training data.

この実施の形態では、ゴールが知られていると仮定して、ゴールを1mおよび3m分だけ離れてシュートするために、外骨格型ロボットが運動を支援したとき、センサー値はトレーニング・データとして取得された。 In this embodiment, assuming that the goal is known, the sensor values are obtained as training data when the exoskeleton robot assists the movement to shoot at a distance of 1 m and 3 m from the goal. It was done.

対応するラベル y = 1およびy = 3(1: 1mのスロー、3: 3mのスロー)で、PLSによって一次元の特徴μ∈Rを計算するための射出行列Wが導出された。
(結果)
以下では、最初にシミュレーション結果を示し、続いて、ユーザの動作目的評価に基づくオンライン・アシスト制御の結果を示す。
(A. シミュレーション結果)
図9は、最適制御方策によって生成された状態遷移のシミュレーション結果を示す図である。
With the corresponding labels y = 1 and y = 3 (1: 1m throw, 3: 3m throw), the injection matrix W for computing the one-dimensional feature μ∈R was derived by PLS.
(result)
In the following, we will first show the simulation results, and then show the results of online assist control based on the user's motion objective evaluation.
(A. Simulation results)
FIG. 9 is a diagram showing simulation results of state transitions generated by the optimal control strategy.

最終時点のリリース・ポイントでの目標と生成された角度の間の誤差、および角速度の誤差は、以下のとおりであった:
1mのボール・スロー状態では、肩関節角度は0.003radであり、角速度は0.034rad/sであり、肘関節角度は0.003radである、角速度は0.013rad/sであった。
一方で、3mのボール・スロー状態では、肩関節角度は0.0076radであり、角速度は0.0066rad/sであり、肘関節角度は0.0023radであり、角速度は0.0036rad/sである。
The errors between the target and the generated angle at the final release point, and the errors in the angular velocity were:
In the 1 m ball throw state, the shoulder joint angle was 0.003 rad, the angular velocity was 0.034 rad/s, the elbow joint angle was 0.003 rad, and the angular velocity was 0.013 rad/s.
On the other hand, in a ball throw state of 3 m, the shoulder joint angle is 0.0076 rad, the angular velocity is 0.0066 rad/s, the elbow joint angle is 0.0023 rad, and the angular velocity is 0.0036 rad/s. .

同様の結果は、他のユーザの中の運動に対しても取得され、ユーザ間の誤差は小さかった。 Similar results were obtained for other intra-user movements, with small errors between users.

これらの結果から、バスケットボールのリリース・ポイントに必要な目標状態を実現させるための最適制御方策を得ることができたといえる。 From these results, it can be said that we were able to obtain an optimal control strategy to achieve the target state required for the basketball release point.

図10は、2mのゴールシュートのために、最適制御方策の混合方法から得られた方策における状態遷移を示す図である。 FIG. 10 is a diagram showing state transitions in a strategy obtained from a mixed method of optimal control strategies for a 2m goal shot.

2mのゴールシュート条件のための混合制御方策を計算するために、重みパラメータはw=0.5およびw=0.5と設定された。ここで、wとwは、1mおよび3mのゴールシュート条件の最適制御方策の混合のための重みをそれぞれ表わす。 To calculate the mixed control strategy for the 2m goal shooting condition, the weight parameters were set as w 1 =0.5 and w 2 =0.5. Here, w 1 and w 2 represent the weights for the mixture of optimal control strategies for 1 m and 3 m goal shooting conditions, respectively.

比較のために、2mのゴールシュートのための混合による最適制御方策による状態遷移の結果も示す。 For comparison, we also show the state transition results with a mixed optimal control strategy for a 2m goal shot.

目標と生成されたリリースポイントでの関節角および関節角速度の間の誤差は、以下のとおりであった:
最適制御方策では、肩関節角度、0.019rad; 角速度、0.0031rad/s; 肘関節角度、0.0081radおよび角速度、0.0042rad/sであった。
The errors between the joint angles and joint angular velocities at the target and generated release points were as follows:
The optimal control strategy had shoulder joint angle, 0.019 rad; angular velocity, 0.0031 rad/s; elbow joint angle, 0.0081 rad and angular velocity, 0.0042 rad/s.

一方、混合された制御方策では、肩関節角度、0.0038rad; 角速度、0.0067rad/s; 肘関節角度、0.015radおよび角速度では0.09rad/sであった。 On the other hand, for the mixed control strategy, the shoulder joint angle was 0.0038 rad; the angular velocity was 0.0067 rad/s; the elbow joint angle was 0.015 rad and the angular velocity was 0.09 rad/s.

最終状態は目標に近接していた。 The final state was close to the target.

これらの結果は、新しいゴールシュート条件に対する混合された方策の有用性を示す。
(B. PLSに基づいた特徴抽出および重み決定)
以下では、PLS結果の傾向を検証し結果について説明する。
These results demonstrate the utility of the mixed strategy for new goal shooting conditions.
(B. Feature extraction and weight determination based on PLS)
Below, we examine the trends in PLS results and explain the results.

図11は、PLS法および対応するユーザの動作目的によって得られた1人の被験者の特徴量の代表的な傾向を示す図である。 FIG. 11 is a diagram illustrating a typical tendency of one subject's feature amount obtained by the PLS method and the corresponding user's motion purpose.

PLS法に対するパラメータは、1mおよび3mのゴールシュートデータの使用により訓練され、2mのゴールシュートデータでテストされた。 The parameters for the PLS method were trained using 1 m and 3 m goal shot data and tested on 2 m goal shot data.

この図11は、特徴量およびゴール・ラベルが距離条件によって、順序づいていることを示す。 FIG. 11 shows that the feature amounts and goal labels are ordered according to distance conditions.

この傾向は、他の被験者で同様に見られた。 This trend was similarly observed in other subjects.

したがって、評価されたゴール・ラベルy(ハット)は、式(3)により計算されたユーザの動作目的として使用することができることが示された。 Therefore, it was shown that the evaluated goal label y (hat) can be used as the user's action objective calculated by equation (3).

この実施の形態では、これらの結果に基づいて、1mのゴールシュートに対するユーザの動作目的をw1=1-w2として設定し、w2=1/1+exp(-ay(hat)-b)として、3mのゴールシュートを設定する。 In this embodiment, based on these results, the purpose of the user's movement for a 1m goal shot is set as w 1 =1-w 2 , and w 2 =1/1+exp(-ay(hat)-b). Set up a 3m goal shot.

ユーザが1m分だけ離れて投げるつもりならば、重量wは大きく、wは小さい。 If the user intends to throw 1 meter away, the weight w 1 is large and w 2 is small.

反対に、ユーザが3m分だけ離れて投げるつもりならば、重量wは減少し、wは増加する。
(C. バスケットボール・ゴールシュートのオンライン・コントロール結果)
以下では、提案されたアシスト・コントロール・アプローチによるバスケットボール・ゴールをシュートするテストについての実験結果について記述する。
Conversely, if the user intends to throw 3 meters away, the weight w 1 decreases and w 2 increases.
(C. Basketball Goal Shoot Online Control Results)
In the following, we will describe the experimental results for a basketball goal shooting test using the proposed assist-control approach.

アシストの影響を検証するために、整流されフィルターされたEMG信号の振幅を観察した。 To verify the effect of the assist, the amplitude of the rectified and filtered EMG signal was observed.

図12は、ボールが投げられた10回の試行の間に生成されたすべてのEMG信号の平均および標準偏差、%MVC(%最大随意収縮)を示す図である。 FIG. 12 shows the mean and standard deviation of all EMG signals generated during the 10 trials in which the ball was thrown, %MVC (%maximal voluntary contraction).

%MVCは、整流されローパスフィルターされたEMG信号の極大値を使用することにより、個別の各筋肉に対する標準化された筋活動である。 %MVC is the normalized muscle activity for each individual muscle by using the local maxima of the rectified and low-pass filtered EMG signal.

条件NAと条件AでのMVCの間のウェルチt-検定を適用した。 Welch's t-test between MVC at condition NA and condition A was applied.

ほとんどの被験者において、平均MVCが、条件NAと比較して、条件Aの下では、有意に減少することを見出した。 We found that for most subjects, the average MVC was significantly reduced under condition A compared to condition NA.

被験者1に条件Aでシュートされた3mの距離ゴールは、有意な相違を示さなかったものの、平均MVCは、NA条件と比較して、減少する傾向があったことが確認された。 It was confirmed that the average MVC tended to decrease compared to the NA condition, although the 3m distance goals shot in Condition A by Subject 1 did not show significant differences.

これらの結果は、提案されたアプローチによって導出された制御方策が、ユーザがボールを投げる運動を支援できることを示す。 These results show that the control strategy derived by the proposed approach can assist the user in the ball throwing movement.

図13は、各被験者によって、条件の各々の中でボールを10回投げる場合、ゴールシュート率を示す図である。 FIG. 13 is a diagram showing the goal shooting rate when each subject throws the ball 10 times under each condition.

ボールを1m分だけ離れて投げる時、NAとAの条件の下のシュート率はすべての被験者に対して、あまり変わらなかった。したがって、ゴール距離が近いために、容易なタスクだったと考えられる。 When the ball was thrown 1 meter away, the shooting percentage under the NA and A conditions did not differ much for all subjects. Therefore, it is thought that the task was easy because the goal distance was close.

しかしながら、アシスト・コントロールがボールを投げる運動を妨害しなかったことが観測されたといえる。これはユーザの動作目的の正確な評価の結果であった。 However, it can be said that it was observed that the assist control did not interfere with the movement of throwing the ball. This was the result of an accurate evaluation of the user's movement objectives.

2mゴール距離では、NA条件と比較して、被験者2および3にはより高いシュート率であった。 At 2m goal distance, there was a higher shooting percentage for subjects 2 and 3 compared to the NA condition.

これは、NA条件と比較して、条件Aの中で高精度およびより少ない努力でゴールシュートを成功させることができることを示す。 This indicates that goal shots can be successfully achieved with higher accuracy and less effort in condition A compared to the NA condition.

これに反して、被験者1では、ユーザの動作目的は正確に評価されたが、シュート精度はNA状態より条件Aにおいてより低かった。 In contrast, in Subject 1, although the user's movement purpose was accurately evaluated, the shooting accuracy was lower in condition A than in the NA condition.

これは、2mのゴールシュート距離がこのユーザのための容易なタスクであった可能性がある。 It is possible that a goal shooting distance of 2m was an easy task for this user.

したがって、この被験者については、外骨格型ロボットによるアシストは、運動の負担を軽減したものの、それはゴールシュート精度に影響しなかった可能性がある。 Therefore, for this subject, the assistance provided by the exoskeleton robot may have reduced the burden of movement, but it may not have affected goal shooting accuracy.

3mのゴール距離では、被験者1および3は、より低い努力で、条件Aの下のシュート率が、条件NAよりも、より高くなることが実証された。 At a goal distance of 3 m, subjects 1 and 3 demonstrated higher shooting percentages under condition A than under condition NA, with lower effort.

被験者2に関しては、シュート率は条件Aの下でさえ0%であり、このゴール距離タスクはたとえロボットが運動を支援したとしても、全く困難なようであった。 For subject 2, the shooting percentage was 0% even under condition A, and this goal distance task seemed quite difficult even with the robot assisting in movement.

これらの結果から、この提案されたアプローチが速度と正確さを要求する運動のためのコントロールを支援するのに有効であることは示された。 These results demonstrate that the proposed approach is effective in supporting control for movements that require speed and precision.

すなわち、本実施の形態の運動支援装置を使用することで、ユーザの事前の負担を軽減しつつ、ユーザの動作目的に適合した外骨格型ロボットの制御を実現できる。 That is, by using the exercise support device of this embodiment, it is possible to realize control of an exoskeleton robot that suits the user's purpose of movement while reducing the user's prior burden.

[実施の形態2]
実施の形態1では、ユーザ単独での運動についてアシストする外骨格ロボットに対して混合制御方策を利用する態様について説明した。
[Embodiment 2]
In the first embodiment, a mode has been described in which a mixed control strategy is used for an exoskeleton robot that assists a user in exercising alone.

実施の形態2では、ユーザ単独での運動ではなく、ユーザとパートナーとの間の協調的な運動・作業をアシストするために、外骨格ロボットに対して混合制御方策を用いる例を説明する。 In Embodiment 2, an example will be described in which a mixed control strategy is used for an exoskeleton robot in order to assist not the user's independent exercise but the cooperative exercise/work between the user and a partner.

外骨格ロボットのユーザの運動意図については、実施の形態1のように、体表面の筋電計(EMG)の使用を想定する。 As for the movement intention of the user of the exoskeletal robot, use of an electromyograph (EMG) on the body surface is assumed as in the first embodiment.

ただし、実施の形態2でも、ユーザの関節の運動に対するユーザの中枢からの指令に基づいて生成される生体由来信号として、筋電信号を例にとって説明する。ただし、たとえば、このような生体由来信号としては、脳波や、脳に対する近赤外検出信号(NIRS信号:Near Infrared Spectroscopy信号)など、他の信号を使用してもよい。 However, in the second embodiment as well, a myoelectric signal will be explained as an example of a biologically derived signal generated based on a command from the user's center regarding the movement of the user's joints. However, for example, as such a biologically derived signal, other signals such as an electroencephalogram or a near infrared detection signal (NIRS signal: Near Infrared Spectroscopy signal) for the brain may be used.

ところで、協調的な作業・運動を行うパートナーについて、EMGを使用することは、実用性を狭めてしまうことになる。 By the way, using EMG for partners who perform cooperative work/exercise will limit its practicality.

そこで、実施の形態2においては、以下で説明するように、EMGを使用せずに、パートナーの動きの意図を検出する。このような手法として、パートナーを画像センサにより撮像した画像を用いるビジョンベースのアプローチを採用する。 Therefore, in the second embodiment, as described below, the intention of the partner's movement is detected without using EMG. As such a method, a vision-based approach is adopted that uses an image of the partner captured by an image sensor.

協調作業・協調動作の相手となるパートナーが動いている状況を考慮し、ユーザーが動いていくパートナーにオブジェクトを渡すなどの迅速な動きで、相手方とインターラクションする状況を考慮する。このような状況では、従来のアプローチでは一般的に無視されてきた「他者(パートナー)」の動きの意図を予測することは、ロボットの動きを変更し、現在観察されている環境情報に基づいて相互作用タイミングを同期させることが困難であるため、ロボット制御にとって重要である。 Consider the situation in which the partner in collaborative work/cooperative action is moving, and consider the situation in which the user interacts with the other party through rapid movements, such as passing an object to the moving partner. In such situations, predicting the movement intentions of the "other" (partner), which has been generally ignored by traditional approaches, is a way to modify the robot's movements and base them on currently observed environmental information. This is important for robot control because it is difficult to synchronize interaction timing.

実施の形態1では、アシストされる本人の活動のための制御方策を導き出すための線形ベルマン組み合わせ法を用いる例を説明した。 In the first embodiment, an example has been described in which the linear Bellman combination method is used to derive a control strategy for the activity of the person to be assisted.

一方、実施の形態2では、協調作業・協調動作を考慮し、事前に算出されている制御方策を混合するための係数は、パートナーの予測状態に基づいて導出される。このアプローチでは、相手と相互作用するロボットの制御方策が導き出されるため、少数のセンサチャンネルを使用してモータの開始タイミングを検出するシンプルなEMGインターフェースを介して、ユーザの動作意図を送信することで、協調作業・協調動作を開始できる。 On the other hand, in Embodiment 2, the coefficients for mixing the control measures calculated in advance are derived based on the predicted state of the partner, taking cooperative work/cooperative action into consideration. This approach derives a control strategy for a robot that interacts with its partner by transmitting the user's movement intentions through a simple EMG interface that uses a small number of sensor channels to detect motor start timing. , can start collaborative work/cooperative movements.

図14は、実施の形態2の外骨格ロボットの制御手法を説明するための概念図である。 FIG. 14 is a conceptual diagram for explaining a method of controlling the exoskeleton robot according to the second embodiment.

図14に示すように、パートナーの動きは、画像センサ220により視覚的に観察される。パートナー202の動きの目標が与えられると、移動経路の確率は、最大エントロピーアプローチの原理に基づいて導き出される。複数の候補目標を持つ導出された経路確率から、パートナー202が意図する目標の事後確率を推定する。 As shown in FIG. 14, the partner's movements are visually observed by an image sensor 220. Given the goal of movement of partner 202, the probability of the movement path is derived based on the principles of the maximum entropy approach. From the derived path probabilities with multiple candidate targets, estimate the posterior probability of the target intended by partner 202.

次に、複数の目標に対する最適な制御方策を組み合わせるために重みを混合するものとして事後確率を使用する。外骨格ロボット121の制御器134は、導出された混合された重みで線形ベルマンの組み合わせにより制御方策を導出する。 The posterior probabilities are then used as a mix of weights to combine optimal control strategies for multiple goals. The controller 134 of the exoskeleton robot 121 derives a control strategy by linear Bellman combination using the derived mixed weights.

実施の形態2においても、このような制御方法では、ユーザ201の動作によって引き起こされた測定データとパートナー202の動作目標の予測から評価された与えられたタスクに対して最適方策を、線形のベルマン組合せ法によって「混合制御則(混合制御方策)」として導出するので、ユーザ201は、事前に自分のEMG信号を注意深く生成しておかなくとも、多様な動作目的に対応した制御を実施することが可能である。 In the second embodiment as well, in such a control method, the optimal policy for a given task evaluated from the measurement data caused by the user 201's motion and the prediction of the partner's 202 motion goal is calculated using a linear Bellman method. Since it is derived as a "mixed control law (mixed control strategy)" using a combinatorial method, the user 201 can implement control corresponding to various operational purposes without having to carefully generate his or her own EMG signal in advance. It is possible.

更に、与えられたタスクに対して、対応する最適方策を導出するために、あらかじめ複数の離散的な動作目的に対応してそれぞれ最適化された複数の制御則(以下、「サブ最適制御方策」と呼ぶ)を単に組み合わせるだけであるので、本実施の形態の制御のためのアプローチは計算負荷が軽く、容易にリアル・タイムの方策を導出することができる。 Furthermore, in order to derive the corresponding optimal policy for a given task, multiple control laws (hereinafter referred to as "sub-optimal control strategies") that have been optimized in advance for multiple discrete operation objectives are used. Since the control approach of this embodiment has a light calculation load, it is possible to easily derive real-time measures.

図15は、実施の形態2の上肢に対する外骨格型ロボットのブロック図の例を示す図である。 FIG. 15 is a diagram showing an example of a block diagram of an exoskeleton robot for an upper limb according to the second embodiment.

図1に示した実施の形態1のブロック図と基本的な構成は、同様である。実施の形態では、制御部134には、画像センサ220からの情報が入力される。 The basic configuration is the same as the block diagram of the first embodiment shown in FIG. In the embodiment, information from the image sensor 220 is input to the control unit 134.

その上で、後述するように、制御部134は、パートナー202の動作目標を推定し、推定された動作目標に応じて、最適方策を導出して、外骨格ロボット121を制御する。 Then, as will be described later, the control unit 134 estimates the movement goal of the partner 202, derives an optimal policy according to the estimated movement goal, and controls the exoskeleton robot 121.

すなわち、より具体的な例として説明すると、制御部134は、パートナー202の動きの目標を推定しながら、パートナー202にバスケットボールをパスする動きを正確にアシストする例について以下説明する。もちろん、制御部134の制御としては、このような場合に限定されることなく、パートナー202について、複数の動作目標が存在する場合に、事前に算出されたサブ最適制御方策を組み合わせて制御することで、他の協調作業・協調動作についても、制御することが可能である。 That is, to explain a more specific example, an example will be described below in which the control unit 134 accurately assists the partner 202 in passing a basketball while estimating the goal of the partner 202's movement. Of course, the control by the control unit 134 is not limited to this case, but may be performed by combining pre-calculated sub-optimal control measures when a plurality of motion targets exist for the partner 202. It is also possible to control other collaborative tasks and actions.

図16は、実施の形態2の制御器134の構成を説明するための機能ブロック図である。 FIG. 16 is a functional block diagram for explaining the configuration of the controller 134 according to the second embodiment.

以下に説明するように、制御器134は、外骨格ロボットのユーザ201とパートナー202間の協調運動を支援する制御方策を決定する。 As explained below, the controller 134 determines a control strategy to support coordinated movement between the exoskeleton robot user 201 and partner 202.

(パートナーの運動意図の予測)
図16に示すように、制御器134は、画像センサ220からの信号により、パートナー202の動きをトラッキングするトラッキング処理部1342と、パートナー202の動きの目標位置を予測するための目標位置予測部1344とを含む。
(Prediction of partner's movement intention)
As shown in FIG. 16, the controller 134 includes a tracking processing unit 1342 that tracks the movement of the partner 202 based on a signal from the image sensor 220, and a target position prediction unit 1344 that predicts the target position of the movement of the partner 202. including.

以下に説明するように、目標位置予測部1344は、パートナーの運動目標(具体例としては、運動目標位置)を予測するために、最大エントロピー逆強化学習法(MaxEnt IRL)に基づいて、パートナー202の目標位置Gの確率分布を推定する。 As described below, the target position prediction unit 1344 uses the maximum entropy inverse reinforcement learning method (MaxEnt IRL) to predict the partner's exercise target (specifically, the exercise target position). The probability distribution of the target position G is estimated.

すなわち、まず、トラッキング処理部1342は、パートナー202の移動軌道を監視する。具体的には、目標位置予測部1344は、一定期間観察されたパートナー202の動きは、運動目標(位置)についての事後分布、すなわち、目標依存コスト関数Cgを最小化しようとしていると仮定して、部分的に監視された移動軌道に基づいて、目標位置Gを推定する。 That is, first, the tracking processing unit 1342 monitors the movement trajectory of the partner 202. Specifically, the target position prediction unit 1344 assumes that the movement of the partner 202 observed for a certain period of time attempts to minimize the posterior distribution for the movement target (position), that is, the goal-dependent cost function Cg. , estimate the target position G based on the partially monitored movement trajectory.

このような「目標依存コスト関数」については、以下の文献に開示がある。 Such a "goal-dependent cost function" is disclosed in the following documents.

文献:A. D. Dragan and S. S. Srinivasa, “A policy-blending formalism for shared control,” Int. J. Rob. Res., vol. 32, no. 7, pp.790-805, June 2013.
文献:K. Muelling, A. Venkatraman, J.-S. Valois, J. E. Downey, J. Weiss, S. Javdani, M. Hebert, A. B. Schwartz, J. L. Collinger, and J. A. Bagnell, “Autonomy infused teleoperation with application to brain computer interface controlled manipulation,” Auton. Robots, vol. 41, no. 6, pp. 1401-1422, Aug. 2017.
上記文献にも開示のとおり、最大エントロピー逆強化学習法では、特定の目標Gを与えられたパートナー202の移動経路の条件付き確率分布は、
P(ξ|G)∝ exp(-Cg(ξ))
と表現される。ここで、ξは、観測された軌道である。このモデルを利用することで、特定の目標を与えられたとき、観察されたパートナー202の部分的な動きの経路確率を導き出すことができる。
Literature: AD Dragan and SS Srinivasa, “A policy-blending formalism for shared control,” Int. J. Rob. Res., vol. 32, no. 7, pp.790-805, June 2013.
Literature: K. Muelling, A. Venkatraman, J.-S. Valois, JE Downey, J. Weiss, S. Javdani, M. Hebert, AB Schwartz, JL Collinger, and JA Bagnell, “Autonomy infused teleoperation with application to brain computer interface controlled manipulation,” Auton. Robots, vol. 41, no. 6, pp. 1401-1422, Aug. 2017.
As disclosed in the above literature, in the maximum entropy inverse reinforcement learning method, the conditional probability distribution of the movement path of the partner 202 given a specific goal G is
P(ξ|G)∝ exp(-Cg(ξ))
It is expressed as Here ξ is the observed trajectory. Using this model, given a particular goal, the path probabilities of observed partial movements of partner 202 can be derived.

ここで、Giは n個の候補目標位置のうちのi番目の目標位置であり、ξ sp→cpは最小コストを達成する最適な軌道であり、spとcp はパートナー202の開始位置と現在位置である。 Here, Gi is the i-th target position among n candidate target positions, ξ * sp → cp is the optimal trajectory that achieves the minimum cost, and s p and c p are the starting positions of partner 202. and the current position.

次に、各目標の条件付き確率を 以下の式(22)として導き出すことができる。 Next, the conditional probability of each target can be derived as the following equation (22).

ここで、P(Gi)は、i番目の目標位置の事前確率である。 Here, P(G i ) is the prior probability of the i-th target position.

特に限定されないが、一例として、最初に、所定の数の目標位置の候補が規定されているものとする。次に、各候補目標位置に対する事後確率は、観測された経路に基づいて式(22)により導出される。

(制御方策の導出)
動的な共同作業では、パートナー202の状況を考慮してリアルタイムで制御出力を導き出す必要がある。しかしながら、動的に変化するパートナー202の状況を考慮して、各制御時間ステップで外骨格コントローラを最適化することは、事実上困難である。
As an example, although not particularly limited, it is assumed that a predetermined number of target position candidates are first defined. Next, the posterior probability for each candidate target position is derived by equation (22) based on the observed path.

(Derivation of control policy)
Dynamic collaboration requires that control outputs be derived in real time, taking into account the partner's 202 situation. However, it is practically difficult to optimize the exoskeleton controller at each control time step considering the dynamically changing partner 202 situation.

そこで、制御器134は、以下に説明するようにして、外骨格ロボット121に対する制御方策を算出する混合制御方策算出部1346を含む。 Therefore, the controller 134 includes a mixed control policy calculation unit 1346 that calculates a control policy for the exoskeleton robot 121 as described below.

混合制御方策算出部1346は、実施の形態1でも説明したような、線形ベルマンの組み合わせ法を用いて、事前に最適化されたサブ最適制御方策を混合(ブレンド)させる。 The mixed control policy calculation unit 1346 mixes (blends) sub-optimal control policies that have been optimized in advance using the linear Bellman combination method as described in the first embodiment.

上述したようなバスケットボールのトスのような具体例では、まず、混合制御方策算出部1346は、候補の目標位置に対して外骨格ロボットの最適な制御方策を事前に計算しておき、このサブ最適制御方策の情報を記憶装置132に格納しておく。次に、混合制御方策算出部1346は、サブ最適制御方策ごとの価値関数の出力に従って、事前に計算されたサブ最適制御方策を以下の式(23)のように組み合わせる。 In a specific example such as the above-mentioned basketball toss, the mixed control policy calculation unit 1346 first calculates in advance the optimal control strategy for the exoskeleton robot for the candidate target position, and Information on the control policy is stored in the storage device 132. Next, the mixed control policy calculation unit 1346 combines the pre-calculated sub-optimal control policies as shown in equation (23) below, according to the output of the value function for each sub-optimal control policy.

ここで、π´は、パートナー202が移動しようとする目標位置に対して外骨格ロボットの運動を生成するための制御方策を示し、α(x,t)は混合係数、xはユーザの状態変数を示し、π nは、以下の式の総コスト (または目的関数)v(・)を最小化することによって得られる運動タスクの第n成分に対するサブ最適制御方策を示す。 Here, π * ' indicates the control strategy for generating the exoskeleton robot's motion with respect to the target position to which the partner 202 intends to move, α i (x, t) is the mixing coefficient, and x is the user's Denote the state variable and π * n denote the sub-optimal control strategy for the nth component of the motor task obtained by minimizing the total cost (or objective function) v(·) of the following equation:

ここで、g(・)とl(・)は、終端コストと瞬時コストをそれぞれ示す。 Here, g(·) and l(·) represent the terminal cost and instantaneous cost, respectively.

式(24)の終端コストg(x(T))を除くすべての設定を共有すn個の有限ホライズン制御の問題についてのサブ最適制御方策が予め算出されていれば、ここでも、混合制御方策算出部1346は、線形ベルマンの組み合わせアプローチを使用して、α(x)を以下のように算出することができる。 If the sub-optimal control policy for n finite horizon control problems that share all settings except the terminal cost g(x(T)) in Equation (24) has been calculated in advance, the mixed control policy can also be used here. Calculator 1346 can calculate α(x) using a linear Bellman combination approach as follows.

ここで、以下の式で表されるzi(x)は、現在の状態に対する方策の実現可能性を示す。 Here, z i (x) expressed by the following equation indicates the feasibility of the policy for the current state.

iは方策の導出にパートナーの条件を考慮した一定の重みである。ここでは、wiは、パートナーの目標候補の事後確率として、以下のように決定される。 w i is a constant weight that takes into consideration the conditions of the partner in deriving the policy. Here, w i is determined as the posterior probability of the partner's target candidate as follows.

なお、パートナー202の各目標位置の候補に対する各サブ最適制御方策π n(u|x)については、混合制御方策算出部1346は、実施の形態1と同様にして、ユーザ201と外骨格ロボット121で構成されるダイナミクスの制約下で、反復線形二次制御器(iLQR)法を使用して導き出す。ここで、xは、以下の式(28)で導出される外骨格ロボットの状態であり、uは、ロボットへの制御出力である。 Note that for each sub-optimal control policy π * n (u|x) for each target position candidate of the partner 202, the mixed control policy calculation unit 1346 calculates the relationship between the user 201 and the exoskeleton robot in the same manner as in the first embodiment. 121 using an iterative linear quadratic controller (iLQR) method. Here, x is the state of the exoskeleton robot derived from the following equation (28), and u is the control output to the robot.

(ユーザーの運動意図に基づく制御)
パートナー202の運動の意図は視覚情報に基づいて導き出されるのに対して、ユーザ意図検出部1348は、外骨格ロボット121のユーザー201からモニターされた情報に基づいて、運動の開始タイミングを検出する。
(Control based on user's exercise intention)
The movement intention of the partner 202 is derived based on visual information, whereas the user intention detection unit 1348 detects the movement start timing based on information monitored from the user 201 of the exoskeleton robot 121.

具体的には、運動の開始タイミングは、実際のユーザー201の動きに応じて抽出される。通常、自由度が限られている外骨格ロボットでは、ユーザー201の関節全体の動きを補助することは不可能であるため、ユーザと外骨格ロボットとの間の動きの同期は、正確な協調運動の生成のために非常に重要である。したがって、ユーザ意図検出部1348は、外骨格ロボットが、ユーザー201の動きの開始のタイミングで共同作業の動きを支援し始めるように制御信号uを出力する。具体的な例としては、EMG信号を使用してユーザーの動きの開始を検出する。
[実験的セットアップ]
以下では、実施の形態2のアシスト制御を検証するために、4人の健康な被験者とバスケットボールのパスの実験を行った。以下、この実験結果について説明する。
Specifically, the exercise start timing is extracted according to the actual movement of the user 201. Normally, an exoskeleton robot with limited degrees of freedom cannot assist the movement of the entire joint of the user 201, so synchronization of movement between the user and the exoskeleton robot requires accurate coordinated movement. is very important for the production of Therefore, the user intention detection unit 1348 outputs the control signal u so that the exoskeleton robot starts supporting the movement of the collaborative work at the timing of the start of the movement of the user 201. As a specific example, EMG signals are used to detect the onset of a user's movement.
[Experimental setup]
Below, in order to verify the assist control of the second embodiment, a basketball passing experiment was conducted with four healthy subjects. The results of this experiment will be explained below.

実際のセッションの前に、すべての被験者は、外骨格ロボット121によるアシストで動きを生成することに慣れるまで、実施の形態2の方法(以下、「本制御法」)とベースライン方法とで、数回バスケットボールをトスした。
(上肢外骨格ロボット)
実施の形態1と同様に、上肢外骨格ロボット3つの関節を制御するために、導出された方策を用いて、肩の屈曲/延長(SFE)、肩の外転/内転(SAA)、肘の屈曲/延長(EFE)関節を制御した。各関節トルクは、空気人工筋肉(PAM)によって以下の式に従い発生する:
Before the actual session, all subjects used the method of Embodiment 2 (hereinafter referred to as "this control method") and the baseline method until they got used to generating movements with the assistance of the exoskeleton robot 121. Tossed the basketball a few times.
(Upper limb exoskeleton robot)
Similar to Embodiment 1, the derived strategy is used to control the three joints of the upper limb exoskeleton robot: shoulder flexion/extension (SFE), shoulder abduction/adduction (SAA), and elbow controlled flexion/extension (EFE) joint. Each joint torque is generated by a pneumatic artificial muscle (PAM) according to the following formula:

ここでも、実施の形態1と同様に、rはプーリ半径、fpamは空気ブラダに埋め込まれたスパイラル繊維の経路収縮によって発生するPAM力である。 Here, as in the first embodiment, r is the pulley radius, and f pam is the PAM force generated by path contraction of the spiral fiber embedded in the air bladder.

一方で、手首関節は自由に動かすことができる。 On the other hand, the wrist joint can be moved freely.

言い換えると、ユーザー201は各試行において、自分で手首関節トルクを生成する必要がある。そこで、ボールのパスの動きはユーザー201のために完全に自動化することはできないものの、動きはユーザー201と外骨格ロボット121の間の共同制御によって生成される。 In other words, user 201 needs to generate the wrist joint torque himself in each trial. Thus, although the movement of the ball path cannot be fully automated for the user 201, the movement is generated by joint control between the user 201 and the exoskeleton robot 121.

状態変数には、関節角度θ、角速度θ(ドット)、および動力学(28)に対するPAMの計測された内部圧力Pが含まれる。 The state variables include the measured internal pressure P of the PAM for joint angle θ, angular velocity θ (dots), and dynamics (28).

ここで、添え字1,2,3はそれぞれ 関節SFE、SAA、および EFEを表す。 Here, subscripts 1, 2, and 3 represent joints SFE, SAA, and EFE, respectively.

上肢外骨格ロボットシステム121のエンコーダを用いて、角度と角速度の両方のデータを取得する。制御出力uは、空気圧アクチュエータに必要な圧力入力Prefであり、以下の式で表される。 The encoder of the upper limb exoskeleton robot system 121 is used to obtain both angle and angular velocity data. The control output u is the pressure input Pref required for the pneumatic actuator, and is expressed by the following formula.

参照圧力Prefと測定された内圧Pの間のダイナミクスは空気ダイナミクスによる非線形性を有するが、以下のような一次の遅延システムによって、このダイナミクスを近似する。 Although the dynamics between the reference pressure Pref and the measured internal pressure P have nonlinearity due to air dynamics, this dynamics is approximated by the following first-order delay system.

ここで、tcは時定数で、次のように設定される。 Here, t c is a time constant and is set as follows.

最小化のための終端コストg(・)は次のように設定される。 The terminal cost g(·) for minimization is set as follows.

ここで、Tは最終時間、θtarget はターゲット角度、θ(ドット)targetは、目標距離に基づいて計算されたバスケットボールの放出点における目標角速度である。瞬時コスト l(・)が以下のように設定される。 Here, T is the final time, θ target is the target angle, and θ (dot) target is the target angular velocity at the basketball release point calculated based on the target distance. The instantaneous cost l(·) is set as follows.

ここで、Ca、Cv、Cp、Cpdは目的関数の定数値である。ここでも、通常の最適制御での実施の際のように、実験により手動で選択されるものとできる。

(運動タスク)
図17は、実験を実施したバスケットボールのパス運動のタスクを示す概念図である。
Here, Ca, Cv, Cp, and Cpd are constant values of the objective function. Here, too, it can be manually selected through experimentation, as in the case of normal optimal control.

(motor task)
FIG. 17 is a conceptual diagram showing the basketball passing task in which the experiment was conducted.

図17に示すように、3人の右利きの被験者が外骨格ロボットユーザー201としてボールをトスし、もう一人がボールをキャッチするパートナー202として参加した。このタスクでは、図17(a)に示すように、ユーザー201が座っている状態でバスケットボールを下手投げでトスし、図17(b)に示すように、パートナー202は扇状の領域でランダムに選択された開始点からゴールライン上のいくつかの目標位置のいずれか1つに移動する。なお、後述するように、このパートナーの移動の目標位置は、最適な制御則を導き出すために使用される候補の目標位置(サブ最適制御方策を事前に算出している位置)ではない。 As shown in FIG. 17, three right-handed subjects participated as an exoskeleton robot user 201 who toss a ball, and another person participated as a partner 202 who caught the ball. In this task, as shown in FIG. 17(a), the user 201 tosses a basketball while sitting, and as shown in FIG. 17(b), the partner 202 is randomly selected in a fan-shaped area. move from the designated starting point to any one of several target positions on the goal line. Note that, as will be described later, this target position of the partner's movement is not a candidate target position (a position for which a sub-optimal control policy has been calculated in advance) used to derive the optimal control law.

図17(a)に示すように、この実験では、バスケットボール投げの目標点として、顔の中心、すなわちパートナー202の鼻を想定した。パートナーは、セッション前にユーザー201にとっては未知の目標位置の1つに移動する。 As shown in FIG. 17(a), in this experiment, the center of the face, that is, the nose of the partner 202, was assumed as the target point for throwing the basketball. The partner moves to one of the target locations unknown to user 201 before the session.

ユーザー201からの未知の目標位置(ゴールライン1上で、g1~g3、ゴールライン2上で、g4~g6)までの距離は、各ゴールラインで1.5m,2m,2.5mであり、被験者は、パートナー202が各目標位置に到達したときにパートナー202にボール5回トスする。 The distances from the user 201 to the unknown target positions (on goal line 1, g1 to g3, on goal line 2, g4 to g6) are 1.5 m, 2 m, and 2.5 m at each goal line, The subject tosses the ball to partner 202 five times as partner 202 reaches each target location.

三角前部筋(EMG1)、上腕二頭筋(EMG2)、三角中部筋(EMG3)、尺側手根屈筋 (EMG4)、橈側手根伸筋からAg/AgClバイポーラのEMG電極を用いて5つのEMG信号を測定し、ユーザのボールのトス運動の開始時点を評価する。 Using Ag/AgCl bipolar EMG electrodes, five The EMG signal is measured to assess the starting point of the user's ball toss movement.

ゴールライン1上の 1m距離の位置(G1)と、およびゴール ライン2上の 1m距離の位置(G3)および3m距離の位置(G4)の目標距離に対する最適な方策をユーザー201から既知の目標位置に対する制御方策として取得する。 The optimal policy for the target distances at a 1 m distance position (G1) on goal line 1, and a 1 m distance position (G3) and a 3 m distance position (G4) on goal line 2 is determined from the known target position from the user 201. Obtained as a control measure against.

そして、未知の目標位置(g1,g2,…,g6)に対する最終的な最適制御方策π´は4つの既知の目標G1,…,G4に対応するこれら4つのサブ最適制御方策を組み合わせることによって導出される。
(パートナーの動きの画像による認識)
画像カメラ220として深度カメラを使用して、パートナーの動きをモニタする。カメラはユーザーの近くに置かれ、顔認識ツールでパートナー202の顔位置を検出して、パートナー202の軌道ξを追跡する。
(ユーザーの動き開始の検出)
外骨格ロボット121のユーザー201の筋肉活動からユーザーの動きの開始タイミングを検出する。具体的には、三角前部筋からEMG信号を測定する。運動意図は、事前に決定された閾値を有する単純な検出器によって検出される。筋肉が閾値を超えて活性化されると、外骨格ロボットの制御器134からの制御出力がされる。しきい値は、実験の前に各被験者に対して調整される。
[実験結果]
以下では、まずパートナーの動きに基づいてサブ最適制御方策の混合率の変化を示し、その後、EMG信号の分析結果を示して、ユーザーの動きに対する負荷とボールをトスするパフォーマンスとを検証する。
(混合比)
図18は、パートナーが始点から目標位置に向かって移動したときの混合比の時系列平均と標準偏差を示す図である。
Then, the final optimal control policy π * ' for the unknown target position (g1, g2, ..., g6) is obtained by combining these four sub-optimal control strategies corresponding to the four known targets G1, ..., G4. derived.
(Image recognition of partner's movements)
A depth camera is used as the image camera 220 to monitor the partner's movements. The camera is placed near the user, detects the face position of the partner 202 with a facial recognition tool, and tracks the trajectory ξ of the partner 202.
(Detection of start of user movement)
The start timing of the user's movement is detected from the muscle activity of the user 201 of the exoskeleton robot 121. Specifically, EMG signals are measured from the anterior deltoid muscle. Motor intention is detected by a simple detector with a predetermined threshold. When a muscle is activated above a threshold, a control output is generated from the exoskeleton robot's controller 134. Thresholds are adjusted for each subject before the experiment.
[Experimental result]
In the following, we first show the variation of the mixing rate of the sub-optimal control strategy based on the partner's movement, and then show the analysis results of the EMG signal to verify the load on the user's movement and the performance of tossing the ball.
(mixing ratio)
FIG. 18 is a diagram showing the time-series average and standard deviation of the mixing ratio when the partner moves from the starting point toward the target position.

図18(a)、(b)、(c)に示すように、混合比w1及びw2は、w3及びw4と比較して、パートナがゴールライン1上の目標に向かうと増加した。 As shown in Figures 18(a), (b), and (c), the mixing ratios w 1 and w 2 increased as the partners moved toward the target on goal line 1 compared to w 3 and w 4 . .

図18(a)から、目標位置g1に向かう際に、混合比w1とw2がこの順序で増加し、候補目標位置G1に対するサブ最適制御方策の使用率が最も高く、候補目標位置G2に対するサブ最適制御方策を使用する比率が2番目に高いことが示された。 From FIG. 18(a), when moving towards the target position g1, the mixture ratios w 1 and w 2 increase in this order, and the usage rate of the sub-optimal control policy for the candidate target position G1 is the highest, while for the candidate target position G2 It was shown that the proportion of using sub-optimal control strategies was the second highest.

逆に、図18(c)から、混合比w2とw1はこの順序で増加し、サブ最適制御方策を使用する比率が、条件(a)と反対であることを示した。 On the contrary, from FIG. 18(c), the mixing ratios w 2 and w 1 increase in this order, indicating that the ratio of using the sub-optimal control strategy is opposite to condition (a).

図18(b)に関しては、混合比w3が減少し、w1が条件(c)よりも増加しており、これは、サブ最適制御方策を使用する比率が条件(a)と(c)の間にあることを示した。 Regarding Fig. 18(b), the mixing ratio w 3 decreases and w 1 increases compared to condition (c), which means that the ratio of using the sub-optimal control strategy is lower than that of conditions (a) and (c). It was shown that there is a difference between

一方、図18(d),(e),(f)から、混合比w3とw4は、他のパートナーがゴールライン1の反対側のゴールライン2上の目標位置に向かって移動したので、w1とw2よりも増加した。 On the other hand, from Fig. 18(d), (e), and (f), the mixing ratios w 3 and w 4 change as the other partner moves toward the target position on the goal line 2 opposite to the goal line 1. , increased more than w 1 and w 2 .

同様に、図18(d),(e)、および(f)の混合比w3およびw4は、図18(a),(b),(c)に示される上記の条件で、w1およびw2と同じ挙動を示した。 Similarly, the mixing ratios w 3 and w 4 in FIGS. 18(d), (e), and (f) are equal to w 1 under the above conditions shown in FIGS. 18(a), (b), and (c). and w 2 showed the same behavior.

これらの結果から、パートナーの運動意図がうまく予測され、混合比率も適切に計算されたことがわかった。

(ユーザーの運動負荷の分析)
図19は、本制御法とアシストなしの制御とで、EMG信号の振幅の総和を比較する図である。
These results showed that the partner's motor intention was successfully predicted and the mixing ratio was calculated appropriately.

(Analysis of user exercise load)
FIG. 19 is a diagram comparing the total amplitude of EMG signals between the present control method and control without assist.

本制御法でユーザーの運動の負荷を検証するために、整流およびフィルタリングされたEMG信号の振幅を観察し、無アシスト条件と比較した。 To verify the user's exercise load with this control method, the amplitude of the rectified and filtered EMG signal was observed and compared with the unassisted condition.

図19では、1.5m(g1,g4)、2m(g2,g5)、および2.5m(g3,g6)の2つのゴールライン上のすべての被験者の合計のEMG信号の平均および標準偏差を示している。被験者間EMG信号を比較するために、各被験者に対して、各筋肉の整流およびローパスフィルタリングされたEMG信号の最大値で個別にに正規化してある。 Figure 19 shows the mean and standard deviation of the total EMG signals of all subjects on the two goal lines of 1.5 m (g1, g4), 2 m (g2, g5), and 2.5 m (g3, g6). There is. To compare inter-subject EMG signals, each muscle's rectified and low-pass filtered EMG signal was normalized separately for each subject.

図19によれば、アシストがない状態のEMG信号と各目標位置までの距離に対する本制御法との間でウェルチのt検定を適用した。 According to FIG. 19, Welch's t-test was applied between the EMG signal without assistance and the present control method for the distance to each target position.

合計されたEMG信号の平均は、すべてのゴール距離で、アシストがない条件よりも、本制御法の条件下で大幅に減少した。これらの結果は、提案されたアプローチによって導き出された制御方策が、ユーザーのボールをトスする運動の負荷をうまく削減したことを示している。

(ボールトースのパフォーマンス)
以下では、パートナーがボールをでキャッチしたときの冠状面での顔の中心からボールまでの距離を測定し、記録されたビデオを分析することにより、ボールをトスするパフォーマンスについて本制御法を検証する。
The mean summed EMG signal was significantly reduced under the present control method conditions than under the no-assist condition at all goal distances. These results indicate that the control strategy derived by the proposed approach successfully reduced the load of the user's ball tossing motion.

(ball toss performance)
Below, we examine the control method on ball tossing performance by measuring the distance from the center of the face in the coronal plane to the ball when the partner catches the ball, and by analyzing the recorded video. .

ユーザが、パートナーがキャッチできないボールを投げた時は、以下の測定を行った。ボールが相手に届かなくて、パートナーの前に落ちた場合、顔の中心から地面までの距離である1.6mに距離を設定する。ボールが落ちることなく相手の手の届かないところに投げられた場合、ボールが通過したときの顔の中心とボールの間の距離が追加される。 When a user threw a ball that his partner could not catch, the following measurements were taken. If the ball does not reach the opponent and falls in front of the partner, set the distance to 1.6m, which is the distance from the center of the player's face to the ground. If the ball is thrown out of reach of the opponent without falling, the distance between the center of the face and the ball when the ball passes is added.

本制御法を、1)ベースライン法と2)自律(自動)法の2つのスキームと比較した。ベースライン方式では、パートナーの動きは予測処理を行わないカメラによってのみ追跡され、制御方策はブレンドせずに距離ベースの基準によって判断される最も適切な最適方策から導き出された。 This control method was compared with two schemes: 1) baseline method and 2) autonomous (automatic) method. In the baseline method, the partner's movements were tracked only by a camera without predictive processing, and the control strategy was derived from the most appropriate optimal strategy as determined by a distance-based criterion without blending.

このベースライン方式では、しきい値ベースの検出器がユーザの運動の意図を識別したときの時間に基づいて、最も近い既知の目標に対応する方策を使用した。 This baseline method used a strategy that corresponds to the closest known target based on the time when a threshold-based detector identified the user's movement intent.

自律的な方法(以下、「自律法」)では、パートナーの動きの意図は本制御法で推定されたが、ボールを投げるタイミングは、ユーザーの動きの開始を検出することなく自動的に決定された。トスする運動は、パートナーの位置とゴールラインの間の距離が一定のしきい値を下回ったときに開始され、ユーザの運動の時間とパートナーの動きがゴールラインに達するまでの時間とが一致するように計算された。 In the autonomous method (hereinafter referred to as the "autonomous method"), the partner's movement intention was estimated by the present control method, but the timing of throwing the ball was determined automatically without detecting the start of the user's movement. Ta. The tossing movement is initiated when the distance between the partner's position and the goal line falls below a certain threshold, and the time of the user's movement and the time for the partner's movement to reach the goal line match. It was calculated as follows.

図20は、パートナーがボールをキャッチした際のパートナーの顔中心からキャッチ位置を示す図である。 FIG. 20 is a diagram showing the catch position from the center of the partner's face when the partner catches the ball.

図20では、ベースライン条件と提案手法での全被験者の平均値と標準偏差を、1.5m(g1,g4)、2m(g2,g5)、および2.5m(g3,g6)の目標について測定した値を示す。 In Figure 20, the mean values and standard deviations of all subjects under the baseline condition and the proposed method were measured for targets of 1.5 m (g1, g4), 2 m (g2, g5), and 2.5 m (g3, g6). Show value.

各ゴール距離について、ベースライン法での距離と本制御法での距離との間にウェルチのt検定を適用し、ベースライン法よりも本制御法で提案された条件下で距離の平均(ボールの中心)が有意に減少したことがわかった。 For each goal distance, Welch's t-test was applied between the distance under the baseline method and the distance under the present control method. center) was found to have significantly decreased.

図21は、パートナーがボールをキャッチした際のパートナーの顔中心からキャッチ位置を示す別の図である。 FIG. 21 is another diagram showing the catch position from the center of the partner's face when the partner catches the ball.

図21では、自律法および本制御法での条件下で、全被験者の平均値と標準偏差を1.5m(g1,g4)、2m(g2,g5)、および2.5m(g3,g6)の目標で、全被験者について5回測定した値である。ここでも、各ゴール距離について、自律的方法での距離と提案条件での距離との間にウェルチのt検定を適用し、自律的方法と比較して本制御法で平均距離(ボールの中心)が有意に減少することを発見した。 In Figure 21, under the conditions of the autonomous method and the present control method, the average value and standard deviation of all subjects are set to 1.5 m (g1, g4), 2 m (g2, g5), and 2.5 m (g3, g6). This is the value measured five times for all subjects. Again, for each goal distance, Welch's t-test was applied between the distance in the autonomous method and the distance in the proposed conditions, and the average distance (center of the ball) in the present control method compared to the autonomous method. was found to be significantly reduced.

本制御法では、ユーザーによるボールのトスが安定的に制御されていることを考慮すると、ベースライン法は混合をせずに既知の目標に対して最適な方策のみを使用し、自律法は、パートナーの運動意図を推定することなく、ユーザーの腕を強制的に移動させたので、制御法はユーザーの意図と一致していない。 In this control method, considering that the ball toss by the user is stably controlled, the baseline method uses only the optimal strategy for the known target without mixing, and the autonomous method uses The control method is not consistent with the user's intention because it forced the user's arm to move without estimating the partner's movement intention.

これらの結果は、パートナーの動きの意図を予測し、ユーザーの動き開始タイミングを検出することの重要性を示唆している。本制御法は、共同作業に対するスピードと精度を必要とする運動制御を効果的にサポートするといえる。 These results suggest the importance of predicting the partner's movement intention and detecting the user's movement initiation timing. This control method can be said to effectively support motor control that requires speed and precision for collaborative work.

以上説明した通り、実施の形態2では、外骨格ロボットの制御方策は、事前に計算された最適な制御法を混合することによって導き出され、混合比は、最大エントロピー逆強化学習法によって予測されたパートナーの動きの意図から決定される。 As explained above, in the second embodiment, the control strategy for the exoskeleton robot is derived by mixing the optimal control methods calculated in advance, and the mixing ratio is predicted by the maximum entropy inverse reinforcement learning method. Determined by the intention of the partner's movements.

本制御法を検証するために、具体的な相互作用運動のタスクで、ユーザーが動いていくパートナーにボールを投げるボール投げ実験を行った。本制御法は、ユーザーの労力を大幅に削減し、ベースライン方式よりもボールトスのパフォーマンスを向上させた。これらの結果は、本制御法がパートナーとインタラクションする外骨格ロボットユーザーを効果的にサポートし、速度と精度を必要とするモーションコントロールを可能にすることを示した。 To verify this control method, we conducted a ball-throwing experiment in which the user threw a ball to a moving partner in a specific interaction movement task. This control method significantly reduced user effort and improved ball toss performance compared to the baseline method. These results showed that the present control method effectively supports the exoskeleton robot user in interacting with a partner, enabling motion control that requires speed and precision.

今回開示された実施の形態は、本発明を具体的に実施するための構成の例示であって、本発明の技術的範囲を制限するものではない。本発明の技術的範囲は、実施の形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲の文言上の範囲および均等の意味の範囲内での変更が含まれることが意図される。 The embodiments disclosed herein are examples of configurations for concretely implementing the present invention, and do not limit the technical scope of the present invention. The technical scope of the present invention is indicated by the claims rather than the description of the embodiments, and includes changes within the literal scope and equivalent meaning of the claims. is intended.

1 コントローラユニット、10 内部制御装置、20 外部制御装置、40 外骨格型ロボット、121 外骨格部、122 能動関節、123 受動関節 124 検出機構、220 画像センサ、302a,302b 空圧式エアマッスル、308a,308b 内側ワイヤー、310a,310b ボーデンケーブル、320 プーリー、321 伝達機構。 1 Controller unit, 10 Internal control device, 20 External control device, 40 Exoskeleton robot, 121 Exoskeleton part, 122 Active joint, 123 Passive joint 124 Detection mechanism, 220 Image sensor, 302a, 302b Pneumatic air muscle, 308a, 308b inner wire, 310a, 310b Bowden cable, 320 pulley, 321 transmission mechanism.

Claims (10)

ユーザの関節の運動をアシストするための動作支援装置であって、
前記アシストを受ける前記ユーザの複数の関節部に装着され、前記関節部へのアシストトルクを生成するアクチュエータ手段を有する能動関節と、
前記能動関節の状態を検出するためのセンサ手段と、
前記ユーザの関節の運動に対する前記ユーザの中枢からの指令に基づいて生成される生体由来信号を検出するための生体信号検知手段と、
前記能動関節が発生する前記アシストトルクを制御するための制御信号を生成する制御部とを備え、前記制御部は、
前記センサ手段および前記生体信号検知手段からの信号に基づいて、前記ユーザの動作目的を推定する動作目的推定手段を含み、
前記動作目的推定手段は、アシストする動作の初期において、前記センサ手段により検出される所定の能動関節の角速度が所定値を超える点を運動出発点として、前記アシストする運動の開始前の所定期間の特徴量を学習することでユーザの動作目的を推定し、
複数の離散的な動作目的にそれぞれ対応した最適制御のための複数の制御方策を特定する情報を予め記憶する記憶手段と、
推定された前記ユーザの動作目的に応じて、前記複数の制御方策を対応する重みで線形に組み合わせて、前記推定された動作目的に対応する混合制御則を導出する混合手段と、
導出された前記混合制御則に応じて、前記アシストトルクを制御する信号を生成する制御信号生成手段とをさらに含む、動作支援装置。
A movement support device for assisting a user's joint movements,
an active joint having actuator means attached to a plurality of joints of the user receiving the assist and generating an assist torque to the joints;
sensor means for detecting the state of the active joint;
a biological signal detection means for detecting a biological signal generated based on a command from the user's central nervous system regarding movement of the user's joints;
a control unit that generates a control signal for controlling the assist torque generated by the active joint, the control unit comprising:
comprising a movement purpose estimation means for estimating the movement purpose of the user based on signals from the sensor means and the biological signal detection means,
The motion purpose estimating means sets a point at which the angular velocity of a predetermined active joint detected by the sensor means exceeds a predetermined value at an initial stage of the assisting motion as a motion starting point, and calculates a predetermined period of time before the start of the assisting motion. Estimate the purpose of the user's movement by learning the features,
a storage means for storing in advance information specifying a plurality of control strategies for optimal control corresponding to a plurality of discrete operation objectives;
Mixing means for linearly combining the plurality of control strategies with corresponding weights according to the estimated user's motion purpose to derive a mixed control law corresponding to the estimated motion purpose;
An operation support device further comprising: control signal generation means for generating a signal for controlling the assist torque according to the derived mixture control law.
前記動作目的推定手段は、計測された前記センサ手段および前記生体信号検知手段からの信号から、部分的最小二乗法アルゴリズムにより、低次元の特徴量空間の信号を生成して、動作目的ラベルを生成し、
前記混合手段は、前記動作目的ラベルに予め対応付けられている複数の制御方策を、対応する重みで線形に組み合わせる、請求項1記載の動作支援装置。
The motion purpose estimating means generates a signal in a low-dimensional feature space using a partial least squares algorithm from the measured signals from the sensor means and the biological signal detection means, and generates a motion purpose label. death,
2. The motion support device according to claim 1, wherein the mixing means linearly combines a plurality of control strategies that are associated with the motion purpose label in advance with corresponding weights.
前記動作目的推定手段が推定する動作目的ラベルは、前記複数の離散的な動作目的を内挿するものである、請求項2記載の動作支援装置。 3. The motion support device according to claim 2, wherein the motion purpose label estimated by the motion purpose estimating means is an interpolation of the plurality of discrete motion purposes. 前記混合手段は、線形ベルマン組合せ法により、前記推定された動作目的に対応する制御則を導出する、請求項1または2記載の動作支援装置。 3. The motion support device according to claim 1, wherein said mixing means derives a control law corresponding to said estimated motion purpose by a linear Bellman combination method. 前記アクチュエータ手段は、空圧式エアマッスルを含む、請求項1~4のいずれか1項に記載の動作支援装置。 The motion support device according to any one of claims 1 to 4, wherein the actuator means includes a pneumatic air muscle. 外骨格型ロボットによってユーザの関節の運動をアシストするための動作支援方法であって、
前記外骨格型ロボットは、前記アシストを受ける前記ユーザの複数の関節部に装着され、前記関節部へのアシストトルクを生成するアクチュエータ手段を有する能動関節と、複数の離散的な動作目的にそれぞれ対応した最適制御のための複数の制御方策を特定する情報を予め記憶する記憶手段とを備えており、
前記能動関節の状態を検出するためのセンサ手段からの信号と、前記ユーザの関節の運動に対する前記ユーザの中枢からの指令に基づいて生成される生体由来信号を検出するための生体信号検知手段からの信号とに基づいて、前記ユーザの動作目的を推定するステップを備え、
前記ユーザの動作目的を推定するステップは、前記アシストする動作の初期において、前記センサ手段により検出される所定の能動関節の角速度が所定値を超える点を運動出発点として、前記アシストする運動の開始前の所定期間の特徴量を学習することでユーザの動作目的を推定するステップを含み、
推定された前記ユーザの動作目的に応じて、前記複数の制御方策を対応する重みで線形に組み合わせて、前記推定された動作目的に対応する混合制御則を導出するステップと、
導出された前記混合制御則に応じて、前記能動関節が発生する前記アシストトルクを制御するための制御信号を生成するステップとをさらに備える、動作支援方法。
A motion support method for assisting a user's joint movements with an exoskeletal robot, the method comprising:
The exoskeleton robot has active joints that are attached to a plurality of joints of the user receiving the assist and have actuator means for generating assist torque to the joints, and each corresponds to a plurality of discrete motion purposes. and storage means for storing in advance information specifying a plurality of control strategies for optimal control,
A signal from a sensor means for detecting the state of the active joint, and a biosignal detection means for detecting a biogenic signal generated based on a command from the user's center regarding the movement of the user's joint. estimating the purpose of the user's movement based on the signal of the
The step of estimating the purpose of the user's movement includes starting the assisting movement by setting a point at which the angular velocity of a predetermined active joint detected by the sensor means exceeds a predetermined value as a starting point in the initial stage of the assisting movement. The method includes a step of estimating the purpose of the user's movement by learning feature quantities of a previous predetermined period;
linearly combining the plurality of control strategies with corresponding weights according to the estimated operation purpose of the user to derive a mixed control law corresponding to the estimated operation purpose;
A motion support method further comprising the step of generating a control signal for controlling the assist torque generated by the active joint according to the derived mixed control law.
パートナーとの協調した運動において、ユーザの関節の運動をアシストするための動作支援装置であって、
前記アシストを受ける前記ユーザの関節部に装着され、前記関節部へのアシストトルクを生成するアクチュエータ手段を有する能動関節と、
前記能動関節の状態を検出するためのセンサ手段と、
前記ユーザの関節の運動に対する前記ユーザの中枢からの指令に基づいて生成される生体由来信号を検出するための生体信号検知手段と、
前記パートナーを撮像する画像センサと、
前記能動関節が発生する前記アシストトルクを制御するための制御信号を生成する制御部とを備え、前記制御部は、
前記画像センサからの信号に基づいて、前記パートナーの動作目的を推定する動作目的推定手段と、
前記生体信号検知手段からの信号に基づいて、前記ユーザの運動開始意図を検出する動作意図推定手段と、
複数の離散的な動作目的にそれぞれ対応した最適制御のための複数の制御方策を特定する情報を予め記憶する記憶手段と、
推定された前記動作目的に応じて、前記複数の制御方策を対応する重みで線形に組み合わせて、前記推定された動作目的に対応する混合制御則を導出する混合手段と、
前記運動開始意図の検出に応答して、導出された前記混合制御則に応じて、前記アシストトルクを制御する信号を生成する制御信号生成手段とを含む、動作支援装置。
A movement support device for assisting a user's joint movements in a coordinated exercise with a partner,
an active joint having an actuator means attached to a joint of the user receiving the assist and generating an assist torque to the joint;
sensor means for detecting the state of the active joint;
a biological signal detection means for detecting a biological signal generated based on a command from the user's central nervous system regarding movement of the user's joints;
an image sensor that images the partner;
a control unit that generates a control signal for controlling the assist torque generated by the active joint, the control unit comprising:
Movement purpose estimating means for estimating the movement purpose of the partner based on a signal from the image sensor;
Movement intention estimation means for detecting the user's intention to start exercise based on the signal from the biological signal detection means;
a storage means for storing in advance information specifying a plurality of control strategies for optimal control corresponding to a plurality of discrete operation objectives;
Mixing means for linearly combining the plurality of control strategies with corresponding weights according to the estimated operation purpose to derive a mixed control law corresponding to the estimated operation purpose;
and control signal generation means for generating a signal for controlling the assist torque according to the derived mixed control law in response to the detection of the exercise start intention.
前記動作目的推定手段は、撮像された前記画像センサの信号から、逆強化学習アルゴリズムにより、動作目的ラベルを生成し、
前記混合手段は、前記動作目的ラベルに予め対応付けられている複数の制御方策を、対応する重みで線形に組み合わせる、請求項7記載の動作支援装置。
The motion purpose estimating means generates a motion purpose label from the imaged signal of the image sensor using an inverse reinforcement learning algorithm,
8. The motion support device according to claim 7, wherein said mixing means linearly combines a plurality of control strategies associated with said motion purpose label in advance with corresponding weights.
前記混合手段は、線形ベルマン組合せ法により、前記推定された動作目的に対応する制御則を導出する、請求項7または8記載の動作支援装置。 9. The motion support device according to claim 7, wherein said mixing means derives a control law corresponding to said estimated motion purpose by a linear Bellman combination method. パートナーとの協調した運動において、外骨格型ロボットによってユーザの関節の運動をアシストするための動作支援方法であって、
前記外骨格型ロボットは、前記アシストを受ける前記ユーザの関節部に装着され、前記関節部へのアシストトルクを生成するアクチュエータ手段を有する能動関節と、複数の離散的な動作目的にそれぞれ対応した最適制御のための複数の制御方策を特定する情報を予め記憶する記憶手段とを備えており、
前記パートナーを撮像する画像センサからの信号に基づいて、前記パートナーの動作目的を推定するステップと、
前記ユーザの関節の運動に対する前記ユーザの中枢からの指令に基づいて生成される生体由来信号を検出するための生体信号検知手段からの信号に基づいて、前記ユーザの運動開始意図を検出するステップと、
推定された前記パートナーの動作目的に応じて、前記複数の制御方策を対応する重みで線形に組み合わせて、前記推定された動作目的に対応する混合制御則を導出するステップと、
前記運動開始意図の検出に応答して、導出された前記混合制御則に応じて、前記能動関節が発生する前記アシストトルクを制御するための制御信号を生成するステップとを備える、動作支援方法。
A motion support method for assisting the movement of a user's joints by an exoskeleton robot in a coordinated exercise with a partner, the method comprising:
The exoskeletal robot has an active joint that is attached to a joint of the user that receives the assist and has an actuator means that generates an assist torque to the joint, and an active joint that is attached to a joint of the user that receives the assist, and has an active joint that has an actuator means that is attached to the joint of the user that receives the assist, and has an active joint that has an actuator means that is attached to the joint of the user that receives the assist. and storage means for pre-storing information specifying a plurality of control strategies for control,
estimating a movement objective of the partner based on a signal from an image sensor imaging the partner;
Detecting the user's intention to start exercising based on a signal from a biosignal detection means for detecting a biosignal generated based on a command from the user's center regarding the movement of the user's joints; ,
linearly combining the plurality of control strategies with corresponding weights according to the estimated operational objective of the partner to derive a mixed control law corresponding to the estimated operational objective;
A motion support method comprising the step of generating a control signal for controlling the assist torque generated by the active joint according to the derived mixed control law in response to the detection of the movement start intention.
JP2020071886A 2019-09-05 2020-04-13 Movement support device and movement support method Active JP7432430B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019161737 2019-09-05
JP2019161737 2019-09-05

Publications (2)

Publication Number Publication Date
JP2021041522A JP2021041522A (en) 2021-03-18
JP7432430B2 true JP7432430B2 (en) 2024-02-16

Family

ID=74861434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020071886A Active JP7432430B2 (en) 2019-09-05 2020-04-13 Movement support device and movement support method

Country Status (1)

Country Link
JP (1) JP7432430B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023136122A1 (en) * 2022-01-12 2023-07-20
JP7377928B1 (en) 2022-08-26 2023-11-10 ソフトバンク株式会社 Tracking device, program, and tracking method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080058668A1 (en) 2006-08-21 2008-03-06 Kaveh Seyed Momen Method, system and apparatus for real-time classification of muscle signals from self-selected intentional movements
JP2011193941A (en) 2010-03-18 2011-10-06 Waseda Univ System for suppressing involuntary movement, movement recognition device, and program for the movement recognition device
JP2013131117A (en) 2011-12-22 2013-07-04 Osaka Univ Operation instruction device, operation instruction method and operation pattern preparation device
JP2014155998A (en) 2013-02-18 2014-08-28 Advanced Telecommunication Research Institute International Power assist robot
JP2017030137A (en) 2015-07-31 2017-02-09 ファナック株式会社 Machine learning apparatus, robot control device, robot system, and machine learning method for learning behavior pattern of person
JP2018134724A (en) 2017-02-24 2018-08-30 ボッシュ株式会社 Operation estimation device and operation auxiliary device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080058668A1 (en) 2006-08-21 2008-03-06 Kaveh Seyed Momen Method, system and apparatus for real-time classification of muscle signals from self-selected intentional movements
JP2011193941A (en) 2010-03-18 2011-10-06 Waseda Univ System for suppressing involuntary movement, movement recognition device, and program for the movement recognition device
JP2013131117A (en) 2011-12-22 2013-07-04 Osaka Univ Operation instruction device, operation instruction method and operation pattern preparation device
JP2014155998A (en) 2013-02-18 2014-08-28 Advanced Telecommunication Research Institute International Power assist robot
JP2017030137A (en) 2015-07-31 2017-02-09 ファナック株式会社 Machine learning apparatus, robot control device, robot system, and machine learning method for learning behavior pattern of person
JP2018134724A (en) 2017-02-24 2018-08-30 ボッシュ株式会社 Operation estimation device and operation auxiliary device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Emanuel Todorov,Compositionality of optimal control laws,ワシントン大学コンピュータ サイエンス & エンジニアリング コミュニティのホームページ サービス,米国,ワシントン大学コンピュータ サイエンス & エンジニアリング コミュニティ,2009年,p. 1856-1864,https://homes.cs.washington.edu/~todorov/papers/TodorovNIPS09.pdf
Marco da Silva, 外2名,Linear Bellman Combination for Control of Character Animation,ワシントン大学コンピュータ サイエンス & エンジニアリング コミュニティのホームページ サービス,米国,ワシントン大学コンピュータ サイエンス & エンジニアリング コミュニティ,2009年,p. 82:1-82:10,https://homes.cs.washington.edu/~jovan/papers/dasilva-2009-lbc.pdf

Also Published As

Publication number Publication date
JP2021041522A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
CN109789543B (en) Control optimization for wearable systems
Ma et al. A bi-directional LSTM network for estimating continuous upper limb movement from surface electromyography
Kim et al. A voice activated bi-articular exosuit for upper limb assistance during lifting tasks
JP6142146B2 (en) Exoskeleton type robot and rehabilitation device
US9510789B2 (en) Motion analysis method
US9826923B2 (en) Motion analysis method
Chinimilli et al. Automatic virtual impedance adaptation of a knee exoskeleton for personalized walking assistance
CN111565680B (en) System for recognizing information represented by biological signals
JP6998569B2 (en) Power assist device and control method of power assist device
JP7432430B2 (en) Movement support device and movement support method
Zhang et al. Estimation of joint torque by EMG-driven neuromusculoskeletal models and LSTM networks
Guidali et al. Estimating the patient's contribution during robot-assisted therapy
US20230116271A1 (en) Systems for closed-loop ultrasound-imaging based control and related methods
Li et al. An enhanced EMG-driven musculoskeletal model based on non-negative matrix factorization
Höppner et al. Key insights into hand biomechanics: human grip stiffness can be decoupled from force by cocontraction and predicted from electromyography
Jamšek et al. Predictive exoskeleton control for arm-motion augmentation based on probabilistic movement primitives combined with a flow controller
Sakr et al. On the estimation of isometric wrist/forearm torque about three axes using force myography
Nuckols et al. Automated detection of soleus concentric contraction in variable gait conditions for improved exosuit control
Kutilek et al. Prediction of lower extremity movement by cyclograms
Dong et al. Development of a fatigue-tracking system for monitoring human body movement
Woo et al. Machine learning based recognition of elements in lower-limb movement sequence for proactive control of exoskeletons to assist lifting
Heliot et al. System architecture for stiffness control in brain–machine interfaces
Simonetti et al. Reprint of “multimodal adaptive interfaces for 3d robot-mediated upper limb neuro-rehabilitation: An overview of bio-cooperative systems”
Masaoka et al. Arm-mounted assistive robot for measuring contact force and evaluating wearer safety
De las Casas et al. Targeted muscle effort distribution with exercise robots: Trajectory and resistance effects

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7432430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150