[go: up one dir, main page]

JP2009285752A - Mobile robot - Google Patents

Mobile robot Download PDF

Info

Publication number
JP2009285752A
JP2009285752A JP2008138942A JP2008138942A JP2009285752A JP 2009285752 A JP2009285752 A JP 2009285752A JP 2008138942 A JP2008138942 A JP 2008138942A JP 2008138942 A JP2008138942 A JP 2008138942A JP 2009285752 A JP2009285752 A JP 2009285752A
Authority
JP
Japan
Prior art keywords
image
time
movement
processing unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008138942A
Other languages
Japanese (ja)
Other versions
JP5171394B2 (en
Inventor
Tatsuhito Watanabe
龍人 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008138942A priority Critical patent/JP5171394B2/en
Publication of JP2009285752A publication Critical patent/JP2009285752A/en
Application granted granted Critical
Publication of JP5171394B2 publication Critical patent/JP5171394B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

【課題】移動中の画像処理結果から画像のブレの影響を低減させつつ画像を処理するサンプリング回数を増加させることができる移動型ロボットを提供すること。
【解決手段】ロボットRは、カメラCで取り込んだ画像を処理する画像制御処理部10と、脚部R3の予定着地時期の情報を含む行動計画情報を記憶する主記憶部30と、行動計画情報に基づいてロボットの移動を制御する指令を自律移動制御部50に出力する移動制御部42と、予定着地時期の情報を画像制御処理部10に通知する移動計画情報通知部43とを備え、画像制御処理部10は、予定着地時期に基づいて、着地の前後のタイミングをカメラCからの画像取込時期として決定する画像取込計画処理部11と、画像取込時期になったときに取込トリガを生成してカメラCに出力する取込トリガ生成部13と、画像取込時期に取り込んだ画像を処理する画像認識処理部16とを備える。
【選択図】図3
An object of the present invention is to provide a mobile robot capable of increasing the number of samplings for processing an image while reducing the influence of image blur from the result of image processing during movement.
A robot R includes an image control processing unit 10 that processes an image captured by a camera C, a main storage unit 30 that stores action plan information including information on a scheduled landing time of a leg R3, and action plan information. A movement control unit 42 that outputs a command for controlling the movement of the robot to the autonomous movement control unit 50, and a movement plan information notification unit 43 that notifies the image control processing unit 10 of information on the planned landing time. The control processing unit 10 includes an image capture plan processing unit 11 that determines the timing before and after landing as the image capture timing from the camera C based on the scheduled landing timing, and capture when the image capture timing is reached. A capture trigger generation unit 13 that generates a trigger and outputs the trigger to the camera C, and an image recognition processing unit 16 that processes an image captured at the time of image capture are provided.
[Selection] Figure 3

Description

本発明は、自律的に移動可能な移動型ロボットに係り、特に、外界の画像を取り込む視覚センサと、視覚センサによって取り込んだ画像を処理する画像制御処理部とを有する移動型ロボットに関するものである。   The present invention relates to a mobile robot that can move autonomously, and more particularly to a mobile robot having a visual sensor that captures an image of the outside world and an image control processing unit that processes the image captured by the visual sensor. .

従来、自律的に移動可能な移動型ロボットとして、歩行型(脚式)や車輪型の移動型ロボットが知られている(例えば、特許文献1参照)。特許文献1に記載された脚式の移動型ロボットは、4足歩行可能な犬型のペットロボットであり、頭部の鼻の位置に外界の画像を取り込む視覚センサ(ビデオカメラ)を備え、ビデオカメラによって撮影したボールの画像認識結果を用いてボールとの距離を保って追いかけることでペットらしい動きを行う。ペットロボットは、静止中にはボールまでの距離の判定に問題ないが、繰り返し運動としての歩行中には、左右への大きな重心移動を必要とするため、その頭部と胴体部にはロール方向に揺れが発生する。したがって、ペットロボットは、歩行動作に伴って左に傾くと本来画面中央にあるべきボールを画面右側上部に撮影し、歩行動作に伴って右に傾くと本来画面中央にあるべきボールを画面左側上部に撮影してしまうことになる。このように撮影したタイミングによってボール位置が異なると距離を正確に判定できなくなる。そこで、このペットロボットは、ビデオカメラを制御して、歩行中に重心が例えば左右の中心にある場合にだけボールの画像を取り込むことでロール方向の揺れの影響を低減し、このとき取り込んだ画像の処理結果を距離の算出に用いることで、立ち止まることなくボールまでの距離を判定する。ペットロボットは、通常0.5秒以上の歩行周期(つまり、重心の位置が例えば左右の中心から右側または左側に傾いて復元するまでの周期)に基づいて画像を取り込み、取り込んだボール画像の面積と所定値との大小によりボールとの距離を保つ。
特開2005−161475号公報(段落0034−0043、図4)
Conventionally, walking type (leg type) and wheel type mobile robots are known as mobile robots that can move autonomously (see, for example, Patent Document 1). The legged mobile robot described in Patent Document 1 is a dog-shaped pet robot that can walk on four legs, and includes a visual sensor (video camera) that captures an image of the outside world at the position of the nose of the head. By using the image recognition result of the ball photographed by the camera and keeping track of the distance from the ball, it moves like a pet. The pet robot has no problem in determining the distance to the ball when it is stationary, but it requires a large center of gravity movement to the left and right while walking as a repetitive movement, so the head and torso are in the roll direction. Shake occurs. Therefore, when the pet robot tilts to the left with a walking motion, it captures the ball that should be in the center of the screen at the upper right side of the screen, and when it tilts to the right with a walking motion, the ball that should originally be in the center of the screen Will end up shooting. If the ball position differs depending on the timing of shooting, the distance cannot be accurately determined. Therefore, this pet robot controls the video camera to reduce the influence of the swing in the roll direction by capturing the image of the ball only when the center of gravity is at the center of the left and right during walking, for example. By using the result of the above processing for calculating the distance, the distance to the ball is determined without stopping. The pet robot usually captures an image based on a walking cycle of 0.5 seconds or more (that is, a cycle until the center of gravity is restored by tilting to the right or left side from the center of the left and right, for example) The distance from the ball is maintained by the magnitude of the value and the predetermined value.
Japanese Patent Laying-Open No. 2005-161475 (paragraphs 0034-0043, FIG. 4)

しかしながら、特許文献1に記載された移動型ロボット(ペットロボット)は、0.5秒以上の歩行周期で1画像を取り込むため、認識すべき対象物(ボール)の位置が時間によって激しく変化する場合には画像の取り込みを充分に行うことができない。そこで、歩行周期を変えずに、取り込む画像の取込回数を増やそうとしても、特許文献1に記載された移動型ロボットは、歩行中には、左右への大きな重心移動を必要とするため、増加させた画像には周期性がなく、距離の判定に使用することはできない。そのため、移動型ロボットの行う動作を制限せざるを得なかった。   However, since the mobile robot (pet robot) described in Patent Document 1 captures one image with a walking cycle of 0.5 seconds or more, the position of the object (ball) to be recognized changes drastically with time. Cannot fully capture images. Therefore, even if it is attempted to increase the number of images to be captured without changing the walking cycle, the mobile robot described in Patent Document 1 requires a large center of gravity movement to the left and right during walking. The increased image has no periodicity and cannot be used for distance determination. For this reason, the movement performed by the mobile robot has to be restricted.

また、左右への大きな重心移動をせずに歩行する従来の移動型ロボットにおいて、取り込む画像の取込回数を単純に増やそうとする場合には、以下の問題がある。すなわち、例えば、脚式の移動型ロボットの脚部の先端が着地したときや、車輪型ロボットが段差を通過したときには、その衝撃により視覚センサが振動するため、振動した視覚センサにより取得される画像のブレが大きくなってしまう。このブレが大きい画像を用いた場合には、画像処理結果としての角度分解能や対象物の認識精度が低下してしまう。   In addition, in a conventional mobile robot that walks without moving the center of gravity to the left and right, if the number of captured images is simply increased, there are the following problems. That is, for example, when the tip of a leg of a legged mobile robot lands or when a wheeled robot passes through a step, the visual sensor vibrates due to the impact, so an image acquired by the vibrated visual sensor The blur will be larger. When an image having a large blur is used, the angular resolution and the recognition accuracy of the target object as image processing results are lowered.

そこで、本発明では、前記した問題を解決し、移動中の画像処理結果から画像のブレの影響を低減させつつ画像を処理するサンプリング回数を増加させることができる移動型ロボットを提供することを目的とする。   Accordingly, the present invention aims to solve the above-described problems and provide a mobile robot that can increase the number of times of sampling for processing an image while reducing the influence of image blurring from the result of image processing during movement. And

本発明は、前記目的を達成するために創案されたものであり、本発明のうち請求項1に記載の移動型ロボットは、外界の画像を取り込む視覚センサと、前記視覚センサによって取り込んだ画像を処理する画像制御処理部と、自律的に移動する機能を有する自律的移動手段と、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を記憶する記憶部と、前記移動計画情報に基づいて当該移動型ロボットの移動を制御する指令を前記自律的移動手段に出力する移動制御部とを有した移動型ロボットにおいて、前記移動計画情報を前記画像制御処理部に通知する移動計画情報通知部を備え、前記画像制御処理部は、前記移動計画情報に基づいて、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングにて、前記視覚センサによって取り込んだ画像を処理することを特徴とする。   The present invention was created to achieve the above object, and the mobile robot according to claim 1 of the present invention includes a visual sensor that captures an image of the outside world, and an image captured by the visual sensor. Including an image control processing unit to be processed, autonomous moving means having a function of moving autonomously, and timing information estimated that a value indicating blurring of an image captured by the visual sensor is larger than a predetermined value In the mobile robot, comprising: a storage unit that stores movement plan information; and a movement control unit that outputs a command for controlling movement of the mobile robot based on the movement plan information to the autonomous movement unit. A movement plan information notifying unit for notifying the image control processing unit of the plan information, and the image control processing unit uses the visual sensor based on the movement plan information. Value indicating the image blur captured Te is at a timing that is estimated to be less than a predetermined value, characterized by processing the image captured by the visual sensor.

かかる構成によれば、移動型ロボットは、移動計画情報通知部によって、視覚センサによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を画像制御処理部に通知し、画像制御処理部によって、取り込んだ画像のブレを示す値が所定の値以下になると推定される画像を処理する。したがって、移動型ロボットは、移動中の画像処理結果から画像のブレの影響を低減することができる。ここで、自律的に移動する機能を有する自律的移動手段とは、例えば、脚部、車輪、無限軌道等によるものを含む。また、取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングは、例えば、当該移動ロボットの動作目的、動作機能、性能、自律的移動手段の種類等に応じて予め定められた規則によって求められる。   According to such a configuration, the mobile robot receives the movement plan information including timing information estimated by the movement plan information notification unit as a value indicating blurring of the image captured by the visual sensor is greater than a predetermined value. The control processing unit is notified, and the image control processing unit processes an image estimated to have a value indicating blurring of the captured image equal to or less than a predetermined value. Therefore, the mobile robot can reduce the influence of image blur from the image processing result during movement. Here, the autonomous moving means having the function of moving autonomously includes, for example, those using legs, wheels, endless tracks, and the like. The timing at which the value indicating the blur of the captured image is estimated to be larger than a predetermined value is determined in advance according to, for example, the operation purpose, operation function, performance, type of autonomous moving means, etc. of the mobile robot. Required by the rules established.

また、請求項2に記載の移動型ロボットは、請求項1に記載の移動型ロボットであって、前記自律的移動手段が、脚部と、前記脚部を駆動する自律移動制御部とを有し、前記移動計画情報に含まれるタイミングの情報が、前記脚部の予定着地時期の情報であり、前記移動計画情報通知部が、前記脚部の予定着地時期の情報を前記画像制御処理部に通知する予定着地時期通知部を備え、前記画像制御処理部は、前記脚部の予定着地時期の情報に基づいて前記脚部の先端が着地する前後の、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングにて、前記視覚センサによって取り込んだ画像を処理することを特徴とする。   The mobile robot according to claim 2 is the mobile robot according to claim 1, wherein the autonomous movement means includes a leg portion and an autonomous movement control unit that drives the leg portion. The timing information included in the movement plan information is information on the planned landing time of the leg, and the movement plan information notification unit sends the information on the planned landing time of the leg to the image control processing unit. A scheduled landing time notification unit for notifying, and the image control processing unit blurs an image captured by the visual sensor before and after the tip of the leg is landed based on information on the planned landing time of the leg. The image captured by the visual sensor is processed at a timing when the indicated value is estimated to be equal to or less than a predetermined value.

かかる構成によれば、移動型ロボットは、予定着地時期通知部によって、脚部の予定着地時期の情報を画像制御処理部に通知し、画像制御処理部によって、脚部の先端が着地する前後の、視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングの画像を処理する。したがって、移動型ロボットは、移動中の画像処理結果から画像のブレの影響を低減することができる。ここで、脚部による移動とは、例えば、歩行、走行、その場で足踏み等、脚部の先端が着地、沈み込み、蹴り上げの各動作を行うことを示す。また、着地時期は、例えば、着地の瞬間、沈み込み期間、蹴り上げ期間のように区分することができる。脚部の先端が着地する前後のタイミングは、着地時期と次の着地時期との間であることが好ましいが、着地時期において沈み込み期間から蹴り上げ期間に切り替わるタイミングであってもよい。また、取り込んだ画像を処理するタイミングを複数とする場合に、等間隔にすることが好ましい。   According to such a configuration, the mobile robot notifies the image control processing unit of the information on the planned landing time of the leg by the planned landing time notification unit, and before and after the tip of the leg is landed by the image control processing unit. Then, an image at a timing when it is estimated that a value indicating blurring of the image captured by the visual sensor is equal to or less than a predetermined value is processed. Therefore, the mobile robot can reduce the influence of image blur from the image processing result during movement. Here, the movement by the leg means that the tip of the leg performs each operation of landing, sinking, and kicking up, for example, walking, running, and stepping on the spot. Further, the landing time can be classified as, for example, the moment of landing, the sinking period, and the kicking period. The timing before and after the tip of the leg lands is preferably between the landing timing and the next landing timing, but may be a timing at which the landing timing switches from the sinking period to the kicking period. Further, when a plurality of timings are used for processing the captured image, it is preferable that the intervals be equal.

また、請求項3に記載の移動型ロボットは、請求項2に記載の移動型ロボットであって、前記画像制御処理部が、前記予定着地時期に基づいて、前記視覚センサによって画像を取り込む時期を示す画像取込時期を決定する画像取込計画処理部と、前記画像取込時期になったか否かを判別する画像取込時期判別部と、前記画像取込時期になったときに取込トリガを生成して前記視覚センサに出力する取込トリガ生成部と、前記画像取込時期に取り込んだ画像を処理する画像処理部とを備えることを特徴とする。   The mobile robot according to claim 3 is the mobile robot according to claim 2, wherein the image control processing unit sets a time when the image is captured by the visual sensor based on the scheduled landing time. An image capture plan processing unit for determining an image capture time to be displayed, an image capture time determination unit for determining whether or not the image capture time has come, and a capture trigger when the image capture time has come And a capture trigger generation unit that outputs the generated image to the visual sensor and an image processing unit that processes an image captured at the image capture time.

かかる構成によれば、移動型ロボットは、画像取込計画処理部によって、予定着地時期に基づいて画像取込時期を決定し、画像取込時期になったときに、取込トリガ生成部によって、取込トリガを視覚センサに出力する。したがって、脚部の先端が着地する前後の画像を取り込むように画像取込時期を決定することで、取り込んだ画像におけるブレを低減することができる。ここで、移動型ロボットが、例えば2足歩行を行う場合には、脚部の一方の足が躯体を支持して他方の足が接地していないときに、他方の足を着地する前の1以上のタイミングを画像取込時期に設定することができる。続いて、一方の足を着地する前の1以上のタイミングを画像取込時期に設定することができる。以下同様に、交互に足を着地する前の1以上のタイミングを画像取込時期に設定することができる。   According to such a configuration, the mobile robot determines the image capture time based on the planned landing time by the image capture plan processing unit, and when the image capture time comes, the capture trigger generation unit Output capture trigger to visual sensor. Therefore, it is possible to reduce blurring in the captured image by determining the image capture time so as to capture the images before and after the tip of the leg portion lands. Here, when the mobile robot performs, for example, biped walking, when one leg of the leg portion supports the skeleton and the other leg is not in contact with the ground, 1 before landing the other leg. The above timing can be set as the image capture time. Subsequently, one or more timings before landing one leg can be set as the image capture timing. Similarly, one or more timings before alternately landing on the foot can be set as the image capture timing.

また、請求項4に記載の移動型ロボットは、請求項3に記載の移動型ロボットであって、前記移動計画情報が、前記予定着地時期の情報に予め対応付けられた画像のブレを示す値が所定の値以下である時刻と、当該ロボットの移動速度との相関関係を含み、前記移動計画情報通知部が、前記相関関係を前記画像制御処理部に通知する速度相関通知部をさらに備え、前記画像取込計画処理部が、前記予定着地時期の情報と前記相関関係とを取得すると共に、当該ロボットの移動中にその移動速度を取得し、前記取得した移動速度に応じて前記相関関係を用いて、前記取得した予定着地時期の情報から、前記画像のブレを示す値が所定の値以下である時刻を、前記画像取込時期として決定することを特徴とする。   Further, the mobile robot according to claim 4 is the mobile robot according to claim 3, wherein the movement plan information is a value indicating blurring of an image previously associated with the information on the scheduled landing time. Including a correlation between a time at which the value is equal to or less than a predetermined value and the moving speed of the robot, and the movement plan information notification unit further includes a speed correlation notification unit that notifies the image control processing unit of the correlation. The image capture plan processing unit acquires the information on the scheduled landing time and the correlation, acquires the movement speed during the movement of the robot, and determines the correlation according to the acquired movement speed. And a time at which a value indicating blurring of the image is equal to or less than a predetermined value is determined as the image capturing time from the acquired information on the scheduled landing time.

かかる構成によれば、移動型ロボットは、画像取込計画処理部によって、予定着地時期に加えて移動速度に基づいて画像取込時期を決定し、画像取込時期になったときに、取込トリガ生成部によって、取込トリガを視覚センサに出力する。したがって、移動型ロボットは、脚部の先端が着地する前後であって移動速度に好適な画像を取り込むように画像取込時期を決定することで、取り込んだ画像におけるブレを低減することができる。ここで、例えば、脚部の先端が着地する直前のタイミングを画像取込時期としているときに移動速度を高めた場合には、速度変更前の画像取込時期よりもタイミングを早めることができる。   According to such a configuration, the mobile robot determines the image capture time based on the moving speed in addition to the planned landing time by the image capture plan processing unit, and captures when the image capture time comes. The trigger generation unit outputs a capture trigger to the visual sensor. Therefore, the mobile robot can reduce the blurring in the captured image by determining the image capture timing so that an image suitable for the moving speed is captured before and after the tip of the leg portion lands. Here, for example, when the moving speed is increased when the timing immediately before the tip of the leg lands is set as the image capture timing, the timing can be made earlier than the image capture timing before the speed change.

また、請求項5に記載の移動型ロボットは、請求項3または請求項4に記載の移動型ロボットであって、前記移動計画情報が、当該移動型ロボットの移動中における前記視覚センサの姿勢を示す姿勢情報として事前に測定された測定値を含み、前記移動計画情報通知部が、前記測定値を前記画像制御処理部に通知する姿勢測定値通知部をさらに備え、前記画像取込計画処理部が、前記予定着地時期の情報と前記測定値とを取得すると共に、前記取得した測定値と予定着地時期の情報とから推定される移動中における前記視覚センサの姿勢の推定値を求め、前記推定値が、前記視覚センサの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期を前記画像取込時期として決定することを特徴とする。   The mobile robot according to claim 5 is the mobile robot according to claim 3 or 4, wherein the movement plan information indicates the posture of the visual sensor during the movement of the mobile robot. The movement plan information notification unit further includes a posture measurement value notification unit that notifies the image control processing unit of the measurement value, including a measurement value measured in advance as the posture information to be displayed, and the image capture plan processing unit Obtaining the estimated landing time information and the measured value, obtaining an estimated value of the posture of the visual sensor during movement estimated from the acquired measured value and the scheduled landing time information, and A time when the value falls within a predetermined range assuming that the value indicating the vibration of the visual sensor is equal to or less than a predetermined value is determined as the image capture time.

かかる構成によれば、移動型ロボットは、画像取込計画処理部によって、予定着地時期に加えて視覚センサの姿勢情報に基づいて画像取込時期を決定し、画像取込時期になったときに、取込トリガ生成部によって、取込トリガを視覚センサに出力する。画像取込計画処理部は、予定着地時期の脚部の先端が着地する前後のタイミングにおいて、姿勢情報についての推定値が、視覚センサの振動を示す値が所定の値以下である時期を画像取込時期とする。したがって、移動型ロボットは、脚部の先端が着地する前後であって視覚センサの姿勢に好適な画像を取り込むように画像取込時期を決定することで、取り込んだ画像におけるブレを低減することができる。ここで、姿勢情報は、視覚センサの姿勢として、例えばピッチ角の角速度(回転角速度)の情報を含むことができる。この角速度の場合には、その絶対値が予め定められた値以下となるように画像取込時期を決定することができる。   According to this configuration, the mobile robot determines the image capture time based on the posture information of the visual sensor in addition to the planned landing time by the image capture plan processing unit, and when the image capture time comes Then, the capture trigger generator outputs the capture trigger to the visual sensor. The image capture plan processing unit captures the time when the estimated value of the posture information is a value that indicates the vibration of the visual sensor is equal to or less than a predetermined value at the timing before and after the tip of the leg of the planned landing time is landed. It is time to include. Therefore, the mobile robot can reduce blurring in the captured image by determining the image capture timing so that an image suitable for the posture of the visual sensor is captured before and after the tip of the leg is landed. it can. Here, the posture information can include, for example, information on the angular velocity (rotational angular velocity) of the pitch angle as the posture of the visual sensor. In the case of this angular velocity, the image capture timing can be determined so that the absolute value thereof is not more than a predetermined value.

また、請求項6に記載の移動型ロボットは、請求項2に記載の移動型ロボットであって、前記画像制御処理部が、前記脚部の先端が着地する瞬間を起点にして画像のブレを示す値が所定の値よりも大きくなると推定される予め定められた時間範囲を示す緩衝時期になったか否かを判別する緩衝時期判別部と、前記視覚センサによって周期的に取り込んだ画像のうち前記緩衝時期以外の時期に取り込んだ画像を処理する画像処理部とを備えることを特徴とする。   The mobile robot according to claim 6 is the mobile robot according to claim 2, wherein the image control processing unit starts image blurring from a moment when a tip of the leg portion lands. A buffer timing discriminating unit for discriminating whether or not a buffer timing indicating a predetermined time range estimated to be greater than a predetermined value is reached; and the image periodically captured by the visual sensor And an image processing unit for processing an image captured at a time other than the buffering time.

かかる構成によれば、移動型ロボットは、視覚センサによって周期的に画像を取り込みつつ、緩衝時期判別部によって、画像のブレが所定の値よりも大きくなると推定される緩衝時期ではないと判別したときに、画像処理部によって、視覚センサから周期的に取り込んだ画像を処理する。したがって、移動型ロボットは、移動中の画像処理結果から画像のブレの影響を低減できる。   According to this configuration, when the mobile robot periodically captures an image with the visual sensor and the buffer time determination unit determines that the buffer time is not estimated to be greater than a predetermined value, the image blur is greater than a predetermined value. In addition, the image processing unit processes an image periodically captured from the visual sensor. Therefore, the mobile robot can reduce the influence of image blur from the result of image processing during movement.

また、請求項7に記載の移動型ロボットは、請求項6に記載の移動型ロボットであって、前記緩衝時期判別部が、当該ロボットの移動中にその移動速度を取得し、当該ロボットの移動速度が速いほど短くなるように定められた複数の前記緩衝時期の候補の中から、前記取得した移動速度に応じた緩衝時期を選択し、前記選択された緩衝時期になったか否かを判別した結果を前記画像処理部に出力することを特徴とする。   The mobile robot according to claim 7 is the mobile robot according to claim 6, wherein the buffer timing determination unit acquires the movement speed during the movement of the robot and moves the robot. A buffering time corresponding to the acquired moving speed is selected from a plurality of buffering time candidates determined to be shorter as the speed is higher, and it is determined whether or not the selected buffering time is reached. The result is output to the image processing unit.

かかる構成によれば、移動型ロボットは、緩衝時期判別部によって、移動速度が速いほど短くなるように定められた複数の緩衝時期の候補の中からロボットの移動速度に応じた緩衝時期を選択する。したがって、移動型ロボットは、移動速度に応じた画像処理結果から画像のブレの影響を低減できる。   According to such a configuration, the mobile robot selects a buffering time according to the moving speed of the robot from among a plurality of buffering time candidates determined by the buffering time determination unit so as to decrease as the moving speed increases. . Therefore, the mobile robot can reduce the influence of image blurring from the image processing result corresponding to the moving speed.

本発明によれば、移動型ロボットは、移動制御部が自律的移動手段に出力する指令を生成するために保有している移動計画情報を用いて、外界の画像として、視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングにて画像を処理するので、移動中の画像処理結果から画像のブレの影響を低減することができる。また、移動型ロボットは、移動中に画像のブレを低減させつつ画像を処理するサンプリング回数を増加させることができる。その結果、移動型ロボットは、高速移動時においても、画像処理により画像中の対象物の認識や画像中の対象物までの距離情報を精度よく求めることが可能となる。   According to the present invention, the mobile robot uses an image captured by a visual sensor as an image of the outside world using the movement plan information possessed in order to generate a command that the movement control unit outputs to the autonomous moving means. Since the image is processed at the timing when it is estimated that the value indicating the image blur is equal to or less than the predetermined value, it is possible to reduce the influence of the image blur from the image processing result during movement. In addition, the mobile robot can increase the number of samplings for processing an image while reducing image blurring during movement. As a result, the mobile robot can accurately determine the object in the image and the distance information to the object in the image by image processing even during high-speed movement.

以下、図面を参照して本発明の移動型ロボット(以下「ロボット」という)を実施するための最良の形態(以下「実施形態」という)について第1実施形態と第2実施形態に分けて詳細に説明する。まず、本発明の第1および第2実施形態に係るロボットの全体構成について説明し、次いで、第1実施形態に係るロボットの要部、第2実施形態に係るロボットの要部について順次説明する。   Hereinafter, the best mode (hereinafter referred to as “embodiment”) for carrying out the mobile robot (hereinafter referred to as “robot”) of the present invention with reference to the drawings will be described in detail in the first embodiment and the second embodiment. Explained. First, the overall configuration of the robot according to the first and second embodiments of the present invention will be described, and then the main part of the robot according to the first embodiment and the main part of the robot according to the second embodiment will be sequentially described.

(ロボットの全体構成)
図1は、本発明の第1および第2実施形態に係るロボットの構成を模式的に示すブロック図であり、図2は、その外観を模式的に示す図である。ここでは、自律移動型の脚式の2足歩行ロボットを一例として説明する。ロボットRは、ロボット制御装置1から入力された実行命令に従ってタスクを実行するものである。タスクには、例えば、来訪者(人物)Hを会議室などの所定の場所に案内するという内容のタスク(案内タスク)や、荷物をある人に渡すという内容のタスク(荷物配達タスク)等が存在する。図2では、ロボットRが例えば廊下等のタスク実行エリアで案内タスクを実行している様子を示している。
(Whole structure of robot)
FIG. 1 is a block diagram schematically illustrating the configuration of the robot according to the first and second embodiments of the present invention, and FIG. 2 is a diagram schematically illustrating the appearance thereof. Here, an autonomous mobile legged biped robot will be described as an example. The robot R executes a task in accordance with an execution command input from the robot control device 1. The tasks include, for example, a task (guidance task) for guiding a visitor (person) H to a predetermined place such as a conference room, a task for delivering a package to a person (package delivery task), and the like. Exists. FIG. 2 shows a state where the robot R is executing a guidance task in a task execution area such as a hallway.

ロボットRは、図2に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5を有しており、胴部R4にそれぞれ接続された頭部R1、腕部R2、脚部R3は、それぞれアクチュエータ(駆動手段)により駆動され、自律移動制御部50(図1参照)により2足歩行の制御がなされる。   As shown in FIG. 2, the robot R has a head R1, an arm R2, a leg R3, a torso R4, and a rear housing R5, and the head R1 and arms connected to the torso R4, respectively. The part R2 and the leg part R3 are each driven by an actuator (drive means), and the bipedal walking is controlled by the autonomous movement control part 50 (see FIG. 1).

ロボットRは、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5に加えて、これら各部R1〜R5の適所に、図1に示すように、カメラC,C、画像制御処理部10、音声処理部20、主記憶部30、主制御部40、自律移動制御部50、無線通信部60、対象検知部70、周辺状態検知部80および姿勢検知部90を有する。また、ロボットRにおいて、自律移動制御部50と脚部R3とにより、自律的移動手段が構成される。   In addition to the head R1, the arm R2, the leg R3, the trunk R4, and the rear housing part R5, the robot R has cameras C, C, images as shown in FIG. It includes a control processing unit 10, a voice processing unit 20, a main storage unit 30, a main control unit 40, an autonomous movement control unit 50, a wireless communication unit 60, a target detection unit 70, a surrounding state detection unit 80, and a posture detection unit 90. In the robot R, the autonomous movement control unit 50 and the leg R3 constitute an autonomous moving means.

カメラ(視覚センサ)C,Cは、外界の画像として、ロボットRの前方移動方向側の映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像制御処理部10に出力される。このカメラC,Cは、頭部R1の内部に配設される。   Cameras (visual sensors) C and C can capture, as digital data, images of the robot R moving in the forward direction as external images. For example, a color CCD (Charge-Coupled Device) camera is used. The The cameras C and C are arranged side by side in parallel on the left and right, and the captured image is output to the image control processing unit 10. The cameras C and C are disposed inside the head R1.

画像制御処理部10は、カメラC,Cによって取り込んだ画像(撮影画像)を処理して、撮影画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。画像制御処理部10の詳細については後記する。   The image control processing unit 10 processes images (captured images) captured by the cameras C and C, and recognizes surrounding obstacles and persons in order to grasp the situation around the robot R from the captured images. is there. Details of the image control processing unit 10 will be described later.

音声処理部20は、主制御部40からの発話指令に基づいて図示しないスピーカに音声を出力したり、図示しないマイクから入力された音声データから文字情報(テキストデータ)を生成して主制御部40に出力したりするものである。   The voice processing unit 20 outputs voice to a speaker (not shown) based on an utterance command from the main control unit 40, or generates character information (text data) from voice data input from a microphone (not shown). Or output to 40.

主記憶部30は、例えば、一般的なハードディスク等から構成され、ロボット制御装置1から送信された必要な情報(ローカル地図データ、会話用データなど)を記憶するものである。また、主記憶部30は、後記するように、主制御部40の各種動作を行うために必要な情報を記憶している。主記憶部30は、例えば、カメラC,Cによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を記憶する。ここで、取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングは、例えば、ロボットRの動作目的、動作機能、性能、自律的移動手段の種類等に応じて予め定められた規則によって求められる。また、タイミングの推定自体は、移動前に予め行ってもよいし、予め定められた規則にしたがって何らかの情報の検出結果に基づいて移動中に行ってもよい。本実施形態では、取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報として脚部R3の予定着地時期の情報を、移動計画情報に含むこととした。   The main storage unit 30 is composed of, for example, a general hard disk or the like, and stores necessary information (local map data, conversation data, etc.) transmitted from the robot control device 1. In addition, as will be described later, the main storage unit 30 stores information necessary for performing various operations of the main control unit 40. The main storage unit 30 stores, for example, movement plan information including timing information estimated that a value indicating blurring of images captured by the cameras C and C is larger than a predetermined value. Here, the timing at which the value indicating the blur of the captured image is estimated to be larger than a predetermined value is determined in advance according to, for example, the operation purpose, operation function, performance, type of autonomous moving means of the robot R, and the like. Required by the rules established. The timing estimation itself may be performed in advance before the movement, or may be performed during the movement based on a detection result of some information according to a predetermined rule. In the present embodiment, information on the scheduled landing time of the leg portion R3 is included in the movement plan information as information on the timing at which the value indicating the blur of the captured image is estimated to be larger than a predetermined value.

主制御部40は、画像制御処理部10、音声処理部20、主記憶部30、自律移動制御部50、無線通信部60、対象検知部70、周辺状態検知部80および姿勢検知部90を統括制御するものである。この主制御部40は、例えば、ロボット制御装置1と通信を行うための制御、ロボット制御装置1から取得したタスク実行命令に基づいて所定のタスクを実行するための制御、ロボットRを目的地に移動させるための制御等を行うために、種々の判断を行ったり、各部の動作のための指令を生成したりする。   The main control unit 40 controls the image control processing unit 10, the sound processing unit 20, the main storage unit 30, the autonomous movement control unit 50, the wireless communication unit 60, the target detection unit 70, the surrounding state detection unit 80, and the posture detection unit 90. It is something to control. The main control unit 40 includes, for example, control for communicating with the robot control device 1, control for executing a predetermined task based on a task execution command acquired from the robot control device 1, and using the robot R as a destination. In order to perform control and the like for movement, various determinations are made and commands for the operation of each unit are generated.

自律移動制御部50は、主制御部40の指示に従い頭部R1、腕部R2、脚部R3および胴部R4を駆動するものである。この自律移動制御部50は、図示を省略するが、頭部R1の首関節を駆動させる首制御部、腕部R2の手の先の指関節を駆動させる手制御部、腕部R2の肩関節、肘関節、手首関節を駆動させる腕制御部、脚部R3に対して胴部R4を水平方向に回転駆動させる腰制御部、脚部R3の股関節、膝関節、足首関節を駆動させる足制御部を有している。これら首制御部、手制御部,腕制御部、腰制御部および足制御部は、頭部R1、腕部R2、脚部R3および胴部R4を駆動するアクチュエータに駆動信号を出力する。   The autonomous movement control unit 50 drives the head R1, the arm R2, the leg R3, and the trunk R4 in accordance with instructions from the main control unit 40. Although not shown, the autonomous movement control unit 50 includes a neck control unit that drives the neck joint of the head R1, a hand control unit that drives the finger joint at the tip of the arm R2, and a shoulder joint of the arm unit R2. , Arm control unit for driving the elbow joint and wrist joint, waist control unit for rotating the torso R4 horizontally with respect to the leg R3, foot control unit for driving the hip joint, knee joint and ankle joint of the leg R3 have. The neck control unit, hand control unit, arm control unit, waist control unit, and foot control unit output drive signals to actuators that drive the head R1, arm R2, leg R3, and torso R4.

無線通信部60は、ロボット制御装置1とデータの送受信を行う通信装置である。無線通信部60は、例えば、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線や、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信を選択して利用する。   The wireless communication unit 60 is a communication device that transmits and receives data to and from the robot control device 1. The wireless communication unit 60 selects and uses near field communication such as a public line such as a mobile phone line or a PHS (Personal Handyphone System) line or a wireless LAN compliant with the IEEE802.11b standard.

対象検知部70は、ロボットRの周囲にタグTを備える人物が存在するか否かを検知するものである。対象検知部70は、例えば、LEDから赤外光を発信し、この赤外光を受信したタグTで生成された受信報告信号を受信することにより、ロボットRから視てどの方向にタグTを備える人物が存在するかを特定する。また、対象検知部70は、タグTから取得した受信報告信号の電波強度に基づいて、タグTを備える人物までの距離を特定する。   The target detection unit 70 detects whether or not there is a person with the tag T around the robot R. For example, the object detection unit 70 emits infrared light from the LED and receives a reception report signal generated by the tag T that has received the infrared light. Specify whether there is a person to prepare for. In addition, the target detection unit 70 specifies the distance to the person including the tag T based on the radio wave intensity of the reception report signal acquired from the tag T.

周辺状態検知部80は、ロボットRの周辺状態を検知するものであり、床面の探索域に向かってスリット状のレーザ光や赤外線を照射して床面を撮像した画像を解析して路面状態を検出する。また、周辺状態検知部80は、床面の探索域に赤外線を照射したときの画像を解析してマークM(図2参照)を検出し、検出されたマークMの位置(座標)からマークMとロボットRとの相対的な位置関係を計算する。   The peripheral state detection unit 80 detects the peripheral state of the robot R, analyzes the image obtained by irradiating a slit-like laser beam or infrared ray toward the search area of the floor surface, and images the floor surface to analyze the road surface state. Is detected. In addition, the peripheral state detection unit 80 detects the mark M (see FIG. 2) by analyzing the image when the search area on the floor surface is irradiated with infrared rays, and detects the mark M from the position (coordinates) of the detected mark M. And the relative positional relationship between the robot R and the robot R are calculated.

姿勢検知部90は、例えば、ロボットRの向いている方向を検出するジャイロセンサや、予め設定された地図上におけるロボットRの存在する位置座標を取得するためのGPS(Global Positioning System)受信器を有している。姿勢検知部90で検知されたデータは、主制御部40に出力され、ロボットRの行動を決定するために利用される。   The posture detection unit 90 includes, for example, a gyro sensor that detects the direction in which the robot R is facing, and a GPS (Global Positioning System) receiver that acquires the position coordinates of the robot R on a preset map. Have. Data detected by the posture detection unit 90 is output to the main control unit 40 and used to determine the behavior of the robot R.

(第1実施形態)
次に、第1実施形態に係るロボットの要部について図3を参照(適宜図1および図2参照)して説明する。図3は、本発明の第1実施形態に係るロボットの要部を模式的に示すブロック図である。
(First embodiment)
Next, the main part of the robot according to the first embodiment will be described with reference to FIG. 3 (see FIGS. 1 and 2 as appropriate). FIG. 3 is a block diagram schematically showing the main part of the robot according to the first embodiment of the present invention.

<主制御部の構成例>
主制御部40は、図3に示すように、行動生成部41と、移動制御部42と、移動計画情報通知部43とを含んでいる。
<Configuration example of main control unit>
As shown in FIG. 3, the main control unit 40 includes an action generation unit 41, a movement control unit 42, and a movement plan information notification unit 43.

行動生成部41は、ロボットRの移動や発話等の行動パターンを実行するための各種プログラム(モジュール)を格納すると共に、この行動パターンを実行するときに、主記憶部30を参照して、必要な情報(ローカル地図データ、会話用データなど)を行動パターンに反映するものである。行動生成部41は、各種モジュールを所定のスケジュールで実行する行動計画も管理する。モジュールの例としては、目的地移動モジュール、局所回避モジュール、配達タスク実行モジュール、案内タスク実行モジュール、人対応モジュール等がある。この行動生成部41は、画像制御処理部10から取得した画像認識結果(認識された顔の位置等)や距離情報を、ロボットRが移動するときの情報として、また、認識された人物とのコミュニケーションを取るために利用して、行動パターンを実行する。   The behavior generation unit 41 stores various programs (modules) for executing behavior patterns such as movement of the robot R and utterances, and refers to the main storage unit 30 when executing the behavior patterns. Information (local map data, conversation data, etc.) is reflected in the action pattern. The action generation unit 41 also manages an action plan for executing various modules according to a predetermined schedule. Examples of modules include a destination movement module, a local avoidance module, a delivery task execution module, a guidance task execution module, and a human correspondence module. The action generation unit 41 uses the image recognition result (recognized face position, etc.) and distance information acquired from the image control processing unit 10 as information when the robot R moves and with the recognized person. Use it to communicate and execute behavior patterns.

ここで、各モジュールについて簡単に説明する。目的地移動モジュールは、ロボットRの現在位置から、例えば、予め定められたタスク実行エリア内のタスク実行位置等の目的地までの経路探索(例えばノード間の経路を探索)及び移動を行うものである。この目的地移動モジュールは、地図データと現在位置とを参照しつつ、目的地までの最短距離を求める。局所回避モジュールは、周辺状態検知部80によって、進行方向に例えば段ボール等の障害物が検知されたときに、障害物を回避する迂回経路を探索するものである。配達タスク実行モジュールは、荷物配達タスクを実行するときに動作するものであり、物品の運搬を依頼する人物(依頼人)から物品を受け取る(把持する)動作や、受け取った物品を受取人に渡す(物品を手放す)動作を実行するものである。案内タスク実行モジュールは、例えば、タスク実行エリア内の案内開始地点に来訪した来訪客を所定位置へ案内するタスクを実行するものである。人対応モジュールは、例えば、荷物配達タスクや案内タスクの実行時に所定のシナリオに基づいて、発話、姿勢の変更、腕部R2の上下移動や把持等を行うものである。   Here, each module will be briefly described. The destination movement module performs route search (for example, search for a route between nodes) and movement from the current position of the robot R to a destination such as a task execution position in a predetermined task execution area. is there. This destination movement module obtains the shortest distance to the destination while referring to the map data and the current position. The local avoidance module searches for a detour path that avoids an obstacle when the surrounding state detection unit 80 detects an obstacle such as a cardboard in the traveling direction. The delivery task execution module operates when executing a package delivery task, and receives (holds) an article from a person (client) requesting transportation of the article, and delivers the received article to the recipient. The operation is performed (to release the article). The guidance task execution module executes, for example, a task for guiding a visitor who has visited a guidance start point in a task execution area to a predetermined position. The person handling module performs, for example, speech, posture change, vertical movement and gripping of the arm portion R2 based on a predetermined scenario when executing a package delivery task or a guidance task.

移動制御部42は、主記憶部30に記憶された移動計画情報に基づいてロボットRの移動を制御する指令を自律移動制御部50に出力するものである。本実施形態では、移動制御部42は、行動生成部41がロボットRの移動を伴う行動パターンを実行するときに、行動生成部41から移動計画情報を取得し、自律移動制御部50に指令を出す。移動計画情報は、脚部R3の予定着地時期の情報のほか、例えば、ロボットRの移動速度(目標速度)、目的地の位置情報、目的地までの経路情報等を含むことができる。   The movement control unit 42 outputs a command for controlling the movement of the robot R to the autonomous movement control unit 50 based on the movement plan information stored in the main storage unit 30. In the present embodiment, the movement control unit 42 acquires movement plan information from the behavior generation unit 41 when the behavior generation unit 41 executes a behavior pattern involving the movement of the robot R, and issues a command to the autonomous movement control unit 50. put out. The movement plan information can include, for example, the movement speed (target speed) of the robot R, the position information of the destination, the route information to the destination, etc., in addition to the information on the scheduled landing time of the leg R3.

ここで、脚部R3の予定着地時期の情報とは、時刻情報として、例えば次の(1)〜(3)を含むことができる。(1)脚部R3の先端(つま先または足平または踵)が着地する瞬間t1、(2)現在時刻t0から脚部R3の先端が着地する瞬間t1までの時間間隔Δt、(3)着地する瞬間t1と、次に着地する瞬間t2までの差分(着地周期)との両方。また、脚部R3の予定着地時期の情報とは、位置情報として、例えば、着地する瞬間t1に対応した、脚部R3の先端の次回位置の位置座標を含むことができる。なお、脚部R3の先端の次回位置は1〜2歩先の歩容計画で定められる。 Here, the information on the scheduled landing time of the leg R3 can include, for example, the following (1) to (3) as time information. (1) The instant t 1 when the tip (toe or foot or heel) of the leg R3 lands, (2) the time interval Δt from the current time t 0 to the instant t 1 when the tip of the leg R3 lands, (3 ) Both the landing instant t 1 and the difference (landing cycle) up to the next landing instant t 2 . In addition, the expected landing time of the information of the legs R3, as position information, e.g., corresponding to the instant t 1 the lands may include a position coordinate of the next position of the tip of the leg R3. The next position of the tip of the leg R3 is determined by a gait plan that is one or two steps ahead.

本実施形態では、移動計画情報には、さらに、予定着地時期の情報に予め対応付けられたカメラC,Cで撮影した画像のブレを示す値が所定の値以下である時刻と、ロボットRの移動速度との相関関係(以下、「着地−速度」相関という)を含むこととした。ここで、「着地−速度」相関は、例えば、時速2.7[km/h]の歩行時のときには画像のブレを示す値が所定の値以下である時刻は着地の瞬間からP[ms]後、時速6[km/h]の走行時のときには画像のブレを示す値が所定の値以下である時刻は着地の瞬間からQ[ms]後のように、移動速度に応じて、予め作成されたテーブルまたは所定の決定関数により算出可能となっている。   In the present embodiment, the movement plan information further includes a time when a value indicating blurring of images taken by the cameras C, C previously associated with the information on the scheduled landing time is equal to or less than a predetermined value, and the robot R The correlation with the moving speed (hereinafter referred to as “landing-speed” correlation) was included. Here, the “landing-speed” correlation is such that, for example, when walking at a speed of 2.7 [km / h] per hour, the time when the image blurring value is equal to or less than a predetermined value is P [ms] from the moment of landing. Later, when traveling at a speed of 6 km / h, the time when the image blurring value is equal to or less than a predetermined value is created in advance according to the moving speed, such as Q [ms] after the moment of landing. It is possible to calculate with a determined table or a predetermined decision function.

また、本実施形態では、移動計画情報には、さらに、ロボットRの移動中におけるカメラC,Cの姿勢を示す姿勢情報として事前に測定された測定値(以下、カメラ姿勢事前測定値という)を含むこととした。このカメラ姿勢事前測定値として、本実施形態では、カメラC,Cのピッチ角の角速度の情報を用いることとした。   In the present embodiment, the movement plan information further includes measurement values (hereinafter referred to as camera posture advance measurement values) measured in advance as posture information indicating the postures of the cameras C and C while the robot R is moving. Included. In this embodiment, information on the angular velocity of the pitch angle of the cameras C and C is used as the camera posture prior measurement value.

移動制御部42は、自律移動制御部50から、脚部R3の動作状態に関する情報を取得し、ロボットRの現在の移動速度を検知する。また、移動制御部42は、行動生成部41を介して、画像制御処理部10から取得した画像認識結果を取得することで、例えば人物等の対象物との相対距離に応じてロボットRの移動速度を変更する制御を行う。   The movement control unit 42 acquires information related to the operation state of the leg R3 from the autonomous movement control unit 50, and detects the current movement speed of the robot R. In addition, the movement control unit 42 acquires the image recognition result acquired from the image control processing unit 10 via the behavior generation unit 41, so that the movement of the robot R according to the relative distance to an object such as a person is obtained. Control to change the speed.

なお、移動制御部42は、自律移動制御部50に出力する指令により、脚部R3のみを制御するのではなく、頭部R1や腕部R2も制御させることで、重心移動を制御する。この移動制御部42は、姿勢検知部90から、ロボットRの姿勢に関する情報を取得し、自律移動制御部50に出力する指令に反映することで、例えば、コーナリング走行時の重心移動をスムーズにする。   Note that the movement control unit 42 controls the movement of the center of gravity by controlling not only the leg portion R3 but also the head portion R1 and the arm portion R2 by a command output to the autonomous movement control unit 50. The movement control unit 42 acquires information related to the posture of the robot R from the posture detection unit 90 and reflects it in a command output to the autonomous movement control unit 50, for example, to smoothly move the center of gravity during cornering traveling. .

移動計画情報通知部43は、移動計画情報を画像制御処理部10に通知するものである。本実施形態では、移動計画情報通知部43は、図3に示すように、予定着地時期通知部43aと、速度相関通知部43bと、姿勢測定値通知部43cとを備えている。予定着地時期通知部43aは、脚部R3の予定着地時期の情報を画像制御処理部10に通知するものである。速度相関通知部43bは、前記した「着地−速度」相関を画像制御処理部10に通知するものである。姿勢測定値通知部43cは、カメラ姿勢事前測定値を画像制御処理部10に通知するものである。なお、移動計画情報通知部43は、移動制御部42から、ロボットRの現在の移動速度の情報を取得し、画像制御処理部10に通知する。   The movement plan information notification unit 43 notifies the image control processing unit 10 of movement plan information. In the present embodiment, the movement plan information notification unit 43 includes a scheduled landing time notification unit 43a, a speed correlation notification unit 43b, and a posture measurement value notification unit 43c, as shown in FIG. The scheduled landing time notification unit 43a notifies the image control processing unit 10 of information on the planned landing time of the leg R3. The speed correlation notification unit 43b notifies the image control processing unit 10 of the above-described “landing-speed” correlation. The posture measurement value notification unit 43c notifies the image control processing unit 10 of the camera posture preliminary measurement value. The movement plan information notification unit 43 acquires information about the current movement speed of the robot R from the movement control unit 42 and notifies the image control processing unit 10 of the information.

<画像制御処理部の構成例>
画像制御処理部10は、移動計画情報通知部43から取得した脚部R3の予定着地時期の情報、「着地−速度」相関、カメラ姿勢事前測定値に基づいて、脚部R3の先端が着地する瞬間を除くタイミングにて、カメラC,Cによって取り込んだ画像を処理する。第1実施形態と第2実施形態では、カメラC,Cの制御が異なっている。第1実施形態では、カメラC,Cは、画像制御処理部10からのトリガを受けたときに、画像を取り込むように制御されるものである。なお、図3では、第2実施形態と区別するためにカメラの符号をC0,C0と表記した。この画像制御処理部10は、図3に示すように、画像取込計画処理部11と、取込時期判別部12と、取込トリガ生成部13と、画像補正処理部14と、ステレオ画像処理部15と、画像認識処理部16とを備えている。
<Configuration Example of Image Control Processing Unit>
The image control processing unit 10 lands the tip of the leg R3 based on the information on the scheduled landing time of the leg R3 acquired from the movement plan information notification unit 43, the “landing-speed” correlation, and the camera posture premeasurement value. Images captured by the cameras C and C are processed at a timing other than the moment. The control of the cameras C and C differs between the first embodiment and the second embodiment. In the first embodiment, the cameras C and C are controlled to capture an image when receiving a trigger from the image control processing unit 10. In FIG. 3, the camera codes are denoted as C 0 and C 0 in order to distinguish them from the second embodiment. As shown in FIG. 3, the image control processing unit 10 includes an image capture plan processing unit 11, a capture time determination unit 12, a capture trigger generation unit 13, an image correction processing unit 14, and stereo image processing. Unit 15 and an image recognition processing unit 16.

画像取込計画処理部11は、予定着地時期に基づいて、カメラC,Cによって画像を取り込む時期を示す画像取込時期を決定するものである。本実施形態では、画像取込計画処理部11は、予定着地時期に加えて、ロボットRの移動速度およびカメラC,Cの姿勢情報に基づいて画像取込時期を決定する。   The image capture plan processing unit 11 determines an image capture time indicating the time when an image is captured by the cameras C and C based on the planned landing time. In the present embodiment, the image capture plan processing unit 11 determines the image capture time based on the moving speed of the robot R and the posture information of the cameras C and C in addition to the planned landing time.

具体的には、本実施形態では、画像取込計画処理部11は、移動計画情報として、予定着地時期の情報と、「着地−速度」相関とを取得すると共に、ロボットRの移動中にその移動速度を取得し、取得した移動速度に応じて、「着地−速度」相関を用いて、取得した予定着地時期の情報から、画像のブレを示す値が所定の値以下である時刻を、画像取込時期として決定する。   Specifically, in the present embodiment, the image capture plan processing unit 11 acquires information on the scheduled landing time and the “landing-speed” correlation as the movement plan information, and the robot R is moving during the movement. According to the acquired moving speed, the time at which the value indicating the blur of the image is equal to or less than a predetermined value is obtained from the acquired information on the scheduled landing time using the “landing-speed” correlation. It is determined as the capture time.

また、本実施形態では、画像取込計画処理部11は、カメラ姿勢事前測定値と取得した予定着地時期の情報とから推定される、移動中におけるカメラC,Cのピッチ角の角速度の推定値を求め、推定値が、カメラC,Cの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期を画像取込時期として決定する。   Further, in this embodiment, the image capture plan processing unit 11 estimates the angular velocity of the pitch angle of the cameras C and C during the movement, which is estimated from the camera posture preliminary measurement value and the acquired information on the scheduled landing time. The time when the estimated value falls within a predetermined range assuming that the value indicating the vibration of the cameras C and C is equal to or less than a predetermined value is determined as the image capture time.

ここで、画像取込時期の一例を説明する。図4は、頭部のピッチ角の角速度の時間変化の一例を示す図である。図4に示すグラフにおいて、横軸は時間、縦軸はロボットRの頭部R1がピッチ方向に振動するときに事前に角速度センサ(姿勢検出センサ)で測定した角速度(回転角速度)の検出値を示す。一例として、ロボットRが、歩幅450mmで時速2.7[km/h]の移動速度で歩行する場合の実験結果を示す。ロボットRは、時間が200[ms]であるときに一方の足(例えば左足)を着地し、800[ms]であるときに他方の足(例えば右足)を着地する。つまり、着地周期は600[ms]となる。着地周期には、その初期に予定着地時期の期間を含んでいる。本実施形態では、ロボットRが前進するときには足の踵(先端)が接地するときを着地の瞬間といい、このとき、着地後に足平の底面のほぼ全面が床に接地し、最後につま先が離床する。なお、ロボットRが後進するときには足のつま先(先端)が接地するときを着地の瞬間とする。ただし、これに限らず、踵やつま先と同時に足平の底面のほぼ全面が床に接地する形態では、足平が接地するときを着地の瞬間とする。   Here, an example of the image capture time will be described. FIG. 4 is a diagram illustrating an example of a temporal change in the angular velocity of the head pitch angle. In the graph shown in FIG. 4, the horizontal axis represents time, and the vertical axis represents the detected value of angular velocity (rotational angular velocity) measured in advance by an angular velocity sensor (attitude detection sensor) when the head R1 of the robot R vibrates in the pitch direction. Show. As an example, an experimental result when the robot R walks at a moving speed of 2.7 [km / h] at a step length of 450 mm is shown. The robot R will land on one leg (for example, the left leg) when the time is 200 [ms], and land on the other leg (for example, the right leg) when the time is 800 [ms]. That is, the landing period is 600 [ms]. The landing cycle includes a period of a scheduled landing time at an early stage. In this embodiment, when the robot R moves forward, the time when the heel (tip) of the foot touches the ground is called the moment of landing. At this time, almost the entire bottom surface of the foot touches the floor after landing, and finally the toes Get out of bed. When the robot R moves backward, the moment when the toes (tips) of the feet touch the ground is the moment of landing. However, the present invention is not limited to this, and in the form in which almost the entire bottom surface of the foot is in contact with the floor simultaneously with the heel and toes, the time when the foot contacts the ground is the moment of landing.

図4に示すように、着地の瞬間には、振動が大きいため、角速度の絶対値は大きい。しかしながら、この着地周期の初期において角速度の絶対値が非常に小さくなるタイミングもある。図4に示す着地周期において角速度が例えば0になるタイミングは8回存在する。これらのタイミングの少なくともいずれかを、カメラC,Cの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期とすることもできる。また、カメラC,Cの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期を、角速度が0となる時期に限定せずに、角速度の絶対値が予め定められた値以下となるようにすれば、より多くの画像取込時期を決定することも可能である。また、複数回の画像取込時期を決定する場合には、例えば、符号301,302,303で示すようにほぼ等間隔のタイミングを画像取込時期とすることが好ましい。また、この中で特に303で示すタイミングは、一方の足の着地後において他方の足の着地直前のタイミングを示しており、移動速度が高くなって着地周期が短くなった場合においても好適に画像を取り込むことができるので、画像取込時期として最も好ましい。なお、ロボットRが、歩幅525mmで時速6[km/h]の移動速度で走行する場合には、両足とも離床する期間として80[ms]の跳躍期があり、跳躍期には床反力を受けないので、この期間に1以上の画像取込時期を設定することが好ましい。   As shown in FIG. 4, the absolute value of the angular velocity is large because the vibration is large at the moment of landing. However, there is a timing at which the absolute value of the angular velocity becomes very small at the initial stage of the landing period. There are eight times when the angular velocity becomes 0, for example, in the landing cycle shown in FIG. At least one of these timings may be set to a time when the value indicating the vibration of the cameras C and C falls within a predetermined range as being a predetermined value or less. Further, the absolute value of the angular velocity is determined in advance without limiting the time when the value indicating the vibration of the cameras C and C is within a predetermined range as being equal to or less than a predetermined value to the time when the angular velocity is 0. It is possible to determine a larger number of image capture timings so as to be less than or equal to the given value. Further, when determining a plurality of times of image capture, for example, it is preferable to set substantially equal intervals as image capture timings as indicated by reference numerals 301, 302, and 303, for example. In particular, the timing indicated by 303 shows the timing immediately after the landing of one foot and immediately before the landing of the other foot, and is suitable for the case where the moving speed is increased and the landing cycle is shortened. Is most preferable as the image capture time. When the robot R travels with a stride of 525 mm and a moving speed of 6 km / h, there is a jump period of 80 [ms] as a period for getting out of both feet, and the floor reaction force is applied during the jump period. Therefore, it is preferable to set one or more image capture timings during this period.

図3に示す取込時期判別部12は、画像取込計画処理部11で決定された画像取込時期になったか否かを判別するものである。この判別結果は、取込トリガ生成部13に出力される。   The capture time determination unit 12 shown in FIG. 3 determines whether or not the image capture time determined by the image capture plan processing unit 11 has come. The determination result is output to the capture trigger generation unit 13.

取込トリガ生成部13は、画像取込時期になったときにそのことをカメラC,Cに通知して撮影させるためのトリガ(取込トリガ)を生成してカメラC,Cに出力するものである。本実施形態では、取込トリガ生成部13は、取込トリガをカメラC,Cに出力するときに、同時に別のトリガで画像認識処理部16に対して処理タイミングであることを通知する。   The capture trigger generation unit 13 generates a trigger (capture trigger) for notifying the cameras C and C when the image capture timing is reached and causing the cameras C and C to shoot and outputs the trigger to the cameras C and C. It is. In the present embodiment, when the capture trigger generation unit 13 outputs the capture trigger to the cameras C and C, the capture trigger generation unit 13 notifies the image recognition processing unit 16 of the processing timing with another trigger at the same time.

画像補正処理部(画像処理部)14は、画像取込時期に取り込んだ画像を処理するものである。画像補正処理部14は、カメラC,Cによって取り込んだ画像から、カメラC,Cのレンズによる歪の補正と、カメラC,Cのエピポーララインをそれぞれのカメラ画像の走査線に一致させる補正(レクティファイ)とを行うことで撮影画像を補正してステレオ画像処理部15に出力する。レンズの歪補正は、例えば、複数の直線を撮影してその画像内の線が直線になるように、5次程度の関数の近似式で中心からのずれを近似することにより行うことができる。また、画像補正処理部14は、カメラC,Cの内部パラメータ(レンズの焦点距離や、レンズの中心位置など)と外部パラメータ(カメラC,C外の3D基準点に対するレンズの主点位置など)を求めてから、それらの情報を使ってレクティファイを計算する。   The image correction processing unit (image processing unit) 14 processes an image captured at the image capturing time. The image correction processing unit 14 corrects distortion by the lenses of the cameras C and C from the images captured by the cameras C and C and corrects the epipolar lines of the cameras C and C to the scanning lines of the respective camera images (rectify). ), The captured image is corrected and output to the stereo image processing unit 15. Lens distortion correction can be performed, for example, by photographing a plurality of straight lines and approximating the deviation from the center with an approximate expression of a fifth order function so that the lines in the image become straight lines. The image correction processing unit 14 also includes internal parameters (such as the focal length of the lens and the center position of the lens) and external parameters (such as the main point position of the lens with respect to the 3D reference point outside the cameras C and C). Is used to calculate the rectify using that information.

ここで、画像補正の一例を簡単に説明する。図5には、市松模様を撮影した画像と、この画像の歪みを補正した画像の例を示す。平面に描かれた市松模様をカメラC,Cで正面から撮影すると、図5(a)に示すように、補正前には、左カメラ画像200Lおよび右カメラ画像200Rに樽形の歪みが生じている。図5(a)において、直線210は、左カメラ画像200Lおよび右カメラ画像200Rの同じ走査線を示している。右カメラ画像200Rでは、市松模様上の目印220の下縁が直線210に一致しているが、左カメラ画像200Lでは、目印220の下縁が直線210に一致していない。このような画像の歪みを補正すると、図5(b)に示すように、補正後には、左カメラ画像200Lおよび右カメラ画像200Rから樽形の歪みが除去される。また、図5(b)において、左右の画像の同じ走査線である直線230は、左右の画像において目印220の下縁に一致する。   Here, an example of image correction will be briefly described. FIG. 5 shows an example of an image obtained by photographing a checkered pattern and an image obtained by correcting the distortion of the image. When the checkered pattern drawn on the plane is photographed from the front by the cameras C and C, as shown in FIG. 5A, before the correction, the barrel-shaped distortion occurs in the left camera image 200L and the right camera image 200R. Yes. In FIG. 5A, a straight line 210 indicates the same scanning line of the left camera image 200L and the right camera image 200R. In the right camera image 200R, the lower edge of the mark 220 on the checkered pattern matches the straight line 210, but in the left camera image 200L, the lower edge of the mark 220 does not match the straight line 210. When such image distortion is corrected, as shown in FIG. 5B, after correction, barrel distortion is removed from the left camera image 200L and the right camera image 200R. In FIG. 5B, a straight line 230 that is the same scanning line of the left and right images coincides with the lower edge of the mark 220 in the left and right images.

図3に示すステレオ画像処理部(画像処理部)15は、画像取込時期に取り込んだ画像を処理するものである。ステレオ画像処理部15は、ステレオ処理として、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を画像認識処理部16に出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。また、ステレオ画像処理部15は、左右の画像中の対応する各画素の視差を計算した結果を距離情報として主制御部40に出力する。   A stereo image processing unit (image processing unit) 15 shown in FIG. 3 processes an image captured at the image capturing time. As a stereo process, the stereo image processing unit 15 performs pattern matching on the basis of one of the two images taken by the left and right cameras C and C, calculates the parallax of each corresponding pixel in the left and right images, and produces a parallax. An image is generated, and the generated parallax image and the original image are output to the image recognition processing unit 16. This parallax represents the distance from the robot R to the photographed object. Further, the stereo image processing unit 15 outputs the result of calculating the parallax of each corresponding pixel in the left and right images to the main control unit 40 as distance information.

画像認識処理部(画像処理部)16は、画像取込時期に取り込んだ画像を処理するものである。画像認識処理部16は、ステレオ画像処理部15から出力されたデータに基づき、撮影した画像中で移動する物体(移動体)を抽出することで、移動体が人物であると推定して、人物を認識する。移動体の抽出をするために、画像認識処理部16は、過去の数フレーム(数コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物がいると推定し、その所定距離範囲のみの視差画像として、移動体を抽出する。また、画像認識処理部16は、抽出した移動体の一部分の大きさ、形状などから例えば顔領域および顔の位置を認識し、画像認識結果として主制御部40に出力する。   The image recognition processing unit (image processing unit) 16 processes an image captured at the image capture time. Based on the data output from the stereo image processing unit 15, the image recognition processing unit 16 extracts a moving object (moving body) in the captured image, and estimates that the moving body is a person. Recognize In order to extract a moving object, the image recognition processing unit 16 stores images of several past frames (several frames), and compares the latest frame (image) with the past frame (image). Then, pattern matching is performed, the movement amount of each pixel is calculated, and a movement amount image is generated. Then, from the parallax image and the movement amount image, when there is a pixel having a large movement amount within a predetermined distance range from the cameras C and C, it is estimated that there is a person, and as a parallax image of only the predetermined distance range Extract the moving body. Further, the image recognition processing unit 16 recognizes, for example, the face area and the position of the face from the extracted size and shape of a part of the moving body, and outputs the result to the main control unit 40 as an image recognition result.

<ロボットの動作>
第1実施形態に係るロボットRの動作について主に画像制御処理部10の動作を中心に図6を参照(適宜図3参照)して説明する。図6は、図3に示した画像制御処理部の動作を示すフローチャートである。画像制御処理部10は、移動計画情報通知部43から、脚部R3の予定着地時期を、ロボットRの移動速度およびカメラC,Cの姿勢情報と共に取得する(ステップS1)と、画像取込計画処理部11によって、画像取込時期を決定する(ステップS2)。そして、画像制御処理部10は、取込時期判別部12によって、取込時期を判別し(ステップS3)、画像取込時期になったときに、取込トリガ生成部13によって、取込トリガをカメラC,Cへ出力する(ステップS4)。これにより、カメラC,Cは、ロボットRの前方移動方向側の映像(撮影画像)を取得し、画像制御処理部10に出力する(ステップS5)。
<Robot motion>
The operation of the robot R according to the first embodiment will be described with reference to FIG. 6 (refer to FIG. 3 as appropriate) mainly focusing on the operation of the image control processing unit 10. FIG. 6 is a flowchart showing the operation of the image control processing unit shown in FIG. The image control processing unit 10 acquires the scheduled landing time of the leg R3 from the movement plan information notification unit 43 together with the movement speed of the robot R and the posture information of the cameras C and C (step S1). The processing unit 11 determines the image capture time (step S2). Then, the image control processing unit 10 determines the capture time by the capture time determination unit 12 (step S3), and when the image capture time comes, the capture trigger generation unit 13 sets the capture trigger. Output to the cameras C and C (step S4). As a result, the cameras C and C acquire the video (captured image) of the robot R in the forward movement direction and output it to the image control processing unit 10 (step S5).

そして、画像制御処理部10は、画像補正処理部14によって、取り込んだ画像から、カメラレンズによる歪の補正と、レクティファイとを行うことで撮影画像を補正する(ステップS6)。続いて、画像制御処理部10は、ステレオ画像処理部15によって、補正された画像に対してステレオ処理する(ステップS7)。そして、画像制御処理部10は、画像認識処理部16によって、視差画像および元の補正画像を用いて移動体としての対象物(人物)を認識し(ステップS8)、認識した対象物(人物)を画像処理結果として主制御部40の行動生成部41に出力する(ステップS9)。また、画像制御処理部10は、ステップS7またはステップS9に続いて、あるいは並行して、ステレオ画像処理部15によって算出した距離情報を主制御部40の行動生成部41に出力する。   Then, the image control processing unit 10 corrects the captured image by performing distortion correction by the camera lens and rectification from the captured image by the image correction processing unit 14 (step S6). Subsequently, the image control processing unit 10 performs stereo processing on the corrected image by the stereo image processing unit 15 (step S7). Then, the image control processing unit 10 recognizes an object (person) as a moving body using the parallax image and the original corrected image by the image recognition processing unit 16 (step S8), and the recognized object (person). Is output to the action generation unit 41 of the main control unit 40 as an image processing result (step S9). Further, the image control processing unit 10 outputs the distance information calculated by the stereo image processing unit 15 to the action generation unit 41 of the main control unit 40 following or in parallel with step S7 or step S9.

第1実施形態によれば、ロボットRは、移動計画情報通知部43によって、脚部R3の予定着地時期の情報を画像制御処理部10に通知し、画像制御処理部10によって予定着地時期に基づいて決定された画像取込時期にカメラC,Cから画像を取り込む。したがって、画像取込時期を脚部の先端が着地する前後のタイミングとすることにより、取り込んだ画像のブレを示す値が所定の値以下になると推定される画像を処理することができる。したがって、ロボットRは、移動中の画像処理結果から画像のブレの影響を低減することができる。また、ロボットRは、画像を処理するサンプリング回数を容易に増加させることができる。   According to the first embodiment, the robot R notifies the image control processing unit 10 of information on the planned landing time of the leg R3 by the movement plan information notification unit 43, and based on the planned landing time by the image control processing unit 10. The images are captured from the cameras C and C at the image capture time determined in the above. Therefore, by setting the image capture timing to the timing before and after the tip of the leg lands, it is possible to process an image that is estimated that a value indicating blurring of the captured image is equal to or less than a predetermined value. Therefore, the robot R can reduce the influence of image blur from the image processing result during movement. Further, the robot R can easily increase the number of times of sampling for processing the image.

(第2実施形態)
次に、第2実施形態に係るロボットの要部について図7を参照(適宜図1、図2および図3参照)して説明する。図7は、本発明の第2実施形態に係るロボットの要部を模式的に示すブロック図である。
(Second Embodiment)
Next, the main part of the robot according to the second embodiment will be described with reference to FIG. 7 (refer to FIGS. 1, 2 and 3 as appropriate). FIG. 7 is a block diagram schematically showing the main part of the robot according to the second embodiment of the present invention.

<主制御部の構成例>
第2実施形態では、主制御部40の構成は、第1実施形態と同様なので、同じ構成には同じ符号を付して説明を省略する。ただし、図7に示す移動計画情報通知部43Aは、図3に示した姿勢測定値通知部43cを含んでいない。すなわち、本実施形態では、移動計画情報通知部43Aは、脚部R3の予定着地時期のほかに、「着地−速度」相関やロボットRの現在の移動速度の情報を画像制御処理部10Aに通知する。
<Configuration example of main control unit>
In 2nd Embodiment, since the structure of the main control part 40 is the same as that of 1st Embodiment, the same code | symbol is attached | subjected to the same structure and description is abbreviate | omitted. However, the movement plan information notification unit 43A illustrated in FIG. 7 does not include the posture measurement value notification unit 43c illustrated in FIG. That is, in the present embodiment, the movement plan information notification unit 43A notifies the image control processing unit 10A of the “landing-speed” correlation and the current movement speed information of the robot R in addition to the scheduled landing time of the leg R3. To do.

<画像制御処理部の構成例>
画像制御処理部10Aは、図7に示すように、画像補正処理部14と、ステレオ画像処理部15と、画像認識処理部16と、予定着地時期取得部17と、緩衝時期判別部18とを備えている。このうち、画像補正処理部14と、ステレオ画像処理部15と、画像認識処理部16とは、第1実施形態と同様なので説明を省略する。ただし、第2実施形態では、カメラC,Cは、周期的に画像を取り込むように制御されるものである。そのため、ステレオ画像処理部15および画像認識処理部16は、カメラC,Cによって周期的に取り込んだ画像のうち、後記する緩衝時期以外の時期に取り込んだ画像を処理する。カメラC,Cは、例えば、60[ms]間隔で画像を取り込む。なお、図7では、第1実施形態と区別するためにカメラの符号をC1,C1と表記した。
<Configuration Example of Image Control Processing Unit>
As shown in FIG. 7, the image control processing unit 10A includes an image correction processing unit 14, a stereo image processing unit 15, an image recognition processing unit 16, a planned landing time acquisition unit 17, and a buffer time determination unit 18. I have. Among these, the image correction processing unit 14, the stereo image processing unit 15, and the image recognition processing unit 16 are the same as those in the first embodiment, and thus description thereof is omitted. However, in the second embodiment, the cameras C and C are controlled so as to capture images periodically. Therefore, the stereo image processing unit 15 and the image recognition processing unit 16 process images captured at a time other than the buffering time described later, among the images periodically captured by the cameras C and C. For example, the cameras C and C capture images at intervals of 60 [ms]. In FIG. 7, the camera codes are denoted as C 1 and C 1 in order to distinguish them from the first embodiment.

予定着地時期取得部17は、主制御部40の移動計画情報通知部43Aから、移動計画情報として予定着地時期の情報を、ロボットRの現在の移動速度の情報と共に取得し、緩衝時期判別部18に出力するものである。   The planned landing time acquisition unit 17 acquires information on the planned landing time as movement plan information from the movement plan information notification unit 43A of the main control unit 40 together with information on the current movement speed of the robot R, and a buffer time determination unit 18. Is output.

緩衝時期判別部18は、脚部R3の先端が着地する瞬間を起点にして画像のブレを示す値が所定の値よりも大きくなると推定される予め定められた時間範囲を示す緩衝時期になったか否かを判別するものである。本実施形態では、緩衝時期判別部18は、ロボットRの移動中にその移動速度を取得し、ロボットRの移動速度が速いほど短くなるように定められた緩衝時期の候補の中から、取得した移動速度に応じた緩衝時期を選択し、選択された緩衝時期になったか否かを判別した結果を画像補正処理部14および画像認識処理部16に出力する。ここで、緩衝時期の候補は、例えば、テーブルとして移動速度に予め対応付けられている。例えば、移動速度が2.7[km/h]の場合には、緩衝時期を例えば、着地後3[ms]とすることができる。本実施形態では、緩衝時期判別部18は、速度相関通知部43bから取得した「着地−速度」相関を第1実施形態とは反対の観点で利用して、緩衝時期になったか否かを判別することとした。   Whether the buffer time determination unit 18 has reached a buffer time indicating a predetermined time range in which a value indicating image blur is estimated to be greater than a predetermined value starting from the moment when the tip of the leg R3 lands. It is to determine whether or not. In the present embodiment, the buffer time determination unit 18 acquires the movement speed during the movement of the robot R, and acquires the movement speed from the buffer time candidates determined so as to decrease as the movement speed of the robot R increases. A buffering time corresponding to the moving speed is selected, and the result of determining whether or not the selected buffering time is reached is output to the image correction processing unit 14 and the image recognition processing unit 16. Here, the buffer time candidates are associated with the moving speed in advance as a table, for example. For example, when the moving speed is 2.7 [km / h], the buffer time can be set to 3 [ms] after landing, for example. In the present embodiment, the buffer time determination unit 18 uses the “landing-speed” correlation acquired from the speed correlation notification unit 43b from the viewpoint opposite to that of the first embodiment to determine whether or not the buffer time has come. It was decided to.

<ロボットの動作>
第2実施形態に係るロボットRの動作について主に画像制御処理部10Aの動作を中心に図8を参照(適宜図7参照)して説明する。図8は、図7に示した画像制御処理部の動作を示すフローチャートである。画像制御処理部10Aは、予定着地時期取得部17によって、移動計画情報通知部43Aから、脚部R3の予定着地時期を、ロボットRの移動速度と共に取得する(ステップS11)。また、カメラC,Cは、ステップS11とは独立に、ロボットRの前方移動方向側の映像(撮影画像)を周期的に取得し、画像制御処理部10Aに出力し続ける(ステップS12)。また、画像制御処理部10Aの緩衝時期判別部18は、ステップS11とは独立に、緩衝時期になったか否かを判別して判別結果を、画像補正処理部14および画像認識処理部16に出力し続けている。このとき、ステップS11により、緩衝時期判別部18が予定着地時期と共に取得する移動速度が変化した場合には、緩衝時期判別部18は、その移動速度に応じた緩衝時期に切り替えて判別を続ける。これにより、緩衝時期になった場合には、画像補正処理部14および画像認識処理部16は、着地後の所定期間は緩衝時期としてサンプリングを中止する(ステップS13)。画像制御処理部10Aが緩衝時期以外に実行する以下のステップS14〜ステップS17は、前記したステップS6〜ステップS9と同じなので説明を省略する。
<Robot motion>
The operation of the robot R according to the second embodiment will be described with reference to FIG. 8 (refer to FIG. 7 as appropriate) mainly with respect to the operation of the image control processing unit 10A. FIG. 8 is a flowchart showing the operation of the image control processing unit shown in FIG. The image control processing unit 10A acquires the planned landing time of the leg R3 together with the moving speed of the robot R from the movement plan information notification unit 43A by the planned landing time acquisition unit 17 (step S11). Further, the cameras C and C periodically acquire a video (captured image) of the robot R in the forward movement direction side and independently output it to the image control processing unit 10A independently of step S11 (step S12). In addition, the buffer time determination unit 18 of the image control processing unit 10A determines whether or not the buffer time has come, independently of step S11, and outputs the determination result to the image correction processing unit 14 and the image recognition processing unit 16. I keep doing it. At this time, if the moving speed acquired by the buffer time determination unit 18 together with the planned landing time changes in step S11, the buffer time determination unit 18 switches to the buffer time corresponding to the moving speed and continues the determination. As a result, when the buffer time comes, the image correction processing unit 14 and the image recognition processing unit 16 stop sampling as the buffer time for a predetermined period after landing (step S13). The following steps S14 to S17 executed by the image control processing unit 10A at times other than the buffer time are the same as the above-described steps S6 to S9, and thus description thereof is omitted.

第2実施形態によれば、ロボットRは、カメラC,Cによって周期的に画像を取り込みつつ、移動計画情報通知部43Aによって、脚部R3の予定着地時期の情報を画像制御処理部10Aに通知し、画像制御処理部10Aによって予定着地時期に基づいて判別された緩衝時期以外の時期に、取り込んだ画像の画像処理を行う。すなわち、ロボットRは、緩衝時期に取り込んだ画像については画像処理を行わない。したがって、ロボットRは、移動中の画像処理結果から画像のブレの影響を低減することができる。また、ロボットRは、画像を処理するサンプリング回数を容易に増加させることができる。さらに、ロボットRは、画像制御処理部10AからカメラC,Cに対して取込トリガを出力する必要がない。   According to the second embodiment, the robot R periodically captures images with the cameras C and C, and notifies the image control processing unit 10A of information on the scheduled landing time of the leg R3 by the movement plan information notification unit 43A. Then, image processing of the captured image is performed at a time other than the buffering time determined by the image control processing unit 10A based on the scheduled landing time. That is, the robot R does not perform image processing on the image captured at the buffer time. Therefore, the robot R can reduce the influence of image blur from the image processing result during movement. Further, the robot R can easily increase the number of times of sampling for processing the image. Furthermore, the robot R does not need to output a capture trigger from the image control processing unit 10A to the cameras C and C.

以上、本発明の好ましい実施形態について説明したが、本発明は前記した各実施形態に限定されるものではない。例えば、各実施形態では、画像制御処理部10(10A)に、画像処理部としての画像補正処理部14、ステレオ画像処理部15、画像認識処理部16を備えるベストモードとしたが、例えば、画像補正処理部14は必須ではない。また、各実施形態では、2台のカメラC,Cで画像を取り込むものとしたが、3台以上のカメラを用いることも可能である。例えば、3行3列に配置した9台のカメラで、中央に配置したカメラを基準カメラとして、他の8台のカメラとの間で対象物の位置(距離情報)を検出し、その8個の位置で平均をとることで、対象物の位置をより正確に検出することもできる。   As mentioned above, although preferred embodiment of this invention was described, this invention is not limited to each above-described embodiment. For example, in each embodiment, the image control processing unit 10 (10A) is in the best mode including the image correction processing unit 14, the stereo image processing unit 15, and the image recognition processing unit 16 as the image processing unit. The correction processing unit 14 is not essential. In each embodiment, images are captured by two cameras C and C. However, three or more cameras can be used. For example, with nine cameras arranged in 3 rows and 3 columns, the position (distance information) of an object is detected from the other 8 cameras using the camera arranged in the center as a reference camera, and the 8 cameras. By taking the average at the positions, it is also possible to detect the position of the object more accurately.

また、各実施形態では、カメラC,Cによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報として脚部R3の予定着地時期の情報を、移動計画情報に含むこととしたが、この所定の値を複数種類設定できるようにしておいてもよい。また、第1実施形態では、画像取込計画処理部11は、移動中におけるカメラC,Cのピッチ角の角速度の推定値を、カメラ姿勢事前測定値と予定着地時期の情報とから求め、求めた推定値が、カメラC,Cの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期を画像取込時期として決定することとしたが、この所定の値を複数種類設定できるようにしておいてもよい。   In each embodiment, information on the expected landing time of the leg R3 is used as the movement plan information as information on the timing at which it is estimated that the value indicating the blurring of the images captured by the cameras C and C is larger than a predetermined value. Although it is included, a plurality of types of the predetermined value may be set. In the first embodiment, the image capture plan processing unit 11 obtains an estimated value of the angular velocity of the pitch angle of the cameras C and C during the movement from the camera posture premeasured value and the information on the scheduled landing time. The estimated value is determined as the image capture time when the value indicating the vibration of the cameras C and C is equal to or less than the predetermined value. A plurality of types may be set.

また、第1実施形態では、画像取込計画処理部11は、予定着地時期に加えて、ロボットRの移動速度およびカメラC,Cの姿勢情報に基づいて画像取込時期を決定するものとして説明したが、本発明にとって移動速度やカメラC,Cの姿勢情報は必須ではない。   In the first embodiment, the image capture plan processing unit 11 is described as determining the image capture time based on the moving speed of the robot R and the posture information of the cameras C and C in addition to the planned landing time. However, the moving speed and the posture information of the cameras C and C are not essential for the present invention.

また、第1実施形態では、カメラC,Cの姿勢情報をピッチ角の角速度(回転角速度)の情報として説明したが、ヨー角やロール角の角速度(回転角速度)の情報を含んでもよい。   In the first embodiment, the posture information of the cameras C and C has been described as information on the angular velocity (rotational angular velocity) of the pitch angle, but may include information on the angular velocity (rotational angular velocity) of the yaw angle or roll angle.

また、第2実施形態では、緩衝時期の候補は、テーブルとして移動速度に予め対応付けられているものとしたが、移動速度を引数とする所定の関数によりその都度計算により求めるようにしてもよい。   In the second embodiment, the buffer time candidates are previously associated with the moving speed as a table, but may be obtained by calculation each time using a predetermined function with the moving speed as an argument. .

また、第2実施形態では、緩衝時期判別部18は、予定着地時期に加えて、ロボットRの移動速度に基づいて緩衝時期になったか否かを判別するものとして説明したが、本発明にとって移動速度は必須ではない。例えば、予定着地時期に加えて、路面状態に基づいて緩衝時期になったか否かを判別することも可能である。この場合、緩衝時期の候補は、テーブルとして路面状態に応じて予め対応付けられている。そして、ロボットRは、周辺状態検知部80により、床面を撮像した画像を解析して検出した路面状態に応じて緩衝時期を選択する。具体的には、通常の廊下よりも段差の多い床や弾性の強い床であれば、緩衝時期を長くすることが可能となる。   In the second embodiment, the buffer time determination unit 18 has been described as determining whether or not the buffer time has come based on the moving speed of the robot R in addition to the scheduled landing time. Speed is not essential. For example, in addition to the scheduled landing time, it is also possible to determine whether or not the buffer time has come based on the road surface condition. In this case, the buffer time candidates are associated in advance as a table according to the road surface condition. Then, the robot R selects the buffer time according to the road surface state detected by analyzing the image obtained by capturing the floor surface by the peripheral state detection unit 80. Specifically, if the floor has more steps than a normal corridor or has a strong elasticity, the buffering time can be extended.

また、各実施形態では、ロボットRを脚式の2足歩行ロボットとして説明したが、これに限らず、1足または多足で移動する歩行型のロボットで構成してもよい。さらに、移動機構としては、脚部のみならず、脚部に相当する移動機構、例えば、車輪や無限軌道等であっても構わない。第1実施形態のロボットRの変形例として、例えば車輪型のロボットである場合について図9を参照(適宜図1、図3参照)して説明する。   In each embodiment, the robot R has been described as a legged biped robot. However, the present invention is not limited to this, and the robot R may be a walking robot that moves with one leg or multiple legs. Furthermore, as a moving mechanism, not only a leg part but a moving mechanism corresponding to the leg part, for example, a wheel or an endless track may be used. As a modification of the robot R of the first embodiment, for example, a case of a wheel type robot will be described with reference to FIG. 9 (refer to FIGS. 1 and 3 as appropriate).

図9は、本発明の第1実施形態に係るロボットの変形例の要部を模式的に示すブロック図である。なお、図3に示した構成と同じ構成には、同じ符号を付して説明を省略する。移動機構R31は、例えば、複数の車輪から構成され、自律移動制御部50により駆動される。すなわち、車輪型の移動型ロボットにおいて、自律移動制御部50と移動機構R31とにより、自律的移動手段が構成される。また、主制御部40の移動制御部42は、歩行型(脚式)の1歩を指示する代わりに、車輪回転速度を指示する。また、行動生成部41は、例えば、障害物通過モジュールを備えることができる。この障害物通過モジュールは、周辺状態検知部80(図1参照)によって、進行方向に例えば段差等の障害物が検知されたときに、段差を通過するために、現在時刻から段差に到達するまでの時間に関する情報(以下、段差通過時期という)を算出するものである。この算出された段差通過時期は、カメラC,Cによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報として、画像制御処理部10に通知される。   FIG. 9 is a block diagram schematically showing the main part of a modified example of the robot according to the first embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the structure same as the structure shown in FIG. 3, and description is abbreviate | omitted. The moving mechanism R31 is composed of a plurality of wheels, for example, and is driven by the autonomous movement control unit 50. That is, in the wheel type mobile robot, the autonomous movement control unit 50 and the movement mechanism R31 constitute an autonomous movement means. Further, the movement control unit 42 of the main control unit 40 instructs the wheel rotation speed instead of instructing one step of the walking type (leg type). Moreover, the action production | generation part 41 can be provided with an obstruction passage module, for example. This obstacle passing module is configured to pass the step from the current time until it reaches the step when the surrounding state detection unit 80 (see FIG. 1) detects an obstacle such as a step in the traveling direction. Information (hereinafter referred to as step difference passage time) is calculated. The calculated step passage time is notified to the image control processing unit 10 as information on timing at which it is estimated that a value indicating blurring of images captured by the cameras C and C is larger than a predetermined value.

移動計画情報通知部43Bは、図3に示した予定着地時期通知部43aを含んでいない。代わりに、移動計画情報通知部43Bは、段差通過時期通知部43dを含んでいる。段差通過時期通知部43dは、行動生成部41が備える障害物通過モジュールによって算出された段差通過時期を、移動制御部42を介して取得し、画像制御処理部10に通知するものである。これにより、画像制御処理部10の画像取込計画処理部11は、予定着地時期の代わりに、段差通過時期に基づいて、カメラC,Cによって画像を取り込む時期を示す画像取込時期を決定する。なお、画像取込計画処理部11は、段差通過時期に加えて、ロボットRの移動速度およびカメラC,Cの姿勢情報に基づいて画像取込時期を決定することができる。   The movement plan information notification unit 43B does not include the planned landing time notification unit 43a shown in FIG. Instead, the movement plan information notification unit 43B includes a step passage time notification unit 43d. The step passage time notification unit 43d acquires the step passage time calculated by the obstacle passage module included in the action generation unit 41 via the movement control unit 42 and notifies the image control processing unit 10 of the step passage time. Thereby, the image capturing plan processing unit 11 of the image control processing unit 10 determines the image capturing time indicating the time when the images are captured by the cameras C and C based on the step passing time instead of the planned landing time. . Note that the image capture plan processing unit 11 can determine the image capture time based on the moving speed of the robot R and the posture information of the cameras C and C in addition to the step passage time.

この第1実施形態の変形例によれば、車輪型のロボットは、移動計画情報通知部43Bによって、段差通過時期の情報を画像制御処理部10に通知し、画像制御処理部10によって段差通過時期に基づいて決定された画像取込時期にカメラC,Cから画像を取り込む。したがって、段差を通過する前後のタイミングを画像取込時期とすることにより、取り込んだ画像のブレを示す値が所定の値以下になると推定される画像を処理することができる。したがって、車輪型のロボットは、移動中の画像処理結果から画像のブレの影響を低減することができると共に、画像を処理するサンプリング回数を容易に増加させることができる。   According to the modification of the first embodiment, the wheel-type robot notifies the image control processing unit 10 of information on the step passing time by the movement plan information notifying unit 43B, and the step passing time by the image control processing unit 10. The images are captured from the cameras C and C at the image capture time determined based on the above. Therefore, by setting the timing before and after passing through the step as the image capture timing, it is possible to process an image that is estimated that a value indicating blurring of the captured image is equal to or less than a predetermined value. Therefore, the wheel type robot can reduce the influence of image blurring from the image processing result during movement, and can easily increase the number of times of sampling for processing the image.

本発明の第1および第2実施形態に係るロボットの構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the robot which concerns on 1st and 2nd embodiment of this invention. 本発明の第1および第2実施形態に係るロボットの外観を模式的に示す図である。It is a figure which shows typically the external appearance of the robot which concerns on 1st and 2nd embodiment of this invention. 本発明の第1実施形態に係るロボットの要部を模式的に示すブロック図である。It is a block diagram showing typically the principal part of the robot concerning a 1st embodiment of the present invention. 頭部のピッチ角の角速度の時間変化の一例を示す図である。It is a figure which shows an example of the time change of the angular velocity of the pitch angle of a head. 画像補正前後の撮影画像の一例を示す図である。It is a figure which shows an example of the picked-up image before and after image correction. 図3に示した画像制御処理部の動作を示すフローチャートである。4 is a flowchart illustrating an operation of an image control processing unit illustrated in FIG. 3. 本発明の第2実施形態に係るロボットの要部を模式的に示すブロック図である。It is a block diagram which shows typically the principal part of the robot which concerns on 2nd Embodiment of this invention. 図7に示した画像制御処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image control process part shown in FIG. 本発明の第1実施形態に係るロボットの変形例の要部を模式的に示すブロック図である。It is a block diagram which shows typically the principal part of the modification of the robot which concerns on 1st Embodiment of this invention.

符号の説明Explanation of symbols

R ロボット(移動型ロボット)
R1 頭部
R2 腕部
R3 脚部
R31 移動機構
R4 胴部
R5 背面格納部
1 ロボット制御装置
10(10A) 画像制御処理部
11 画像取込計画処理部
12 取込時期判別部
13 取込トリガ生成部
14 画像補正処理部(画像処理部)
15 ステレオ画像処理部(画像処理部)
16 画像認識処理部(画像処理部)
17 予定着地時期取得部
18 緩衝時期判別部
20 音声処理部
30 記憶部
40 主制御部
41 行動生成部
42 移動制御部
43(43A,43B) 移動計画情報通知部
43a 予定着地時期通知部
43b 速度相関通知部
43c 姿勢測定値通知部
43d 段差通過時期通知部
50 自律移動制御部
60 無線通信部
70 対象検知部
80 周辺状態検知部
90 姿勢検知部
C(C0,C1) カメラ(視覚センサ)
R robot (mobile robot)
R1 Head R2 Arm R3 Leg R31 Movement mechanism R4 Torso R5 Back storage 1 Robot controller 10 (10A) Image control processor 11 Image capture plan processor 12 Capture timing discriminator 13 Capture trigger generator 14 Image correction processing unit (image processing unit)
15 Stereo image processing unit (image processing unit)
16 Image recognition processing unit (image processing unit)
17 Scheduled landing time acquisition unit 18 Buffer timing determination unit 20 Audio processing unit 30 Storage unit 40 Main control unit 41 Action generation unit 42 Movement control unit 43 (43A, 43B) Movement plan information notification unit 43a Scheduled landing time notification unit 43b Speed correlation Notification unit 43c Posture measurement value notification unit 43d Step passage time notification unit 50 Autonomous movement control unit 60 Wireless communication unit 70 Target detection unit 80 Peripheral state detection unit 90 Posture detection unit C (C 0 , C 1 ) Camera (visual sensor)

Claims (7)

外界の画像を取り込む視覚センサと、前記視覚センサによって取り込んだ画像を処理する画像制御処理部と、自律的に移動する機能を有する自律的移動手段と、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を記憶する記憶部と、前記移動計画情報に基づいて当該移動型ロボットの移動を制御する指令を前記自律的移動手段に出力する移動制御部とを有した移動型ロボットにおいて、
前記移動計画情報を前記画像制御処理部に通知する移動計画情報通知部を備え、
前記画像制御処理部は、前記移動計画情報に基づいて、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングにて、前記視覚センサによって取り込んだ画像を処理することを特徴とする移動型ロボット。
A visual sensor that captures an image of the outside world, an image control processing unit that processes the image captured by the visual sensor, an autonomous moving means having a function of autonomously moving, and blurring of the image captured by the visual sensor A storage unit for storing movement plan information including timing information estimated to be greater than a predetermined value; and a command for controlling movement of the mobile robot based on the movement plan information. In a mobile robot having a movement control unit that outputs to
A movement plan information notification unit for notifying the movement plan information to the image control processing unit;
The image control processing unit processes the image captured by the visual sensor at a timing when it is estimated that a value indicating blurring of the image captured by the visual sensor is equal to or less than a predetermined value based on the movement plan information. A mobile robot characterized by
前記自律的移動手段は、脚部と、前記脚部を駆動する自律移動制御部とを有し、
前記移動計画情報に含まれるタイミングの情報は、前記脚部の予定着地時期の情報であり、
前記移動計画情報通知部は、前記脚部の予定着地時期の情報を前記画像制御処理部に通知する予定着地時期通知部を備え、
前記画像制御処理部は、前記脚部の予定着地時期の情報に基づいて前記脚部の先端が着地する前後の、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングにて、前記視覚センサによって取り込んだ画像を処理することを特徴とする請求項1に記載の移動型ロボット。
The autonomous moving means has a leg part and an autonomous movement control part that drives the leg part,
The timing information included in the movement plan information is information on the planned landing time of the legs,
The movement plan information notification unit includes a planned landing time notification unit that notifies the image control processing unit of information on the planned landing time of the legs,
The image control processing unit estimates that a value indicating blurring of an image captured by the visual sensor before and after the tip of the leg is landed is less than or equal to a predetermined value based on information on a planned landing time of the leg. 2. The mobile robot according to claim 1, wherein an image captured by the visual sensor is processed at a timing.
前記画像制御処理部は、
前記予定着地時期に基づいて、前記視覚センサによって画像を取り込む時期を示す画像取込時期を決定する画像取込計画処理部と、
前記画像取込時期になったか否かを判別する画像取込時期判別部と、
前記画像取込時期になったときに取込トリガを生成して前記視覚センサに出力する取込トリガ生成部と、
前記画像取込時期に取り込んだ画像を処理する画像処理部とを備えることを特徴とする請求項2に記載の移動型ロボット。
The image control processing unit
Based on the scheduled landing time, an image capturing plan processing unit for determining an image capturing time indicating a time for capturing an image by the visual sensor;
An image capture time determination unit for determining whether or not the image capture time has come;
A capture trigger generation unit that generates a capture trigger and outputs to the visual sensor when the image capture time comes,
The mobile robot according to claim 2, further comprising: an image processing unit that processes an image captured at the image capture time.
前記移動計画情報は、前記予定着地時期の情報に予め対応付けられた画像のブレを示す値が所定の値以下である時刻と、当該ロボットの移動速度との相関関係を含み、
前記移動計画情報通知部は、前記相関関係を前記画像制御処理部に通知する速度相関通知部をさらに備え、
前記画像取込計画処理部は、前記予定着地時期の情報と前記相関関係とを取得すると共に、当該ロボットの移動中にその移動速度を取得し、前記取得した移動速度に応じて前記相関関係を用いて、前記取得した予定着地時期の情報から、前記画像のブレを示す値が所定の値以下である時刻を、前記画像取込時期として決定することを特徴とする請求項3に記載の移動型ロボット。
The movement plan information includes a correlation between a time at which a value indicating blurring of an image associated with the information on the scheduled landing time in advance is equal to or less than a predetermined value, and a movement speed of the robot,
The movement plan information notification unit further includes a speed correlation notification unit that notifies the image control processing unit of the correlation.
The image capture plan processing unit acquires the information on the scheduled landing time and the correlation, acquires the movement speed during movement of the robot, and determines the correlation according to the acquired movement speed. 4. The movement according to claim 3, wherein a time at which a value indicating blurring of the image is equal to or less than a predetermined value is determined as the image capture time from the acquired information on the scheduled landing time. Type robot.
前記移動計画情報は、当該移動型ロボットの移動中における前記視覚センサの姿勢を示す姿勢情報として事前に測定された測定値を含み、
前記移動計画情報通知部は、前記前記測定値を前記画像制御処理部に通知する姿勢測定値通知部をさらに備え、
前記画像取込計画処理部は、前記予定着地時期の情報と前記測定値とを取得すると共に、前記取得した測定値と予定着地時期の情報とから推定される移動中における前記視覚センサの姿勢の推定値を求め、前記推定値が、前記視覚センサの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期を前記画像取込時期として決定することを特徴とする請求項3または請求項4に記載の移動型ロボット。
The movement plan information includes a measurement value measured in advance as posture information indicating the posture of the visual sensor during movement of the mobile robot,
The movement plan information notification unit further includes a posture measurement value notification unit that notifies the image control processing unit of the measurement value,
The image capture plan processing unit acquires the information on the planned landing time and the measured value, and also determines the posture of the visual sensor during movement estimated from the acquired measured value and information on the planned landing time. An estimated value is obtained, and a time when the estimated value falls within a predetermined range assuming that a value indicating the vibration of the visual sensor is equal to or less than a predetermined value is determined as the image capture time. The mobile robot according to claim 3 or 4.
前記画像制御処理部は、
前記脚部の先端が着地する瞬間を起点にして画像のブレを示す値が所定の値よりも大きくなると推定される予め定められた時間範囲を示す緩衝時期になったか否かを判別する緩衝時期判別部と、
前記視覚センサによって周期的に取り込んだ画像のうち前記緩衝時期以外の時期に取り込んだ画像を処理する画像処理部とを備えることを特徴とする請求項2に記載の移動型ロボット。
The image control processing unit
A buffering time for determining whether or not a buffering time indicating a predetermined time range in which an image blurring value is estimated to be larger than a predetermined value starting from the moment when the tip of the leg is landed is determined. A discriminator;
The mobile robot according to claim 2, further comprising: an image processing unit that processes an image captured at a time other than the buffering time among images periodically captured by the visual sensor.
前記緩衝時期判別部は、当該ロボットの移動中にその移動速度を取得し、当該ロボットの移動速度が速いほど短くなるように定められた複数の前記緩衝時期の候補の中から、前記取得した移動速度に応じた緩衝時期を選択し、前記選択された緩衝時期になったか否かを判別した結果を前記画像処理部に出力することを特徴とする請求項6に記載の移動型ロボット。   The buffer time determination unit acquires the movement speed during the movement of the robot, and the acquired movement from a plurality of buffer time candidates determined to be shorter as the movement speed of the robot is higher. The mobile robot according to claim 6, wherein a buffering time corresponding to a speed is selected, and a result of determining whether or not the selected buffering time is reached is output to the image processing unit.
JP2008138942A 2008-05-28 2008-05-28 Mobile robot Expired - Fee Related JP5171394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008138942A JP5171394B2 (en) 2008-05-28 2008-05-28 Mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008138942A JP5171394B2 (en) 2008-05-28 2008-05-28 Mobile robot

Publications (2)

Publication Number Publication Date
JP2009285752A true JP2009285752A (en) 2009-12-10
JP5171394B2 JP5171394B2 (en) 2013-03-27

Family

ID=41455486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008138942A Expired - Fee Related JP5171394B2 (en) 2008-05-28 2008-05-28 Mobile robot

Country Status (1)

Country Link
JP (1) JP5171394B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015196218A (en) * 2014-04-01 2015-11-09 富士ソフト株式会社 Robot motion plan creation system and creation method
CN113253607A (en) * 2020-04-24 2021-08-13 深圳市优必选科技股份有限公司 Gait planning method and device for climbing stairs, readable storage medium and robot
CN113766121A (en) * 2021-08-10 2021-12-07 国网河北省电力有限公司保定供电分公司 Device and method for keeping image stable based on quadruped robot
CN115914790A (en) * 2022-11-11 2023-04-04 哈工大机器人(合肥)国际创新研究院 Waterproof motion camera of amphibious detection robot in water route
US12014539B2 (en) 2018-02-02 2024-06-18 Honda Motor Co., Ltd. Control processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160883A (en) * 1993-12-09 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> Person attribute detection device
JP2002271097A (en) * 2001-03-06 2002-09-20 Sanyo Electric Co Ltd Electronic component mounting device
JP2005161475A (en) * 2003-12-03 2005-06-23 Victor Co Of Japan Ltd Mobile robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160883A (en) * 1993-12-09 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> Person attribute detection device
JP2002271097A (en) * 2001-03-06 2002-09-20 Sanyo Electric Co Ltd Electronic component mounting device
JP2005161475A (en) * 2003-12-03 2005-06-23 Victor Co Of Japan Ltd Mobile robot

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015196218A (en) * 2014-04-01 2015-11-09 富士ソフト株式会社 Robot motion plan creation system and creation method
US12014539B2 (en) 2018-02-02 2024-06-18 Honda Motor Co., Ltd. Control processing device
CN113253607A (en) * 2020-04-24 2021-08-13 深圳市优必选科技股份有限公司 Gait planning method and device for climbing stairs, readable storage medium and robot
CN113253607B (en) * 2020-04-24 2024-05-17 深圳市优必选科技股份有限公司 Gait planning method and device for ascending stairs, readable storage medium and robot
CN113766121A (en) * 2021-08-10 2021-12-07 国网河北省电力有限公司保定供电分公司 Device and method for keeping image stable based on quadruped robot
CN113766121B (en) * 2021-08-10 2023-08-08 国网河北省电力有限公司保定供电分公司 Device and method for maintaining image stability based on quadruped robot
CN115914790A (en) * 2022-11-11 2023-04-04 哈工大机器人(合肥)国际创新研究院 Waterproof motion camera of amphibious detection robot in water route

Also Published As

Publication number Publication date
JP5171394B2 (en) 2013-03-27

Similar Documents

Publication Publication Date Title
JP4262196B2 (en) Autonomous mobile robot
US8090193B2 (en) Mobile robot
JP4856510B2 (en) Mobile robot
KR100840427B1 (en) Control apparatus for legged movable robot
US8010231B2 (en) Communication robot
US7873448B2 (en) Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles
US8873831B2 (en) Walking robot and simultaneous localization and mapping method thereof
WO2019128070A1 (en) Target tracking method and apparatus, mobile device and storage medium
US20110228098A1 (en) Automatic motion tracking, event detection and video image capture and tagging
JP5171394B2 (en) Mobile robot
WO2016031105A1 (en) Information-processing device, information processing method, and program
Oßwald et al. Autonomous climbing of spiral staircases with humanoids
CN108563220A (en) The motion planning of apery Soccer robot
JP2006221610A (en) Human tracking apparatus and method, recording medium on which program for performing the method is recorded, and mobile electronic device including the apparatus
JP2006192563A (en) IDENTIFICATION OBJECT IDENTIFICATION DEVICE AND ROBOT HAVING THE SAME
JP2018166640A (en) Walking support system, walking support method, and walking support program
JP4131392B2 (en) Robot apparatus, robot control method, recording medium, and program
JP2007199965A (en) Autonomous mobile device
JP7309371B2 (en) robot control system
JP2018513496A (en) Foot contact position tracking device, method for controlling movement thereof, computer-executable program, and computer-readable non-transitory information recording medium storing the same
US11926038B2 (en) Information processing apparatus and information processing method
JP2010009371A (en) Traveling robot and traveling robot control system
JP2009178782A (en) MOBILE BODY, ENVIRONMENT MAP GENERATION DEVICE, AND ENVIRONMENT MAP GENERATION METHOD
JP2012117833A (en) Image recognition device, mounting type robot, and image recognition program
JP2008210238A (en) Walking tracking device and walking support carrying device using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121225

R150 Certificate of patent or registration of utility model

Ref document number: 5171394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees