[go: up one dir, main page]

JP6878874B2 - Motion analysis device, motion analysis method and program - Google Patents

Motion analysis device, motion analysis method and program Download PDF

Info

Publication number
JP6878874B2
JP6878874B2 JP2016247840A JP2016247840A JP6878874B2 JP 6878874 B2 JP6878874 B2 JP 6878874B2 JP 2016247840 A JP2016247840 A JP 2016247840A JP 2016247840 A JP2016247840 A JP 2016247840A JP 6878874 B2 JP6878874 B2 JP 6878874B2
Authority
JP
Japan
Prior art keywords
time
predetermined swing
motion
time information
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016247840A
Other languages
Japanese (ja)
Other versions
JP2018099416A5 (en
JP2018099416A (en
Inventor
量平 山本
量平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016247840A priority Critical patent/JP6878874B2/en
Publication of JP2018099416A publication Critical patent/JP2018099416A/en
Publication of JP2018099416A5 publication Critical patent/JP2018099416A5/ja
Application granted granted Critical
Publication of JP6878874B2 publication Critical patent/JP6878874B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electric Clocks (AREA)
  • Image Analysis (AREA)

Description

本発明は、運動解析装置、運動解析方法及びプログラムに関する。 The present invention relates to a motion analysis device, a motion analysis method and a program.

従来より、ゴルフスイングを映像によって解析する手法がさまざま開発されている。例えば、特許文献1では、対象者のクラブヘッドや手首等に取り付けたセンサによって得られた計測データから、スイング動作を評価する技術が提案されている。また、計測と同時に撮影された映像を用いて、対応するタイミングの重心移動についても表示する技術も提案されている。 Conventionally, various methods for analyzing golf swings by images have been developed. For example, Patent Document 1 proposes a technique for evaluating a swing motion from measurement data obtained by a sensor attached to a subject's club head, wrist, or the like. In addition, a technique has been proposed in which the movement of the center of gravity at the corresponding timing is also displayed by using the image taken at the same time as the measurement.

特開2009−05721号公報JP-A-2009-05721

ゴルフのスイング動作においては、体幹で起こされた運動がどのように端末に伝わっていくかが重要な要素であるが、上述する特許文献1に記載の技術では、手首やクラブヘッドといった、被験者の体幹の動きを正確にセンシングするのが困難な位置にセンサを装着するために、適切なスイングの評価を行えないという問題があった。 In the swing motion of golf, how the movement generated by the trunk is transmitted to the terminal is an important factor, but in the technique described in Patent Document 1 described above, a subject such as a wrist or a club head Since the sensor is mounted at a position where it is difficult to accurately sense the movement of the trunk, there is a problem that an appropriate swing cannot be evaluated.

本発明は、このような状況に鑑みてなされたものであり、より正確にスイング評価を行うことを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to perform swing evaluation more accurately.

上記目的を達成するため、本発明の一態様の運動解析装置は、
被験者の所定のスイング動作を記録した動画を取得する動画取得手段と、
前記被験者に付けられたセンサユニットから出力されたセンサ情報を解析することにより、前記被験者の所定のスイング動作時の体幹部での姿勢変化を取得する変化取得手段と、
前記センサユニットから出力されたセンサ情報に基づき、前記所定のスイング動作の開始を検出する開始検出手段と、
前記開始検出手段によって前記所定のスイング動作の開始を検出すると、前記動画取得手段による前記所定のスイング動作の動画の記録を開始するよう制御する記録制御手段と、
前記記録制御手段によって記録された前記被験者の所定のスイング動作の動画に含まれる所定のタイミングの姿勢の動画と、前記変化取得手段によって取得された姿勢変化における前記所定のタイミングの姿勢との違いを判定することにより、前記所定のスイング動作を評価する評価手段と、
を備えることを特徴とする。
In order to achieve the above object, the motion analysis device of one aspect of the present invention is
A video acquisition means for acquiring a video recording a predetermined swing motion of a subject, and
By analyzing the sensor information output from the sensor unit attached to the subject, a change acquisition means for acquiring a posture change in the trunk during a predetermined swing motion of the subject, and a change acquisition means.
A start detection means for detecting the start of the predetermined swing operation based on the sensor information output from the sensor unit, and a start detection means.
When detecting the start of the predetermined swing operation by the start detecting means, and recording control means for controlling to start the recording of the video by that the predetermined swinging operation to the moving image obtaining means,
The difference between the video of the posture at the predetermined timing included in the video of the predetermined swing motion of the subject recorded by the recording control means and the posture at the predetermined timing in the posture change acquired by the change acquisition means. An evaluation means for evaluating the predetermined swing motion by making a determination,
It is characterized by having.

本発明によれば、より正確にスイング評価を行うことができる。 According to the present invention, swing evaluation can be performed more accurately.

本発明の一実施形態に係る運動解析システムSのシステム構成を示すシステム構成図である。It is a system configuration diagram which shows the system configuration of the motion analysis system S which concerns on one Embodiment of this invention. 本発明の一実施形態に係るセンサユニット1のハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware structure of the sensor unit 1 which concerns on one Embodiment of this invention. 本発明の一実施形態に係る撮像装置2及び携帯端末3のハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware structure of the image pickup apparatus 2 and the mobile terminal 3 which concerns on one Embodiment of this invention. 図2のセンサユニット1の機能的構成のうち、練習時取得データ送信処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional configuration for executing the acquisition data transmission processing at the time of practice among the functional configurations of the sensor unit 1 of FIG. 図2の撮像装置2の機能的構成のうち、データ解析処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional configuration for executing the data analysis processing among the functional configurations of the image pickup apparatus 2 of FIG. 運動解析システムSにおける運動解析に係る処理のやり取りを示すタイミングチャートである。It is a timing chart which shows the exchange of the processing related to the motion analysis in the motion analysis system S. 図4の機能的構成を有する図2のセンサユニット1が実行する練習時取得データ送信処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the practice acquisition data transmission processing executed by the sensor unit 1 of FIG. 2 having the functional configuration of FIG. 図5の機能的構成を有する図3の携帯端末3が実行するデータ解析処理の流れを説明するフローチャートである。FIG. 5 is a flowchart illustrating a flow of data analysis processing executed by the mobile terminal 3 of FIG. 3 having the functional configuration of FIG. データ解析処理のうち、センサ情報解析処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the sensor information analysis processing among the data analysis processing. データ解析処理のうち、映像解析処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the image analysis processing among the data analysis processing. データ解析処理のうち、解析結果表示処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of analysis result display processing among data analysis processing.

以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る運動解析システムSのシステム構成を示すシステム構成図である。 FIG. 1 is a system configuration diagram showing a system configuration of a motion analysis system S according to an embodiment of the present invention.

運動解析システムSは、図1(a)に示すように、センサユニット1と、撮像装置2と、携帯端末3と、を含む。
センサユニット1は、被験者Hの姿勢をセンシングするセンシング機能と、他の装置(撮像装置2及び携帯端末3)との間で通信を行う通信機能と、を有する。
撮像装置2は、被験者を撮影する撮影機能と、他の装置(センサユニット1及び携帯端末3)との間で通信を行う通信機能と、を有する。
携帯端末3は、他の装置(センサユニット1及び撮像装置2)との間で通信を行う通信機能と、センサユニット1でセンシングされたセンサ情報と、撮像装置2で撮影された動画と、を解析する解析機能と、解析結果を出力する出力機能と、を有する。
As shown in FIG. 1A, the motion analysis system S includes a sensor unit 1, an image pickup device 2, and a mobile terminal 3.
The sensor unit 1 has a sensing function for sensing the posture of the subject H and a communication function for communicating with other devices (imaging device 2 and mobile terminal 3).
The imaging device 2 has a photographing function for photographing a subject and a communication function for communicating with other devices (sensor unit 1 and mobile terminal 3).
The mobile terminal 3 has a communication function for communicating with other devices (sensor unit 1 and image pickup device 2), sensor information sensed by the sensor unit 1, and a moving image taken by the image pickup device 2. It has an analysis function for analysis and an output function for outputting analysis results.

センサユニット1は、図1(b)に示すように、被験者Hの背中側の体幹の腰付近にベルト等を介して固定され、一連の運動(本実施形態においては、ゴルフのスイング)において、被験者Hの姿勢変化や体幹の動き等をセンシングする。 As shown in FIG. 1B, the sensor unit 1 is fixed to the vicinity of the waist of the trunk on the back side of the subject H via a belt or the like, and is used in a series of exercises (in the present embodiment, a golf swing). , The posture change of the subject H, the movement of the trunk, etc. are sensed.

運動解析システムSにおいては、図1(a)に示すように、撮像装置2を、ゴルフのスイングを行う被験者Hのスイング動作全体を撮影可能な対面の位置に設置するように構成する。 In the motion analysis system S, as shown in FIG. 1A, the imaging device 2 is configured to be installed at a facing position where the entire swing motion of the subject H who swings golf can be photographed.

図2は、本発明の一実施形態に係るセンサユニット1のハードウェアの構成を示すブロック図である。 FIG. 2 is a block diagram showing a hardware configuration of the sensor unit 1 according to the embodiment of the present invention.

センサユニットは、図2に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、センサ部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。 As shown in FIG. 2, the sensor unit includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, and a sensor unit. It includes 16, an input unit 17, an output unit 18, a storage unit 19, a communication unit 20, and a drive 21.

CPU11は、ROM12に記録されているプログラム、又は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。また、CPU11は、内部に備えるRTC(Real Time Clock)回路111によってもたらされる計時機能から現在の時刻情報を読み出し可能に構成される。 The CPU 11 executes various processes according to the program recorded in the ROM 12 or the program loaded from the storage unit 19 into the RAM 13. Further, the CPU 11 is configured to be able to read the current time information from the timekeeping function provided by the RTC (Real Time Lock) circuit 111 provided inside.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。 Data and the like necessary for the CPU 11 to execute various processes are also appropriately stored in the RAM 13.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、センサ部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。 The CPU 11, ROM 12 and RAM 13 are connected to each other via the bus 14. An input / output interface 15 is also connected to the bus 14. A sensor unit 16, an input unit 17, an output unit 18, a storage unit 19, a communication unit 20, and a drive 21 are connected to the input / output interface 15.

センサ部16は、センサ部16−1は、ジャイロセンサ、3軸角速度センサ等の各種センサにより構成され、少なくとも、ユーザの動作に応じて当該センサユニット1に生じた角速度及び加速度を検出して、センサ情報として出力する。 The sensor unit 16 includes various sensors such as a gyro sensor and a three-axis angular velocity sensor, and detects at least the angular velocity and acceleration generated in the sensor unit 1 according to the user's operation. Output as sensor information.

入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 17 is composed of various buttons and the like, and inputs various information according to a user's instruction operation.
The output unit 18 is composed of a display, a speaker, or the like, and outputs an image or sound.
The storage unit 19 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 20 controls communication with another device (not shown) via a network including the Internet.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。 A removable media 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 21. The program read from the removable media 31 by the drive 21 is installed in the storage unit 19 as needed. Further, the removable media 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19.

図3は、本発明の一実施形態に係る撮像装置2及び携帯端末3のハードウェアの構成を示すブロック図である。
撮像装置2は、例えば、デジタルカメラとして構成される。
FIG. 3 is a block diagram showing a hardware configuration of an image pickup apparatus 2 and a mobile terminal 3 according to an embodiment of the present invention.
The image pickup device 2 is configured as, for example, a digital camera.

撮像装置2は、図3に示すように、(センサ部16を除く)CPU11乃至ドライブ21に加えて、さらに、撮像部22を備える。なお、撮像装置2のCPU11乃至ドライブ21は、センサユニット1のCPU11乃至ドライブ21とハードウェア構成が同一であるため説明を省略する。 As shown in FIG. 3, the image pickup apparatus 2 further includes an image pickup section 22 in addition to the CPU 11 to the drive 21 (excluding the sensor section 16). Since the CPU 11 to the drive 21 of the image pickup apparatus 2 have the same hardware configuration as the CPU 11 to the drive 21 of the sensor unit 1, the description thereof will be omitted.

撮像部22は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。 Although not shown, the image pickup unit 22 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is composed of a lens that collects light, such as a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. A zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with peripheral circuits for adjusting setting parameters such as focus, exposure, and white balance, if necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部22の出力信号として出力される。
このような撮像部22の出力信号である画像のデータは、CPU11や図示しない画像処理部等に適宜供給される。
The image sensor is composed of a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element performs photoelectric conversion (imaging) of the subject image, accumulates an image signal for a certain period of time, and sequentially supplies the accumulated image signal as an analog signal to AFE.
AFE executes various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and is output as an output signal of the imaging unit 22.
The image data, which is the output signal of the imaging unit 22, is appropriately supplied to the CPU 11, an image processing unit (not shown), or the like.

また、携帯端末3は、例えば、スマートフォンやタブレット端末等、通信部、表示部、及びタッチパネル等の操作入力部を備えるデバイスである。
携帯端末3のCPU11乃至撮像部22は、撮像装置2のCPU11乃至撮像部22とハードウェア構成が同一であるため、説明を省略する。
Further, the mobile terminal 3 is a device including, for example, a smartphone, a tablet terminal, or the like, a communication unit, a display unit, and an operation input unit such as a touch panel.
Since the CPU 11 to the imaging unit 22 of the mobile terminal 3 have the same hardware configuration as the CPU 11 to the imaging unit 22 of the imaging device 2, the description thereof will be omitted.

なお、以下において、ハードウェア構成のうち、センサユニット1、撮像装置2又は携帯端末3の別を説明するときには、センサユニット1の場合には符号の後に「−1」を付し、撮像装置2の場合には符号の後に「−2」を付し、携帯端末3の場合には符号の後に「−3」を付す。即ち、センサユニット1の場合には、CPU11−1乃至ドライブ21−1となり、撮像装置2の場合には、CPU11−2乃至撮像部22−2となり、携帯端末3の場合には、CPU11−3乃至撮像部22−3となる。 In the following, when describing the distinction between the sensor unit 1, the image pickup device 2 and the mobile terminal 3 in the hardware configuration, in the case of the sensor unit 1, "-1" is added after the reference numeral to indicate the image pickup device 2. In the case of, add "-2" after the code, and in the case of the mobile terminal 3, add "-3" after the code. That is, in the case of the sensor unit 1, it becomes the CPU 11-1 to the drive 21-1, in the case of the image pickup device 2, it becomes the CPU 11-2 to the image pickup unit 22-2, and in the case of the mobile terminal 3, it becomes the CPU 11-3. To the imaging unit 22-3.

このように構成される運動解析システムSでは、スイング動作時のセンサ情報と、録画された動画において、スイング動作における所定のタイミングにおける、センサ情報から解析される姿勢と、動画から解析される姿勢の違いを判定して、スイング動作の評価を行う。
例えば、所定のタイミングにおいて、センサ情報から腰を回転させる動きがあり、対応する動画の被験者の姿勢から、そのスイング動作が適切か否かの評価を行う。
In the motion analysis system S configured in this way, the sensor information during the swing motion, the posture analyzed from the sensor information at a predetermined timing in the swing motion, and the posture analyzed from the moving motion in the recorded moving image are determined. The difference is judged and the swing motion is evaluated.
For example, at a predetermined timing, there is a movement of rotating the waist from the sensor information, and it is evaluated whether or not the swing movement is appropriate from the posture of the subject of the corresponding moving image.

図4は、図2のセンサユニット1の機能的構成のうち、練習時取得データ送信処理を実行するための機能的構成を示す機能ブロック図である。
練習時取得データ送信処理とは、センサユニット1において、練習時にセンサ情報を取得し、センサユニット1のRTC回路111−1の値と撮像装置2から取得したRTC回路111−2の値との差分を計測して、この差分値を携帯端末3に送信する一連の処理をいう。
FIG. 4 is a functional block diagram showing a functional configuration for executing the data transmission process acquired during practice among the functional configurations of the sensor unit 1 of FIG. 2.
The data transmission process acquired during practice is the difference between the value of the RTC circuit 111-1 of the sensor unit 1 and the value of the RTC circuit 111-2 acquired from the image pickup device 2 when the sensor information is acquired during practice in the sensor unit 1. Is a series of processes for measuring and transmitting the difference value to the mobile terminal 3.

練習時取得データ送信処理を実行する場合には、図4に示すように、CPU11−1において、通信制御部51と、RTC差分値計測部52と、センサ情報解析部53と、が機能する。 When the data transmission process acquired during practice is executed, as shown in FIG. 4, the communication control unit 51, the RTC difference value measurement unit 52, and the sensor information analysis unit 53 function in the CPU 11-1.

また、記憶部19−1の一領域には、RTC差分値記憶部71が設定される。
RTC差分値記憶部71には、後述する練習の開始・終了時のRTC差分値のデータが記憶される。
Further, an RTC difference value storage unit 71 is set in one area of the storage unit 19-1.
The RTC difference value storage unit 71 stores RTC difference value data at the start and end of the practice described later.

通信制御部51は、撮像装置2及び携帯端末3との間で通信を行うように通信部20−1を制御する。 The communication control unit 51 controls the communication unit 20-1 so as to communicate with the image pickup device 2 and the mobile terminal 3.

具体的には、通信制御部51は、練習開始・終了の指示を携帯端末3から通信部20−1を介して受信したか否かを判定する。また、通信制御部51は、撮像装置2に対して、録画開始・終了コマンドを送信し、携帯端末3に対して、スイング動作と判定された区間のセンサ情報をスイング動作データとして送信し、携帯端末3に対して、RTC差分値記憶部71に記憶される開始・終了時のRTC差分値を送信するように通信部20−1を制御する。 Specifically, the communication control unit 51 determines whether or not the instruction for starting / ending the practice has been received from the mobile terminal 3 via the communication unit 20-1. Further, the communication control unit 51 transmits a recording start / end command to the image pickup device 2, transmits sensor information of a section determined to be a swing operation to the mobile terminal 3 as swing operation data, and carries the mobile terminal 3. The communication unit 20-1 is controlled so as to transmit the RTC difference value at the start / end stored in the RTC difference value storage unit 71 to the terminal 3.

RTC差分値計測部52は、取得したセンサユニット1のRTC回路111−1の値と、受信した撮像装置2のRTC回路111−2の値を比較して、スイングの練習開始時と終了時とのRTC差分値を計測する。 The RTC difference value measuring unit 52 compares the acquired value of the RTC circuit 111-1 of the sensor unit 1 with the value of the received RTC circuit 111-2 of the imaging device 2, and at the start and end of the swing practice. RTC difference value is measured.

具体的には、RTC差分値計測部52は、練習の開始時と終了時とのRTC差分値を計測する。また、RTC差分値計測部52は、計測した開始と終了時とのRTC差分値をRTC差分値記憶部71に記憶させる。 Specifically, the RTC difference value measuring unit 52 measures the RTC difference value at the start and the end of the practice. Further, the RTC difference value measuring unit 52 stores the measured RTC difference value between the start and the end in the RTC difference value storage unit 71.

センサ情報解析部53は、センサ部16−1から取得したセンサ情報を解析する。詳細には、センサ情報解析部53は、センサ部16−1から逐次取得されるセンサ情報を解析して、スイングの開始時点(アドレス状態)や、スイング動作であることを解析により特定する。 The sensor information analysis unit 53 analyzes the sensor information acquired from the sensor unit 16-1. Specifically, the sensor information analysis unit 53 analyzes the sensor information sequentially acquired from the sensor unit 16-1, and identifies the start time of the swing (address state) and the swing operation by analysis.

具体的には、センサ情報解析部53は、X軸の角度が20度以上であり、かつ、加速度の分散値がα以下である場合には、被験者の動作がアドレス状態であると判定する。また、センサ情報解析部53は、Z軸の角速度が200度/秒以上である場合には、被験者がスイング動作をしている状態であると判定する。 Specifically, the sensor information analysis unit 53 determines that the subject's movement is in the address state when the X-axis angle is 20 degrees or more and the acceleration dispersion value is α or less. Further, when the angular velocity of the Z axis is 200 degrees / sec or more, the sensor information analysis unit 53 determines that the subject is in a swinging motion.

図5は、図3の携帯端末3の機能的構成のうち、データ解析処理を実行するための機能的構成を示す機能ブロック図である。
データ解析処理とは、センサ情報と、動画における所定の動作時の時刻の差分を解析して解析情報としてスイング動作の評価結果を表示する一連の処理をいう。
FIG. 5 is a functional block diagram showing a functional configuration for executing data analysis processing among the functional configurations of the mobile terminal 3 of FIG.
The data analysis process is a series of processes for analyzing the difference between the sensor information and the time of a predetermined operation in the moving image and displaying the evaluation result of the swing operation as the analysis information.

データ解析処理を実行する場合には、図5に示すように、CPU11−3において、センサ情報解析処理部91と、映像解析処理部92と、解析情報表示処理部93と、が機能する。 When the data analysis processing is executed, as shown in FIG. 5, the sensor information analysis processing unit 91, the video analysis processing unit 92, and the analysis information display processing unit 93 function in the CPU 11-3.

また、記憶部19−3の一領域には、解析結果記憶部121が設定される。
解析結果記憶部121には、各種の解析結果のデータが記憶される。
Further, an analysis result storage unit 121 is set in one area of the storage unit 19-3.
Data of various analysis results are stored in the analysis result storage unit 121.

センサ情報解析処理部91は、センサ情報解析処理を実行する。センサ情報解析処理では、センサ情報から、1スイングにおけるテイクバック、腰の切り返しタイミング、ハーフスイング、及び、スイング動作の終了時点を判定する。 The sensor information analysis processing unit 91 executes the sensor information analysis processing. In the sensor information analysis process, the takeback in one swing, the hip turning timing, the half swing, and the end time point of the swing operation are determined from the sensor information.

具体的には、センサ情報解析処理部91は、角速度の変化に基づいて、テイクバック、腰の切り返し、ハーフスイング、及び、スイング動作の終了を判定する。テイクバックは、アドレス状態以降においてZ軸の角速度がマイナスとなったことをもって判定する。腰の切り返しは、テイクバック後にZ軸の角速度がプラスに転じたことをもって判定する。ハーフスイングは、Z軸の角速度が減少に転じたことをもって判定する。また、スイング動作の終了は、Z軸の角速度が10度/秒を下回ったことをもって判定する。 Specifically, the sensor information analysis processing unit 91 determines the takeback, the hip turning, the half swing, and the end of the swing operation based on the change in the angular velocity. Takeback is determined when the angular velocity of the Z axis becomes negative after the address state. The hip turning is determined by the fact that the Z-axis angular velocity turns positive after takeback. The half swing is determined when the angular velocity of the Z axis starts to decrease. Further, the end of the swing operation is determined when the angular velocity of the Z axis falls below 10 degrees / sec.

映像解析処理部92は、映像解析処理を実行する。映像解析処理では、撮影された動画における各種のスイング動作の時刻等が判定される。 The image analysis processing unit 92 executes the image analysis processing. In the video analysis process, the times of various swing operations in the captured moving image are determined.

具体的には、映像解析処理部92は、テイクバックの検出時刻前後の所定数のフレーム画像を解析対象とする。また、映像解析処理部92は、画像の下部中央付近で左に移動している被写体をクラブヘッドと認識して、移動開始時刻をテイクバックの開始時刻とする。また、映像解析処理部92は、発見したクラブヘッドの右側における丸い物体の位置を、ボール位置として特定する。また、映像解析処理部92は、クラブヘッドを追従し、クラブヘッドの移動方向が反転した場合には、クラブヘッドの移動方向が反転した時点をクラブヘッドの切り返しの時刻として判定する。また、映像解析処理部92は、検出したハーフスイング以降の画像でボールの移動が右方向である場合には、右方向にボールが移動した時点を、インパクトの時刻として判定する。 Specifically, the video analysis processing unit 92 analyzes a predetermined number of frame images before and after the takeback detection time. Further, the image analysis processing unit 92 recognizes the subject moving to the left near the lower center of the image as the club head, and sets the movement start time as the takeback start time. Further, the image analysis processing unit 92 specifies the position of the round object on the right side of the found club head as the ball position. Further, the image analysis processing unit 92 follows the club head, and when the moving direction of the club head is reversed, determines the time when the moving direction of the club head is reversed as the time when the club head is turned back. Further, when the movement of the ball is in the right direction in the detected image after the half swing, the image analysis processing unit 92 determines the time when the ball moves in the right direction as the time of impact.

解析情報表示処理部93は、解析結果表示処理を実行する。解析結果表示処理では、センサ情報及び映像の解析結果として、所定のスイング動作時の姿勢やクラブの状況、各種の腰の角度等を表示する。 The analysis information display processing unit 93 executes the analysis result display processing. In the analysis result display processing, as the analysis result of the sensor information and the image, the posture at the time of a predetermined swing operation, the state of the club, various waist angles, and the like are displayed.

具体的には、解析情報表示処理部93は、各種スイング動作に対応するタイミングでのスイング動作データ及びスイング動作動画データにおける姿勢等からスイング動作の状態を評価して表示する。詳細には、解析情報表示処理部93は、スイング動作データから検出したテイクバック時刻(TBS)と、スイング動作動画データから検出したテイクバック時刻(TBM)の時間的な差分値がβ以上である場合には、「手が先行しています。」という表示を出力し、スイング動作データから検出した腰の回転の切り返し時刻(TRS)と、スイング動作動画データから検出したクラブヘッドの回転の切り返し時刻(TRM)の差分が0以上である場合には、「クラブが先行しています。」という表示を出力するように出力部18−3を制御する。また、解析情報表示処理部93は、腰の回転の切り返し時の腰の角度を算出し、算出した腰の回転の切り返し時の腰の角度をスイング動作におけるトップ時の腰角度としてその数値を表示出力するように出力部18−3を制御する。また、解析情報表示処理部93は、インパクト時の腰の角度を算出し、これをインパクト時の腰角度として数値を表示出力するように出力部18−3を制御する。 Specifically, the analysis information display processing unit 93 evaluates and displays the state of the swing motion from the posture and the like in the swing motion data and the swing motion moving image data at the timing corresponding to various swing motions. Specifically, the analysis information display processing unit 93 has a temporal difference value of β or more between the takeback time (TBS) detected from the swing motion data and the takeback time (TBM) detected from the swing motion moving image data. In this case, the message "Hand is ahead" is output, and the hip rotation turn-back time (TRS) detected from the swing motion data and the club head rotation turn-back time detected from the swing motion video data. When the difference of (TRM) is 0 or more, the output unit 18-3 is controlled so as to output the display "Club is ahead." Further, the analysis information display processing unit 93 calculates the waist angle at the time of turning back the rotation of the waist, and displays the value as the calculated waist angle at the time of turning back the rotation of the waist as the waist angle at the top in the swing operation. The output unit 18-3 is controlled so as to output. Further, the analysis information display processing unit 93 calculates the waist angle at the time of impact, and controls the output units 18-3 so as to display and output a numerical value using this as the waist angle at the time of impact.

図6は、運動解析システムSにおける運動解析に係る処理のやり取りを示すタイミングチャートである。 FIG. 6 is a timing chart showing the exchange of processes related to motion analysis in the motion analysis system S.

運動解析システムSでは、図7に示すように、練習開始に伴い、まず、携帯端末3からセンサユニット1及び撮像装置2に対して、開始コマンドを送信する。 In the motion analysis system S, as shown in FIG. 7, a start command is first transmitted from the mobile terminal 3 to the sensor unit 1 and the image pickup device 2 with the start of the practice.

開始コマンドを受けた撮像装置2では、自機のRTCを取得し、センサユニット1に送信する。
同じく開始コマンドを受けたセンサユニット1では、RTC回路111−1の値を取得し、撮像装置2から取得したRTC回路111−2の値との差分値(開始時のRTC差分値)のデータを計測する。また、センサユニット1では、開始コマンドを受けたことを契機にセンシングを開始する。
The image pickup device 2 that has received the start command acquires the RTC of its own device and transmits it to the sensor unit 1.
Similarly, the sensor unit 1 that received the start command acquires the value of the RTC circuit 111-1, and obtains the data of the difference value (RTC difference value at the start) from the value of the RTC circuit 111-2 acquired from the image pickup device 2. measure. Further, the sensor unit 1 starts sensing when it receives a start command.

次に、センサユニット1では、センシングの結果、スイング動作の開始を検出した場合には、録画開始コマンドを撮像装置2に送信する。録画開始コマンドを受信した撮像装置2では録画を開始する。 Next, when the sensor unit 1 detects the start of the swing operation as a result of sensing, it transmits a recording start command to the image pickup device 2. The imaging device 2 that has received the recording start command starts recording.

また、センサユニット1では、スイング動作の終了を検出した場合には、録画終了コマンドを撮像装置2に送信する。録画終了コマンドを受信した撮像装置2では、録画を終了する。 Further, when the sensor unit 1 detects the end of the swing operation, it transmits a recording end command to the image pickup device 2. The image pickup device 2 that has received the recording end command ends the recording.

その後、センサユニット1では、スイング動作と判定した期間のセンサ情報をスイング動作データとして携帯端末3に送信する。また、撮像装置2では、録画した動画データをスイング動作動画データとして携帯端末3に送信する。尚、これらの録画に関する処理は、練習中、スイングが行われる毎に繰り返し実行される。 After that, the sensor unit 1 transmits the sensor information for the period determined to be the swing operation to the mobile terminal 3 as swing operation data. Further, the image pickup device 2 transmits the recorded moving image data to the mobile terminal 3 as swing motion moving image data. It should be noted that these recording-related processes are repeatedly executed each time a swing is performed during practice.

練習が終了した場合には、携帯端末3からセンサユニット1及び撮像装置2に対して、終了コマンドを送信する。 When the practice is completed, the mobile terminal 3 transmits an end command to the sensor unit 1 and the image pickup device 2.

終了コマンドを受けた撮像装置2では、RTC回路111−2から値を取得し、センサユニット1に送信する。
同じく終了コマンドを受けたセンサユニット1では、RTC111−1の値を取得し、撮像装置2から取得したRTC回路111−2の値との差分値(終了時のRTC差分値)のデータを計測する。そして、センサユニット1は、開始時と終了時のRTC差分値のデータを携帯端末3に送信する。
The image pickup apparatus 2 that has received the end command acquires a value from the RTC circuit 111-2 and transmits it to the sensor unit 1.
Similarly, the sensor unit 1 that has received the end command acquires the value of the RTC111-1 and measures the data of the difference value (RTC difference value at the end) from the value of the RTC circuit 111-2 acquired from the image pickup device 2. .. Then, the sensor unit 1 transmits the data of the RTC difference value at the start and the end to the mobile terminal 3.

その後、携帯端末3では、取得したスイング動作データ、スイング動作動画データ、及び、開始時と終了時のRTC差分値のデータに基づいて、解析が行われる。この解析は、RTCの差分値によって、スイング動作データとスイング動作動画データとの時間を一致させ、スイング動作データから解析した被験者の動きと、スイング動作動画データから検出された被験者の動きとに基づいたものなる。携帯端末3では、これらの解析の結果を、画面に表示する。 After that, the mobile terminal 3 performs analysis based on the acquired swing motion data, swing motion moving image data, and RTC difference value data at the start and end. This analysis is based on the subject's movement analyzed from the swing motion data and the subject's motion detected from the swing motion video data by matching the time between the swing motion data and the swing motion video data by the difference value of the RTC. It becomes a thing. The mobile terminal 3 displays the results of these analyzes on the screen.

図7は、図4の機能的構成を有する図2のセンサユニット1が実行する練習時取得データ送信処理の流れを説明するフローチャートである。
練習時取得データ送信処理は、ユーザによる入力部17−1への練習時取得データ送信処理開始の操作により開始される。
FIG. 7 is a flowchart illustrating a flow of practice acquisition data transmission processing executed by the sensor unit 1 of FIG. 2 having the functional configuration of FIG.
The practice-time acquisition data transmission process is started by the operation of the user to start the practice-time acquisition data transmission process to the input unit 17-1.

ステップS11において、通信制御部51は、練習開始の指示を携帯端末3から通信部20−1を介して受信したか否かを判定する。
練習開始の指示を受信していない場合には、ステップS11においてNOと判定されて、処理は待機状態となる。
練習開始の指示を受信した場合には、ステップS11においてYESと判定されて、処理はステップS12に進む。
In step S11, the communication control unit 51 determines whether or not the instruction to start the practice has been received from the mobile terminal 3 via the communication unit 20-1.
If the instruction to start the practice has not been received, it is determined as NO in step S11, and the process is in the standby state.
When the instruction to start the practice is received, it is determined as YES in step S11, and the process proceeds to step S12.

ステップS12において、RTC差分値計測部52は、センサユニット1のRTC回路111−1の値、及び、撮像装置2のRTC回路111−2の値を取得し、互いのRTCの値の差分値を計測する。 In step S12, the RTC difference value measuring unit 52 acquires the value of the RTC circuit 111-1 of the sensor unit 1 and the value of the RTC circuit 111-2 of the imaging device 2, and obtains the difference value of the RTC values of each other. measure.

ステップS13において、RTC差分値計測部52は、計測した開始時のRTC差分値のデータをRTC差分値記憶部71に記憶させる。 In step S13, the RTC difference value measuring unit 52 stores the measured RTC difference value data at the start in the RTC difference value storage unit 71.

ステップS14において、センサ情報解析部53は、X軸の角度が20度以上であり、かつ、加速度の分散値がα以下であるか否かを判定する。
X軸の角度が20度以上であり、かつ、加速度の分散値がα以下でない場合には、ステップS14においてNOと判定されて、待機状態となる。
X軸の角度が20度以上であり、かつ、加速度の分散値がα以下の場合には、ステップS14においてYESと判定されて、処理はステップS15に進む。
In step S14, the sensor information analysis unit 53 determines whether or not the angle of the X-axis is 20 degrees or more and the dispersion value of the acceleration is α or less.
If the angle of the X-axis is 20 degrees or more and the dispersion value of the acceleration is not α or less, NO is determined in step S14 and the standby state is set.
When the angle of the X-axis is 20 degrees or more and the dispersion value of the acceleration is α or less, YES is determined in step S14, and the process proceeds to step S15.

ステップS15において、センサ情報解析部53は、アドレス状態であると判定する。 In step S15, the sensor information analysis unit 53 determines that it is in the address state.

ステップS16において、通信制御部51は、撮像装置2に対して、録画開始コマンドを送信するように通信部20−1を制御する。その結果、撮像装置2では、録画が開始される。 In step S16, the communication control unit 51 controls the communication unit 20-1 so as to transmit a recording start command to the image pickup device 2. As a result, the image pickup apparatus 2 starts recording.

ステップS17において、センサ情報解析部53は、Z軸の角速度が200度/秒以上であるか否かを判定する。
Z軸の角速度が200度/秒以上でない場合には、ステップS17においてNOと判定されて、待機状態となる。
Z軸の角速度が200度/秒以上の場合には、ステップS14においてYESと判定されて、処理はステップS18に進む。
In step S17, the sensor information analysis unit 53 determines whether or not the angular velocity of the Z axis is 200 degrees / sec or more.
If the angular velocity of the Z-axis is not 200 degrees / sec or more, NO is determined in step S17, and the standby state is set.
When the angular velocity of the Z axis is 200 degrees / sec or more, YES is determined in step S14, and the process proceeds to step S18.

ステップS18において、センサ情報解析部53は、解析対象(被験者)がスイング動作をしている状態であると判定する。 In step S18, the sensor information analysis unit 53 determines that the analysis target (subject) is in a swinging motion.

ステップS19において、通信制御部51は、撮像装置2に対して、録画終了コマンドを送信するように通信部20−1を制御する。その結果、撮像装置2では、録画が終了される。 In step S19, the communication control unit 51 controls the communication unit 20-1 so as to transmit a recording end command to the image pickup device 2. As a result, the image pickup device 2 ends the recording.

ステップS20において、通信制御部51は、携帯端末3に対して、スイング動作をしていると判定された期間のセンサ情報をスイング動作データとして送信するように通信部20−1を制御する。通信制御部51は、スイング動作をしている状態であると判定される毎にその際のスイング動作データを携帯端末3に送信するように通信部20−1を制御する。 In step S20, the communication control unit 51 controls the communication unit 20-1 so as to transmit the sensor information for the period determined to be performing the swing operation to the mobile terminal 3 as swing operation data. The communication control unit 51 controls the communication unit 20-1 so as to transmit the swing operation data at that time to the mobile terminal 3 each time it is determined that the swing operation is being performed.

ステップS21において、通信制御部51は、練習終了の指示を携帯端末3から通信部20−1を介して受信したか否かを判定する。
練習終了の指示を受信していない場合には、ステップS21においてNOと判定されて、処理はステップS14に戻る。
練習終了の指示を受信した場合には、ステップS21においてYESと判定されて、処理はステップS22に進む。
In step S21, the communication control unit 51 determines whether or not the instruction to end the practice has been received from the mobile terminal 3 via the communication unit 20-1.
If the instruction to end the practice has not been received, NO is determined in step S21, and the process returns to step S14.
When the instruction to end the practice is received, it is determined as YES in step S21, and the process proceeds to step S22.

ステップS22において、RTC差分値計測部52は、センサユニット1のRTC回路111−1の値及び撮像装置2のRTC回路111−2の値を取得し、互いのRTCの差分値を計測する。 In step S22, the RTC difference value measuring unit 52 acquires the value of the RTC circuit 111-1 of the sensor unit 1 and the value of the RTC circuit 111-2 of the imaging device 2, and measures the difference value of the RTCs of each other.

ステップS23において、RTC差分値計測部52は、計測した終了時のRTC差分値のデータをRTC差分値記憶部71に記憶させる。 In step S23, the RTC difference value measuring unit 52 stores the RTC difference value data at the end of the measurement in the RTC difference value storage unit 71.

ステップS24において、通信制御部51は、携帯端末3に対して、RTC差分値記憶部71に記憶される開始時と終了時のRTC差分値のデータを送信するように通信部20−1を制御する。その後、処理はステップS11に戻る。 In step S24, the communication control unit 51 controls the communication unit 20-1 so as to transmit the RTC difference value data stored in the RTC difference value storage unit 71 at the start time and the end time to the mobile terminal 3. To do. After that, the process returns to step S11.

図8は、図5の機能的構成を有する図3の携帯端末3が実行するデータ解析処理の流れを説明するフローチャートである。
データ解析処理は、ユーザによる入力部17−3へのデータ解析処理開始の操作により開始される。また、データ解析処理にあたり、携帯端末3では、センサユニット1からスイング動作データ及び開始時と終了時のRTC差分値データ、撮像装置2からスイング動作動画データを受信し、スイング動作データとスイング動作動画データにおける時刻を開始時と終了時のRTC差分値のデータによって一致させる。
FIG. 8 is a flowchart illustrating a flow of data analysis processing executed by the mobile terminal 3 of FIG. 3 having the functional configuration of FIG.
The data analysis process is started by the user's operation of starting the data analysis process on the input unit 17-3. Further, in the data analysis processing, the mobile terminal 3 receives the swing operation data, the RTC difference value data at the start and the end, and the swing operation moving image data from the imaging device 2 from the sensor unit 1, and receives the swing operation data and the swing operation moving image. The time in the data is matched by the data of the RTC difference value at the start and the end.

ステップS41において、センサ情報解析処理部91は、センサ情報解析処理を実行する。センサ情報解析処理の実行の結果、センサ情報において、各種のスイング動作が判定される。 In step S41, the sensor information analysis processing unit 91 executes the sensor information analysis processing. As a result of executing the sensor information analysis process, various swing operations are determined in the sensor information.

ステップS42において、映像解析処理部92は、映像解析処理を実行する。映像解析処理の実行の結果、各種のスイング動作の時刻等が判定される。 In step S42, the image analysis processing unit 92 executes the image analysis processing. As a result of executing the image analysis process, the times of various swing operations and the like are determined.

ステップS43において、解析情報表示処理部93は、解析結果表示処理を実行する。解析結果表示処理の実行の結果、センサ情報及び映像の解析結果として、所定のスイング動作時の姿勢やクラブの状況、各種の腰の角度等を表示する。その後、データ解析処理は終了する。 In step S43, the analysis information display processing unit 93 executes the analysis result display processing. As a result of executing the analysis result display processing, as the analysis result of the sensor information and the image, the posture at the time of a predetermined swing operation, the state of the club, various waist angles, and the like are displayed. After that, the data analysis process ends.

図9は、データ解析処理のうち、センサ情報解析処理の流れを説明するフローチャートである。本処理の開始時点において、携帯端末3は、センサユニット1から通信部20−3を介して、スイング動作データと、RTC差分値のデータが受信された状態となっている。 FIG. 9 is a flowchart illustrating the flow of the sensor information analysis process in the data analysis process. At the start of this process, the mobile terminal 3 is in a state of receiving the swing operation data and the RTC difference value data from the sensor unit 1 via the communication unit 20-3.

ステップS61において、センサ情報解析処理部91は、スイング動作データを時系列的に順次解析し、Z軸の角速度がマイナスか否かを判定する。
Z軸の角速度がマイナスでない場合には、ステップS61においてNOと判定されて、処理は待機状態となり、スイング動作データにおける次の時点のデータを参照する。
Z軸の角速度がマイナスの場合には、ステップS61においてYESと判定されて、処理はステップS62に進む。
In step S61, the sensor information analysis processing unit 91 sequentially analyzes the swing motion data in time series and determines whether or not the angular velocity of the Z axis is negative.
If the angular velocity of the Z axis is not negative, it is determined as NO in step S61, the process is in the standby state, and the data at the next time point in the swing operation data is referred to.
If the angular velocity of the Z axis is negative, YES is determined in step S61, and the process proceeds to step S62.

ステップS62において、センサ情報解析処理部91は、マイナスとなった時点の時刻をテイクバックのタイミングと判定する。 In step S62, the sensor information analysis processing unit 91 determines that the time at which the value becomes negative is the takeback timing.

ステップS63において、センサ情報解析処理部91は、Z軸の角速度がマイナスからプラスに転じたか否かを判定する。
Z軸の角速度がプラスに転じていない場合には、ステップS63においてNOと判定されて、処理は待機状態となり、スイング動作データにおける次の時点のデータを参照する。
Z軸の角速度がプラスに転じた場合には、ステップS63においてYESと判定されて、処理はステップS64に進む。
In step S63, the sensor information analysis processing unit 91 determines whether or not the angular velocity of the Z axis has changed from negative to positive.
If the angular velocity of the Z-axis has not turned positive, it is determined as NO in step S63, the process is in the standby state, and the data at the next time in the swing operation data is referred to.
When the angular velocity of the Z axis turns positive, it is determined as YES in step S63, and the process proceeds to step S64.

ステップS64において、センサ情報解析処理部91は、Z軸の角速度がマイナスからプラスに転じた時点の時刻を腰の回転の切り返しタイミングと判定する。 In step S64, the sensor information analysis processing unit 91 determines that the time at which the angular velocity of the Z axis changes from minus to plus is the timing of turning back the rotation of the waist.

ステップS65において、センサ情報解析処理部91は、Z軸の角速度がプラスに転じた以降に減少に転じたか否かを判定する。
Z軸の角速度が減少に転じていない場合には、ステップS65においてNOと判定されて、処理は待機状態となり、スイング動作データにおける次の時点のデータを参照する。
Z軸の角速度が減少に転じた場合には、ステップS65においてYESと判定されて、処理はステップS66に進む。
In step S65, the sensor information analysis processing unit 91 determines whether or not the angular velocity of the Z-axis has turned positive and then decreased.
If the angular velocity of the Z-axis has not turned to decrease, it is determined as NO in step S65, the process is in the standby state, and the data at the next time in the swing operation data is referred to.
When the angular velocity of the Z axis starts to decrease, YES is determined in step S65, and the process proceeds to step S66.

ステップS66において、センサ情報解析処理部91は、Z軸の角速度がプラスに転じた以降に減少に転じた時点の時刻をハーフスイングのタイミングと判定する。 In step S66, the sensor information analysis processing unit 91 determines that the time at which the angular velocity of the Z-axis turns positive and then turns downward is the timing of the half swing.

ステップS67において、センサ情報解析処理部91は、Z軸の角速度が10度/秒を下回ったか否かを判定する。
Z軸の角速度が10度/秒を下回っていない場合には、ステップS67においてNOと判定されて、処理は待機状態となり、スイング動作データにおける次の時点のデータを参照する。
Z軸の角速度が10度/秒を下回った場合には、ステップS67においてYESと判定されて、処理はステップS68に進む。
In step S67, the sensor information analysis processing unit 91 determines whether or not the angular velocity of the Z axis is less than 10 degrees / second.
If the angular velocity of the Z-axis is not less than 10 degrees / sec, NO is determined in step S67, the process is in the standby state, and the data at the next time in the swing operation data is referred to.
If the angular velocity of the Z axis is less than 10 degrees / sec, YES is determined in step S67, and the process proceeds to step S68.

ステップS68において、センサ情報解析処理部91は、Z軸の角速度が10度/秒を下回った時点の時刻をスイングの終了と判定する。その後、センサ情報解析処理は終了する。 In step S68, the sensor information analysis processing unit 91 determines that the time at which the angular velocity of the Z axis falls below 10 degrees / second is the end of the swing. After that, the sensor information analysis process ends.

図10は、データ解析処理のうち、映像解析処理の流れを説明するフローチャートである。本処理の開始時点において、携帯端末3は、センサユニット1から通信部20−3を介して、スイング動作動画データが受信された状態となっている。 FIG. 10 is a flowchart illustrating the flow of the video analysis process in the data analysis process. At the start of this process, the mobile terminal 3 is in a state of receiving swing motion moving image data from the sensor unit 1 via the communication unit 20-3.

ステップS81において、映像解析処理部92は、対応するスイング動作データから判定されたテイクバックのタイミングに一致する時刻の前後の所定数のフレーム画像を解析対象とする。 In step S81, the video analysis processing unit 92 analyzes a predetermined number of frame images before and after the time corresponding to the takeback timing determined from the corresponding swing motion data.

ステップS82において、映像解析処理部92は、画像の下部中央付近で左方向に移動する被写体を探索する。 In step S82, the image analysis processing unit 92 searches for a subject moving to the left near the center of the lower part of the image.

ステップS83において、映像解析処理部92は、画像の下部中央付近で左方向に移動する被写体を発見したか否かを判定する。
画像の下部中央付近で左に移動する被写体を発見していない場合には、ステップS83においてNOと判定されて処理は、ステップS82に戻る。
画像の下部中央付近で左に移動する被写体を発見した場合には、ステップS83においてYESと判定されて処理は、ステップS84に進む。
In step S83, the image analysis processing unit 92 determines whether or not a subject moving to the left is found near the center of the lower part of the image.
If no subject moving to the left is found near the lower center of the image, NO is determined in step S83, and the process returns to step S82.
When a subject moving to the left is found near the lower center of the image, YES is determined in step S83, and the process proceeds to step S84.

ステップS84において、映像解析処理部92は、移動している被写体をクラブヘッドと認識し、移動を開始した時刻をテイクバックの開始時刻と判定する。 In step S84, the image analysis processing unit 92 recognizes the moving subject as the club head, and determines the time when the movement is started as the takeback start time.

ステップS85において、映像解析処理部92は、クラブヘッドの右側で丸い物体を探索する。 In step S85, the image analysis processing unit 92 searches for a round object on the right side of the club head.

ステップS86において、映像解析処理部92は、クラブヘッドの右側で丸い物体を発見したか否かを判定する。
クラブヘッドの右側で丸い物体を発見していない場合には、ステップS86においてNOと判定されて処理は、ステップS85に戻る。
クラブヘッドの右側で丸い物体を発見した場合には、ステップS86においてYESと判定されて処理は、ステップS87に進む。
In step S86, the image analysis processing unit 92 determines whether or not a round object is found on the right side of the club head.
If no round object is found on the right side of the club head, NO is determined in step S86, and the process returns to step S85.
If a round object is found on the right side of the club head, YES is determined in step S86, and the process proceeds to step S87.

ステップS87において、映像解析処理部92は、発見したクラブヘッドの右側における丸い物体の位置を、ボール位置と判定する。 In step S87, the image analysis processing unit 92 determines the position of the round object on the right side of the found club head as the ball position.

ステップS88において、映像解析処理部92は、クラブヘッドを追従する。 In step S88, the image analysis processing unit 92 follows the club head.

ステップS89において、映像解析処理部92は、クラブヘッドの移動方向が反転したか否かを判定する。
クラブヘッドの移動方向が反転していない場合には、ステップS89においてNOと判定されて処理は、ステップS88に戻る。
クラブヘッドの移動方向が反転した場合には、ステップS89においてYESと判定されて処理は、ステップS90に進む。
In step S89, the image analysis processing unit 92 determines whether or not the moving direction of the club head is reversed.
If the moving direction of the club head is not reversed, NO is determined in step S89, and the process returns to step S88.
When the moving direction of the club head is reversed, YES is determined in step S89, and the process proceeds to step S90.

ステップS90において、映像解析処理部92は、クラブヘッドの移動方向が反転した時点をクラブヘッドの切り返しの時点の時刻と判定する。 In step S90, the image analysis processing unit 92 determines that the time when the moving direction of the club head is reversed is the time when the club head is turned back.

ステップS91において、映像解析処理部92は、ハーフスイング以降の画像でボールの移動を検出する。 In step S91, the image analysis processing unit 92 detects the movement of the ball in the image after the half swing.

ステップS92において、映像解析処理部92は、ボールの移動が右方向であるか否かを判定する。
ボールの移動が右方向でない場合には、ステップS92においてNOと判定されて処理は、ステップS91に戻る。
ボールの移動が右方向の場合には、ステップS92においてYESと判定されて処理は、ステップS93に進む。
In step S92, the image analysis processing unit 92 determines whether or not the movement of the ball is in the right direction.
If the movement of the ball is not to the right, NO is determined in step S92, and the process returns to step S91.
When the movement of the ball is in the right direction, YES is determined in step S92, and the process proceeds to step S93.

ステップS93において、映像解析処理部92は、右方向にボールが移動した時点を、インパクトの時刻と判定する。その後、映像解析処理は終了する。 In step S93, the image analysis processing unit 92 determines that the time when the ball moves to the right is the time of impact. After that, the image analysis process ends.

図11は、データ解析処理のうち、解析結果表示処理の流れを説明するフローチャートである。
ステップS111において、解析情報表示処理部93は、センサ情報から判定したテイクバック時刻(TBS)と、動画から判定したテイクバック時刻(TBM)と、を比較する。
FIG. 11 is a flowchart illustrating a flow of analysis result display processing in the data analysis processing.
In step S111, the analysis information display processing unit 93 compares the takeback time (TBS) determined from the sensor information with the takeback time (TBM) determined from the moving image.

ステップS112において、解析情報表示処理部93は、スイング動作データから判定したテイクバック時刻(TBS)と、スイング動作動画データから検出したテイクバック時刻(TBM)の差分がβ以上であるか否かを判定する。なお、βは、理想的なスイングにおけるスイング動作データとスイング動作動画データとを解析した結果に割り出される閾値である。スイング動作データから判定したテイクバック時刻(TBS)と、スイング動作動画データから判定したテイクバック時刻(TBM)の差分がβ以上でない場合には、ステップS112においてNOと判定されて、処理はステップS114に進む。
スイング動作データから判定したテイクバック時刻(TBS)と、スイング動作動画データから判定したテイクバック時刻(TBM)の差分がβ以上の場合には、ステップS112においてYESと判定されて、処理はステップS113に進む。
In step S112, the analysis information display processing unit 93 determines whether or not the difference between the takeback time (TBS) determined from the swing motion data and the takeback time (TBM) detected from the swing motion video data is β or more. judge. Note that β is a threshold value calculated as a result of analyzing the swing motion data and the swing motion moving image data in the ideal swing. If the difference between the takeback time (TBS) determined from the swing motion data and the takeback time (TBM) determined from the swing motion video data is not β or more, it is determined as NO in step S112, and the process is performed in step S114. Proceed to.
When the difference between the takeback time (TBS) determined from the swing motion data and the takeback time (TBM) determined from the swing motion video data is β or more, it is determined to be YES in step S112, and the process is performed in step S113. Proceed to.

ステップS113において、解析情報表示処理部93は、クラブよりも手が先に動いている旨のスイングの状況として「手が先行しています。」という表示を出力するように出力部18−3を制御する。 In step S113, the analysis information display processing unit 93 outputs the output unit 18-3 so as to output a display of "the hand is ahead" as a swing situation indicating that the hand is moving ahead of the club. Control.

ステップS114において、解析情報表示処理部93は、スイング動作データとスイング動作動画データそれぞれについて、腰の回転の切り返し時の腰の角度を算出する。 In step S114, the analysis information display processing unit 93 calculates the hip angle at the time of turning back the hip rotation for each of the swing motion data and the swing motion moving image data.

ステップS115において、解析情報表示処理部93は、算出した腰の回転の切り返し時の腰の角度を、トップ時の腰の角度として数値を出力するように出力部18−3を制御する。 In step S115, the analysis information display processing unit 93 controls the output unit 18-3 so that the calculated waist angle at the time of turning back the waist rotation is output as a numerical value as the waist angle at the top.

ステップS116において、解析情報表示処理部93は、スイング動作データから判定した腰切り返し時刻(TRS)と、動画から判定したクラブヘッドの切り返し時刻(TRM)の差分を算出する。 In step S116, the analysis information display processing unit 93 calculates the difference between the hip turning time (TRS) determined from the swing motion data and the club head turning time (TRM) determined from the moving image.

ステップS117において、解析情報表示処理部93は、スイング動作データから判定した腰の回転時の切り返し時刻(TRS)と、スイング動作動画データから判定したクラブヘッドの回転の切り返し時刻(TRM)の差分値が0以上であるか否かを判定する。
スイング動作データから判定した腰の回転時の切り返し時刻(TRS)と、スイング動作動画データから判定したクラブヘッドの回転時の切り返し時刻(TRM)の差分が0以上でない場合には、ステップS117においてNOと判定されて、処理はステップS119に進む。
スイング動作データから判定した腰の回転時の切り返し時刻(TRS)と、スイング動作動画データから判定したクラブヘッドの回転時の切り返し時刻(TRM)の差分が0以上の場合には、ステップS117においてYESと判定されて、処理はステップS118に進む。
In step S117, the analysis information display processing unit 93 sets a difference value between the hip rotation turn-back time (TRS) determined from the swing motion data and the club head rotation turn-back time (TRM) determined from the swing motion video data. Determines whether or not is 0 or more.
If the difference between the hip rotation turn-back time (TRS) determined from the swing motion data and the club head rotation turn-back time (TRM) determined from the swing motion video data is not 0 or more, NO in step S117. Is determined, and the process proceeds to step S119.
If the difference between the hip rotation turn-back time (TRS) determined from the swing motion data and the club head rotation turn-back time (TRM) determined from the swing motion video data is 0 or more, YES in step S117. Is determined, and the process proceeds to step S118.

ステップS118において、解析情報表示処理部93は、回転時における腰の切り返しと同じく回転時のクラブヘッドの切り返しが同時タイミングであることがよいとされる状態下において、クラブヘッドの移動が早い旨のスイングの状況として「クラブが先行しています。」という表示を出力するように出力部18−3を制御する。 In step S118, the analysis information display processing unit 93 indicates that the club head moves quickly under the condition that it is preferable that the turning back of the club head at the time of rotation is the same timing as the turning back of the waist at the time of rotation. The output unit 18-3 is controlled so as to output the display "The club is ahead" as the swing situation.

ステップS119において、解析情報表示処理部93は、スイング動作データとスイング動作動画データそれぞれについて、インパクト時の腰の回転の角度を算出する。 In step S119, the analysis information display processing unit 93 calculates the angle of rotation of the waist at the time of impact for each of the swing motion data and the swing motion moving image data.

ステップS120において、解析情報表示処理部93は、算出したインパクト時の腰の角度を、インパクト時の腰角度として数値を出力するように出力部18−3を制御する。なお、各種算出等した解析結果のデータは、解析結果記憶部121に記憶される。
その後、解析結果表示処理は、終了する。
In step S120, the analysis information display processing unit 93 controls the output unit 18-3 so that the calculated waist angle at the time of impact is output as a numerical value as the waist angle at the time of impact. The analysis result data such as various calculations are stored in the analysis result storage unit 121.
After that, the analysis result display process ends.

以上のように構成される携帯端末3は、センサ情報解析処理部91と、映像解析処理部92と、解析情報表示処理部93と、を備える。
映像解析処理部92は、被験者に付けられ、被験者の所定の運動を記録した動画を取得するように通信部20−3を制御する。
センサ情報解析処理部91は、被験者の所定の運動時の姿勢の変化を取得するように通信部20−3を制御する。
解析情報表示処理部93は、センサ情報解析処理部91によって取得された動画と、映像解析処理部92によって取得された姿勢の変化と、を用いて、所定の運動の状態について評価する。
これにより、携帯端末3においては、ユーザに不便を強いることなく、より正確にスイング評価を行うことができる。
The mobile terminal 3 configured as described above includes a sensor information analysis processing unit 91, a video analysis processing unit 92, and an analysis information display processing unit 93.
The video analysis processing unit 92 controls the communication unit 20-3 so as to be attached to the subject and acquire a moving image recording the subject's predetermined movement.
The sensor information analysis processing unit 91 controls the communication unit 20-3 so as to acquire a change in the posture of the subject during a predetermined exercise.
The analysis information display processing unit 93 evaluates a predetermined motion state using the moving image acquired by the sensor information analysis processing unit 91 and the change in posture acquired by the video analysis processing unit 92.
As a result, in the mobile terminal 3, the swing evaluation can be performed more accurately without inconvenience the user.

解析情報表示処理部93は、映像解析処理部92によって取得された動画と、センサ情報解析処理部91によって取得された姿勢の変化との取得時間が一致するように調整する。
また、解析情報表示処理部93は、調整された結果と、予め用意された理想とする時間経過を伴った所定の運動と、を比較する。
また、解析情報表示処理部93は、比較結果を用いて、所定の運動の状態について評価する。
これにより、携帯端末3においては、より正確にスイング評価を行うことができる。
The analysis information display processing unit 93 adjusts so that the acquisition time of the moving image acquired by the video analysis processing unit 92 and the change in posture acquired by the sensor information analysis processing unit 91 match.
Further, the analysis information display processing unit 93 compares the adjusted result with a predetermined exercise prepared in advance with an ideal time lapse.
Further, the analysis information display processing unit 93 evaluates a predetermined exercise state using the comparison result.
As a result, the mobile terminal 3 can perform swing evaluation more accurately.

また、センサユニット1は、RTC差分値計測部52を備える。
RTC差分値計測部52は、撮像装置2から所定の運動の記録の開始又は終了の少なくとも何れかの時点の時刻情報を取得する。
RTC差分値計測部52は、センサ部16−1から所定の運動時の姿勢の変化の開始又は終了の少なくとも何れかの時点の時刻情報を取得する。
RTC差分値計測部52は、記録の開始の時点の時刻情報と取得した場合は取得した変化の開始時点の時刻情報との、記録の終了の時点の時刻情報と取得した場合は取得した変化の終了時点の時刻情報との差分値を取得する。
RTC差分値計測部52は、差分値取得手段によって取得された差分値を用いて双方の取得時間が一致するよう調整する。
これにより、携帯端末3においては、より正確にスイング評価を行うことができる。
Further, the sensor unit 1 includes an RTC difference value measuring unit 52.
The RTC difference value measuring unit 52 acquires time information at at least any time of the start or end of recording a predetermined motion from the imaging device 2.
The RTC difference value measuring unit 52 acquires time information from the sensor unit 16-1 at at least any time of the start or end of the change in posture during a predetermined exercise.
The RTC difference value measuring unit 52 has the time information at the start of recording and the time information at the start of the acquired change when acquired, and the time information at the end of recording and the acquired change when acquired. Acquire the difference value from the time information at the end time.
The RTC difference value measuring unit 52 adjusts the acquisition times of both by using the difference value acquired by the difference value acquisition means.
As a result, the mobile terminal 3 can perform swing evaluation more accurately.

映像解析処理部92は、取得された所定の運動を記録した動画から、当該所定の運動における複数の時点の姿勢を特定するとともに、それらの姿勢を検知した時刻情報をセンサユニット1から取得する。
センサ情報解析処理部91は、取得された所定の運動の姿勢から、所定の運動における複数の時点の姿勢を特定するとともに、それらの姿勢を検知した時刻情報を取得する。
解析情報表示処理部93は、特定された所定の運動における複数の時点の姿勢と、特定された時刻情報と、に基づいて、所定の運動の状態について評価する。
これにより、携帯端末3においては、より正確にスイング評価を行うことができる。
The video analysis processing unit 92 identifies the postures at a plurality of time points in the predetermined movements from the video recording the acquired predetermined movements, and acquires the time information when those postures are detected from the sensor unit 1.
The sensor information analysis processing unit 91 identifies the postures at a plurality of time points in the predetermined movement from the acquired postures of the predetermined movements, and acquires the time information when those postures are detected.
The analysis information display processing unit 93 evaluates the state of the predetermined movement based on the postures at a plurality of time points in the specified predetermined movement and the specified time information.
As a result, the mobile terminal 3 can perform swing evaluation more accurately.

また、携帯端末3は、解析情報表示処理部93による所定の運動の状態についての評価を出力する出力部18−3を、さらに備える。
これにより、携帯端末3においては、例えば、表示等でスイング評価の結果を利用することができる。
Further, the mobile terminal 3 further includes an output unit 18-3 that outputs an evaluation of a predetermined motion state by the analysis information display processing unit 93.
As a result, in the mobile terminal 3, for example, the result of the swing evaluation can be used in the display or the like.

解析情報表示処理部93は、該携帯端末3とは別体に構成され、被験者の体幹付近に装着されるセンサユニット1から、姿勢の変化を取得するように通信部20−3を制御する。
これにより、携帯端末3においては、被験者の体幹部での姿勢変化を取得することができる。
The analysis information display processing unit 93 is configured separately from the mobile terminal 3, and controls the communication unit 20-3 so as to acquire a change in posture from the sensor unit 1 mounted near the trunk of the subject. ..
As a result, in the mobile terminal 3, the posture change in the trunk of the subject can be acquired.

また、携帯端末3は、センサユニット1と、当該携帯端末3とを無線接続する通信部20−3を、さらに備える。
これにより、携帯端末3においては、センサユニット1との間で無線接続を行うことができ、ユーザに不便を強いることなく、より正確にスイング評価を行うことができる。
Further, the mobile terminal 3 further includes a communication unit 20-3 that wirelessly connects the sensor unit 1 and the mobile terminal 3.
As a result, in the mobile terminal 3, a wireless connection can be made with the sensor unit 1, and swing evaluation can be performed more accurately without inconvenience to the user.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 The present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the range in which the object of the present invention can be achieved are included in the present invention.

上述の実施形態では、RTCの差分をセンサユニット1で計測するように構成したが、携帯端末3で行うように構成してもよい。センサユニット1はセンシングだけを行って、センシング結果及び開始・終了時のRTCを携帯端末3に送信するように構成してもよい。 In the above-described embodiment, the difference in RTC is measured by the sensor unit 1, but it may be configured to be performed by the mobile terminal 3. The sensor unit 1 may be configured to perform only sensing and transmit the sensing result and the RTC at the start / end to the mobile terminal 3.

また、上述の実施形態では、テイクバック時刻(TBS)と、映像から検出したテイクバック時刻(TBM)の差分がα以上である場合には、「手が先行しています。」という適切ではない旨の表示を出力するように構成したが、適切だった場合に、その旨を表示するように構成してもよい。また、不適切であった場合に、適切となるようなアナウンスを行うようにしてもよい。
また、表示出力にかかわらず、音声出力等の各種出力を行うように構成してもよい。
Further, in the above-described embodiment, when the difference between the takeback time (TBS) and the takeback time (TBM) detected from the video is α or more, it is not appropriate to say “the hand is ahead”. Although it is configured to output a display to that effect, it may be configured to display that fact when it is appropriate. In addition, if it is inappropriate, an appropriate announcement may be made.
Further, regardless of the display output, various outputs such as audio output may be performed.

また、上述の実施形態では、センシングした姿勢の情報と、映像から割り出せる姿勢の情報とを比較して、所定のスイング動作でのセンシングした姿勢と、映像から割り出せる姿勢又は、所定の姿勢でのセンシング結果と映像でのズレから、事前に設定した所定の状態との対比からスイングの評価を行うように構成した。事前に設定した所定の状態は、理想的なスイングの解析結果であり、種々のスイング方法等があるため、ユーザ自身が所望する状態を事前に設定するように構成してもよいし、スイング方法別にユーザが選択するように構成してもよい。また、比較対象についても種々選択可能に構成してもよい。 Further, in the above-described embodiment, the sensed posture information is compared with the posture information that can be calculated from the image, and the sensed posture in the predetermined swing motion and the posture that can be calculated from the image or the sensing in the predetermined posture are compared. The swing is evaluated by comparing the result with the predetermined state set in advance based on the deviation in the image. The predetermined state set in advance is an ideal swing analysis result, and there are various swing methods and the like. Therefore, the user may configure the desired state in advance, or the swing method. It may be configured to be selected by the user separately. Further, the comparison target may be configured to be variously selectable.

また、上述の実施形態では、データ解析を携帯端末3で行うように構成したが、外部サーバ等で行うように構成してもよい。この場合、携帯端末3では解析結果の表示のみ行う。 Further, in the above-described embodiment, the data analysis is configured to be performed by the mobile terminal 3, but it may be configured to be performed by an external server or the like. In this case, the mobile terminal 3 only displays the analysis result.

また、上述の実施形態では、本発明が適用される撮像装置2及び携帯端末3は、デジタルカメラ及びスマートフォンを例として説明したが、特にこれに限定されない。
例えば、本発明は、練習時取得データ送信処理及びデータ解析処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートウォッチ、ポータブルゲーム機等に適用可能である。
Further, in the above-described embodiment, the image pickup device 2 and the mobile terminal 3 to which the present invention is applied have been described by taking a digital camera and a smartphone as an example, but the present invention is not particularly limited thereto.
For example, the present invention can be generally applied to electronic devices having a data transmission process acquired during practice and a data analysis process function. Specifically, for example, the present invention can be applied to notebook personal computers, printers, television receivers, video cameras, portable navigation devices, mobile phones, smart watches, portable game machines, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図4及び図5の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が携帯端末3に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4及び図5の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The series of processes described above can be executed by hardware or software.
In other words, the functional configurations of FIGS. 4 and 5 are merely examples and are not particularly limited. That is, it suffices if the mobile terminal 3 is provided with a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block is used to realize this function is particularly shown in the examples of FIGS. 4 and 5. Not limited.
Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.
The functional configuration in the present embodiment is realized by a processor that executes arithmetic processing, and the processor that can be used in the present embodiment is composed of various processing units such as a single processor, a multiprocessor, and a multicore processor. In addition to the above, it includes a combination of these various processing units and processing circuits such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field-Programmable Gate Array).

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processes are executed by software, the programs constituting the software are installed on a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2及び図3のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2及び図3のROM12や、図2及び図3の記憶部19に含まれるハードディスク等で構成される。 The recording medium containing such a program is not only composed of the removable media 31 of FIGS. 2 and 3 distributed separately from the device main body in order to provide the program to the user, but is also preliminarily incorporated in the device main body. It is composed of a recording medium or the like provided to the user in the state. The removable media 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versaille Disk), a Blu-ray (registered trademark) Disc (Blu-ray Disc), or the like. The magneto-optical disk is composed of an MD (Mini-Disc) or the like. The recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body is, for example, the hard disk included in the ROM 12 of FIGS. 2 and 3 in which the program is recorded and the storage unit 19 of FIGS. 2 and 3. Etc.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段などより構成される全体的な装置を意味するものとする。
In the present specification, the steps for describing a program to be recorded on a recording medium are not necessarily processed in chronological order, but also in parallel or individually, even if they are not necessarily processed in chronological order. It also includes the processing to be executed.
Further, in the present specification, the term of the system means an overall device composed of a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and various modifications such as omission and substitution can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in the present specification and the like, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
被験者の所定の運動を記録した動画を取得する動画取得手段と、
前記被験者に付けられ、前記被験者の所定の運動時の姿勢の変化を取得する変化取得手段と、
前記動画取得手段によって取得された前記動画と、前記変化取得手段によって取得された前記姿勢の変化と、を用いて、前記所定の運動の状態について評価する評価手段と、
を備えることを特徴とする運動解析装置。
[付記2]
前記動画取得手段によって取得された前記動画と、前記変化取得手段によって取得された前記姿勢の変化との取得時間が一致するように調整する調整手段と、
前記調整手段によって調整された結果と、予め用意された理想とする時間経過を伴った前記所定の運動と、を比較する比較手段と、を更に備え、
前記評価手段は、前記比較手段による比較結果を用いて、前記所定の運動の状態について評価する、
ことを特徴とする付記1に記載の運動解析装置。
[付記3]
前記動画取得手段における、前記所定の運動の記録の開始又は終了の少なくとも何れかの時点の時刻情報を取得する第1の時刻情報取得手段と、
前記変化取得手段における、前記所定の運動時の姿勢の変化の開始又は終了の少なくとも何れかの時点の時刻情報を取得する第2の時刻情報取得手段と、
前記第1の時刻情報取得手段が記録の開始の時点の時刻情報と取得した場合は前記第2の時刻情報取得手段が取得した変化の開始時点の時刻情報との、前記第1の時刻情報取得手段が記録の終了の時点の時刻情報と取得した場合は前記第2の時刻情報取得手段が取得した変化の終了時点の時刻情報との差分値を取得する差分値取得手段と、
を更に備え、
前記調整手段は、前記差分値取得手段によって取得された差分値を用いて双方の取得時間が一致するよう調整することを特徴とする付記2記載の運動解析装置。
[付記4]
前記動画取得手段によって取得された所定の運動を記録した動画から、当該所定の運動における複数の時点の姿勢を特定するとともに、それらの姿勢を検知した時刻情報を前記第1の時刻情報取得手段から取得する第1の検知時刻情報取得手段と、
前記変化取得手段によって取得された前記所定の運動の姿勢から、前記所定の運動における複数の時点の姿勢を特定するとともに、それらの姿勢を検知した時刻情報を前記第2の時刻情報取得手段から取得する第2の検知時刻情報取得手段と、
を更に備え、
前記評価手段は、前記特定された前記所定の運動における複数の時点の姿勢と、前記第1の検知時刻情報取得手段により特定された時刻情報と、前記第2の検知時刻情報取得手段により特定された時刻情報と、に基づいて、前記所定の運動の状態について評価することを特徴とする付記3に記載の運動解析装置。
[付記5]
前記評価手段による前記所定の運動の状態についての評価を出力する出力手段を、さらに備える、
ことを特徴とする付記1乃至4の何れか1つに記載の運動解析装置。
[付記6]
前記変化取得手段は、当該運動解析装置とは別体に構成され、前記被験者の体幹付近に装着されるセンサから、前記姿勢の変化を取得する、
ことを特徴とする付記1乃至5の何れか1つに記載の運動解析装置。
[付記7]
前記センサと、当該運動解析装置とを無線接続する通信手段を、さらに備える、
ことを特徴とする付記6に記載の運動解析装置。
[付記8]
被験者の所定の運動を記録した動画を取得する動画取得ステップと、
前記被験者に付けられ、前記被験者の所定の運動時の姿勢の変化を取得する変化取得ステップと、
前記動画取得ステップによって取得された前記動画と、前記変化取得ステップによって取得された前記姿勢の変化と、を用いて、前記所定の運動の状態について評価する評価ステップと、
を含むことを特徴とする運動解析方法。
[付記9]
コンピュータを、
被験者の所定の運動を記録した動画を取得する動画取得手段、
前記被験者に付けられ、前記被験者の所定の運動時の姿勢の変化を取得する変化取得手段、
前記動画取得手段によって取得された前記動画と、前記変化取得手段によって取得された前記姿勢の変化と、を用いて、前記所定の運動の状態について評価する評価手段、
として機能させることを特徴とするプログラム。
The inventions described in the claims at the time of filing the application of the present application are described below.
[Appendix 1]
A video acquisition means for acquiring a video recording a predetermined movement of a subject, and
A change acquisition means attached to the subject and acquiring a change in the posture of the subject during a predetermined exercise,
An evaluation means for evaluating the state of the predetermined movement by using the moving image acquired by the moving image acquisition means and the change in posture acquired by the change acquiring means.
A motion analysis device characterized by being equipped with.
[Appendix 2]
An adjusting means for adjusting the acquisition time of the moving image acquired by the moving image acquisition means and the change in posture acquired by the change acquiring means so as to match.
Further provided with a comparison means for comparing the result adjusted by the adjusting means with the predetermined exercise prepared in advance with an ideal time lapse.
The evaluation means evaluates the state of the predetermined movement by using the comparison result by the comparison means.
The motion analysis device according to Appendix 1, wherein the motion analysis device is characterized in that.
[Appendix 3]
A first time information acquisition means for acquiring time information at at least any time of the start or end of recording of the predetermined exercise in the moving image acquisition means.
A second time information acquisition means for acquiring time information at at least any time of the start or end of a change in posture during a predetermined exercise in the change acquisition means.
When the first time information acquisition means acquires the time information at the start of recording, the first time information acquisition of the time information at the start of the change acquired by the second time information acquisition means. When the means acquires the time information at the end of recording and the time information at the end of the change acquired by the second time information acquisition means, the difference value acquisition means and the difference value acquisition means for acquiring the difference value.
Further prepare
The motion analysis device according to Appendix 2, wherein the adjusting means is adjusted so that the acquisition times of both are matched by using the difference value acquired by the difference value acquisition means.
[Appendix 4]
From the moving image recording the predetermined movements acquired by the moving image acquisition means, the postures at a plurality of time points in the predetermined movements are specified, and the time information obtained by detecting those postures is obtained from the first time information acquisition means. The first detection time information acquisition means to be acquired and
From the postures of the predetermined movements acquired by the change acquisition means, postures at a plurality of time points in the predetermined movements are specified, and time information obtained by detecting those postures is acquired from the second time information acquisition means. Second detection time information acquisition means and
Further prepare
The evaluation means is specified by the postures at a plurality of time points in the specified predetermined movement, the time information specified by the first detection time information acquisition means, and the second detection time information acquisition means. The motion analysis device according to Appendix 3, wherein the predetermined motion state is evaluated based on the time information.
[Appendix 5]
An output means for outputting an evaluation of the predetermined motion state by the evaluation means is further provided.
The motion analysis device according to any one of Supplementary note 1 to 4, wherein the motion analysis device is characterized by the above.
[Appendix 6]
The change acquisition means is configured separately from the motion analysis device, and acquires the change in posture from a sensor mounted near the trunk of the subject.
The motion analysis device according to any one of Supplementary note 1 to 5, wherein the motion analysis device is characterized by the above.
[Appendix 7]
A communication means for wirelessly connecting the sensor and the motion analysis device is further provided.
The motion analysis device according to Appendix 6, wherein the motion analysis device is characterized by the above.
[Appendix 8]
A video acquisition step to acquire a video recording a subject's predetermined movement, and
A change acquisition step attached to the subject to acquire a change in posture during a predetermined exercise of the subject, and a change acquisition step.
An evaluation step for evaluating the state of the predetermined movement using the moving image acquired by the moving image acquisition step and the change in posture acquired by the change acquisition step.
A motion analysis method characterized by including.
[Appendix 9]
Computer,
Video acquisition means for acquiring a video recording a predetermined movement of a subject,
A change acquisition means attached to the subject and acquiring a change in posture of the subject during a predetermined exercise,
An evaluation means for evaluating the state of the predetermined movement by using the moving image acquired by the moving image acquisition means and the change in posture acquired by the change acquiring means.
A program characterized by functioning as.

1・・・センサユニット,2・・・撮像装置・・・,3・・・携帯端末,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・センサ部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,22・・・撮像部,31・・・リムーバブルメディア,51・・・通信制御部,52・・・RTC差分値計測部,53・・・センサ情報解析部,71・・・RTC差分値記憶部,91・・・センサ情報解析処理部,92・・・映像解析処理部,93・・・解析結果表示処理部,111・・・RTC回路,121・・・解析結果記憶部,S・・・運動解析システム 1 ... Sensor unit, 2 ... Imaging device ..., 3 ... Mobile terminal, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input / output interface, 16 ... sensor unit, 17 ... input unit, 18 ... output unit, 19 ... storage unit, 20 ... communication unit, 21 ... drive, 22 ...・ Imaging unit, 31 ・ ・ ・ Removable media, 51 ・ ・ ・ Communication control unit, 52 ・ ・ ・ RTC difference value measurement unit, 53 ・ ・ ・ Sensor information analysis unit, 71 ・ ・ ・ RTC difference value storage unit, 91 ・・ ・ Sensor information analysis processing unit, 92 ・ ・ ・ Video analysis processing unit, 93 ・ ・ ・ Analysis result display processing unit, 111 ・ ・ ・ RTC circuit, 121 ・ ・ ・ Analysis result storage unit, S ・ ・ ・ Motion analysis system

Claims (11)

被験者の所定のスイング動作を記録した動画を取得する動画取得手段と、
前記被験者に付けられたセンサユニットから出力されたセンサ情報を解析することにより、前記被験者の所定のスイング動作時の体幹部での姿勢変化を取得する変化取得手段と、
前記センサユニットから出力されたセンサ情報に基づき、前記所定のスイング動作の開始を検出する開始検出手段と、
前記開始検出手段によって前記所定のスイング動作の開始を検出すると、前記動画取得手段による前記所定のスイング動作の動画の記録を開始するよう制御する記録制御手段と、
前記記録制御手段によって記録された前記被験者の所定のスイング動作の動画に含まれる所定のタイミングの姿勢の動画と、前記変化取得手段によって取得された姿勢変化における前記所定のタイミングの姿勢との違いを判定することにより、前記所定のスイング動作を評価する評価手段と、
を備えることを特徴とする運動解析装置。
A video acquisition means for acquiring a video recording a predetermined swing motion of a subject, and
By analyzing the sensor information output from the sensor unit attached to the subject, a change acquisition means for acquiring a posture change in the trunk during a predetermined swing motion of the subject, and a change acquisition means.
A start detection means for detecting the start of the predetermined swing operation based on the sensor information output from the sensor unit, and a start detection means.
When detecting the start of the predetermined swing operation by the start detecting means, and recording control means for controlling to start the recording of the video by that the predetermined swinging operation to the moving image obtaining means,
The difference between the video of the posture at the predetermined timing included in the video of the predetermined swing motion of the subject recorded by the recording control means and the posture at the predetermined timing in the posture change acquired by the change acquisition means. An evaluation means for evaluating the predetermined swing motion by making a determination,
A motion analysis device characterized by being equipped with.
前記所定のスイング動作の終了を検出する終了検出手段を更に備え、
前記記録制御手段は、前記終了検出手段によって前記所定のスイング動作の終了を検出すると、前記動画の記録を終了するよう制御することを特徴とする請求項1に記載の運動解析装置。
Further provided with an end detecting means for detecting the end of the predetermined swing operation,
The motion analysis device according to claim 1, wherein the recording control means controls to end the recording of the moving image when the end detection means detects the end of the predetermined swing operation.
前記終了検出手段は、前記変化取得手段によって取得された所定のスイング動作の姿勢の変化から前記所定のスイング動作の終了を検出することを特徴とする請求項に記載の運動解析装置。 It said end detection means, motion analysis device according to claim 2, characterized in that detecting the end of the predetermined swing motion from the change in the attitude of the predetermined swing motion obtained by the change acquiring means. 前記記録制御手段によって記録された動画の取得時間と、前記変化取得手段によって取得された前記姿勢変化の取得時間が一致するように調整する調整手段と、
前記調整手段によって調整された結果と、予め用意された理想とする時間経過を伴った前記所定のスイング動作と、を比較する比較手段と、を更に備え、
前記評価手段は、更に前記比較手段による比較結果を用いて、前記所定のスイング動作を評価することを特徴とする請求項1乃至の何れか1項に記載の運動解析装置。
And adjustment means for adjusting so that the acquisition time of the moving image recorded, and the change in the attitude of the acquisition time obtained by the change acquiring means is matched by the recording control means,
Further provided with a comparison means for comparing the result adjusted by the adjusting means with the predetermined swing motion prepared in advance with an ideal time lapse.
Said evaluation means further using the result of comparison by the comparing means, motion analysis device according to any one of claims 1 to 3, wherein the benzalkonium evaluate the predetermined swing motion.
前記記録制御手段における、前記所定のスイング動作の記録の開始又は終了の少なくとも何れかの時点の時刻情報を取得する第1の時刻情報取得手段と、
前記変化取得手段における、前記被験者の体幹部での姿勢変化から、前記所定のスイング動作の開始又は終了の少なくとも何れかの時点の時刻情報を取得する第2の時刻情報取得手段と、
前記第1の時刻情報取得手段が取得する時間情報が前記記録の開始の時点の時刻情報である場合は前記第2の時刻情報取得手段が取得する前記所定のスイング動作の開始時点の時刻情報との差分値を、前記第1の時刻情報取得手段が取得する時刻情報が前記記録の終了の時点の時刻情報である場合は前記第2の時刻情報取得手段が取得する前記所定のスイング動作の終了時点の時刻情報との差分値を取得する差分値取得手段と、
を更に備え、
前記調整手段は、前記差分値取得手段によって取得された差分値を用いて前記記録制御手段によって記録された動画の取得時間と、前記変化取得手段によって取得された前記姿勢変化の取得時間とが一致するよう調整することを特徴とする請求項記載の運動解析装置。
A first time information acquisition means for acquiring time information at at least any time of the start or end of recording of the predetermined swing motion in the recording control means.
A second time information acquisition means for acquiring time information at at least any time of the start or end of the predetermined swing motion from the posture change in the trunk of the subject in the change acquisition means.
When the time information acquired by the first time information acquisition means is the time information at the start of the recording, the time information at the start time of the predetermined swing operation acquired by the second time information acquisition means is used. End of the difference value, the predetermined swing the case time information a first time information obtaining means obtains is time information at the time of completion of the recording of the second time information acquisition unit acquires a difference value between the time information of time, the difference value acquiring means for acquiring,
Further prepare
In the adjusting means, the acquisition time of the moving image recorded by the recording control means using the difference value acquired by the difference value acquisition means coincides with the acquisition time of the posture change acquired by the change acquisition means. The motion analysis apparatus according to claim 4 , wherein the motion analysis device is adjusted so as to be used.
前記記録制御手段によって記録された所定のスイング動作の動画から、前記所定のスイング動作における複数の時点の姿勢の動画を特定するとともに、前記複数の時点の姿勢を検知した時刻情報を前記第1の時刻情報取得手段から取得する第1の検知時刻情報取得手段と、
前記変化取得手段によって取得された前記姿勢変化から、前記所定のスイング動作における複数の時点の姿勢を特定するとともに、前記複数の時点の姿勢を検知した時刻情報を前記第2の時刻情報取得手段から取得する第2の検知時刻情報取得手段と、
を更に備え、
前記評価手段は、前記特定された前記所定のスイング動作における複数の時点の姿勢の動画と、前記第1の検知時刻情報取得手段により特定された時刻情報と、前記第2の検知時刻情報取得手段により特定された時刻情報と、に基づいて、前記所定のスイング動作を評価することを特徴とする請求項に記載の運動解析装置。
Wherein the recording control means a predetermined swing motion in a moving image recorded by, with identifying the video in the attitude of the plurality of time points in the predetermined swing motion, the time information the first which detects a posture of the plurality of time points The first detection time information acquisition means acquired from the time information acquisition means, and
From the posture change acquired by the change acquisition means, the postures at a plurality of time points in the predetermined swing motion are specified, and the time information obtained by detecting the postures at the plurality of time points is obtained from the second time information acquisition means. The second detection time information acquisition means to be acquired and
Further prepare
The evaluation means includes a moving image of postures at a plurality of time points in the specified predetermined swing motion , time information specified by the first detection time information acquisition means, and the second detection time information acquisition means. The motion analysis apparatus according to claim 5 , wherein the predetermined swing motion is evaluated based on the time information specified by the above.
前記評価手段による前記所定のスイング動作の評価結果として、前記所定のスイングの状況を出力する出力手段を、
更に備えることを特徴とする請求項1乃至の何れか1項に記載の運動解析装置。
An output means for outputting the state of the predetermined swing as an evaluation result of the predetermined swing operation by the evaluation means.
The motion analysis apparatus according to any one of claims 1 to 6 , further comprising.
前記センサユニットは、前記被験者の体幹付近に装着されることを特徴とする請求項1乃至の何れか1項に記載の運動解析装置。 The motion analysis device according to any one of claims 1 to 7 , wherein the sensor unit is mounted near the trunk of the subject. 前記センサユニットと前記運動解析装置とを無線接続する通信手段を、
更に備えることを特徴とする請求項1乃至8の何れかに記載の運動解析装置。
A communication means for wirelessly connecting the sensor unit and the motion analysis device.
The motion analysis device according to any one of claims 1 to 8, further comprising.
被験者の所定のスイング動作の動画を記録した動画を取得する動画取得ステップと、
前記被験者に付けられたセンサユニットから出力されたセンサ情報を解析することにより、前記被験者の所定のスイング動作時の体幹部での姿勢変化を取得する変化取得ステップと、
前記センサユニットから出力されたセンサ情報に基づき、前記所定のスイング動作の開始を検出する開始検出ステップと、
前記開始検出ステップにて前記所定のスイング動作の開始を検出すると、前記動画取得ステップによる前記所定のスイング動作の動画の記録を開始するよう制御する記録制御ステップと、
前記記録制御ステップにて記録された前記被験者の所定のスイング動作の動画に含まれる所定のタイミングの姿勢の動画と前記変化取得ステップにて取得された姿勢変化における前記所定のタイミングの姿勢との違いを判定することにより、前記所定のスイング動作を評価する評価ステップと、
を含むことを特徴とする運動解析方法。
A video acquisition step of acquiring a video recording a video of a predetermined swing motion of a subject, and
A change acquisition step of acquiring a posture change in the trunk during a predetermined swing motion of the subject by analyzing the sensor information output from the sensor unit attached to the subject, and a change acquisition step.
A start detection step for detecting the start of the predetermined swing operation based on the sensor information output from the sensor unit, and a start detection step.
When detecting the start of the predetermined swing motion at the start detecting step, and a recording control step of controlling so as to start recording of the video by that the predetermined swinging operation to the moving image obtaining step,
Difference between the video of the posture at the predetermined timing included in the video of the predetermined swing motion of the subject recorded in the recording control step and the posture at the predetermined timing in the posture change acquired in the change acquisition step. An evaluation step for evaluating the predetermined swing motion by determining
A motion analysis method characterized by including.
コンピュータを、
被験者の所定のスイング動作の動画を記録した動画を取得する動画取得手段、
前記被験者に付けられたセンサユニットから出力されたセンサ情報を解析することにより、前記被験者の所定のスイング動作時の体幹部での姿勢変化を取得する変化取得手段、
前記センサユニットから出力されたセンサ情報に基づき、前記所定のスイング動作の開始を検出する開始検出手段、
前記開始検出手段によって前記所定のスイング動作の開始を検出すると、前記動画取得手段による前記所定のスイング動作の動画の記録を開始するよう制御する記録制御手段、
前記記録制御手段によって記録された前記被験者の所定のスイング動作の動画に含まれる所定のタイミングの姿勢の動画と前記変化取得手段によって取得された姿勢変化における前記所定のタイミングの姿勢との違いを判定することにより、前記所定のスイング動作を評価する評価手段、
として機能させることを特徴とするプログラム。
Computer,
Video acquisition means for acquiring a video recording a video of a predetermined swing motion of a subject,
A change acquisition means for acquiring a posture change in the trunk during a predetermined swing motion of the subject by analyzing sensor information output from the sensor unit attached to the subject.
A start detecting means for detecting the start of the predetermined swing operation based on the sensor information output from the sensor unit.
Wherein upon detecting the start of the predetermined swing operation by the start detecting means, a recording control means for controlling to start the recording of the video by that the predetermined swinging operation to the moving image obtaining means,
It is determined that the difference between the video of the posture at the predetermined timing included in the video of the predetermined swing motion of the subject recorded by the recording control means and the posture at the predetermined timing in the posture change acquired by the change acquisition means is determined. An evaluation means for evaluating the predetermined swing motion,
A program characterized by functioning as.
JP2016247840A 2016-12-21 2016-12-21 Motion analysis device, motion analysis method and program Active JP6878874B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016247840A JP6878874B2 (en) 2016-12-21 2016-12-21 Motion analysis device, motion analysis method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016247840A JP6878874B2 (en) 2016-12-21 2016-12-21 Motion analysis device, motion analysis method and program

Publications (3)

Publication Number Publication Date
JP2018099416A JP2018099416A (en) 2018-06-28
JP2018099416A5 JP2018099416A5 (en) 2020-02-06
JP6878874B2 true JP6878874B2 (en) 2021-06-02

Family

ID=62714685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016247840A Active JP6878874B2 (en) 2016-12-21 2016-12-21 Motion analysis device, motion analysis method and program

Country Status (1)

Country Link
JP (1) JP6878874B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110354480B (en) * 2019-07-26 2021-04-16 南京邮电大学 An estimation method of golf swing action score based on attitude comparison
KR20220107470A (en) * 2021-01-25 2022-08-02 삼성전자주식회사 Electronic device and method for providing service
JP7662240B1 (en) * 2024-01-26 2025-04-15 株式会社CaTe Information processing device, method, program, and system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110850A (en) * 2003-10-06 2005-04-28 Hitachi Metals Ltd Body motion evaluation method, swing motion evaluation method, and body motion measurement system
US20050223799A1 (en) * 2004-03-31 2005-10-13 Brian Murphy System and method for motion capture and analysis
US20100234769A1 (en) * 2009-03-11 2010-09-16 GFXCoach LLC Sports training system
JP2015126812A (en) * 2013-12-27 2015-07-09 カシオ計算機株式会社 Information processing device, information processing method, and program
JP6379499B2 (en) * 2014-01-29 2018-08-29 横浜ゴム株式会社 Swing measuring method and swing measuring apparatus
JP2016036681A (en) * 2014-08-11 2016-03-22 セイコーエプソン株式会社 Motion analysis method, motion analysis device, motion analysis system, and program
JP6638194B2 (en) * 2015-02-27 2020-01-29 セイコーエプソン株式会社 Three-dimensional image processing system, three-dimensional image processing device, and three-dimensional image processing method

Also Published As

Publication number Publication date
JP2018099416A (en) 2018-06-28

Similar Documents

Publication Publication Date Title
US10070046B2 (en) Information processing device, recording medium, and information processing method
JP7666562B2 (en) Electronic device, calibration control method and program
KR102553278B1 (en) Image processing apparatus, analysis system, method for processing images, and program
JP6878874B2 (en) Motion analysis device, motion analysis method and program
US11305171B2 (en) Motion evaluation device using angular speed measured by a wearable sensor
CN105450905A (en) Camera device, information delivery device, camera control method, and information delivery method
JP5811654B2 (en) Image processing apparatus, image processing method, and program
CN109831817B (en) Terminal control method, device, terminal and storage medium
JP7255642B2 (en) Information processing device, information processing method and program
JP7069662B2 (en) Electronic devices, evaluation methods and programs
JP2021102075A (en) Output device, output method, and program
KR20180073439A (en) Information processing device, move locus information output method, and program stored in storage medium
JP2017174094A (en) Image processing device, image processing method, and program
JP7022327B2 (en) Golf club discrimination device, golf club discrimination method, and golf club discrimination program
JP6787072B2 (en) Image processing equipment, analysis system, image processing method and program
CN108079548B (en) Motion analysis device, motion analysis method, and recording medium
JP6702392B2 (en) Electronic device, calibration control method and program
JP7188422B2 (en) Image processing device, analysis system, image processing method and program
JP7069953B2 (en) Electronic devices, partial identification methods for operation data, and programs
JP7134418B2 (en) Motion analysis device, motion analysis method and program
JP2017060135A (en) Electronic device, subject identification system, subject identification method and program
JP2021007890A (en) Electronic instrument, evaluation method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6878874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150