[go: up one dir, main page]

KR102132952B1 - Method for Providing Child Care Training Service in Network, and Managing Server Used Threrein - Google Patents

Method for Providing Child Care Training Service in Network, and Managing Server Used Threrein Download PDF

Info

Publication number
KR102132952B1
KR102132952B1 KR1020170063257A KR20170063257A KR102132952B1 KR 102132952 B1 KR102132952 B1 KR 102132952B1 KR 1020170063257 A KR1020170063257 A KR 1020170063257A KR 20170063257 A KR20170063257 A KR 20170063257A KR 102132952 B1 KR102132952 B1 KR 102132952B1
Authority
KR
South Korea
Prior art keywords
user
training
management server
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020170063257A
Other languages
Korean (ko)
Other versions
KR20180128148A (en
Inventor
이영선
한소정
Original Assignee
이영선
한소정
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이영선, 한소정 filed Critical 이영선
Priority to KR1020170063257A priority Critical patent/KR102132952B1/en
Publication of KR20180128148A publication Critical patent/KR20180128148A/en
Application granted granted Critical
Publication of KR102132952B1 publication Critical patent/KR102132952B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

네트워크를 통한 유아 보육 훈련 서비스 제공 방법 및 이에 사용되는 관리 서버가 개시된다. 본 발명은, 관리 서버가, 사용자의 영상 장비로 유아의 영상 정보를 포함하는 유아 보육 훈련용 콘텐츠를 송신하고, 영상 정보에 따른 상기 사용자의 신체 움직임을 감지하는 감지 장비로부터 상기 사용자의 신체 움직임 정보를 수신하며, 신체 움직임 정보에 기초하여 상기 영상 정보에 따른 사용자의 신체 움직임의 적합성을 판단하는 과정을 통해 구현된다. 본 발명에 따르면, 가상 현실 및 증강 현실을 통해 제공되는 다양한 유아 보육 훈련용 콘텐츠를 통한 사전 보육 훈련을 통해 육아에 대한 공포감을 감소시키고 정서적 안정감을 마련함으로써, 육아 스트레스로 인한 각종 사회 문제를 해결할 수 있게 된다.Disclosed is a method for providing a child care training service through a network and a management server used therefor. According to the present invention, the management server transmits the content for infant childcare training including the image information of the infant to the image equipment of the user, and the user's body motion information from the detection equipment detecting the user's body motion according to the image information It is implemented through a process of determining the suitability of the user's body motion according to the image information, receiving the body motion information. According to the present invention, it is possible to solve various social problems caused by parenting stress by reducing fear of childcare and providing emotional stability through pre-child care training through various child care training contents provided through virtual reality and augmented reality. There will be.

Description

네트워크를 통한 유아 보육 훈련 서비스 제공 방법 및 이에 사용되는 관리 서버{Method for Providing Child Care Training Service in Network, and Managing Server Used Threrein}Method for Providing Child Care Training Service in Network, and Managing Server Used Threrein}

본 발명은 네트워크를 통한 유아 보육 훈련 서비스 제공 방법 및 이에 사용되는 관리 서버에 관한 것으로, 더욱 상세하게는 가상 현실 및 증강 현실을 통해 제공되는 다양한 유아 보육 훈련용 콘텐츠를 통한 사전 보육 훈련을 통해 육아에 대한 공포감을 감소시키고 정서적 안정감을 마련함으로써, 육아 스트레스로 인한 각종 사회 문제를 해결할 수 있도록 하는 네트워크를 통한 유아 보육 훈련 서비스 제공 방법 및 이에 사용되는 관리 서버에 관한 것이다. The present invention relates to a method for providing an infant childcare training service through a network and a management server used therein, and more specifically, to childcare through pre-childcare training through various childcare training contents provided through virtual reality and augmented reality. The present invention relates to a method for providing an early childhood childcare training service through a network and a management server used therefor to reduce various fears and provide emotional stability, thereby solving various social problems caused by parenting stress.

최근 육아 스트레스에 따른 심리적 불안감으로 인한 산후 우울증 및 자살 증가, 영유아 학대 및 방치 등의 사회 문제가 대두되고 있다. Recently, social problems such as postpartum depression and suicide, infant abuse and neglect have emerged due to psychological anxiety caused by parenting stress.

이와 같은 육아 스트레스로 인한 사회적 문제들은 육아에 대한 사전 훈련이나 준비를 통해 해결될 수 있으나, 아기 안기, 아기 재우기, 아기 목욕시키기, 모유 먹이기, 분유 먹이기, 트림 시키기, 기저귀 갈기 등과 같은 다양한 육아 훈련을 출산 전에 체험할 수 있는 시간과 공간은 제약되어 있다.These social problems caused by parenting stress can be solved through pre-training or preparation for child-rearing, but various child-rearing exercises such as baby hug, baby sleeping, baby bathing, breastfeeding, formula feeding, trimming, changing diapers, etc. The time and space that can be experienced before childbirth is limited.

미국 특허출원공개공보 US2010/0211897호United States Patent Application Publication No. US2010/0211897

따라서, 본 발명의 목적은, 가상 현실 및 증강 현실을 통해 제공되는 다양한 유아 보육 훈련용 콘텐츠를 통한 사전 보육 훈련을 통해 육아에 대한 공포감을 감소시키고 정서적 안정감을 마련함으로써, 육아 스트레스로 인한 각종 사회 문제를 해결할 수 있도록 하는 네트워크를 통한 유아 보육 훈련 서비스 제공 방법 및 이에 사용되는 관리 서버를 제공함에 있다.Accordingly, an object of the present invention is to reduce fear of childcare and provide emotional stability through pre-childcare training through various preschool childcare training contents provided through virtual reality and augmented reality, thereby providing various social problems due to childcare stress. It is to provide a method for providing a child care training service through a network to solve the problem and a management server used therefor.

상기 목적을 달성하기 위한 본 발명에 따른 네트워크를 통한 유아 보육 훈련 서비스 제공 방법은, (a) 관리 서버가, 사용자의 영상 장비로 유아의 영상 정보를 포함하는 유아 보육 훈련용 콘텐츠를 송신하는 단계; (b) 상기 관리 서버가, 상기 영상 정보에 따른 상기 사용자의 신체 움직임을 감지하는 감지 장비로부터 상기 사용자의 신체 움직임 정보를 수신하는 단계; 및 (c) 상기 관리 서버가, 상기 신체 움직임 정보에 기초하여 상기 영상 정보에 따른 사용자의 신체 움직임의 적합성을 판단하는 단계를 포함한다.In order to achieve the above object, a method for providing an infant childcare training service through a network according to the present invention includes: (a) a management server transmitting content for infant childcare training including video information of an infant to a user's video equipment; (b) receiving, by the management server, the user's body motion information from sensing equipment that senses the user's body motion according to the image information; And (c) determining, by the management server, the fitness of the user's body movement according to the image information based on the body movement information.

바람직하게는, 상기 관리 서버가, 상기 신체 움직임의 적합성 판단 정보를 상기 사용자에게 송신하는 단계를 더 포함한다.Preferably, the management server further includes the step of transmitting fitness determination information to the user.

또한, 상기 영상 장비는, 상기 사용자가 장착하는 헤드 마운트 디스플레이(Head Mounted Display)인 것을 특징으로 한다.In addition, the imaging equipment is characterized in that the head mounted display (Head Mounted Display) that the user is mounted.

또한, 상기 감지 장비는, 상기 사용자의 손의 움직임을 감지하는 모션 센서인 것을 특징으로 한다.In addition, the sensing device is characterized in that the motion sensor for detecting the movement of the user's hand.

또한, 상기 감지 장비는 상기 사용자의 손에 장착되는 햅틱 글로브(Haptic Golve)이며, 상기 관리 서버는 상기 신체 움직임의 적합성 판단 정보를 상기 햅틱 글로브로 송신하는 것을 특징으로 한다.In addition, the sensing device is a haptic glove (Haptic Golve) mounted on the user's hand, and the management server is characterized in that it transmits the fitness determination information of the body movement to the haptic glove.

한편, 본 발명에 따른 관리 서버는, 사용자의 영상 장비로 유아의 영상 정보를 포함하는 유아 보육 훈련용 콘텐츠를 송신하는 송신부; 상기 영상 정보에 따른 상기 사용자의 신체 움직임을 감지하는 감지 장비로부터 상기 사용자의 신체 움직임 정보를 수신하는 수신부; 및 상기 신체 움직임 정보에 기초하여 상기 영상 정보에 따른 사용자의 신체 움직임의 적합성을 판단하는 판단부를 포함한다.On the other hand, the management server according to the present invention, a transmitting unit for transmitting the content for infant childcare training including video information of the infant to the user's video equipment; A receiver configured to receive the user's body motion information from a sensing device that senses the user's body motion according to the image information; And a determination unit that determines a fitness of the user's body motion according to the image information based on the body motion information.

바람직하게는, 상기 송신부는, 상기 신체 움직임의 적합성 판단 정보를 상기 사용자에게 송신하는 것을 특징으로 한다.Preferably, the transmitting unit is characterized in that for transmitting the fitness determination information of the body movement to the user.

또한, 상기 영상 장비는, 상기 사용자가 장착하는 헤드 마운트 디스플레이(Head Mounted Display)인 것을 특징으로 한다.In addition, the imaging equipment is characterized in that the head mounted display (Head Mounted Display) that the user is mounted.

또한, 상기 감지 장비는, 상기 사용자의 손의 움직임을 감지하는 모션 센서인 것을 특징으로 한다.In addition, the sensing device is characterized in that the motion sensor for detecting the movement of the user's hand.

또한, 상기 감지 장비는 상기 사용자의 손에 장착되는 햅틱 글로브(Haptic Golve)이며, 상기 송신부는 상기 신체 움직임의 적합성 판단 정보를 상기 햅틱 글로브로 송신하는 것을 특징으로 한다. In addition, the sensing device is a haptic glove (Haptic Golve) mounted on the user's hand, characterized in that the transmitting unit transmits the fitness determination information of the body movement to the haptic glove.

본 발명에 따르면, 가상 현실 및 증강 현실을 통해 제공되는 다양한 유아 보육 훈련용 콘텐츠를 통한 사전 보육 훈련을 통해 육아에 대한 공포감을 감소시키고 정서적 안정감을 마련함으로써, 육아 스트레스로 인한 각종 사회 문제를 해결할 수 있게 된다.According to the present invention, it is possible to solve various social problems caused by parenting stress by reducing fear of childcare and providing emotional stability through pre-child care training through various child care training contents provided through virtual reality and augmented reality. There will be.

도 1은 본 발명의 일 실시예에 따른 네트워크를 통한 유아 보육 훈련 서비스 제공 시스템의 구성도,
도 2는 본 발명의 일 실시예에 따른 네트워크를 통한 유아 보육 훈련 서비스를 제공하는 관리 서버의 구조를 나타내는 기능 블록도, 및
도 3은 본 발명의 일 실시예에 따른 네트워크를 통한 유아 보육 훈련 서비스 제공 방법의 실행 과정을 설명하는 신호 흐름도이다.
1 is a block diagram of a system for providing child care training services through a network according to an embodiment of the present invention;
Figure 2 is a functional block diagram showing the structure of a management server that provides a child care training service through a network according to an embodiment of the present invention, and
3 is a signal flow diagram illustrating an execution process of a method for providing a child care training service through a network according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, the present invention will be described in more detail with reference to the drawings. It should be noted that the same components in the drawings are indicated by the same reference numerals wherever possible. In addition, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention are omitted.

도 1은 본 발명의 일 실시예에 따른 네트워크를 통한 유아 보육 훈련 서비스 제공 시스템의 구성도이다. 도 1을 참조하면, 본 발명의 일 실시예에 따른 네트워크를 통한 유아 보육 훈련 서비스 제공 시스템은 영상 장비(100), 감지 장비(200), 및 관리 서버(300)를 포함한다.1 is a block diagram of a system for providing child care training services through a network according to an embodiment of the present invention. Referring to FIG. 1, a system for providing a child care training service through a network according to an embodiment of the present invention includes a video device 100, a detection device 200, and a management server 300.

영상 장비(100)는 사용자가 장착하는 헤드 마운트 디스플레이(Head Mounted Display)가 될 수 있을 것이며, 영상 장비(100)는 관리 서버(300)로부터 유아의 영상 정보를 포함하는 유아 보육 훈련용 콘텐츠를 수신한다. The video equipment 100 may be a head mounted display mounted by a user, and the video equipment 100 receives content for infant childcare training including video information of an infant from the management server 300 do.

감지 장비(200)는 유아 보육 훈련용 콘텐츠의 내용에 따라 이동하는 사용자 손의 움직임을 감지하는 기능을 수행하며, 본 발명을 실시함에 있어서 감지 장비(200)는 립 모션(Leap Motion) 등의 모션 센서 또는 햅틱 글로브(Haptic Glove) 등이 될 수 있을 것이다.The detection equipment 200 performs a function of detecting the movement of a user's hand moving according to the content of the content for child care training, and in the practice of the present invention, the detection equipment 200 includes motions such as lip motion It could be a sensor or a haptic glove.

한편, 관리 서버(300)는 사용자의 영상 장비(100)로 유아의 영상 이미지가 포함되어 있는 유아 보육 훈련용 콘텐츠를 송신하고, 영상 이미지에 따른 사용자의 신체 움직임을 감지하는 감지 장비(200)로부터 사용자의 신체 이동 정보를 수신하며, 감지 장비(200)로부터 수신된 신체 움직임 정보에 기초하여 사용자의 신체 움직임의 적합성을 판단하는 기능을 수행한다.On the other hand, the management server 300 transmits the content for infant childcare training that includes a video image of an infant to the user's video equipment 100, and detects the user's body movement according to the video image from the detection device 200 It receives the user's body movement information, and performs a function of determining suitability of the user's body movement based on the body movement information received from the sensing device 200.

도 2는 본 발명의 일 실시예에 따른 네트워크를 통한 유아 보육 훈련 서비스를 제공하는 관리 서버(300)의 구조를 나타내는 기능 블록도이다. 도 2를 참조하면, 본 발명의 일 실시예에 따른 네트워크를 통한 유아 보육 훈련 서비스 제공 서비스를 제공하는 관리 서버(300)는 수신부(310), 저장부(330), 판단부(350), 및 송신부(370)를 포함한다.FIG. 2 is a functional block diagram showing the structure of a management server 300 that provides an infant childcare training service through a network according to an embodiment of the present invention. Referring to FIG. 2, a management server 300 providing a service for providing child care training services through a network according to an embodiment of the present invention includes a reception unit 310, a storage unit 330, a determination unit 350, and It includes a transmitter 370.

먼저, 관리 서버(300)의 저장부(330)에는 다양한 종류의 유아 보육 훈련용 영상 콘텐츠가 저장되어 있으며, 관리 서버(300)의 송신부(370)는 사용자의 영상 장비(100)로 상기 유아 보육 훈련용 콘텐츠를 송신한다.First, in the storage unit 330 of the management server 300, various types of video content for infant childcare training are stored, and the transmission unit 370 of the management server 300 uses the video equipment 100 of the user to control the infant child care. Send training content.

관리 서버(300)의 수신부(310)는 유아 보육 훈련용 콘텐츠를 통해 사용자에게 제공되는 유아의 영상 정보에 따라 사용자가 손 등의 신체를 움직이는 경우에 신체 움직임을 감지하는 감지 장비(200)로부터 사용자의 신체 움직임 정보를 수신한다.The receiving unit 310 of the management server 300 is a user from the detection device 200 that detects body movement when the user moves the body, such as the hand, according to the image information of the infant provided to the user through the content for child care training Receives body movement information.

한편, 관리 서버(300)의 판단부(350)는 감지 장비(200)로부터 수신된 사용자의 신체 움직임 정보에 기초하여, 사용자에게 제공된 영상의 내용에 따른 사용자의 신체 움직임의 적합성 여부를 판단한다.Meanwhile, the determination unit 350 of the management server 300 determines whether the user's body movement is appropriate according to the content of the image provided to the user, based on the user's body movement information received from the detection device 200.

도 3은 본 발명의 일 실시예에 따른 네트워크를 통한 유아 보육 훈련 서비스 제공 방법의 실행 과정을 설명하는 신호 흐름도이다. 이하에서는 도 1 내지 도 3을 참조하여, 본 발명의 일 실시예에 따른 네트워크를 통한 유아 보육 훈련 서비스 제공 서비스 제공 방법의 실행 과정을 설명하기로 한다.3 is a signal flow diagram illustrating an execution process of a method for providing a child care training service through a network according to an embodiment of the present invention. Hereinafter, with reference to FIGS. 1 to 3, an execution process of a method for providing a child care training service providing service through a network according to an embodiment of the present invention will be described.

먼저, 관리 서버(300)의 저장부(330)에는 아기 안기, 아기 재우기, 아기 목욕시키기, 모유 먹이기, 분유 먹이기, 트림 시키기, 아기 건강 체크하기, 아기 응급 처치, 기저귀 갈기, 아기 건강 마사지 등과 같은 다양한 종류의 유아 보육 훈련용 영상 콘텐츠가 저장되어 있다.First, the storage 330 of the management server 300, such as a baby hug, baby sleep, baby bathing, breastfeeding, milk powder feeding, trimming, baby health check, baby first aid, diaper change, baby health massage, etc. Various types of video contents for preschool nursery training are stored.

한편, 사용자가 상기와 같은 다양한 종류의 유아 보육 훈련용 콘텐츠 중에서 특정 콘텐츠를 선택할 수 있도록 관리 서버(300)의 송신부(370)는 다양한 종류의 보육 훈련 영상이 포함되어 있는 선택용 영상을 사용자가 시청하고 있는 영상 장비(100)로 송신한다(S400).Meanwhile, the transmission unit 370 of the management server 300 allows a user to view a selection video including various types of childcare training videos so that the user can select specific content from the various types of childcare training content as described above. It transmits to the video equipment 100 (S400).

이에 사용자가 다양한 종류의 보육 훈련 영상 중에서 특정 영상을 선택함에 따라, 감지 장비(200)는 사용자의 보육 훈련 선택 정보를 관리 서버(300)로 송신한다(S405).Accordingly, as the user selects a specific image from various types of childcare training images, the detection device 200 transmits the user's childcare training selection information to the management server 300 (S405).

보다 구체적으로, 감지 장비(200)가 립 모션(Leap Motion) 등의 모션 센서인 경우에 사용자의 손가락을 이용한 터치 동작을 통한 보육 훈련용 콘텐츠의 선택 정보는 감지 장비(200)를 통해 관리 서버(300)로 송신된다.More specifically, when the sensing device 200 is a motion sensor such as lip motion, selection information of the content for childcare training through a touch operation using a user's finger is managed through the sensing device 200 through the management server ( 300).

이에 관리 서버(300)의 송신부(370)는 사용자가 선택한 보육 훈련용 콘텐츠를 사용자의 영상 장비(100)로 송신하게 되며, 그 결과 사용자는 착용하고 있는 영상 장비(100)를 통해 자신이 선택한 보육 상황 영상을 제공받게 된다(S410).Accordingly, the transmitting unit 370 of the management server 300 transmits the content for child care training selected by the user to the user's video equipment 100, and as a result, the user selects the child care selected through the video equipment 100 being worn. A situation video is provided (S410).

예를 들어, 사용자가 선택한 보육 훈련용 콘텐츠가 분유 먹이기인 경우에 사용자는 입을 벌린 채 누워있는 아기의 영상 이미지를 영상 장비(100)를 통해 제공받게 된다.For example, when the content for child care training selected by the user is feeding with milk powder, the user is provided with a video image of the baby lying with his mouth open through the video equipment 100.

한편, 해당 영상에는 '햅틱 글로브를 착용한 상태에서 젖병을 들어 아기의 입에 약 45도의 각도로 젖꼭지를 물려주세요' 등과 같은 보육 훈련 가이드 정보가 표시되도록 함이 바람직할 것이다.On the other hand, it would be desirable to display the childcare training guide information such as'Please raise the pacifier at an angle of about 45 degrees to the baby's mouth by lifting the baby bottle while wearing the haptic glove'.

이에 따라, 사용자는 햅틱 글로브를 감지 장비(200)로서 자신의 손에 착용하게 되며, 햅틱 글로브를 착용한 상태에서 미리 준비해 둔 젖병(10)을 파지하게 된다.Accordingly, the user wears the haptic glove as his sensing device 200 in his hand, and grips the bottle 10 prepared in advance while wearing the haptic glove.

한편, 본 발명을 실시함에 있어서는, 햅틱 글로브를 착용한 사용자의 손의 위치, 젖병(10)을 파지한 사용자의 손가락의 형태, 및 사용자에 의해 파지된 젖병(10)의 각도를 감지할 수 있도록 햅틱 글로브에는 삼축 센서가 장착되고, 햅틱 글로브에서의 손가락의 각 관절 부위에는 모션 센서가 장착되며, 햅틱 글로브의 손바닥 면에는 압력 센서가 장착되도록 함이 바람직할 것이다.On the other hand, in the practice of the present invention, the position of the hand of the user wearing the haptic glove, the shape of the user's finger gripping the bottle 10, and the angle of the bottle 10 gripped by the user can be detected. It would be desirable to have a triaxial sensor mounted on the haptic glove, a motion sensor on each joint of the finger in the haptic glove, and a pressure sensor on the palm surface of the haptic glove.

그 결과, 사용자가 햅틱 글로브를 통해 젖병(10)을 파지한 경우에 햅틱 글로브의 손바닥 면에 설치된 압력 센서는 젖병(10)을 파지하고 있는 사용자의 손에 의한 압력값을 감지하게 되며, 감지 장비(200)는 이와 같은 물체 파지 정보를 관리 서버(300)로 송신한다(S415).As a result, when the user grips the baby bottle 10 through the haptic glove, the pressure sensor installed on the palm surface of the haptic glove senses the pressure value by the hand of the user holding the baby bottle 10, and is a sensing device. 200 transmits the object gripping information to the management server 300 (S415).

이후 사용자가 영상 장비(100)를 통해 제공되는 유아의 영상에 맞추어 햅틱 글로브로 파지하고 있는 젖병(10)의 젖꼭지 부분을 영상 장비(100)를 통해 제공되는 유아의 영상에서의 유아의 입으로 이동시키는 경우에 햅틱 글로브의 각 관절 부위에 장착된 모션 센서는 사용자의 손가락 움직임 정보를 관리 서버(300)로 송신한다(S420).Thereafter, the user moves the nipple portion of the feeding bottle 10 gripped with the haptic glove in accordance with the image of the infant provided through the imaging device 100 to the infant's mouth in the infant image provided through the imaging device 100. In the case of the motion sensor attached to each joint portion of the haptic glove transmits the user's finger movement information to the management server (300) (S420).

이에 관리 서버(300)의 판단부(350)는 감지 장비(200)로부터 수신된 사용자의 손가락 움직임 정보에 기초하여, 손가락에 의해 파지되어 있는 젖병(10)의 이미지를 3차원 상에 맵핑하며, 3차원 상에 맵핑된 젖병(10) 이미지의 3차원 좌표값과 사용자에게 제공되고 있는 영상의 적합성 여부를 판단한다(S425).Accordingly, the determination unit 350 of the management server 300 maps the image of the feeding bottle 10 gripped by the finger in three dimensions based on the user's finger movement information received from the sensing equipment 200, It is determined whether the 3D coordinate values of the bottle 10 image mapped on the 3D and the image provided to the user are suitable (S425).

구체적으로, 관리 서버(300)의 판단부(350)는 3차원 맵핑된 젖병(10)의 이미지에서의 젖꼭지 부분이 사용자에게 제공되고 있는 유아의 영상에서의 입 부분에 위치하는지 여부를 판단함으로써, 보육 훈련을 하는 사용자의 신체 움직임의 적합성 여부를 판단하며, 또한 3차원 맵핑된 젖병(10)의 좌표값으로부터 산출되는 젖병(10)의 기울임 각도가 소정의 각도 범위(예를 들면, 40~50도) 범위 내에 있는지 여부를 판단함으로써, 사용자 신체 움직임의 적합성 여부를 추가적으로 판단한다.Specifically, the determination unit 350 of the management server 300 determines whether the nipple portion in the image of the three-dimensionally mapped baby bottle 10 is located in the mouth portion of the image of the infant being provided to the user, It is determined whether the user's body movement is suitable for child care training, and the tilt angle of the bottle 10 calculated from the coordinate values of the 3D mapped bottle 10 is a predetermined angle range (for example, 40-50 Figure) By determining whether it is within the range, it is further determined whether the user's body movement is appropriate.

한편, 관리 서버(300)의 판단부(350)가 전술한 S425 단계에서 사용자의 신체 움직임이 적합한 것으로 판단한 경우에 관리 서버(300)의 송신부(370)는 영상 장비(100)로 사용자의 성공적인 보육 훈련을 응원하는 메시지를 송신함으로써, 사용자에게 보다 적극적인 보육 훈련에의 동기가 부여되도록 할 수 있을 것이다.On the other hand, when the determination unit 350 of the management server 300 determines that the user's body movement is appropriate in step S425 described above, the transmission unit 370 of the management server 300 uses the video equipment 100 to successfully incubate the user. By sending a message to support training, it will be possible to motivate users to become more active in childcare training.

아울러, 관리 서버(300)의 판단부(350)가 전술한 S425 단계에서 사용자의 신체 움직임이 부적합한 것으로 판단한 경우에 관리 서버(300)의 송신부(370)는 햅틱 글로브를 통해 사용자의 손에 진동이 가해지도록 햅틱 글로브에 진동 신호를 송신함으로써, 감지 장비(200)에 적합성 판단 결과를 송신할 수도 있을 것이다(S430).In addition, when the determination unit 350 of the management server 300 determines that the user's body movement is inappropriate in step S425 described above, the transmission unit 370 of the management server 300 causes vibration of the user's hand through the haptic globe. By transmitting the vibration signal to the haptic glove to be applied, it may be possible to transmit the determination result of conformity to the sensing device 200 (S430).

아울러, 이러한 경우 관리 서버(300)의 송신부(370)는 사용자가 분유 먹이기 훈련에 참고할 수 있도록 분유 먹이기에 관한 사용자 가이드 영상을 영상 장비(100)로 송신할 수도 있을 것이다(S435).In addition, in this case, the transmission unit 370 of the management server 300 may transmit a user guide image regarding the feeding of the milk to the imaging device 100 so that the user can refer to the formula feeding training (S435).

한편, 본 발명을 실시함에 있어서는, 관리 서버(300)의 판단부(350)는 저장부(330)에 저장되어 있는 다양한 유아 보육 훈련 콘텐츠 중에서 사용자의 훈련 선택 빈도가 가장 낮은 보육 훈련 콘텐츠에서의 상황(예를 들면, 기저귀 갈기)를 돌발 상황으로 선정하고(S440), 해당 보육 훈련 콘텐츠 영상을 돌발 상황 영상으로 사용자의 영상 장비(100)로 송신할 수도 있을 것이다(S445).On the other hand, in the practice of the present invention, the judging unit 350 of the management server 300 is a situation in the child care training content with the lowest training selection frequency of the user among the various child care training contents stored in the storage unit 330. (For example, diaper grind) may be selected as an unexpected situation (S440), and the corresponding childcare training content image may be transmitted to the user's video equipment 100 as an unexpected situation image (S445).

구체적으로, 해당 돌발 상황 영상에는 '햅틱 글로브를 착용한 상태에서 아이의 기저귀를 갈아 주세요'와 같은 돌발 상황 훈련 가이드 정보가 표시되도록 함이 바람직할 것이다.Specifically, it would be desirable to display information on the sudden situation training guide, such as'Please change the child's diaper while wearing a haptic glove', in the corresponding emergency situation image.

이에 따라, 사용자는 햅틱 글로브를 감지 장비(200)로서 자신의 손에 착용하며, 햅틱 글로브를 착용한 상태에서 미리 준비해 둔 기저귀를 파지하게 된다.Accordingly, the user wears the haptic glove as his sensing device 200 in his hand and grips the diaper prepared in advance while wearing the haptic glove.

한편, 본 발명을 실시함에 있어서는, 햅틱 글로브를 착용한 사용자의 손의 위치, 기저귀을 파지한 사용자의 손가락의 형태, 및 사용자에 의해 파지된 기저귀의 위치를 감지할 수 있도록 햅틱 글로브에는 삼축 센서가 장착되고, 햅틱 글로브에서의 손가락의 각 관절 부위에는 모션 센서가 장착되며, 햅틱 글로브의 손바닥 면에는 압력 센서가 장착되도록 함이 바람직할 것이다.On the other hand, in carrying out the present invention, a haptic glove is equipped with a triaxial sensor to detect the position of the hand of the user wearing the haptic glove, the shape of the finger of the user gripping the diaper, and the position of the diaper held by the user. It is desirable that a motion sensor is mounted on each joint portion of the finger in the haptic glove, and a pressure sensor is mounted on the palm surface of the haptic glove.

즉, 사용자가 햅틱 글로브를 통해 기저귀를 파지한 경우에 햅틱 글로브의 손바닥 면에 설치된 압력 센서는 기저귀를 파지하고 있는 사용자의 손에 의한 압력값을 감지하게 되며, 감지 장비(200)는 이와 같은 물체 파지 정보를 관리 서버(300)로 송신한다(S450).That is, when the user grips the diaper through the haptic glove, the pressure sensor installed on the palm surface of the haptic glove senses the pressure value by the hand of the user gripping the diaper, and the sensing device 200 is such an object. The gripping information is transmitted to the management server 300 (S450).

이후 사용자가 영상 장비(100)를 통해 제공되는 유아의 영상에 맞추어 햅틱 글로브로 파지하고 있는 기저귀를 유아의 엉덩이 부분으로 이동시키는 경우에 햅틱 글로브의 각 관절 부위에 장착된 모션 센서는 사용자의 손가락 움직임 정보를 관리 서버(300)로 송신한다(S455).Thereafter, when the user moves the diaper gripping the haptic glove to the hip part of the infant in accordance with the image of the infant provided through the imaging device 100, the motion sensor mounted on each joint of the haptic glove moves the user's finger. The information is transmitted to the management server 300 (S455).

이에 관리 서버(300)의 판단부(350)는 감지 장비(200)로부터 수신된 사용자의 손가락 움직임 정보에 기초하여, 기저귀의 이미지를 3차원 상에 맵핑하며, 3차원 상에 맵핑된 기저귀 이미지의 3차원 좌표 정보와 사용자에게 제공되고 있는 영상의 적합성 여부를 판단한다(S460).Accordingly, the determination unit 350 of the management server 300 maps the image of the diaper on the 3D, based on the user's finger movement information received from the detection device 200, of the diaper image mapped on the 3D It is determined whether the 3D coordinate information and the image provided to the user are suitable (S460).

구체적으로, 관리 서버(300)의 판단부(350)는 3차원 맵핑된 기저귀의 이미지가 사용자에게 제공되고 있는 유아의 엉덩이의 아래 부분에 위치하는지 여부를 판단함으로써, 사용자의 신체 움직임의 적합성 여부를 판단한다.Specifically, the determination unit 350 of the management server 300 determines whether the user's body movement is appropriate by determining whether the 3D mapped diaper image is located at the bottom of the infant's hip provided to the user. Judge.

한편, 관리 서버(300)의 판단부(350)가 전술한 S460 단계에서 사용자의 신체 움직임이 부적합한 것으로 판단한 경우에 관리 서버(300)의 송신부(370)는 햅틱 글로브를 통해 사용자의 손에 진동이 가해지도록 햅틱 글로브에 진동 신호를 송신함으로써, 감지 장비(200)에 적합성 판단 정보를 송신할 수도 있을 것이다.On the other hand, when the determination unit 350 of the management server 300 determines that the user's body movement is inappropriate in step S460 described above, the transmission unit 370 of the management server 300 causes vibration of the user's hand through the haptic globe. By transmitting the vibration signal to the haptic glove to be applied, it may be possible to transmit the suitability determination information to the sensing device 200.

본 발명에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and that one or more other features are present. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

이상에서는 본 발명의 바람직한 실시예 및 응용예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In the above, preferred embodiments and application examples of the present invention have been shown and described, but the present invention is not limited to the specific embodiments and application examples described above, and the present invention without departing from the gist of the present invention claimed in the claims. Various modifications can be made by those skilled in the art to which this belongs, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

10: 젖병, 100: 영상 장비,
200: 감지 장비, 300: 관리 서버.
10: baby bottle, 100: imaging equipment,
200: detection equipment, 300: management server.

Claims (2)

(a) 관리 서버가, 유아 보육 훈련용 콘텐츠에 대한 사용자의 훈련 선택 정보를 수신하는 단계;
(b) 관리 서버가, 상기 사용자의 훈련 선택 정보에 기초하여, 상기 사용자의 영상 장비로 유아의 영상 정보를 포함하는 유아 보육 훈련용 콘텐츠를 송신하는 단계;
(c) 상기 관리 서버가, 상기 영상 정보에 따른 상기 사용자의 신체 움직임을 감지하는 감지 장비로부터 상기 사용자의 손가락 움직임 정보를 포함하는 신체 움직임 정보를 수신하는 단계;
(d) 상기 관리 서버가, 상기 신체 움직임 정보에 기초하여 상기 영상 정보에 따른 사용자의 신체 움직임의 적합성을 판단하는 단계;
(e) 상기 관리 서버가, 상기 사용자의 신체 움직임이 부적합한 것으로 판단한 경우에, 적합성 판단 결과를 상기 감지 장비로 송신하는 단계;
(f) 상기 관리 서버가, 상기 사용자의 신체 움직임이 부적합한 것으로 판단한 경우에, 유아 보육 훈련용 가이드 영상을 상기 영상 장비로 송신하는 단계;
(g) 상기 관리 서버가, 상기 사용자의 훈련 선택 빈도가 낮은 유아 보육 훈련 콘텐츠를 돌발 상황 훈련 콘텐츠로 선정하는 단계; 및
(h) 상기 관리 서버가, 선정된 상기 돌발 상황 훈련 콘텐츠를 상기 영상 장비로 송신하는 단계
를 포함하며,
상기 (d) 단계는,
(d1) 상기 관리 서버가, 상기 사용자의 손가락 움직임 정보에 기초하여 사용자의 손가락에 파지되어 있는 젖병의 이미지를 3차원 상에 맵핑하는 단계;
(d2) 상기 관리 서버가, 3차원 상에 맵핑된 젖병 이미지에서의 젖꼭지 부분이 상기 사용자의 영상 장비로 송신된 유아의 영상에서의 입 부분에 위치하는지 여부를 판단함으로써, 사용자의 신체 움직임의 적합성을 1차적으로 판단하는 단계; 및
(d3) 상기 관리 서버가, 3차원 상에 맵핑된 젖병의 좌표값으로부터 젖병의 기울임 각도를 산출하고, 산출된 젖병의 기울임 각도가 소정의 각도 범위 내에 있는지 여부를 판단함으로써, 사용자의 신체 움직임의 적합성을 2차적으로 판단하는 단계
를 포함하는 것인 네트워크를 통한 유아 보육 훈련 서비스 제공 방법.
(A) the management server, receiving the user's training selection information for the content for child care training;
(b) a management server transmitting, based on the user's training selection information, content for infant childcare training including image information of an infant to the user's image equipment;
(c) the management server receiving body motion information including finger motion information of the user from a sensing device that senses the user's body motion according to the image information;
(d) determining, by the management server, the fitness of the user's body motion according to the image information based on the body motion information;
(e) when the management server determines that the user's body movement is inappropriate, transmitting a result of the fitness determination to the sensing equipment;
(f) when the management server determines that the user's body movement is inappropriate, transmitting a guide image for infant child care training to the image equipment;
(g) selecting, by the management server, the infant childcare training content having a low training selection frequency of the user as an emergency situation training content; And
(h) transmitting, by the management server, the selected sudden situation training content to the video equipment.
It includes,
Step (d) is,
(d1) mapping, by the management server, an image of a baby bottle gripped on a user's finger in three dimensions based on the user's finger movement information;
(d2) The management server determines whether the nipple portion in the bottle image mapped on the 3D is located in the mouth portion of the image of the infant transmitted to the user's imaging equipment, thereby conforming to the user's body movement. Determining first; And
(d3) The management server calculates the tilt angle of the bottle from the coordinate values of the bottle mapped on the 3D, and determines whether the calculated tilt angle of the bottle is within a predetermined angle range, thereby determining the user's body movement. Step to judge suitability secondarily
Method for providing early childhood child care training services through a network that includes.
유아 보육 훈련용 콘텐츠에 대한 사용자의 훈련 선택 정보를 수신하는 수신부;
상기 사용자의 훈련 선택 정보에 기초하여 사용자의 영상 장비로 유아의 영상 정보를 포함하는 유아 보육 훈련용 콘텐츠를 송신하는 송신부;
상기 영상 정보에 따른 상기 사용자의 신체 움직임을 감지하는 감지 장비로부터 상기 사용자의 손가락 움직임 정보를 포함하는 신체 움직임 정보를 수신하는 수신부; 및
상기 신체 움직임 정보에 기초하여 상기 영상 정보에 따른 사용자의 신체 움직임의 적합성을 판단하는 판단부
를 포함하며,
상기 판단부는, 상기 사용자의 손가락 움직임 정보에 기초하여 사용자의 손가락에 파지되어 있는 젖병의 이미지를 3차원 상에 맵핑하고, 3차원 상에 맵핑된 젖병 이미지에서의 젖꼭지 부분이 상기 사용자의 영상 장비로 송신된 유아의 영상에서의 입 부분에 위치하는지 여부를 판단함으로써, 사용자의 신체 움직임의 적합성을 1차적으로 판단하며, 3차원 상에 맵핑된 젖병의 좌표값으로부터 젖병의 기울임 각도를 산출하고, 산출된 젖병의 기울임 각도가 소정의 각도 범위 내에 있는지 여부를 판단함으로써, 사용자의 신체 움직임의 적합성을 2차적으로 판단하며,
상기 송신부는, 상기 사용자의 신체 움직임이 부적합한 것으로 판단된 경우에, 적합성 판단 결과를 상기 감지 장비로 송신하고,
상기 송신부는, 상기 사용자의 신체 움직임이 부적합한 것으로 판단된 경우에, 유아 보육 훈련용 가이드 영상을 상기 영상 장비로 송신하며,
상기 판단부는, 상기 사용자의 훈련 선택 빈도가 낮은 유아 보육 훈련 콘텐츠를 돌발 상황 훈련 콘텐츠로 선정하고,
상기 송신부는, 선정된 상기 돌발 상황 훈련 콘텐츠를 상기 영상 장비로 송신하는 것인 관리 서버.
Receiving unit for receiving the user's training selection information for the child care training content;
A transmitting unit for transmitting content for infant childcare training including image information of an infant to a user's image equipment based on the user's training selection information;
A receiver configured to receive body motion information including finger motion information of the user from sensing equipment that senses the user's body motion according to the image information; And
A determination unit for determining the fitness of the user's body movement according to the image information based on the body movement information
It includes,
The determination unit maps an image of a bottle gripped on a user's finger in three dimensions based on the user's finger movement information, and a nipple portion in the bottle image mapped on the three dimension is used as the user's imaging equipment. By determining whether it is located in the mouth of the transmitted infant image, the fitness of the user's body motion is first determined, and the tilt angle of the bottle is calculated and calculated from the coordinate values of the bottle mapped in three dimensions. By determining whether the tilt angle of the bottle is within a predetermined angle range, the fitness of the user's body movement is secondarily determined,
When it is determined that the user's body movement is inappropriate, the transmitter transmits a result of the fitness determination to the sensing equipment,
When it is determined that the user's body movement is inappropriate, the transmitting unit transmits a guide image for infant child care training to the imaging equipment,
The judging unit selects the child care training content having a low training selection frequency of the user as an unexpected situation training content,
The transmitting unit, the management server that transmits the selected emergency situation training content to the video equipment.
KR1020170063257A 2017-05-23 2017-05-23 Method for Providing Child Care Training Service in Network, and Managing Server Used Threrein Active KR102132952B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170063257A KR102132952B1 (en) 2017-05-23 2017-05-23 Method for Providing Child Care Training Service in Network, and Managing Server Used Threrein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170063257A KR102132952B1 (en) 2017-05-23 2017-05-23 Method for Providing Child Care Training Service in Network, and Managing Server Used Threrein

Publications (2)

Publication Number Publication Date
KR20180128148A KR20180128148A (en) 2018-12-03
KR102132952B1 true KR102132952B1 (en) 2020-07-10

Family

ID=64743284

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170063257A Active KR102132952B1 (en) 2017-05-23 2017-05-23 Method for Providing Child Care Training Service in Network, and Managing Server Used Threrein

Country Status (1)

Country Link
KR (1) KR102132952B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3933665A1 (en) * 2020-06-30 2022-01-05 Koninklijke Philips N.V. A system and method for providing assistance during bottle-feeding
KR102417553B1 (en) * 2020-10-23 2022-07-07 유한회사 부모마음충전소 Baby Care System
KR20250068058A (en) 2023-11-09 2025-05-16 송준복 Pesticide spraying device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100211897A1 (en) * 2009-02-19 2010-08-19 Kimberly-Clark Worldwide, Inc. Virtual Room Use Simulator and Room Planning System

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101671320B1 (en) * 2014-05-15 2016-11-02 리치앤타임(주) Virtual network training processing unit included client system of immersive virtual training system that enables recognition of respective virtual training space and collective and organizational cooperative training in shared virtual workspace of number of trainees through multiple access and immersive virtual training method using thereof
KR20160083411A (en) * 2014-12-31 2016-07-12 경운대학교 산학협력단 Augmented Reality System To Cognition Improvement For Prevention And Care Of Dementia

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100211897A1 (en) * 2009-02-19 2010-08-19 Kimberly-Clark Worldwide, Inc. Virtual Room Use Simulator and Room Planning System

Also Published As

Publication number Publication date
KR20180128148A (en) 2018-12-03

Similar Documents

Publication Publication Date Title
CN104919391B (en) Computing Interface System
KR102132952B1 (en) Method for Providing Child Care Training Service in Network, and Managing Server Used Threrein
KR102141288B1 (en) Supporting method and system for home fitness
US9566714B2 (en) Apparatus for monitoring food consumption by an individual
US9504343B2 (en) Apparatus and method for food capture
US11237632B2 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
CN101983090A (en) Training apparatus and method based on motion content
CN110378244B (en) Abnormal posture detection method and device
JPWO2016143404A1 (en) Information processing apparatus, information processing method, and program
WO2018095804A1 (en) Wearable motion tracking system
JP2016068253A (en) System for delivering article by robot
CN103903403A (en) Intelligent sitting posture correcting system
US11460912B2 (en) System and method related to data fusing
KR20090105785A (en) Motion Content Based Learning Device and Method
US12437489B2 (en) Presenting meshed representations of physical objects within defined boundaries for interacting with artificial-reality content, and systems and methods of use thereof
CN110049698A (en) Monitor the method and intelligence eating utensil of eating utensil
KR102863325B1 (en) Method for transmitting object-related messages using wide-range frequency acoustic signals and various applications
US11369866B2 (en) Position tracking apparatus and method
CN205620934U (en) A stage property for virtual reality system
US20240248553A1 (en) Coprocessor for biopotential signal pipeline, and systems and methods of use thereof
US20170220110A1 (en) Wearable Locomotion Capture Device
CN203017664U (en) Brain degeneration prevention and rehabilitation training system based on motion identification
Tomimoto et al. Meal-assistance robot operated by head movement
TWI737068B (en) Motion tracking system and method
US12443269B2 (en) Controlling locomotion within an artificial-reality application using hand gestures, and methods and systems of use thereof

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20170523

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20181022

Patent event code: PE09021S01D

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20190529

Patent event code: PE09021S01D

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20191226

Patent event code: PE09021S02D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20200626

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20200706

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20200706

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20230417

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20240416

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20250409

Start annual number: 6

End annual number: 6