[go: up one dir, main page]

KR20240100318A - Audio Signal - Based Device And Control Method Thereof - Google Patents

Audio Signal - Based Device And Control Method Thereof Download PDF

Info

Publication number
KR20240100318A
KR20240100318A KR1020240060049A KR20240060049A KR20240100318A KR 20240100318 A KR20240100318 A KR 20240100318A KR 1020240060049 A KR1020240060049 A KR 1020240060049A KR 20240060049 A KR20240060049 A KR 20240060049A KR 20240100318 A KR20240100318 A KR 20240100318A
Authority
KR
South Korea
Prior art keywords
electronic device
whistle sound
audio signal
information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020240060049A
Other languages
Korean (ko)
Inventor
한윤창
이수빈
박정수
정일영
이돈문
임현기
Original Assignee
코클 아이엔씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210118288A external-priority patent/KR20220129986A/en
Application filed by 코클 아이엔씨 filed Critical 코클 아이엔씨
Publication of KR20240100318A publication Critical patent/KR20240100318A/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)

Abstract

The present invention relates to a control method of an electronic device including a microphone, a memory, a control unit, and a driving unit. the control method of an electronic device includes the steps of: receiving an audio signal from a user; determining whether the input audio signal is a whistle sound; analyzing characteristics of the whistle sound when it is determined that the audio signal is the whistle sound; and controlling the operation of the electronic device using the analysis result.

Description

오디오 신호 기반 디바이스 및 그의 제어방법 {Audio Signal - Based Device And Control Method Thereof}Audio signal based device and control method thereof {Audio Signal - Based Device And Control Method Thereof}

본 발명은 휘파람과 같은 오디오 신호를 이용한 디바이스와 그의 제어방법에 관한 것이다.The present invention relates to a device using an audio signal such as a whistle and a method of controlling the same.

최근 오디오를 처리하기 위하여 딥 러닝과 같은 인공지는 기술들이 적용되고 있다. 오디오와 관련된 처리 기술 중 하나인 오디오 식별 기술은 오디오 입력이 어떤 주체로부터 발생되었는지, 해당 주체의 어떤 상황에서 발생되는 것인지 여부를 검출하기 위한 목적으로 개발된다.Recently, artificial intelligence technologies such as deep learning are being applied to process audio. Audio identification technology, one of the processing technologies related to audio, is developed for the purpose of detecting from which subject the audio input is generated and under what circumstances the audio input is generated.

오디오 식별 기술이 점점 발전함에 따라, 이를 이용한 응용 기술의 연구도 활발히 진행되고 있다. 구체적으로, 사용자의 발화에 근거하여 전자기기를 제어하는 다양한 방법들이 등장하고 있다. 음성 인식 기술의 상용화된 방법으로는 시리(Siri), S보이스와 같은 예가 존재한다.As audio identification technology continues to develop, research on application technologies using it is also actively underway. Specifically, various methods for controlling electronic devices based on user utterances are emerging. Examples of commercialized voice recognition technology include Siri and S Voice.

반면, 인간이 발생시킬 수 있는 비언어적 오디오를 이용하여 전자기기를 제어하는 방법은 제한적으로 적용되고 있다. 예를 들어, 박수 소리에 반응하여 전등을 켜고 끄는 정도의 간단한 방법이 사용되고 있을 뿐이다.On the other hand, methods of controlling electronic devices using non-verbal audio that can be generated by humans have limited application. For example, simple methods such as turning lights on and off in response to applause are used.

박수 소리와 같은 비언어적 오디오는 언어 오디오와 달리 의미를 함유하는데 다소 제약이 따르므로, 전자기기를 다양한 목적으로 제어하기 어려운 문제점이 있다.Unlike verbal audio, nonverbal audio such as applause has some limitations in containing meaning, making it difficult to control electronic devices for various purposes.

한편, 다수의 사용자가 쉽게 발생시킬 수 있는 휘파람 소리는 음의 높낮이나, 음의 변화 패턴, 멜로디와 같이 다양한 특성(features)을 가질 수 있다. 따라서, 사용자가 발생시킨 휘파람 소리에 대해 오디오 식별 기술을 적용한다면, 사용자가 발화를 하지 않고도 간단한 휘파람 소리만으로 전자기기를 제어할 수 있게 된다.Meanwhile, a whistling sound that can be easily generated by multiple users may have various features such as pitch, sound change pattern, and melody. Therefore, if audio identification technology is applied to the whistling sound generated by the user, it becomes possible to control electronic devices with a simple whistling sound without the user speaking.

본 발명에서는 오디오 식별 기술을 이용하여 사용자가 발생시킨 휘파람 소리로부터 전자기기의 동작 명령을 추출하고, 추출한 동작 명령에 기반하여 전자기기를 제어하는 방법에 대해 제안하고자 한다.In the present invention, we would like to propose a method of extracting operation commands of an electronic device from a whistle sound generated by a user using audio identification technology and controlling the electronic device based on the extracted operation command.

본 발명의 기술적 과제는, 음성이 아닌 비언어적 오디오에 근거하여 동작하는 전자기기를 제공하는 것이다.The technical object of the present invention is to provide an electronic device that operates based on non-verbal audio rather than voice.

본 발명의 기술적 과제는, 휘파람 소리에 기반하여 전자기기를 동작시킬 수 있는 제어방법을 제공하는 것이다.The technical problem of the present invention is to provide a control method that can operate electronic devices based on the sound of a whistle.

본 발명의 기술적 과제는, 휘파람 소리의 높낮이, 멜로디 및 변화양상을 분석하고, 분석결과에 근거하여 전자기기를 동작시키는 제어방법을 제공하는 것이다.The technical object of the present invention is to provide a control method that analyzes the pitch, melody, and change pattern of a whistle sound and operates an electronic device based on the analysis results.

본 발명은 마이크, 메모리, 제어부 및 구동부를 포함하는 전자기기의 제어방법에 관한 것으로서, 사용자로부터 오디오 신호를 입력받는 단계와, 입력된 상기 오디오 신호가 휘파람 소리인지 여부를 판단하는 단계와, 상기 오디오 신호가 휘파람 소리인 것으로 판단되면, 상기 휘파람 소리의 특성을 분석하는 단계 및 분석결과를 이용하여 상기 전자기기의 동작을 제어하는 단계를 포함하는 것을 특징으로 한다.The present invention relates to a control method of an electronic device including a microphone, a memory, a control unit, and a driver, comprising: receiving an audio signal from a user; determining whether the input audio signal is a whistle sound; and When it is determined that the signal is a whistle sound, the method includes analyzing the characteristics of the whistle sound and controlling the operation of the electronic device using the analysis result.

본 발명에 따르면, 사용자가 휘파람 소리를 발생시키는 것만으로 전자기기를 동작시킬 수 있으므로, 사용자의 편의가 향상되는 효과가 있다.According to the present invention, the user can operate the electronic device simply by making a whistling sound, thereby improving the user's convenience.

본 발명에 따르면, 오디오 기반 전자기기 제어 기술의 트리거가 사용자의 발화에 제한되어 있던 한계점을, 비언어적 신호를 이용하는 방식으로 해결할 수 있는 장점이 있다.According to the present invention, there is an advantage in that the limitation of the trigger of audio-based electronic device control technology being limited to the user's speech can be solved by using non-verbal signals.

도 1은 본 발명에서 제안하는 제어방법의 대상인 전자기기의 구성요소를 나타낸 개념도이다.
도 2는 본 발명의 일 실시예에 따른 전자기기 제어방법을 나타낸 흐름도이다.
도 3a 및 도 3b는 본 발명에 따른 전자기기 제어방법이 적용되는 냉장고의 구성요소를 나타낸 블록도이다.
도 4는 휘파람 소리를 이용하여 냉장고의 동작을 제어하는 방법을 나타내는 개념도이다.
도 5는 본 발명에 따른 전자기기 제어방법이 적용되는 AI 스피커의 구성요소를 나타낸 블록도이다.
도 6은 휘파람 소리를 이용하여 AI 스피커의 동작을 제어하는 방법을 나타내는 개념도이다.
Figure 1 is a conceptual diagram showing the components of an electronic device that is the target of the control method proposed in the present invention.
Figure 2 is a flowchart showing a method for controlling an electronic device according to an embodiment of the present invention.
3A and 3B are block diagrams showing components of a refrigerator to which the electronic device control method according to the present invention is applied.
Figure 4 is a conceptual diagram showing a method of controlling the operation of a refrigerator using a whistle sound.
Figure 5 is a block diagram showing the components of an AI speaker to which the electronic device control method according to the present invention is applied.
Figure 6 is a conceptual diagram showing a method of controlling the operation of an AI speaker using a whistle sound.

이하, 첨부된 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 이하에서 개시되는 도면 및 실시예에 한정되는 것은 아니다. 또한, 도면에서 본 발명을 명확하게 설명하기 위하여 본 발명과 관계없는 부분은 생략하였으며, 도면에서 동일하거나 유사한 부호들은 동일하거나 유사한 구성요소들을 나타낸다.Hereinafter, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the drawings and examples disclosed below. In addition, in order to clearly explain the present invention in the drawings, parts not related to the present invention are omitted, and identical or similar symbols in the drawings indicate identical or similar components.

본 발명의 목적 및 효과는 하기의 설명에 의해서 자연스럽게 이해되거나 보다 분명해질 수 있으며, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하므로, 하기의 기재만으로 본 발명의 목적 및 효과가 제한되는 것은 아니다.The purpose and effect of the present invention can be naturally understood or become clearer through the following description, and if it is judged that it may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Therefore, the purpose of the present invention can be understood only by the following description. And the effect is not limited.

도 1에서는 전자기기(100)의 구성요소가 설명된다.In Figure 1, the components of the electronic device 100 are explained.

본 명세서에서 설명되는 전자기기(100)는 냉장고, 인공지능 스피커, 청소기, 이동단말기, 세탁기, 건조기와 같이, 데이터 통신을 수행하고, 데이터 처리를 수행하며, 소정의 동작을 수행하는 다양한 디바이스로 정의될 수 있다.The electronic device 100 described in this specification is defined as various devices that perform data communication, data processing, and perform certain operations, such as refrigerators, artificial intelligence speakers, vacuum cleaners, mobile terminals, washing machines, and dryers. It can be.

일 예로, 전자기기(100)가 이동 단말기인 경우, 전자기기(100)는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.For example, when the electronic device 100 is a mobile terminal, the electronic device 100 may be a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, personal digital assistants (PDAs), or a portable PMP (Personal Digital Assistant). multimedia player, navigation, slate PC, tablet PC, ultrabook, wearable device (e.g., smartwatch), glass-type terminal (smart glass) , HMD (head mounted display), etc. may be included.

그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, those skilled in the art will easily understand that, except for the case where the configuration according to the embodiment described in this specification is applicable only to mobile terminals, it can also be applied to fixed terminals such as digital TVs, desktop computers, digital signage, etc. will be.

상기 전자기기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다.The electronic device 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. ), etc. may be included.

보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 전자기기(100)와 무선 통신 시스템 사이, 전자기기(100)와 다른 전자기기(100) 사이, 또는 전자기기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 전자기기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the above components, the wireless communication unit 110 is used between the electronic device 100 and the wireless communication system, between the electronic device 100 and another electronic device 100, or between the electronic device 100 and an external server. It may include one or more modules that enable wireless communication between the devices. Additionally, the wireless communication unit 110 may include one or more modules that connect the electronic device 100 to one or more networks.

이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.This wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .

입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 or an audio input unit for inputting an audio signal, and a user input unit 123 for receiving information from a user, for example. , touch keys, push keys (mechanical keys, etc.). Voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.

센싱부(140)는 수집장치 내 정보, 수집장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information within the collection device, information on the surrounding environment surrounding the collection device, and user information. For example, the sensing unit 140 includes a proximity sensor (141), an illumination sensor (142), a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor. Sensor (G-sensor), gyroscope sensor, motion sensor, RGB sensor, IR sensor (infrared sensor), fingerprint scan sensor, ultrasonic sensor , optical sensors (e.g., cameras (see 121)), microphones (see 122), battery gauges, environmental sensors (e.g., barometers, hygrometers, thermometers, radiation detection sensors, It may include at least one of a heat detection sensor, a gas detection sensor, etc.) and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric sensor, etc.).

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 전자기기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 전자기기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating output related to vision, hearing, or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a haptip module 153, and an optical output unit 154. can do. The display unit 151 can implement a touch screen by forming a layered structure or being integrated with the touch sensor. This touch screen functions as a user input unit 123 that provides an input interface between the electronic device 100 and the user, and can simultaneously provide an output interface between the electronic device 100 and the user.

인터페이스부(160)는 전자기기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 전자기기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a passageway for various types of external devices connected to the electronic device 100. This interface unit 160 connects devices equipped with a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port. In response to the external device being connected to the interface unit 160, the electronic device 100 may perform appropriate control related to the connected external device.

또한, 메모리(170)는 전자기기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 전자기기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 전자기기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 전자기기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 전자기기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 전자기기(100) 상에 설치되어, 제어부(180)에 의하여 상기 오디오 분석정보 수집장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.Additionally, the memory 170 stores data supporting various functions of the electronic device 100. The memory 170 may store a plurality of application programs (application programs or applications) running on the electronic device 100, data for operating the electronic device 100, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Additionally, at least some of these applications may be present on the electronic device 100 from the time of shipment for basic functions of the electronic device 100 (e.g., incoming and outgoing calls, receiving and sending functions). Meanwhile, the application program may be stored in the memory 170, installed on the electronic device 100, and driven by the control unit 180 to perform the operation (or function) of the audio analysis information collection device.

제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 전자기기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to operations related to the application program, the control unit 180 typically controls the overall operation of the electronic device 100. The control unit 180 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in the memory 170.

또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 전자기기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.Additionally, the control unit 180 may control at least some of the components examined with FIG. 1 in order to run an application program stored in the memory 170. Furthermore, the control unit 180 may operate at least two of the components included in the electronic device 100 in combination with each other in order to run the application program.

전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 전자기기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power and internal power under the control of the control unit 180 and supplies power to each component included in the electronic device 100. This power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.

상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 오디오 분석정보 수집장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 오디오 분석정보 수집장치의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 오디오 분석정보 수집장치 상에서 구현될 수 있다. At least some of the above components may cooperate with each other to implement the operation, control, or control method of the audio analysis information collection device according to various embodiments described below. Additionally, the operation, control, or control method of the audio analysis information collection device may be implemented on the audio analysis information collection device by running at least one application program stored in the memory 170.

이하에서는, 위에서 살펴본 전자기기(100)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 1을 참조하여 보다 구체적으로 살펴본다.Below, before looking at various embodiments implemented through the electronic device 100 discussed above, the components listed above will be looked at in more detail with reference to FIG. 1.

먼저, 무선 통신부(110)에 대하여 살펴보면, 무선 통신부(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 전자기기(100)에 제공될 수 있다.First, looking at the wireless communication unit 110, the broadcast reception module 111 of the wireless communication unit 110 receives broadcast signals and/or broadcast-related information from an external broadcast management server through a broadcast channel. The broadcast channels may include satellite channels and terrestrial channels. Two or more broadcast reception modules may be provided in the electronic device 100 for simultaneous broadcast reception of at least two broadcast channels or broadcast channel switching.

이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module 112 supports technical standards or communication methods for mobile communication (e.g., Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced, etc.), wireless signals are transmitted and received with at least one of a base station, an external terminal, and a server on a mobile communication network.

상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The wireless signal may include various types of data based on voice call signals, video call signals, or text/multimedia message transmission and reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 전자기기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The wireless Internet module 113 refers to a module for wireless Internet access and may be built into or external to the electronic device 100. The wireless Internet module 113 is configured to transmit and receive wireless signals in a communication network based on wireless Internet technologies.

무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), and WiMAX (Worldwide). Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc., and the wireless Internet module ( 113) transmits and receives data according to at least one wireless Internet technology, including Internet technologies not listed above.

WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.From the perspective that wireless Internet access by WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A, etc. is achieved through a mobile communication network, the wireless Internet module 113 performs wireless Internet access through the mobile communication network. ) may be understood as a type of the mobile communication module 112.

근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth??), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 전자기기(100)와 무선 통신 시스템 사이, 전자기기(100)와 다른 전자기기(100) 사이, 또는 전자기기(100)와 다른 단말기(또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.The short-range communication module 114 is for short-range communication, including Bluetooth®, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Short-distance communication can be supported using at least one of NFC (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technology. This short-range communication module 114 is between the electronic device 100 and a wireless communication system, between the electronic device 100 and another electronic device 100, or between the electronic device 100 through wireless area networks. ) can support wireless communication between a network where another terminal (or external server) is located. The short-range wireless communication networks may be wireless personal area networks.

여기에서, 다른 단말기는 본 발명에 따른 전자기기(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(114)은, 전자기기(100) 주변에, 상기 전자기기(100)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 전자기기(100)와 통신하도록 인증된 디바이스인 경우, 전자기기(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(114)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 전자기기(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 전자기기(100)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 전자기기(100)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.Here, the other terminal is a wearable device capable of exchanging data with (or interoperating with) the electronic device 100 according to the present invention, for example, a smartwatch, smart glass. , it can be a head mounted display (HMD). The short-range communication module 114 may detect (or recognize) a wearable device capable of communicating with the electronic device 100 around the electronic device 100 . Furthermore, if the detected wearable device is a device authenticated to communicate with the electronic device 100 according to the present invention, the control unit 180 sends at least a portion of the data processed by the electronic device 100 to the short-range communication module ( 114) can be transmitted to a wearable device. Accordingly, a user of a wearable device can use data processed in the electronic device 100 through the wearable device. For example, according to this, when a call is received on the electronic device 100, the user may make a phone call through a wearable device, or when a message is received on the electronic device 100, the user may make a phone call through the wearable device. It is possible to check the message.

위치정보 모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 오디오 분석정보 수집장치는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 오디오 분석정보 수집장치의 위치를 획득할 수 있다. 다른 예로서, 오디오 분석정보 수집장치는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 오디오 분석정보 수집장치의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 오디오 분석정보 수집장치의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(115)은 오디오 분석정보 수집장치의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 오디오 분석정보 수집장치의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.The location information module 115 is a module for acquiring the location (or current location) of a mobile terminal, and representative examples thereof include a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module. For example, if the audio analysis information collection device utilizes a GPS module, the location of the audio analysis information collection device can be acquired using signals sent from GPS satellites. As another example, when the audio analysis information collection device utilizes a Wi-Fi module, the location of the audio analysis information collection device is based on information from the Wi-Fi module and the wireless AP (Wireless Access Point) that transmits or receives wireless signals. can be obtained. If necessary, the location information module 115 may replace or additionally perform any of the functions of other modules of the wireless communication unit 110 to obtain data regarding the location of the audio analysis information collection device. The location information module 115 is a module used to obtain the location (or current location) of the audio analysis information collection device, and is not limited to a module that directly calculates or obtains the location of the audio analysis information collection device.

다음으로, 입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 전자기기(100)는 하나 또는 복수의 카메라(121)를 구비할 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 전자기기(100)에 구비되는 복수의 카메라(121)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(121)를 통하여, 전자기기(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.Next, the input unit 120 is for inputting video information (or signal), audio information (or signal), data, or information input from the user. For input of video information, the electronic device 100 is one. Alternatively, a plurality of cameras 121 may be provided. The camera 121 processes image frames such as still images or moving images obtained by an image sensor in video call mode or shooting mode. The processed image frame may be displayed on the display unit 151 or stored in the memory 170. Meanwhile, the plurality of cameras 121 provided in the electronic device 100 may be arranged to form a matrix structure, and through the cameras 121 forming the matrix structure, the electronic device 100 can be viewed at various angles or focuses. A plurality of image information may be input. Additionally, the plurality of cameras 121 may be arranged in a stereo structure to acquire left and right images for implementing a three-dimensional image.

마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 전자기기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 processes external acoustic signals into electrical voice data. The processed voice data can be used in various ways depending on the function (or application program being executed) being performed by the electronic device 100. Meanwhile, various noise removal algorithms may be implemented in the microphone 122 to remove noise generated in the process of receiving an external acoustic signal.

사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 전자기기(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 전자기기(100)의 전후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. The user input unit 123 is for receiving information from the user. When information is input through the user input unit 123, the control unit 180 can control the operation of the electronic device 100 to correspond to the input information. . This user input unit 123 is a mechanical input means (or mechanical key, for example, a button located on the front, rear, or side of the electronic device 100, a dome switch, a jog wheel, a jog switches, etc.) and touch-type input means. As an example, the touch input means consists of a virtual key, soft key, or visual key displayed on the touch screen through software processing, or a part other than the touch screen. It can be done with a touch key placed in . Meanwhile, the virtual key or visual key can be displayed on the touch screen in various forms, for example, graphic, text, icon, video or these. It can be made up of a combination of .

한편, 센싱부(140)는 수집장치 내 정보, 수집장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 전자기기(100)의 구동 또는 동작을 제어하거나, 전자기기(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.Meanwhile, the sensing unit 140 senses at least one of information within the collection device, information on the surrounding environment surrounding the collection device, and user information, and generates a sensing signal corresponding thereto. Based on these sensing signals, the control unit 180 may control the driving or operation of the electronic device 100 or perform data processing, functions, or operations related to an application installed on the electronic device 100. Representative sensors among the various sensors that may be included in the sensing unit 140 will be looked at in more detail.

먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 수집장치의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. First, the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing nearby without mechanical contact using the power of an electromagnetic field or infrared rays. This proximity sensor 141 may be placed in the inner area of the collection device surrounded by the touch screen as seen above or near the touch screen.

근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다. Examples of the proximity sensor 141 include a transmissive photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high-frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, the proximity sensor 141 may be configured to detect the proximity of a conductive object by changing the electric field according to the proximity of the object. In this case, the touch screen (or touch sensor) itself can be classified as a proximity sensor.

한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(180)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(180)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 전자기기(100)를 제어할 수 있다.Meanwhile, for convenience of explanation, the act of approaching an object on the touch screen without touching it so that the object is recognized as being located on the touch screen is called "proximity touch," and the touch The act of actually touching an object on the screen is called “contact touch.” The position at which an object is close-touched on the touch screen means the position at which the object corresponds perpendicularly to the touch screen when the object is close-touched. The proximity sensor 141 can detect proximity touch and proximity touch patterns (e.g., proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.). there is. Meanwhile, the control unit 180 processes data (or information) corresponding to the proximity touch operation and proximity touch pattern detected through the proximity sensor 141, as described above, and further provides visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the control unit 180 may control the electronic device 100 to process different operations or data (or information) depending on whether a touch to the same point on the touch screen is a proximity touch or a contact touch. .

터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치입력)을 감지한다.The touch sensor detects a touch (or touch input) applied to the touch screen (or display unit 151) using at least one of several touch methods such as resistive method, capacitive method, infrared method, ultrasonic method, and magnetic field method. sense

일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. As an example, a touch sensor may be configured to convert changes in pressure applied to a specific part of the touch screen or capacitance occurring in a specific part into an electrical input signal. The touch sensor may be configured to detect the position, area, pressure at the time of touch, capacitance at the time of the touch, etc., at which the touch object that touches the touch screen is touched on the touch sensor. Here, the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen or stylus pen, or a pointer.

이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(180)와 별도의 구성요소일 수 있고, 제어부(180) 자체일 수 있다. In this way, when there is a touch input to the touch sensor, the corresponding signal(s) are sent to the touch controller. The touch controller processes the signal(s) and then transmits the corresponding data to the control unit 180. As a result, the control unit 180 can determine which area of the display unit 151 has been touched. Here, the touch controller may be a separate component from the control unit 180 or may be the control unit 180 itself.

한편, 제어부(180)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 전자기기(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. Meanwhile, the control unit 180 may perform different controls or the same control depending on the type of touch object that touches the touch screen (or touch keys provided other than the touch screen). Whether to perform different controls or the same controls depending on the type of touch object may be determined depending on the current operating state of the electronic device 100 or the application program being executed.

한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.Meanwhile, the touch sensor and proximity sensor discussed above are used independently or in combination to provide short (or tap) touch, long touch, multi touch, and drag touch on the touch screen. ), flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. Touch can be sensed.

초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.An ultrasonic sensor can recognize the location information of a sensing object using ultrasonic waves. Meanwhile, the control unit 180 is capable of calculating the location of the wave source through information sensed from an optical sensor and a plurality of ultrasonic sensors. The location of the wave source can be calculated using the property that light is much faster than ultrasonic waves, that is, the time for light to reach the optical sensor is much faster than the time for ultrasonic waves to reach the ultrasonic sensor. More specifically, the location of the wave source can be calculated using the time difference between the arrival time of ultrasonic waves using light as a reference signal.

한편, 입력부(120)의 구성으로 살펴본, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.Meanwhile, looking at the configuration of the input unit 120, the camera 121 includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor.

카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.The camera 121 and the laser sensor can be combined with each other to detect the touch of the sensing object for a 3D stereoscopic image. A photo sensor can be laminated on the display element, and this photo sensor is configured to scan the movement of a detection object close to the touch screen. More specifically, the photo sensor mounts photo diodes and TR (transistors) in rows/columns and scans the contents placed on the photo sensor using electrical signals that change depending on the amount of light applied to the photo diode. In other words, the photo sensor calculates the coordinates of the sensing object according to the amount of change in light, and through this, location information of the sensing object can be obtained.

디스플레이부(151)는 전자기기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 전자기기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. The display unit 151 displays (outputs) information processed by the electronic device 100. For example, the display unit 151 may display execution screen information of an application running on the electronic device 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information. .

또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.Additionally, the display unit 151 may be configured as a three-dimensional display unit that displays a three-dimensional image.

상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. A three-dimensional display method such as a stereoscopic method (glasses method), an autostereoscopic method (glasses-free method), or a projection method (holographic method) may be applied to the three-dimensional display unit.

음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 전자기기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The audio output unit 152 may output audio data received from the wireless communication unit 110 or stored in the memory 170 in call signal reception, call mode or recording mode, voice recognition mode, broadcast reception mode, etc. The sound output unit 152 also outputs sound signals related to functions performed in the electronic device 100 (eg, call signal reception sound, message reception sound, etc.). This sound output unit 152 may include a receiver, speaker, buzzer, etc.

햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(153)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 153 generates various tactile effects that the user can feel. A representative example of a tactile effect generated by the haptic module 153 may be vibration. The intensity and pattern of vibration generated by the haptic module 153 can be controlled by the user's selection or settings of the control unit. For example, the haptic module 153 may synthesize and output different vibrations or output them sequentially.

햅틱 모듈(153)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the haptic module 153 responds to stimulation such as pin arrays moving perpendicular to the contact skin surface, blowing force or suction force of air through a nozzle or inlet, grazing the skin surface, contact with electrodes, and electrostatic force. A variety of tactile effects can be generated, such as effects by reproducing hot and cold sensations using elements that can absorb heat or heat.

햅틱 모듈(153)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(153)은 전자기기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 153 can not only deliver a tactile effect through direct contact, but can also be implemented so that the user can feel the tactile effect through muscle senses such as fingers or arms. Two or more haptic modules 153 may be provided depending on the configuration of the electronic device 100.

광출력부(154)는 전자기기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 전자기기(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.The optical output unit 154 uses light from the light source of the electronic device 100 to output a signal to notify that an event has occurred. Examples of events that occur in the electronic device 100 may include receiving a message, receiving a call signal, a missed call, an alarm, a schedule notification, receiving an email, receiving information through an application, etc.

광출력부(154)가 출력하는 신호는 수집장치가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 수집장치가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.The signal output by the optical output unit 154 is realized as the collection device emits light of a single color or multiple colors to the front or back. The signal output may be terminated when the collection device detects the user's confirmation of the event.

인터페이스부(160)는 전자기기(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(160)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 전자기기(100) 내부의 각 구성요소에 전달하거나, 전자기기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(160)에 포함될 수 있다.The interface unit 160 serves as a passageway for all external devices connected to the electronic device 100. The interface unit 160 receives data from an external device, receives power and transmits it to each component inside the electronic device 100, or transmits data inside the electronic device 100 to an external device. For example, wired/wireless headset port, external charger port, wired/wireless data port, memory card port, port for connecting a device equipped with an identification module. A port, an audio input/output (I/O) port, a video input/output (I/O) port, an earphone port, etc. may be included in the interface unit 160.

한편, 식별 모듈은 전자기기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(160)를 통하여 단말기(100)와 연결될 수 있다.Meanwhile, the identification module is a chip that stores various information for authenticating the right to use the electronic device 100, including a user identification module (UIM), subscriber identity module (SIM), and general user authentication. It may include a module (universal subscriber identity module; USIM), etc. A device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in a smart card format. Therefore, the identification device can be connected to the terminal 100 through the interface unit 160.

또한, 상기 인터페이스부(160)는 전자기기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 전자기기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 전자기기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 전자기기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.In addition, the interface unit 160 serves as a path through which power from the cradle is supplied to the electronic device 100 when the electronic device 100 is connected to an external cradle, or the interface unit 160 serves as a path for supplying power from the cradle to the electronic device 100 by the user. It can be a passage through which various command signals are transmitted to the electronic device 100. Various command signals or the power input from the cradle may be operated as signals for recognizing that the electronic device 100 is correctly mounted on the cradle.

메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(170)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 170 can store programs for operating the control unit 180, and can also temporarily store input/output data (eg, phone book, messages, still images, videos, etc.). The memory 170 may store data on various patterns of vibration and sound output when a touch is input on the touch screen.

메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자기기(100)는 인터넷(internet)상에서 상기 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 170 is a flash memory type, hard disk type, solid state disk type, SDD type (Silicon Disk Drive type), and multimedia card micro type. ), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable programmable read) -only memory), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk may include at least one type of storage medium. The electronic device 100 may be operated in connection with web storage that performs a storage function of the memory 170 on the Internet.

한편, 앞서 살펴본 것과 같이, 제어부(180)는 응용 프로그램과 관련된 동작과, 통상적으로 전자기기(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(180)는 상기 수집장치의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다. Meanwhile, as discussed above, the control unit 180 controls operations related to application programs and generally controls the overall operation of the electronic device 100. For example, if the state of the collection device satisfies a set condition, the control unit 180 may execute or release a lock state that restricts the user's input of control commands to applications.

또한, 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(180)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 전자기기(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.In addition, the control unit 180 performs control and processing related to voice calls, data communications, video calls, etc., or performs pattern recognition processing to recognize handwriting input or drawing input made on the touch screen as text and images, respectively. You can. Furthermore, the control unit 180 may control any one or a combination of the components described above in order to implement various embodiments described below on the electronic device 100 according to the present invention.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부(190)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다.The power supply unit 190 receives external power and internal power under the control of the control unit 180 and supplies power necessary for the operation of each component. The power supply unit 190 includes a battery, and the battery can be a built-in battery that can be recharged, and can be detachably coupled to the terminal body for charging, etc.

또한, 전원공급부(190)는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(160)의 일 예로서 구성될 수 있다.Additionally, the power supply unit 190 may be provided with a connection port, and the connection port may be configured as an example of the interface 160 to which an external charger that supplies power for charging the battery is electrically connected.

다른 예로서, 전원공급부(190)는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원공급부(190)는 외부의 무선 전력 전송장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.As another example, the power supply unit 190 may be configured to charge the battery wirelessly without using the connection port. In this case, the power supply unit 190 uses one or more of the inductive coupling method based on magnetic induction phenomenon or the magnetic resonance coupling method based on electromagnetic resonance phenomenon from an external wireless power transmitter. Power can be transmitted.

한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. Meanwhile, various embodiments below may be implemented in a recording medium readable by a computer or similar device, for example, using software, hardware, or a combination thereof.

수집장치에 구비된 위치정보 모듈(115)은 수집장치의 위치를 탐지, 연산 또는 식별하기 위한 것으로, 대표적인 예로는 GPS(Global Position System) 모듈 및 WiFi(Wireless Fidelity) 모듈을 포함할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 수집장치의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. The location information module 115 provided in the collection device is used to detect, calculate, or identify the location of the collection device, and representative examples may include a Global Position System (GPS) module and a Wireless Fidelity (WiFi) module. If necessary, the location information module 115 may replace or additionally perform any of the functions of other modules of the wireless communication unit 110 to obtain data regarding the location of the collection device.

상기 GPS모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. 다만, 실내와 같이 위성 신호의 음영 지대에서는 GPS 모듈을 이용하여 정확히 수집장치의 위치를 측정하는 것이 어렵다. 이에 따라, GPS 방식의 측위를 보상하기 위해, WPS (WiFi Positioning System)이 활용될 수 있다. The GPS module 115 calculates distance information and accurate time information from three or more satellites and then applies trigonometry to the calculated information to accurately calculate three-dimensional current location information according to latitude, longitude, and altitude. can do. Currently, a method of calculating location and time information using three satellites and correcting errors in the calculated location and time information using another satellite is widely used. Additionally, the GPS module 115 can calculate speed information by continuously calculating the current location in real time. However, it is difficult to accurately measure the location of the collection device using a GPS module in shaded areas of satellite signals, such as indoors. Accordingly, WPS (WiFi Positioning System) can be used to compensate for GPS-based positioning.

와이파이 위치추적 시스템(WPS: WiFi Positioning System)은 전자기기(100)에 구비된 WiFi모듈 및 상기 WiFi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)를 이용하여, 전자기기(100)의 위치를 추적하는 기술로서, WiFi를 이용한 WLAN(Wireless Local Area Network)기반의 위치 측위 기술을 의미한다. The WiFi Positioning System (WPS) uses a WiFi module provided in the electronic device 100 and a wireless AP (Wireless Access Point) that transmits or receives wireless signals from the WiFi module. As a technology for tracking the location of a device, it refers to a location determination technology based on WLAN (Wireless Local Area Network) using WiFi.

와이파이 위치추적 시스템은 와이파이 위치측위 서버, 전자기기(100), 상기 전자기기(100)와 접속된 무선 AP, 임의의 무선 AP정보가 저장된 데이터 베이스를 포함할 수 있다.The Wi-Fi location tracking system may include a Wi-Fi location determination server, an electronic device 100, a wireless AP connected to the electronic device 100, and a database storing arbitrary wireless AP information.

무선 AP와 접속 중인 전자기기(100)는 와이파이 위치 측위 서버로 위치정보 요청 메시지를 전송할 수 있다.The electronic device 100 connected to the wireless AP may transmit a location information request message to the Wi-Fi location determination server.

와이파이 위치측위 서버는 전자기기(100)의 위치정보 요청 메시지(또는 신호)에 근거하여, 전자기기(100)와 접속된 무선 AP의 정보를 추출한다. 상기 전자기기(100)와 접속된 무선 AP의 정보는 전자기기(100)를 통해 상기 와이파이 위치측위 서버로 전송되거나, 무선 AP에서 와이파이 위치측위 서버로 전송될 수 있다.The Wi-Fi location determination server extracts information on the wireless AP connected to the electronic device 100 based on the location information request message (or signal) of the electronic device 100. Information on the wireless AP connected to the electronic device 100 may be transmitted to the Wi-Fi location determination server through the electronic device 100, or may be transmitted from the wireless AP to the Wi-Fi location determination server.

상기 전자기기(100)의 위치정보 요청 메시지에 근거하여, 추출되는 무선 AP의 정보는 MAC Address, SSID(Service Set IDentification), RSSI(Received Signal Strength Indicator), RSRP(Reference Signal Received Power), RSRQ(Reference Signal Received Quality), 채널정보, Privacy, Network Type, 신호세기(Signal Strength) 및 노이즈 세기(Noise Strength)중 적어도 하나일 수 있다.Based on the location information request message of the electronic device 100, the extracted wireless AP information includes MAC Address, Service Set IDentification (SSID), Received Signal Strength Indicator (RSSI), Reference Signal Received Power (RSRP), and RSRQ ( Reference Signal Received Quality), channel information, privacy, network type, signal strength, and noise strength.

와이파이 위치측위 서버는 위와 같이, 전자기기(100)와 접속된 무선 AP의 정보를 수신하여, 미리 구축된 데이터베이스로부터 수집장치가 접속 중인 무선 AP와 대응되는 무선 AP 정보를 추출할 수 있다. 이때, 상기 데이터 베이스에 저장되는 임의의 무선 AP 들의 정보는 MAC Address, SSID, 채널정보, Privacy, Network Type, 무선 AP의 위경도 좌표, 무선 AP가 위치한 건물명, 층수, 실내 상세 위치정보(GPS 좌표 이용가능), AP소유자의 주소, 전화번호 등의 정보일 수 있다. 이때, 측위 과정에서 이동형 AP나 불법 MAC 주소를 이용하여 제공되는 무선 AP를 측위 과정에서 제거하기 위해, 와이파이 위치측위 서버는 RSSI 가 높은 순서대로 소정 개수의 무선 AP 정보만을 추출할 수도 있다.As described above, the Wi-Fi location determination server can receive information on the wireless AP connected to the electronic device 100 and extract wireless AP information corresponding to the wireless AP to which the collection device is connected from a pre-built database. At this time, information on any wireless APs stored in the database includes MAC Address, SSID, channel information, Privacy, Network Type, latitude and longitude coordinates of the wireless AP, name of the building where the wireless AP is located, number of floors, and detailed indoor location information (GPS coordinates). available), and may be information such as the AP owner’s address and phone number. At this time, in order to remove mobile APs or wireless APs provided using illegal MAC addresses from the positioning process, the Wi-Fi location determination server may extract only a certain number of wireless AP information in order of high RSSI.

이후, 와이파이 위치측위 서버는 데이터 베이스로부터 추출된 적어도 하나의 무선 AP 정보를 이용하여 전자기기(100)의 위치정보를 추출(또는 분석)할 수 있다. 포함된 정보와 상기 수신된 무선 AP 정보를 비교하여, 상기 전자기기(100)의 위치정보를 추출(또는 분석)한다. Thereafter, the Wi-Fi location determination server may extract (or analyze) location information of the electronic device 100 using at least one wireless AP information extracted from the database. By comparing the included information with the received wireless AP information, the location information of the electronic device 100 is extracted (or analyzed).

전자기기(100)의 위치정보를 추출(또는 분석)하기 위한 방법으로, Cell-ID 방식, 핑거 프린트 방식, 삼각 측량 방식 및 랜드마크 방식 등이 활용될 수 있다. As a method for extracting (or analyzing) the location information of the electronic device 100, the Cell-ID method, the fingerprint method, the triangulation method, and the landmark method can be used.

Cell-ID 방식은 수집장치가 수집한 주변의 무선 AP 정보 중 신호 세기가 가장 강한 무선 AP의 위치를 수집장치의 위치로 결정하는 방법이다. 구현이 단순하고 별도의 비용이 들지 않으며 위치 정보를 신속히 얻을 수 있다는 장점이 있지만 무선 AP의 설치 밀도가 낮으면 측위 정밀도가 떨어진다는 단점이 있다. The Cell-ID method is a method of determining the location of the wireless AP with the strongest signal strength among the surrounding wireless AP information collected by the collection device as the location of the collection device. It has the advantage of being simple to implement, requiring no additional costs, and being able to obtain location information quickly, but has the disadvantage of lowering the positioning accuracy if the installation density of wireless APs is low.

핑거프린트 방식은 서비스 지역에서 참조위치를 선정하여 신호 세기 정보를 수집하고, 수집한 정보를 바탕으로 수집장치에서 전송하는 신호 세기 정보를 통해 위치를 추정하는 방법이다. 핑거프린트 방식을 이용하기 위해서는, 사전에 미리 전파 특성을 데이터베이스화할 필요가 있다. The fingerprint method is a method of collecting signal strength information by selecting a reference location in the service area and estimating the location through signal strength information transmitted from a collection device based on the collected information. In order to use the fingerprint method, it is necessary to create a database of radio wave characteristics in advance.

삼각 측량 방식은 적어도 세개의 무선 AP의 좌표와 수집장치 사이의 거리를 기초로 수집장치의 위치를 연산하는 방법이다. 수집장치와 무선 AP사이의 거리를 측정하기 위해, 신호 세기를 거리 정보로 변환하거나, 무선 신호가 전달되는 시간(Time of Arrival, ToA), 신호가 전달되는 시간 차이(Time Difference of Arrival, TDoA), 신호가 전달되는 각도(Angle of Arrival, AoA) 등을 이용할 수 있다. The triangulation method is a method of calculating the location of a collection device based on the coordinates of at least three wireless APs and the distance between the collection devices. To measure the distance between a collection device and a wireless AP, the signal strength is converted into distance information, or the time when the wireless signal is transmitted (Time of Arrival, ToA), or the time difference between the signal transmission (Time Difference of Arrival, TDoA) , the angle at which the signal is transmitted (Angle of Arrival, AoA), etc. can be used.

랜드마크 방식은 위치를 알고 있는 랜드마크 발신기를 이용하여 수집장치의 위치를 측정하는 방법이다. The landmark method is a method of measuring the location of a collection device using a landmark transmitter whose location is known.

열거된 방법 이외에도 다양한 알고리즘이 수집장치의 위치정보를 추출(또는 분석)하기 위한 방법으로 활용될 수 있다. In addition to the methods listed, various algorithms can be used as a method to extract (or analyze) the location information of the collection device.

이렇게 추출된 전자기기(100)의 위치정보는 상기 와이파이 위치측위 서버를 통해 전자기기(100)로 전송됨으로써, 전자기기(100)는 위치정보를 획득할 수 있다.The location information of the electronic device 100 extracted in this way is transmitted to the electronic device 100 through the Wi-Fi location determination server, so that the electronic device 100 can obtain location information.

전자기기(100)는 적어도 하나의 무선 AP 에 접속됨으로써, 위치 정보를 획득할 수 있다. 이때, 전자기기(100)의 위치 정보를 획득하기 위해 요구되는 무선 AP의 개수는 전자기기(100)가 위치한 무선 통신환경에 따라 다양하게 변경될 수 있다. The electronic device 100 can obtain location information by connecting to at least one wireless AP. At this time, the number of wireless APs required to obtain location information of the electronic device 100 may vary depending on the wireless communication environment in which the electronic device 100 is located.

앞서 도 1을 통해 살펴본 바와 같이, 본 발명에 따른 수집장치에는 블루투스(Bluetooth??), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wireless USB(Wireless Universal Serial Bus) 등의 근거리 통신 기술이 적용될 수 있다.As previously seen in Figure 1, the collection device according to the present invention includes Bluetooth (Bluetooth??), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, and NFC ( Near field communication (Near Field Communication) and Wireless USB (Wireless Universal Serial Bus) may be applied.

이 중, 수집장치에 구비된 NFC 모듈은 10cm 안팎의 거리에서 단말 간 비접촉식 근거리 무선 통신을 지원한다. NFC 모듈은 카드 모드, 리더 모드 및 P2P 모드 중 어느 하나로 동작할 수 있다. NFC 모듈이 카드 모드로 운용되기 위해서, 전자기기(100)는 카드 정보를 저장하는 보안 모듈을 더 포함할 수도 있다. 여기서, 보안 모듈이란 UICC(Universal Integrated Circuit Card)(예컨대, SIM(Subscriber Identification Module) 또는 USIM(Universal SIM)), Secure micro SD 및 스티커 등 물리적 매체일 수도 있고, 수집장치에 임베디드되어 있는 논리적 매체(예컨대, embeded SE(Secure element))일 수도 있다. NFC 모듈과 보안 모듈 사이에는 SWP(Single Wire Protocol)에 기반한 데이터 교환이 이루어질 수 있다.Among these, the NFC module provided in the collection device supports non-contact, short-range wireless communication between devices at a distance of about 10 cm. The NFC module can operate in any of card mode, reader mode, and P2P mode. In order for the NFC module to operate in card mode, the electronic device 100 may further include a security module that stores card information. Here, the security module may be a physical medium such as a Universal Integrated Circuit Card (UICC) (e.g., Subscriber Identification Module (SIM) or Universal SIM (USIM)), Secure micro SD, and a sticker, or it may be a logical medium embedded in the collection device ( For example, it may be an embedded SE (Secure element). Data exchange based on SWP (Single Wire Protocol) can be performed between the NFC module and the security module.

NFC 모듈이 카드 모드로 운용되는 경우, 수집장치는 전통적인 IC 카드처럼 저장하고 있는 카드 정보를 외부로 전달할 수 있다. 구체적으로, 신용카드 또는 버스 카드 등 결제용 카드의 카드 정보를 저장하는 수집장치를 요금 결제기에 근접시키면, 모바일 근거리 결제가 처리될 수 있고, 출입용 카드의 카드 정보를 저장하는 수집장치를 출입 승인기에 근접 시키면, 출입의 승인 절차가 시작될 수 있다. 신용카드, 교통카드 및 출입카드 등의 카드는 애플릿(applet) 형태로 보안 모듈에 탑재되고, 보안 모듈은 탑재된 카드에 대한 카드 정보를 저장할 수 있다. 여기서, 결제용 카드의 카드 정보는 카드 번호, 잔액, 사용 내역 중 적어도 하나일 수 있고, 출입용 카드의 카드 정보는, 사용자의 이름, 번호(예컨대, 사용자의 학번 또는 사번), 출입 내역 중 적어도 하나일 수 있다. When the NFC module is operated in card mode, the collection device can transmit the stored card information to the outside like a traditional IC card. Specifically, by bringing the collection device that stores the card information of payment cards such as credit cards or bus cards close to the fare payment machine, mobile short-distance payments can be processed, and the collection device that stores the card information of the access card can be used to authorize access. Upon approaching the flag, the access approval process can begin. Cards such as credit cards, transportation cards, and access cards are mounted on the security module in the form of an applet, and the security module can store card information for the mounted cards. Here, the card information of the payment card may be at least one of the card number, balance, and usage history, and the card information of the access card may be at least one of the user's name, number (e.g., user's student number or employee number), and access history. It could be one.

NFC 모듈이 리더 모드로 운용되는 경우, 수집장치는 외부의 태그(Tag)로부터 데이터를 독출할 수 있다. 이때, 수집장치가 태그로부터 수신하는 데이터는 NFC 포럼에서 정하는 데이터 교환 포맷(NFC Data Exchange Format)으로 코딩될 수 있다. 아울러, NFC 포럼에서는 4개의 레코드 타입을 규정한다. 구체적으로, NFC 포럼에서는 스마트 포스터(Smart Poster), 텍스트(Text), URI(Uniform Resource Identifier) 및 일반 제어(General Control) 등 4개의 RTD(Record Type Definition)를 규정한다. 태그로부터 수신한 데이터가 스마트 포스터 타입인 경우, 제어부는 브라우저(예컨대, 인터넷 브라우저)를 실행하고, 태그로부터 수신한 데이터가 텍스트 타입인 경우, 제어부는 텍스트 뷰어를 실행할 수 있다. 태그로부터 수신한 데이터가 URI 타입인 경우, 제어부는 브라우저를 실행하거나 전화를 걸고, 태그로부터 수신한 데이터가 일반 제어 타입인 경우, 제어 내용에 따라 적절한 동작을 실행할 수 있다.When the NFC module is operated in reader mode, the collection device can read data from an external tag. At this time, the data that the collection device receives from the tag may be coded in the NFC Data Exchange Format defined by the NFC Forum. In addition, the NFC Forum defines four record types. Specifically, the NFC Forum defines four Record Type Definitions (RTDs): Smart Poster, Text, Uniform Resource Identifier (URI), and General Control. If the data received from the tag is a smart poster type, the control unit can run a browser (eg, an Internet browser), and if the data received from the tag is a text type, the control unit can run a text viewer. If the data received from the tag is a URI type, the control unit can run a browser or make a phone call, and if the data received from the tag is a general control type, the control unit can execute an appropriate operation according to the control contents.

NFC 모듈이 P2P(Peer-to-Peer) 모드로 운용되는 경우, 수집장치는 다른 수집장치와 P2P 통신을 수행할 수 있다. 이때, P2P 통신에는 LLCP(Logical Link Control Protocol) 가 적용될 수 있다. P2P 통신을 위해 수집장치와 다른 수집장치 사이에는 커넥션(connection)이 생성될 수 있다. 이때, 생성되는 커넥션은 1개의 패킷을 교환하고 종료되는 비접속형 모드(connectionless mode)와 연속적으로 패킷을 교환하는 접속형 지향 모드(connection-oriented mode)로 구분될 수 있다. P2P 통신을 통해, 전자적 형태의 명함, 연락처 정보, 디지털 사진, URL 등의 데이터 및 블루투스, Wi-Fi 연결을 위한 셋업 파라미터 등이 교환될 수 있다. 다만, NFC 통신의 가용 거리는 짧으므로, P2P 모드는 크기가 작은 데이터를 교환하는 것에 효과적으로 활용될 수 있을 것이다.When the NFC module is operated in P2P (Peer-to-Peer) mode, the collection device can perform P2P communication with other collection devices. At this time, LLCP (Logical Link Control Protocol) may be applied to P2P communication. For P2P communication, a connection can be created between a collection device and another collection device. At this time, the created connection can be divided into a connectionless mode, which terminates after exchanging one packet, and a connection-oriented mode, which continuously exchanges packets. Through P2P communication, data such as electronic business cards, contact information, digital photos, URLs, and setup parameters for Bluetooth and Wi-Fi connections can be exchanged. However, since the available distance of NFC communication is short, P2P mode can be effectively used to exchange small data.

이하에서는 이와 같이 구성된 수집장치에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.Hereinafter, embodiments related to the control method that can be implemented in the collection device configured as described above will be discussed with reference to the attached drawings. It is obvious to those skilled in the art that the present invention can be embodied in other specific forms without departing from the spirit and essential features of the present invention.

한편, 본 발명에 따른 전자기기(100)의 제어부(180)는 오디오 인식을 수행하는 인공지능 엔진을 탑재할 수 있다.Meanwhile, the control unit 180 of the electronic device 100 according to the present invention may be equipped with an artificial intelligence engine that performs audio recognition.

구체적으로, 제어부(180)에 탑재되는 인공지능 엔진은, 비언어적 오디오 입력이 어떤 오디오 이벤트에 해당하는지 식별하도록 구성될 수 있다.Specifically, the artificial intelligence engine mounted on the control unit 180 may be configured to identify which audio event the nonverbal audio input corresponds to.

일 예에서, 상기 인공지능 엔진은, 휘파람 소리로 레이블링된 트레이닝 데이터와, 휘파람 소리가 아닌 것으로 레이블링된 트레이닝 데이터를 이용하여 자가 학습을 수행할 수 있다. 즉, 상기 인공지능 엔진은 인공신경망을 구축하여, 휘파람 소리의 여부가 레이블링된 트레이닝 데이터를 입력받고, 입력된 트레이닝 데이터를 이용하여 미지의 입력 오디오 신호가 휘파람 소리인지 여부를 식별하도록 머신 러닝 또는 딥러닝을 수행할 수 있다.In one example, the artificial intelligence engine may perform self-learning using training data labeled as a whistle sound and training data labeled as a non-whistle sound. In other words, the artificial intelligence engine builds an artificial neural network, receives training data labeled as to whether or not it is a whistle sound, and uses the input training data to use machine learning or deep learning to identify whether the unknown input audio signal is a whistle sound. Running is possible.

다른 예에서, 상기 인공지능 엔진은, 오디오 신호가 입력되면 해당 오디오 신호의 레이블(Label)을 식별할 수 있으며, 특정 레이블로 식별된 오디오 신호의 적어도 일부분의 높이, 강도 및 지속시간 중 적어도 하나를 판별할 수 있다.In another example, the artificial intelligence engine can identify the label of the audio signal when an audio signal is input, and determine at least one of the height, intensity, and duration of at least a portion of the audio signal identified by the specific label. It can be determined.

이하, 도 2에서는 상술한 전자기기(100)를 오디오 신호로 제어하는 방법이 설명된다.Hereinafter, in FIG. 2, a method of controlling the above-described electronic device 100 with an audio signal will be described.

먼저, 도 2에 도시된 것과 같이, 전자기기(100)의 센싱부(140) 또는 마이크는, 사용자로부터 오디오 신호를 입력받을 수 있다(S201).First, as shown in FIG. 2, the sensing unit 140 or microphone of the electronic device 100 can receive an audio signal from the user (S201).

제어부(180)는 입력된 상기 오디오 신호가 휘파람 소리인지 여부를 판단할 수 있다(S202).The control unit 180 may determine whether the input audio signal is a whistle sound (S202).

구체적으로 제어부(180)는 미리 학습된 인공지능 모델을 이용하여, 입력된 오디오 신호가 휘파람 소리인지 여부를 판단할 수 있다. 이때, 인공지능 모델은 입력 오디오 신호를 발생시킨 주체와 관련된 정보를 식별하도록 구성될 수 있다.Specifically, the control unit 180 can determine whether the input audio signal is a whistle sound using a pre-trained artificial intelligence model. At this time, the artificial intelligence model may be configured to identify information related to the subject that generated the input audio signal.

예를 들어, 인공지능 모델은 복수의 클래스 별로 레이블링(Labeling)된 트레이닝 데이터에 의해 학습되어, 입력 오디오에 대해 상기 복수의 클래스 각각에 대응될 확률을 산출할 수 있다. 이 경우, 상기 복수의 클래스는 휘파람 소리를 포함할 수 있다.For example, an artificial intelligence model can be learned using training data labeled for each of a plurality of classes, and calculate the probability that input audio corresponds to each of the plurality of classes. In this case, the plurality of classes may include whistle sounds.

다른 예에서, 인공지능 모델은 휘파람 소리로 레이블링된 트레이닝 데이터와, 휘파람 소리가 아닌 것으로 레이블링된 트레이닝 데이터에 의해 학습되어, 입력 오디오가 휘파람 소리인지 여부를 판별할 수 있다.In another example, an artificial intelligence model may be trained by training data labeled as a whistle sound and training data labeled as a non-whistle sound to determine whether the input audio is a whistle sound.

아울러, 제어부(180)는 상기 오디오 신호가 휘파람 소리인 것으로 판단되면, 상기 휘파람 소리의 특성을 분석할 수 있다(S203).In addition, if the control unit 180 determines that the audio signal is a whistle sound, it can analyze the characteristics of the whistle sound (S203).

여기에서 휘파람 소리의 특성이란, 휘파람 소리의 높이, 크기 및 지속시간 중 적어도 하나와 관련된 것일 수 있다.Here, the characteristics of the whistle sound may be related to at least one of the height, size, and duration of the whistle sound.

구체적으로, 제어부(180)는 휘파람 소리의 변화와 관련된 정보를 검출할 수도 있다. 즉, 제어부(180)는 휘파람 소리의 높이가 낮은 음에선 높은 음으로 변화하는지 여부를 검출할 수도 있고, 반대로 휘파람 소리의 높이가 높은 음에선 낮은 음으로 변화하는지 여부를 검출할 수도 있다.Specifically, the control unit 180 may detect information related to changes in the whistle sound. That is, the control unit 180 may detect whether the pitch of the whistling sound changes from a low tone to a high tone, and conversely, it may detect whether the pitch of the whistling sound changes from a high tone to a low tone.

또한, 제어부(180)는 휘파람 소리가 특정 높이의 음인지 여부를 검출할 수 있다. 나아가, 제어부(180)는 휘파람 소리가 특정 멜로디에 대응되는지 여부도 검출할 수 있다.Additionally, the control unit 180 can detect whether the whistle sound is of a specific height. Furthermore, the control unit 180 can also detect whether the whistle sound corresponds to a specific melody.

일 실시예에서, 제어부(180)는 휘파람 소리를 분석하는 단계(S203)를 수행함에 있어서, 휘파람 소리의 높이, 강도 및 지속시간 중 적어도 하나를 판별하는 과정과, 판별결과에 근거하여 전자기기(100)에 대응되는 동작 명령을 생성하는 과정을 수행할 수 있다.In one embodiment, when performing the step (S203) of analyzing the whistle sound, the control unit 180 determines at least one of the height, intensity, and duration of the whistle sound, and based on the determination result, the electronic device ( The process of generating an operation command corresponding to 100) can be performed.

보다 상세하게, 제어부(180)는 휘파람 소리를 분석하는 단계(S203)를 수행함에 있어서, 휘파람 소리의 높이 변화를 감지하는 과정과, 감지된 높이 변화에 근거하여 전자기기에 대응되는 동작 명령을 생성하는 과정을 수행할 수 있다.More specifically, when performing the step of analyzing the whistle sound (S203), the control unit 180 detects a change in the height of the whistle sound and generates an operation command corresponding to the electronic device based on the detected height change. The process can be performed.

이후, 제어부(180)는 분석결과를 이용하여 전자기기(100)의 동작을 제어할 수 있다(S204).Afterwards, the control unit 180 can control the operation of the electronic device 100 using the analysis results (S204).

구체적으로, 제어부(180)는 전자기기(100)의 동작을 제어하는 단계(S204)를 수행함에 있어서, 휘파람 소리의 높이가 증가하는 것으로 감지되는 경우, 전자기기의 제1 동작이 수행되도록 구동부를 제어하는 과정과, 휘파람 소리의 높이가 감소하는 것으로 감지되는 경우, 전자기기의 제2 동작이 수행되도록 상기 구동부를 제어하는 과정과, 휘파람 소리의 높이가 유지되는 것으로 감지되는 경우, 전자기기의 제3 동작이 수행되도록 구동부를 제어하는 과정을 수행할 수 있다.Specifically, when performing the step (S204) of controlling the operation of the electronic device 100, when it is detected that the height of the whistle sound increases, the control unit 180 operates a driving unit to perform the first operation of the electronic device. A process of controlling, and when it is detected that the height of the whistle sound decreases, a process of controlling the driving unit to perform a second operation of the electronic device, and when it is detected that the height of the whistle sound is maintained, a second operation of the electronic device. 3 The process of controlling the driving part to perform the operation can be performed.

예를 들어, 전자기기(100)가 냉장고인 경우, 제어부(180)는 휘파람 소리가 낮은 음에서 높은 음으로 변화한 것으로 분석되면, 상기 냉장고의 도어가 개방되도록 도어구동부를 제어할 수 있다.For example, if the electronic device 100 is a refrigerator, the control unit 180 may control the door driver to open the door of the refrigerator when it is analyzed that the whistle sound has changed from a low sound to a high sound.

일 실시예에서, 본 발명에서 제안한 오디오 기반 전자기기 제어방법은 냉장고에 적용될 수 있다.In one embodiment, the audio-based electronic device control method proposed in the present invention can be applied to a refrigerator.

이때, 냉장고는 오디오 신호를 입력받기 위한 마이크와, 입력된 오디오 신호가 휘파람인지 여부를 판단하는 제어부 및 휘파람 소리에 따라 동작하는 구동부를 포함할 수 있다. 이하에서는 설명의 편의를 위해, 구동부가 냉장고의 도어를 개폐하기 위한 도어개폐장치와, 냉장고의 동작과 관련된 정보를 출력하는 디스플레이를 포함하는 것으로 정의한다. 냉장고의 도어를 개방 또는 폐쇄하기 위하여 도어개폐장치는 도어의 힌지 부분에 구동력을 제공하는 모터와, 상기 구동력의 방향을 한정하는 가이드를 포함할 수 있다.At this time, the refrigerator may include a microphone for receiving an audio signal, a control unit that determines whether the input audio signal is a whistle, and a driving unit that operates according to the whistle sound. Hereinafter, for convenience of explanation, the driving unit is defined as including a door opening and closing device for opening and closing the door of the refrigerator, and a display that outputs information related to the operation of the refrigerator. In order to open or close a refrigerator door, a door opening and closing device may include a motor that provides driving force to a hinge portion of the door, and a guide that defines the direction of the driving force.

예를 들어, 제어부는 휘파람 소리가 낮은 음에서 높은 음으로 변화하는 것으로 판단되는 경우, 냉장고의 도어가 개방되도록 도어개폐장치를 제어할 수 있다. 반대로, 제어부는 휘파람 소리가 높은 음에서 낮은 음으로 변화하는 경우, 도어가 폐쇄되도록 도어개폐장치를 제어할 수 있다.For example, when the controller determines that the whistle sound changes from a low sound to a high sound, it can control the door opening and closing device to open the door of the refrigerator. Conversely, the controller may control the door opening and closing device to close the door when the whistle sound changes from a high sound to a low sound.

다른 예에서, 제어부는 휘파람 소리의 음높이가 유지되는 경우, 냉장고의 디스플레이의 출력 화면을 변경시킬 수 있다.In another example, the controller may change the output screen of the refrigerator display when the pitch of the whistle is maintained.

다른 실시예에서, 본 발명에서 제안한 오디오 기반 전자기기 제어방법은 인공지능 스피커와 같은 사물인터넷 기기에 적용될 수 있다.In another embodiment, the audio-based electronic device control method proposed in the present invention can be applied to Internet of Things devices such as artificial intelligence speakers.

일반적으로 인공지능 스피커는, 설치된 장소 내에 존재하는 복수의 기기와 통신을 수행하며, 상기 복수의 기기의 동작을 제어하는 역할을 수행한다. 인공지능 스피커는 오디오 신호를 입력받는 마이크와, 상기 오디오 신호를 처리하는 제어부 및 오디오 신호와 관련된 정보를 저장하는 메모리, 상기 복수의 기기로 동작 명령을 전송하는 통신부를 포함할 수 있다.In general, an artificial intelligence speaker communicates with a plurality of devices present in an installed location and plays a role in controlling the operation of the plurality of devices. The artificial intelligence speaker may include a microphone that receives an audio signal, a control unit that processes the audio signal, a memory that stores information related to the audio signal, and a communication unit that transmits an operation command to the plurality of devices.

예를 들어, 인공지능 스피커의 제어부는 휘파람 소리가 낮은 음에서 높은 음으로 변화하는 경우, 인공지능 스피커와 페어링된 제1 디바이스에 대응되는 동작 명령을 생성할 수 있다. 또한, 인공지능 스피커의 제어부는 휘파람 소리가 높은 음에서 낮은 음으로 변화하는 경우, 인공지능 스피커와 페어링된 제2 디바이스에 대응되는 동작 명령을 생성할 수 있다. 이와 같이, 인공지능 스피커의 제어부는 휘파람 소리의 변화에 따라 서로 다른 디바이스에 대한 동작명령을 생성할 수 있으며, 생성된 동작명령에 근거하여 각각의 디바이스의 동작을 제어할 수 있다.For example, when the whistle sound changes from a low tone to a high tone, the control unit of the artificial intelligence speaker may generate an operation command corresponding to the first device paired with the artificial intelligence speaker. Additionally, the control unit of the artificial intelligence speaker may generate an operation command corresponding to the second device paired with the artificial intelligence speaker when the whistle sound changes from a high tone to a low tone. In this way, the control unit of the artificial intelligence speaker can generate operation commands for different devices according to changes in the whistle sound, and can control the operation of each device based on the generated operation commands.

다른 예에서, 인공지능 스피커의 제어부는 휘파람 소리의 변화에 따라 일 디바이스에 대한 서로 다른 동작명령을 생성할 수도 있다.In another example, the control unit of an artificial intelligence speaker may generate different operation commands for one device according to changes in the whistle sound.

이하 도 3에서는 본 발명에 따른 전자기기 제어방법이 적용되는 냉장고의 구성요소가 설명된다.Below, in Figure 3, the components of a refrigerator to which the electronic device control method according to the present invention is applied are explained.

도 3a는 본 발명에 따른 일 실시예의 제어 블록도이다.Figure 3A is a control block diagram of one embodiment according to the present invention.

본 발명은 상기 카메라(70)에 의해서 촬영된 하나의 사진을 복수 개의 이미지로 나누어 관리하는 제어부(300)를 포함할 수 있다. 이때 이미지는 상기 제어부(300)에 의해서 가공 또는 보정된 사진의 일부분을 의미하는 것이 가능하다.The present invention may include a control unit 300 that divides and manages one photo taken by the camera 70 into a plurality of images. At this time, the image may mean a portion of a photo that has been processed or corrected by the control unit 300.

상기 제어부(300)는 상기 카메라(70)에서 사진을 촬영하도록 명령할 수 있고, 상기 카메라(70)에서 촬영된 사진을 전송받을 수 있다.The control unit 300 can command the camera 70 to take a picture and receive a picture taken by the camera 70.

또한 상기 제어부(300)는 나누어진 이미지의 일부를 상기 디스플레이(14)에 제공해서, 사용자에게 상기 저장실(22)에 저장된 식품에 관한 최신 정보를 제공할 수 있다. 이때 상기 디스플레이(14)는 냉장고의 전면에 설치되는 것도 가능하고, 냉장고로부터 분리된 별도의 장치를 이루는 것도 가능하다. 즉 사용자는 핸드폰과 같은 외부 통신 단말기를 통해서 상기 저장실(22)에 관한 이미지를 전송받고, 정보를 획득하는 것이 가능하다.Additionally, the control unit 300 may provide a portion of the divided image to the display 14 to provide the user with up-to-date information about food stored in the storage compartment 22. At this time, the display 14 can be installed on the front of the refrigerator, or it can be a separate device separated from the refrigerator. That is, it is possible for a user to receive an image about the storage room 22 and obtain information through an external communication terminal such as a mobile phone.

이때 상기 제어부(300)는 상기 카메라(70)에 의해서 찍힌 사진을 각각의 영역별로 구획하고, 복수 개의 독립된 이미지로 구분해서 상기 디스플레이(14)에 제공할 수 있다. 이때 상기 제어부(100)에 의해서 선택되는 사진은 사용자가 마지막으로 상기 저장실(22)에 접근해서, 저장실에서 식품을 인출하거나 식품을 입고한 최근 저장실 상태에 관한 정보를 포함할 수 있다.At this time, the control unit 300 can divide the photos taken by the camera 70 into each area, divide them into a plurality of independent images, and provide them to the display 14. At this time, the photo selected by the control unit 100 may include information about the most recent state of the storage room 22 when the user last accessed the storage room 22 and retrieved or received food from the storage room.

본 발명의 실시예는 상기 도어(20)가 상기 저장실(22)을 개폐하는지 감지할 수 있는 도어 스위치(310)를 포함할 수 있다. 이때 상기 도어 스위치(310)는 상기 아우터 케이스(10)에 마련되어서, 상기 아우터 케이스(10)에 상기 도어(20)가 접촉하게 되면 상기 도어(20)가 상기 저장실(22)을 밀폐하는 것으로 감지할 수 있다. 또한 상기 아우터 케이스(10)에 상기 도어(20)가 접촉하지 않으면, 상기 도어(20)가 상기 저장실(22)을 개방하는 것으로 감지할 수 있다.An embodiment of the present invention may include a door switch 310 that can detect whether the door 20 opens or closes the storage compartment 22. At this time, the door switch 310 is provided in the outer case 10, and when the door 20 contacts the outer case 10, it detects that the door 20 seals the storage compartment 22. can do. Additionally, if the door 20 does not contact the outer case 10, it can be detected that the door 20 is opening the storage compartment 22.

또한 본 발명의 실시예는 상기 도어(20)의 회전각을 감지하는 도어 센서(320)를 포함할 수 있다. 이때 상기 도어 센서(320)는 상기 도어(20)의 회전 방향 및 상기 도어(20)의 회전 각도를 감지할 수 있다. 예를 들어, 상기 도어(20)가 일정 각도 이상 회전하게 되면 상기 도어 센서(320)에 변화가 발생해서, 상기 도어 센서(320)에서 상기 도어(20)가 일정 각도 이상 회전된 것을 감지할 수 있다. 또한 상기 도어(20)가 특정 방향으로 회전되면 방향에 따라 발생되는 펄스의 변화를 감지해서 상기 도어(20)의 회전 방향을 감지하는 것이 가능하다. 물론 상기 도어 센서(320)는 상술한 방식 이외에 다양한 형태로 변형될 수 있다.Additionally, an embodiment of the present invention may include a door sensor 320 that detects the rotation angle of the door 20. At this time, the door sensor 320 can detect the rotation direction of the door 20 and the rotation angle of the door 20. For example, when the door 20 is rotated more than a certain angle, a change occurs in the door sensor 320, so that the door sensor 320 can detect that the door 20 has been rotated more than a certain angle. there is. Additionally, when the door 20 is rotated in a specific direction, it is possible to detect the direction of rotation of the door 20 by detecting changes in pulses generated depending on the direction. Of course, the door sensor 320 may be modified into various forms other than those described above.

이 외에도 상기 도어 센서(320)는 발광부와 수광부를 구비해서 발광부에서 조사되는 빛이 수광부로 전달되는지 여부를 판단해서, 상기 도어(20)의 회전 각도를 감지하는 것도 가능하다.In addition, the door sensor 320 has a light emitting unit and a light receiving unit, so that it is possible to detect the rotation angle of the door 20 by determining whether the light emitted from the light emitting unit is transmitted to the light receiving unit.

특히 상기 도어 센서(320)는 상기 도어 스위치(310)에서 상기 도어(20)가 상기 저장실(22)을 개방한 것으로 판단되는 경우에 한해서 구동될 수 있다.In particular, the door sensor 320 can be driven only when the door switch 310 determines that the door 20 has opened the storage compartment 22.

한편 상기 도어 센서(320)에서 상기 도어(20)가 특정 각도로 회전되었다고 판단하면 상기 카메라(70)에서 사진을 촬영하는 것도 가능하다. 이 경우에는 상기 도어 스위치(310)에서 상기 도어(20)의 개방이 감지되더라도 상기 카메라(70)가 사진 촬영을 바로 시작하는 것이 아니라, 상기 도어 센서(320)에서 특정 각도에 도달한 경우에 사진을 촬영하게 된다.Meanwhile, if the door sensor 320 determines that the door 20 has been rotated at a specific angle, it is also possible to take a picture with the camera 70. In this case, even if the door switch 310 detects the opening of the door 20, the camera 70 does not immediately start taking pictures, but takes pictures when the door sensor 320 reaches a certain angle. will be filmed.

상기 카메라(70)는 촬영을 시작하게 되면, 소정 시간 간격으로 계속해서 사진을 촬영하는 것도 가능하다. 물론 상기 도어 센서(320)에서 상기 도어(20)가 일정 각도 만큼 개방된 것으로 판단하면 상기 카메라(70)에서는 한 장의 사진이 아닌, 사진 촬영 중지 명령이 제공될 때까지 계속 사진을 촬영하는 것이 가능하다.Once the camera 70 starts taking pictures, it is also possible to continue taking pictures at predetermined time intervals. Of course, if the door sensor 320 determines that the door 20 is open by a certain angle, the camera 70 can continue to take pictures, not just one picture, until a command to stop taking pictures is provided. do.

상기 제어부(300)는 상기 드로워(50)의 인출 또는 인입 여부를 감지하는 드로워 감지부(330)를 포함할 수 있다.The control unit 300 may include a drawer detection unit 330 that detects whether the drawer 50 is withdrawn or retracted.

이때 상기 드로워 감지부(330)는 상기 카메라(70)에서 촬영된 사진이 상기 제어부(300) 내에서 영상을 판독하는 부분을 의미할 수 있다. 상기 드로워 감지부(330)는 상기 드로워(50)의 이동은 물론, 상기 드로워(50)의 이동 방향까지 감지하는 것이 가능하다.At this time, the drawer detection unit 330 may mean a part that reads the image of a photo taken by the camera 70 within the control unit 300. The drawer detection unit 330 is capable of detecting not only the movement of the drawer 50 but also the direction of movement of the drawer 50.

특히 상기 드로워 감지부(330)는 소프트웨어에 의해서 구현될 수도 있다. 상기 드로워 감지부(330)는 상기 카메라(70)에서 촬영된 사진에서 촬영된 정보를 이용해서, 상기 드로워(50)의 위치를 감지할 수 있다.In particular, the drawer detection unit 330 may be implemented by software. The drawer detection unit 330 can detect the location of the drawer 50 using information captured in a photo taken by the camera 70.

상기 드로워(50)에는 마커라는 인식표시를 구비해서, 상기 마커가 촬영된 사진을 통하여 상기 드로워(50)가 특정 구간으로 진입했는지, 진입했다면 정지했는지, 정지 후에는 이동 방향이 전환되는 지에 관한 정보를 알 수 있다. 상기 마커에 대해서는 추후에 구체적으로 다시 설명한다.The drawer 50 is equipped with an identification mark called a marker, and the marker can be used to determine whether the drawer 50 has entered a specific section, stopped if entered, and changed the direction of movement after stopping through a photo taken with the marker. You can find information about it. The marker will be described in detail later.

상기 마커는 상기 드로워에 표시되어 있기 때문에, 상기 드로워(50)와 동일한 움직임을 가진다. 따라서 드로워의 이동을 감지하기 위한 별도의 센서를 구비하지 않고, 상기 카메라(70)에서 촬영된 사진의 정보를 이용해서 상기 드로워(50)의 이동에 대한 다양한 정보를 획득할 수 있다.Since the marker is displayed on the drawer, it has the same movement as the drawer 50. Therefore, it is possible to obtain various information about the movement of the drawer 50 using information from the photo taken by the camera 70, without using a separate sensor to detect the movement of the drawer.

상기 카메라(70)에서 찍힌 사진은 저장부(18)에 저장될 수 있다. 이때 상기 저장부(18)는 냉장고에 마련될 수도 있고, 냉장고와는 별도의 다른 장치에 마련될 수 있다. 이때 상기 저장부(18)는 상기 디스플레이(14)와 함께 냉장고에 배치되거나, 상기 디스플레이(14)와 함께 냉장고와는 다른 장치, 냉장고와 네트워크에 연결된 서버 또는 냉장고와 네트워크에 연결된 단말기에 구비될 수 있다.Photos taken by the camera 70 may be stored in the storage unit 18. At this time, the storage unit 18 may be provided in a refrigerator or in a device separate from the refrigerator. At this time, the storage unit 18 may be placed in a refrigerator together with the display 14, or may be installed together with the display 14 in a device other than the refrigerator, a server connected to the refrigerator and a network, or a terminal connected to the refrigerator and the network. there is.

이때 상기 저장부(18)는 상기 카메라(70)에서 찍힌 모든 사진을 저장하지 않을 수 있다. 예를 들어, 상기 저장부(18)는 상기 제어부(300)에서 특정 사진을 선택하라는 명령이 발생하지 않은 경우에는, 앞에서 찍혀서 저장된 사진을 삭제하고 현재 촬영된 사진을 저장하는 것이 가능하다(First In, First Out). 상기 저장부(18)는 상기 카메라(70)에서 찍힌 사진 중 일부만 저장해서, 저장 용량을 줄일 수 있다.At this time, the storage unit 18 may not store all photos taken by the camera 70. For example, if a command to select a specific photo is not issued by the control unit 300, the storage unit 18 can delete the previously taken and stored photo and store the currently captured photo (First In , First Out). The storage unit 18 stores only some of the photos taken by the camera 70, thereby reducing storage capacity.

도 3(b)는 본 발명에 따른 일 실시예의 변형된 형태의 제어 블록도이다.Figure 3(b) is a control block diagram of a modified form of one embodiment according to the present invention.

도 3(b)에서는 도 3(a)와는 달리 상기 드로워 감지부(330)가 상기 카메라(70)에서 촬영된 사진에서 획득된 정보를 이용하지 않고, 별도로 상기 드로워(50)의 이동을 감지할 수 있다.In FIG. 3(b), unlike FIG. 3(a), the drawer detection unit 330 does not use information obtained from a photo taken by the camera 70, but separately moves the drawer 50. It can be sensed.

예를 들어, 상기 드로워 감지부(330)는 복수 개의 홀 센서와 같은 형태로 이루어질 수 있다. 복수 개의 홀 센서가 상기 드로워(50)의 이동 경로에 설치될 수 있다. 상기 드로워(50)가 이동되는 경우에는 복수 개의 홀 센서가 각각 변화되는 것을 감지해서, 상기 드로워(50)의 위치 및 이동 방향을 감지할 수 있다.For example, the drawer detection unit 330 may be formed in the form of a plurality of hall sensors. A plurality of hall sensors may be installed in the movement path of the drawer 50. When the drawer 50 is moved, a plurality of hall sensors can detect each change, thereby detecting the position and direction of movement of the drawer 50.

상기 드로워 감지부(330)에서 드로워의 이동을 감지해서, 상기 카메라(70)에서 사진을 촬영할 때에 상기 카메라(70)가 찍은 사진에 상기 드로워의 내부 모습이 담기는 시점을 파악할 수 있다. 즉 상기 드로워 감지부(330)는 상기 카메라가 촬영한 사진에 상기 드로워 내부에 저장된 물품에 관한 정보가 표현될 수 있는 시점을 감지할 수 있다.The drawer detection unit 330 detects the movement of the drawer, and when taking a photo with the camera 70, it is possible to determine the point in time when the interior of the drawer is included in the photo taken by the camera 70. . That is, the drawer detection unit 330 can detect a point in time when information about an item stored inside the drawer can be expressed in a photo taken by the camera.

상기 드로워 감지부(330)는 상기 드로워의 이동을 감지해서, 사용자가 상기 드로워를 사용한 후에 최신 상태라고 판단하는 시점을 감지할 수 있다. 즉 상기 드로워 감지부(330)는 상기 카메라가 촬영한 사진에 사용자가 상기 드로워의 사용을 마친 최신 정보를 포함하는 시점을 감지할 수 있다. 즉, 물품의 입출고의 완료 시점 또는 물품 업데이트의 종료 시점을 간접적으로 파악할 수 있다.The drawer detection unit 330 can detect the movement of the drawer and detect the point in time when the drawer is determined to be up to date after the user has used it. That is, the drawer detection unit 330 can detect the point in time when the photo taken by the camera includes the latest information that the user has finished using the drawer. In other words, it is possible to indirectly determine the completion point of product arrival and departure or the end point of product update.

도 4는 휘파람 소리를 이용하여 냉장고의 동작을 제어하는 방법을 나타내는 개념도이다. 도 4를 참조하면, 사용자가 휘파람을 불어 냉장고의 동작을 제어할 수 있다. 이때 사용자는 냉장고의 동작을 제어하기 위해 휘파람을 다양한 방식으로 불 수 있고, 사용자가 휘파람을 부는 방식을 제어부가 분석하여 분석결과에 대응되는 미리 설정된 패턴의 동작을 냉장고가 수행하게 된다.Figure 4 is a conceptual diagram showing a method of controlling the operation of a refrigerator using a whistle sound. Referring to Figure 4, the user can control the operation of the refrigerator by blowing a whistle. At this time, the user can blow the whistle in various ways to control the operation of the refrigerator, and the control unit analyzes the way the user whistles, and the refrigerator performs a preset pattern of operation corresponding to the analysis result.

상기 휘파람을 부는 다양한 방식으로는 휘파람 소리의 높낮이를 변화시키는 방법, 휘파람 소리의 길이를 달리하는 방법, 휘파람 소리의 세기를 달리하는 방법, 특정한 멜로디로 부는 방법 등이 있다. 상세하게, 높낮이를 변화시키는 방법은 소리의 높이가 증가하도록 하거나, 소리의 높이를 감소하도록 하거나, 소리의 높이를 일정하게 유지하는 방법을 포함할 수 있고, 휘파람 소리의 길이를 달리하는 방법은 짧거나 긴 휘파람 소리를 반복해서 내거나, 짧거나 긴 휘파람 소리를 정해진 횟수만큼 내는 방법을 포함할 수 있으며, 휘파람 소리의 세기를 달리하는 방법은 휘파람을 부는 세기에 따라 달라지는 소리의 크기(dB)를 다르게 하는 방법을 포함할 수 있고, 특정한 멜로디로 부는 방법은 정해진 멜로디에 대응되는 음의 높낮이에 맞추어 휘파람을 부는 방법을 포함할 수 있다. 또한, 사용자는 위 방법들을 조합하여 더 많은 방법으로 휘파람을 불 수 있다.Various methods of blowing the whistle include changing the pitch of the whistle, varying the length of the whistle, varying the intensity of the whistle, and blowing to a specific melody. In detail, the method of changing the pitch may include increasing the pitch of the sound, decreasing the pitch of the sound, or keeping the pitch of the sound constant, and the method of varying the length of the whistle sound may be short. This may include making a long whistle sound repeatedly, or making a short or long whistle sound a set number of times. The method of varying the intensity of the whistle sound is to vary the sound volume (dB) depending on the intensity of the whistle. It may include a method of blowing with a specific melody, and the method of blowing with a specific melody may include a method of whistling according to the pitch of the note corresponding to the set melody. Additionally, users can whistle in more ways by combining the above methods.

상기 사용자가 휘파람을 부는 방법에 대응되는 냉장고의 동작은 냉장고의 도어를 열거나 닫는 동작, 외부 디스플레이 출력화면 변경, 냉장고의 냉장실 또는 냉동실 내부 온도 조절 및 습도 조절, 얼음 얼리기 등을 포함할 수 있다. 상세하게, 냉장고의 구조에 따라 문의 개수가 다를 수 있는데, 문 전부를 열거나 닫도록 하는 동작이나 각각의 문을 열거나 닫는 동작을 포함할 수 있으며, 냉장고에 외부 디스플레이가 있는 경우, 외부디스플레이에서 보여주는 정보를 보고 싶은 다른 정보로 변경하거나 특정 정보를 불러오는 동작을 포함할 수 있고, 냉장고의 냉동실 또는 냉장실의 온도 또는 습도를 단계별로 올리거나 내리는 동작이나 특정 단계로 변경하는 동작을 포함할 수 있으며, 아이스 메이커가 내장된 냉장고의 경우, 얼음을 얼리는 동작을 포함할 수 있다. 또한, 위 동작 이외에도 냉장고에 따라 제공하는 추가적인 기능도 동작하도록 구비될 수 있다.The operation of the refrigerator corresponding to the way the user whistles may include opening or closing the door of the refrigerator, changing the external display output screen, controlling the temperature and humidity inside the refrigerator or freezer, freezing ice, etc. . In detail, the number of doors may vary depending on the structure of the refrigerator, which may include actions to open or close all doors or actions to open or close each door. If the refrigerator has an external display, the external display It may include an action to change the displayed information to other information you want to see or to retrieve specific information, and it may include an action to raise or lower the temperature or humidity of the freezer or refrigerator compartment of the refrigerator in stages or to change it to a specific level. In the case of a refrigerator with a built-in ice maker, the operation of freezing ice may be included. Additionally, in addition to the above operations, the refrigerator may be equipped to operate additional functions provided by the refrigerator.

위와 같이 사용자가 휘파람을 부는 다양한 방법들이 있을 수 있고, 그에 대응되는 냉장고의 다양한 동작이 있을 수 있다. 이러한 상기 휘파람을 부는 다양한 방법과 상기 냉장고의 동작이 각각 매칭되어 미리 설정된 동작을 하도록 할 수 있다. 또한, 미리 설정된 동작이 아니더라도 사용자가 원하는 냉장고의 동작을 특정 휘파람 부는 방식과 매칭하여 해당 휘파람 부는 방식에 대응되는 냉장고의 동작을 추가로 설정하는 방식도 포함될 수 있고, 휘파람 부는 방식에 한 가지 동작만 대응되는 것이 아니라 복수의 동작이 대응되어 순차적으로 진행되는 방식도 포함될 수 있다.As above, there may be various ways for the user to whistle, and there may be various operations of the refrigerator that correspond to them. These various methods of blowing the whistle and the operation of the refrigerator can be matched to perform a preset operation. In addition, even if it is not a preset operation, a method of matching the operation of the refrigerator desired by the user with a specific whistle method and additionally setting the operation of the refrigerator corresponding to the whistle method may be included, and only one operation can be used for the whistle method. A method in which a plurality of operations correspond to each other and proceed sequentially may also be included.

도 5는 본 발명에 따른 전자기기 제어방법이 적용되는 AI 스피커의 구성요소를 나타낸 블록도이다.Figure 5 is a block diagram showing the components of an AI speaker to which the electronic device control method according to the present invention is applied.

AI 스피커(500)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.The AI speaker 500 is widely used in TVs, projectors, mobile phones, smartphones, desktop computers, laptops, digital broadcasting terminals, PDAs (personal digital assistants), PMPs (portable multimedia players), navigation, tablet PCs, wearable devices, and set-top boxes (STBs). ), DMB receivers, radios, washing machines, refrigerators, desktop computers, digital signage, robots, vehicles, etc. can be implemented as fixed or movable devices.

도 5를 참조하면, AI 스피커(500)는 통신부(510), 입력부(520), 러닝 프로세서(530), 센싱부(540), 출력부(550), 메모리(570) 및 프로세서(580) 등을 포함할 수 있다.Referring to FIG. 5, the AI speaker 500 includes a communication unit 510, an input unit 520, a learning processor 530, a sensing unit 540, an output unit 550, a memory 570, and a processor 580. may include.

통신부(510)는 유무선 통신 기술을 이용하여 다른 AI 장치(500a 내지 500e)나 AI 서버(미도시) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(510)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어신호 등을 송수신할 수 있다.The communication unit 510 may transmit and receive data with external devices such as other AI devices 500a to 500e or an AI server (not shown) using wired or wireless communication technology. For example, the communication unit 510 may transmit and receive sensor information, user input, learning models, and control signals with external devices.

이때, 통신부(510)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth??), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.At this time, the communication technologies used by the communication unit 510 include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Long Term Evolution (LTE), 5G, Wireless LAN (WLAN), and Wireless-Fidelity (Wi-Fi). ), Bluetooth??, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), ZigBee, NFC (Near Field Communication), etc.

입력부(520)는 다양한 종류의 데이터를 획득할 수 있다.The input unit 520 can acquire various types of data.

이때, 입력부(520)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.At this time, the input unit 520 may include a camera for inputting video signals, a microphone for receiving audio signals, and a user input unit for receiving information from the user. Here, the camera or microphone may be treated as a sensor, and the signal obtained from the camera or microphone may be referred to as sensing data or sensor information.

입력부(520)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(520)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(580) 또는 러닝 프로세서(530)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.The input unit 520 may acquire training data for model learning and input data to be used when obtaining an output using the learning model. The input unit 520 may acquire unprocessed input data, and in this case, the processor 580 or the learning processor 530 may extract input features by preprocessing the input data.

러닝 프로세서(530)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.The learning processor 530 can train a model composed of an artificial neural network using training data. Here, the learned artificial neural network may be referred to as a learning model. A learning model can be used to infer a result value for new input data other than learning data, and the inferred value can be used as the basis for a decision to perform an operation.

이때, 러닝 프로세서(530)는 AI 서버의 러닝 프로세서(미도시)과 함께 AI 프로세싱을 수행할 수 있다.At this time, the learning processor 530 may perform AI processing together with the learning processor (not shown) of the AI server.

이때, 러닝 프로세서(530)는 AI 스피커(500)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(530)는 메모리(570), AI 스피커(500)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.At this time, the learning processor 530 may include memory integrated or implemented in the AI speaker 500. Alternatively, the learning processor 530 may be implemented using the memory 570, an external memory directly coupled to the AI speaker 500, or a memory maintained in an external device.

센싱부(540)는 다양한 센서들을 이용하여 AI 스피커(500) 내부 정보, AI 스피커(500)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.The sensing unit 540 may use various sensors to obtain at least one of internal information of the AI speaker 500, information about the surrounding environment of the AI speaker 500, and user information.

이때, 센싱부(540)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.At this time, the sensors included in the sensing unit 540 include a proximity sensor, illuminance sensor, acceleration sensor, magnetic sensor, gyro sensor, inertial sensor, RGB sensor, IR sensor, fingerprint recognition sensor, ultrasonic sensor, light sensor, microphone, and lidar. , radar, etc.

출력부(550)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.The output unit 550 may generate output related to vision, hearing, or tactile sensation.

이때, 출력부(550)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.At this time, the output unit 550 may include a display unit that outputs visual information, a speaker that outputs auditory information, and a haptic module that outputs tactile information.

메모리(570)는 AI 스피커(500)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(570)는 입력부(520)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.The memory 570 can store data supporting various functions of the AI speaker 500. For example, the memory 570 may store input data, learning data, learning models, learning history, etc. obtained from the input unit 520.

프로세서(580)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 스피커(500)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(580)는 AI 스피커(500)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.The processor 580 may determine at least one executable operation of the AI speaker 500 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. Additionally, the processor 580 can control the components of the AI speaker 500 to perform the determined operation.

이를 위해, 프로세서(580)는 러닝 프로세서(530) 또는 메모리(570)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 스피커(500)의 구성 요소들을 제어할 수 있다.To this end, the processor 580 may request, retrieve, receive, or utilize data from the learning processor 530 or the memory 570, and may perform a predicted operation or an operation determined to be desirable among the at least one executable operation. Components of the AI speaker 500 can be controlled to execute.

이때, 프로세서(580)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.At this time, if linkage with an external device is necessary to perform the determined operation, the processor 580 may generate a control signal to control the external device and transmit the generated control signal to the external device.

프로세서(580)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.The processor 580 may obtain intent information for user input and determine the user's request based on the obtained intent information.

이때, 프로세서(580)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.At this time, the processor 580 uses at least one of a STT (Speech To Text) engine for converting voice input into a character string or a Natural Language Processing (NLP) engine for acquiring intent information of natural language, so that the user Intent information corresponding to the input can be obtained.

이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(530)에 의해 학습된 것이나, AI 서버의 러닝 프로세서(미도시)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.At this time, at least one of the STT engine or the NLP engine may be composed of at least a portion of an artificial neural network learned according to a machine learning algorithm. In addition, at least one of the STT engine or NLP engine may be learned by the learning processor 530, by a learning processor (not shown) of the AI server, or by distributed processing thereof. there is.

프로세서(580)는 AI 스피커(500)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(570) 또는 러닝 프로세서(530)에 저장하거나, AI 서버 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The processor 580 collects history information including the operation content of the AI speaker 500 or user feedback on the operation, and stores it in the memory 570 or the learning processor 530, or in an external device such as an AI server. Can be transmitted. The collected historical information can be used to update the learning model.

프로세서(580)는 메모리(570)에 저장된 응용 프로그램을 구동하기 위하여, AI 스피커(500)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(580)는 상기 응용 프로그램의 구동을 위하여, AI 스피커(500)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.The processor 580 may control at least some of the components of the AI speaker 500 to run the application program stored in the memory 570. Furthermore, the processor 580 can operate two or more of the components included in the AI speaker 500 in combination with each other in order to run the application program.

도 6은 휘파람 소리를 이용하여 AI 스피커의 동작을 제어하는 방법을 나타내는 개념도이다. 도 6을 참조하면, 사용자가 휘파람을 불어 AI 스피커의 동작을 제어할 수 있다. 이때 사용자는 AI 스피커의 동작을 제어하기 위해 휘파람을 다양한 방식으로 불 수 있고, 사용자가 휘파람을 부는 방식을 제어부가 분석하여 분석결과에 대응되는 미리 설정된 패턴의 동작을 AI 스피커가 수행하게 된다.Figure 6 is a conceptual diagram showing a method of controlling the operation of an AI speaker using a whistle sound. Referring to Figure 6, the user can control the operation of the AI speaker by blowing a whistle. At this time, the user can whistle in various ways to control the operation of the AI speaker, and the control unit analyzes the way the user whistles, and the AI speaker performs the operation of a preset pattern corresponding to the analysis result.

상기 휘파람을 부는 다양한 방식으로는 휘파람 소리의 높낮이를 변화시키는 방법, 휘파람 소리의 길이를 달리하는 방법, 휘파람 소리의 세기를 달리하는 방법, 특정한 멜로디로 부는 방법 등이 있다. 상세하게, 높낮이를 변화시키는 방법은 소리의 높이가 증가하도록 하거나, 소리의 높이를 감소하도록 하거나, 소리의 높이를 일정하게 유지하는 방법을 포함할 수 있고, 휘파람 소리의 길이를 달리하는 방법은 짧거나 긴 휘파람 소리를 반복해서 내거나, 짧거나 긴 휘파람 소리를 정해진 횟수만큼 내는 방법을 포함할 수 있으며, 휘파람 소리의 세기를 달리하는 방법은 휘파람을 부는 세기에 따라 달라지는 소리의 크기(dB)를 다르게 하는 방법을 포함할 수 있고, 특정한 멜로디로 부는 방법은 정해진 멜로디에 대응되는 음의 높낮이에 맞추어 휘파람을 부는 방법을 포함할 수 있다. 또한, 사용자는 위 방법들을 조합하여 더 많은 방법으로 휘파람을 불 수 있다.Various methods of blowing the whistle include changing the pitch of the whistle, varying the length of the whistle, varying the intensity of the whistle, and blowing to a specific melody. In detail, the method of changing the pitch may include increasing the pitch of the sound, decreasing the pitch of the sound, or keeping the pitch of the sound constant, and the method of varying the length of the whistle sound may be short. This may include making a long whistle sound repeatedly, or making a short or long whistle sound a certain number of times. The method of varying the intensity of the whistle sound is to vary the sound volume (dB) depending on the intensity of the whistle. It may include a method of blowing with a specific melody, and the method of blowing with a specific melody may include a method of whistling according to the pitch of the note corresponding to the set melody. Additionally, users can whistle in more ways by combining the above methods.

상기 사용자가 휘파람을 부는 방법에 대응되는 AI 스피커의 동작은 AI 스피커의 전원을 제어하는 동작, 검색 기능을 제어하는 동작, 음악 재생 시 AI 스피커를 제어하는 동작, AI 스피커와 연동된 다른 기기를 제어하는 동작, 멜로디를 검색하는 동작 등을 포함할 수 있다. 상세하게, AI 스피커의 전원을 켜거나 끄는 동작을 포함할 수 있고, 날씨, 미세먼지, 뉴스 등을 검색하기 위해 해당 카테고리의 검색 기능을 켜거나 끄는 동작이나 특정한 시간, 지역의 날씨나 미세먼지를 검색하도록 동작하는 것을 포함할 수 있으며, 음악 재생 시 AI 스피커를 제어하여 음악 재생, 일시 정지, 다음 곡 재생, 이전 곡 재생, 한 곡 반복, 랜덤 재생, 구간 반복의 시작점 및 종료지점 설정 및 해제 등의 동작을 하는 것을 포함할 수 있고, AI 스피커와 연동된 다른 기기를 제어하기 위해, 다른 기기의 전원을 켜고 끄는 동작과 해당 다른 기기가 제공하는 기능을 수행하도록 하는 동작을 포함할 수 있으며, 휘파람으로 멜로디를 표현하여 멜로디와 유사한 음악을 검색하는 기능이 있는 경우 해당 기능을 켜고 끄는 동작을 포함할 수 있다. 또한, 위 동작 이외에도 AI 스피커에 따라 제공하는 추가적인 기능도 동작하도록 구비될 수 있다.The operations of the AI speaker corresponding to the method of the user whistling include controlling the power of the AI speaker, controlling the search function, controlling the AI speaker when playing music, and controlling other devices linked to the AI speaker. It may include actions such as searching for a melody, etc. In detail, it may include turning on or off the power of the AI speaker, turning on or off the search function of the corresponding category to search for weather, fine dust, news, etc., or searching for weather or fine dust in a specific time or region. This may include operating to search, and controlling the AI speaker when playing music to play music, pause, play next song, play previous song, repeat one song, random play, set and release start and end points of section repeat, etc. In order to control other devices linked to the AI speaker, it may include turning on and off the power of the other device and performing functions provided by the other device. If there is a function to express the melody and search for music similar to the melody, an action to turn the function on and off can be included. Additionally, in addition to the above operations, additional functions provided by the AI speaker may also be provided to operate.

위와 같이 사용자가 휘파람을 부는 다양한 방법들이 있을 수 있고, 그에 대응되는 AI 스피커의 다양한 동작이 있을 수 있다. 이러한 상기 휘파람을 부는 다양한 방법과 상기 AI 스피커의 동작이 각각 매칭되어 미리 설정된 동작을 하도록 할 수 있다. 또한, 미리 설정된 동작이 아니더라도 사용자가 원하는 AI 스피커의 동작을 특정 휘파람 부는 방식과 매칭하여 해당 휘파람 부는 방식에 대응되는 AI 스피커의 동작을 설정하는 방식도 포함될 수 있고, 휘파람 부는 방식에 한 가지 동작만 대응되는 것이 아니라 복수의 동작이 대응되어 순차적으로 진행되는 방식도 포함될 수 있다.As shown above, there may be various ways for the user to whistle, and there may be various actions of the AI speaker corresponding to them. These various methods of blowing the whistle and the operation of the AI speaker can be matched to perform a preset operation. In addition, even if it is not a preset operation, a method of matching the operation of the AI speaker desired by the user with a specific whistle method and setting the operation of the AI speaker corresponding to the whistle method may be included, and only one action can be used for the whistle method. A method in which a plurality of operations correspond to each other and proceed sequentially may also be included.

상술한 본 발명은 일 실시예에 관한 것으로, 이는 실시예에 불과하며, 본 기술분야에서 통상의 지식을 가진 자는 이로부터 다양한 변형 및 균등한 다른 실시예도 가능할 수 있다. 따라서, 본 발명의 권리범위는 상기한 실시예 및 첨부된 도면에 의해 한정되는 것은 아니다.The present invention described above relates to one embodiment, which is only an embodiment, and various modifications and equivalent other embodiments may be possible by those skilled in the art. Accordingly, the scope of the present invention is not limited by the above-described embodiments and the attached drawings.

Claims (5)

사용자로부터 오디오 신호를 입력받는 마이크;
상기 마이크에 의해 입력된 상기 오디오 신호가 휘파람 소리인지 여부를 판단하는 제어부; 및
상기 오디오 신호의 특성에 따라 동작하는 구동부를 포함하고,
상기 제어부는,
휘파람 소리로 레이블링된 트레이닝 데이터와 휘파람 소리가 아닌 것으로 레이블링된 트레이닝 데이터를 입력받고, 입력된 트레이닝 데이터를 이용하여 상기 오디오 신호가 휘파람 소리인지 여부를 식별하기 위해 머신 러닝 또는 딥러닝을 수행하도록 인공신경망을 구축하는 인공지능 엔진을 탑재하고,
상기 인공지능의 학습결과에 근거하여 상기 오디오 신호가 휘파람 소리에 대응될 확률을 산출하며, 산출된 확률에 근거하여 상기 오디오 신호가 휘파람 소리인지 여부를 판단하며,
상기 오디오 신호가 휘파람 소리인 것으로 판단되면, 상기 휘파람 소리의 특성을 분석하고,
분석결과에 따라 상기 구동부를 미리 설정된 패턴으로 동작시키고,
상기 구동부는,
냉장고의 도어를 개폐하기 위한 도어개폐장치와, 상기 냉장고의 동작과 관련된 정보를 출력하는 디스플레이를 포함하는 것을 특징으로 하는 오디오 신호 기반 전자기기.
A microphone that receives an audio signal from the user;
a control unit that determines whether the audio signal input by the microphone is a whistle sound; and
It includes a driver that operates according to the characteristics of the audio signal,
The control unit,
An artificial neural network receives training data labeled as a whistle sound and training data labeled as a non-whistle sound, and uses the input training data to perform machine learning or deep learning to identify whether the audio signal is a whistle sound. Equipped with an artificial intelligence engine that builds
Calculate the probability that the audio signal corresponds to a whistle sound based on the learning results of the artificial intelligence, and determine whether the audio signal is a whistle sound based on the calculated probability,
If it is determined that the audio signal is a whistle sound, the characteristics of the whistle sound are analyzed,
According to the analysis results, the driving unit is operated in a preset pattern,
The driving unit,
An audio signal-based electronic device comprising a door opening and closing device for opening and closing the door of a refrigerator, and a display that outputs information related to the operation of the refrigerator.
제1항에 있어서,
상기 제어부는,
상기 휘파람 소리의 높이, 강도 및 지속시간 중 적어도 하나를 판별함으로써, 상기 휘파람 소리의 특성을 분석하고,
상기 분석결과에 근거하여 상기 구동부에 대응되는 동작 명령을 생성하는 것을 특징으로 하는 오디오 신호 기반 전자기기.
According to paragraph 1,
The control unit,
Analyzing the characteristics of the whistle sound by determining at least one of the height, intensity, and duration of the whistle sound,
An audio signal-based electronic device, characterized in that it generates an operation command corresponding to the driving unit based on the analysis results.
제2항에 있어서,
상기 제어부는,
상기 휘파람 소리의 높이 변화를 감지하고, 상기 감지된 높이 변화에 근거하여, 상기 전자기기에 대응되는 동작 명령을 생성하는 것을 특징으로 하는 오디오 신호 기반 전자기기.
According to paragraph 2,
The control unit,
An audio signal-based electronic device, characterized in that detecting a change in height of the whistle sound and generating a corresponding operation command for the electronic device based on the detected change in height.
제3항에 있어서,
상기 제어부는,
상기 휘파람 소리의 높이가 증가하는 것으로 감지되는 경우, 상기 전자기기의 제1 동작이 수행되도록 상기 구동부를 제어하고,
상기 휘파람 소리의 높이가 감소하는 것으로 감지되는 경우, 상기 전자기기의 제2 동작이 수행되도록 상기 구동부를 제어하고,
상기 휘파람 소리의 높이가 유지되는 것으로 감지되는 경우, 상기 전자기기의 제3 동작이 수행되도록 상기 구동부를 제어하는 것을 특징으로 하는 오디오 신호 기반 전자기기.
According to paragraph 3,
The control unit,
When it is detected that the height of the whistle sound increases, controlling the driving unit to perform a first operation of the electronic device,
When it is detected that the height of the whistle sound decreases, controlling the driving unit to perform a second operation of the electronic device,
An audio signal-based electronic device, characterized in that when it is detected that the height of the whistle sound is maintained, the driving unit is controlled to perform a third operation of the electronic device.
제3항에 있어서,
상기 제어부는,
상기 휘파람 소리가 미리 설정된 멜로디에 대응되는지 여부를 판단하고, 판단결과에 근거하여, 상기 전자기기에 대응되는 동작 명령을 생성하는 것을 특징으로 하는 오디오 신호 기반 전자기기.
According to paragraph 3,
The control unit,
An audio signal-based electronic device, characterized in that it determines whether the whistle sound corresponds to a preset melody and, based on the determination result, generates an operation command corresponding to the electronic device.
KR1020240060049A 2021-03-16 2024-05-07 Audio Signal - Based Device And Control Method Thereof Ceased KR20240100318A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020210033795 2021-03-16
KR20210033795 2021-03-16
KR1020210118288A KR20220129986A (en) 2021-03-16 2021-09-06 Audio signal-based device and method for controlling the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210118288A Division KR20220129986A (en) 2021-03-16 2021-09-06 Audio signal-based device and method for controlling the same

Publications (1)

Publication Number Publication Date
KR20240100318A true KR20240100318A (en) 2024-07-01

Family

ID=83321470

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020240060049A Ceased KR20240100318A (en) 2021-03-16 2024-05-07 Audio Signal - Based Device And Control Method Thereof

Country Status (2)

Country Link
KR (1) KR20240100318A (en)
WO (1) WO2022197005A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128141A (en) * 1995-11-07 1997-05-16 Sony Corp Control device and control method
KR19990043098A (en) * 1997-11-28 1999-06-15 정선종 Voice driving device and method using voice and sound information and attribute information
KR101749100B1 (en) * 2010-12-23 2017-07-03 한국전자통신연구원 System and method for integrating gesture and sound for controlling device
JP6143768B2 (en) * 2011-11-07 2017-06-07 フィリップス ライティング ホールディング ビー ヴィ User interface with voice to control the lighting system
KR20190093268A (en) * 2018-02-01 2019-08-09 주식회사 엘지유플러스 Method for controlling device and device thereof

Also Published As

Publication number Publication date
WO2022197005A1 (en) 2022-09-22

Similar Documents

Publication Publication Date Title
KR102421487B1 (en) Artificial intelligent device
KR102455199B1 (en) Artificial intelligence device
KR102317039B1 (en) Mobile terminal and control method therefor
KR102479499B1 (en) Mobile terminal
US11089149B2 (en) Display device and operating method thereof
KR102434459B1 (en) Mobile terminal
KR20190040822A (en) Mobile terminal
KR102249500B1 (en) Home gateway and operating method thereof
KR20190121558A (en) Mobile terminal
KR102420280B1 (en) Mobile terminal
KR102264074B1 (en) Wearable glass-type device and systmem habving sinagae and the wearable glass-type device
KR102575920B1 (en) Dental cad apparatus and control method thereof
KR102369559B1 (en) Terminal
KR20240100318A (en) Audio Signal - Based Device And Control Method Thereof
KR20210060727A (en) Audio tagging system using densely connected convolutional networks
KR102114064B1 (en) Mobile terminal
KR20220129986A (en) Audio signal-based device and method for controlling the same
KR20200016111A (en) Audio information collecting apparatus and control method thereof
KR102249980B1 (en) Control apparatus for electronic device using non-vocal audio information and control method thereof
KR102384639B1 (en) Mobile terminal and method for controlling the same
KR102334615B1 (en) Display device and method for controlling the same
KR20190079174A (en) Mobile terminal
KR20210098904A (en) Image treating apparatus and control method thereof
KR102423491B1 (en) Mobile terminal and operating method thereof
CN112243580A (en) mobile terminal

Legal Events

Date Code Title Description
PA0107 Divisional application

St.27 status event code: A-0-1-A10-A18-div-PA0107

St.27 status event code: A-0-1-A10-A16-div-PA0107

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

E601 Decision to refuse application
PE0601 Decision on rejection of patent

St.27 status event code: N-2-6-B10-B15-exm-PE0601

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000