[go: up one dir, main page]

KR101573868B1 - Method for displaying music lyrics automatically, server for recognizing music lyrics and system for displaying music lyrics automatically comprising the server - Google Patents

Method for displaying music lyrics automatically, server for recognizing music lyrics and system for displaying music lyrics automatically comprising the server Download PDF

Info

Publication number
KR101573868B1
KR101573868B1 KR1020130149718A KR20130149718A KR101573868B1 KR 101573868 B1 KR101573868 B1 KR 101573868B1 KR 1020130149718 A KR1020130149718 A KR 1020130149718A KR 20130149718 A KR20130149718 A KR 20130149718A KR 101573868 B1 KR101573868 B1 KR 101573868B1
Authority
KR
South Korea
Prior art keywords
data
song
lyrics
information
measure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020130149718A
Other languages
Korean (ko)
Other versions
KR20150064870A (en
Inventor
한동수
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020130149718A priority Critical patent/KR101573868B1/en
Publication of KR20150064870A publication Critical patent/KR20150064870A/en
Application granted granted Critical
Publication of KR101573868B1 publication Critical patent/KR101573868B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Marketing (AREA)
  • Signal Processing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 (a) 마이크를 통해 입력된 오디오 신호에 대응하는 노래 데이터 정보를 수신하는 단계와 (b) 수신된 노래 데이터 정보로부터 대응하는 곡을 식별하는 단계와 (c) 식별된 곡에 대응하는 가사 데이터를 포함하는 가사 데이터 정보를 생성하는 단계와 (d) 상기 가사 데이터 정보를 전송하는 단계를 포함하는 노래 가사 자동 디스플레이 방법에 관한 것이다.
본 발명을 이용함으로써, 외부로부터 들려오는 노래에 관한 정보의 획득이 가능하고 동기화된 가사의 디스플레이가 가능한 효과가 있다.
The method includes the steps of: (a) receiving song data information corresponding to an audio signal input via a microphone; (b) identifying a corresponding song from received song data information; and (c) Generating lyric data information including lyric data; and (d) transmitting the lyric data information.
By using the present invention, it is possible to acquire information about a song that is heard from the outside and display the synchronized lyrics.

Figure R1020130149718
Figure R1020130149718

Description

노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템{METHOD FOR DISPLAYING MUSIC LYRICS AUTOMATICALLY, SERVER FOR RECOGNIZING MUSIC LYRICS AND SYSTEM FOR DISPLAYING MUSIC LYRICS AUTOMATICALLY COMPRISING THE SERVER}METHOD FOR DISPLAYING MUSIC LYRICS AUTOMATICALLY, SERVER FOR RECOGNIZING MUSIC LYRICS AND SYSTEM FOR DISPLAYING MUSIC LYRICS AUTOMATICALLY COMPRISING THE SERVER [0001] This invention relates to a song lyrics automatic display system,

본 발명은 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템에 관한 것으로서, 외부로부터 들려오는 노래로부터 실시간으로 가사를 디스플레이하고 가사와 노래의 동기를 이룰 수 있도록 하는, 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템에 관한 것이다. The present invention relates to a song lyrics automatic display method, a server for recognizing song lyrics, and a song lyrics automatic display system including the server, which can display lyrics in real time from a song received from the outside and synchronize lyrics and songs A server for recognizing song lyrics, and a song lyrics automatic display system including the server.

우리는 생활 주변의 다양한 곳에서 노래를 접하게 된다. 일반적으로 커피점, 음식점, 음악회 등에서 노래를 들을 수 있으며, 또한 라디오나 TV, 유튜브 등과 같은 기기로부터 흘러나오는 노래를 들을 수도 있다. 그리고 이곳에서 노래를 듣는 청취자들은 들려오는 노래가 어떤 노래인지 알고 싶고 특히 노래 가사가 무엇인지를 알고 싶어한다. We come to sing in various places around life. Generally, you can listen to songs at a coffee shop, a restaurant, a concert, or listen to songs from devices such as radio, TV, and YouTube. And listeners who listen to the song here want to know what song they are listening to and especially want to know what song lyrics are.

그러나 들려오는 노래에 관한 정보를 획득하는 것은 용이치 않다. 만일 청취자가 노래의 제목을 알 수 있다면 인터넷을 통한 검색으로 해당 노래에 대한 가사 등과 같은 정보를 획득할 수 있을 것이다. 인터넷을 통한 검색도 청취자의 상황(예를 들어 운전 중)에 따라 검색 입력이나 확인이 불편한 것이 현실이다. However, it is unreasonable to obtain information about the song being heard. If the listener can know the title of the song, it will be possible to obtain information such as lyrics for the song by searching through the Internet. It is a reality that the search through the Internet is inconvenient for the search input or confirmation depending on the situation of the listener (for example, during driving).

따라서 청취자들이 듣고 있는 노래에 대한 정보를 용이하게 획득할 수 있도록 하는 장치나 방법이 필요하다. Therefore, there is a need for a device or a method that enables listeners to easily acquire information about a song they are listening to.

한편 기술의 발전에 따라 인터넷에 연결되어 데이터 송수신이 가능한 다양한 형태의 장치가 보급되었다. 인터넷에 연결되는 장치는 또한 내부적으로 프로세서를 구비하여 탑재된 응용 프로그램에 따라 동작될 수 있으며, 스마트 폰, 스마트 TV, 개인용 컴퓨터, 전자 액자, 태블릿 PC 등이 한 예이다. Meanwhile, as the technology has developed, various types of devices capable of transmitting and receiving data by being connected to the Internet have been introduced. A device connected to the Internet can also be operated according to an installed application program including a processor internally, and examples thereof include a smart phone, a smart TV, a personal computer, an electronic photo frame, and a tablet PC.

그리고 이 장치는 디스플레이를 구비하고 있는 데, 디스플레이를 통해 노래 가사와 같은 노래 정보를 디스플레이할 수 있다면 청취자에게 편리하게 그리고 직관적으로 노래에 관한 정보를 제공할 수 있을 것이다.And, the device has a display that can conveniently and intuitively provide information about the song to the listener if the display can display song information such as song lyrics.

본 발명은 상술한 문제점을 해결하기 위해서 안출한 것으로서, 마이크 등을 통해 입력된 오디오 신호로부터 노래에 관련된 정보를 추출할 수 있도록 하는, 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템을 제공하는 데 그 목적이 있다. The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a song lyrics automatic display method, a server for recognizing song lyrics, and a server for extracting information related to a song from an audio signal input through a microphone, The goal is to provide a song lyrics automatic display system that includes.

또한 본 발명은 입력된 오디오 신호에 대응하는 가사를 식별하여 대응하는 가사를 디스플레이할 수 있도록 하는, 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템을 제공하는 데 그 목적이 있다. The present invention also provides a song lyrics automatic display method, a server for recognizing song lyrics, and a song lyrics automatic display system including the server, by which it is possible to identify lyrics corresponding to input audio signals to display corresponding lyrics The purpose is to do.

또한 본 발명은 실시간으로 가사를 디스플레이할 수 있도록 하는, 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템을 제공하는 데 그 목적이 있다. It is another object of the present invention to provide a song lyrics automatic display method, a server for recognizing song lyrics, and a song lyrics automatic display system including the server, in which the lyrics can be displayed in real time.

또한 본 발명은 입력된 오디오 신호의 변화에 따라 가사의 디스플레이가 변경될 수 있도록 하는, 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템을 제공하는 데 그 목적이 있다. The present invention also provides a song lyrics automatic display method, a server for recognizing song lyrics, and a song lyrics automatic display system including the server, in which the display of the lyrics can be changed according to changes in the input audio signal, There is a purpose.

또한 본 발명은 입력된 오디오 신호와 가사의 디스플레이가 처리 시간과 네트워크의 지연 시간을 고려하여 동기화될 수 있도록 하는, 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템을 제공하는 데 그 목적이 있다. The present invention also provides a song lyrics automatic display method, a server for recognizing song lyrics, and a song lyrics automatic including the server so that the display of the input audio signal and lyrics can be synchronized in consideration of the processing time and the delay time of the network And a display system.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.

상기와 같은 목적을 달성하기 위한 노래 가사 자동 디스플레이 방법은 (a) 마이크를 통해 입력된 오디오 신호에 대응하는 노래 데이터 정보를 수신하는 단계와 (b) 수신된 노래 데이터 정보로부터 대응하는 곡을 식별하는 단계와 (c) 식별된 곡에 대응하는 가사 데이터를 포함하는 가사 데이터 정보를 생성하는 단계와 (d) 상기 가사 데이터 정보를 전송하는 단계를 포함한다. According to another aspect of the present invention, there is provided a method of automatically displaying a song lyrics, comprising: (a) receiving song data information corresponding to an audio signal input through a microphone; and (b) (C) generating lyric data information including lyric data corresponding to the identified tune; and (d) transmitting the lyric data information.

또한 상기와 같은 목적을 달성하기 위한 노래 가사를 인식하는 서버는 마이크를 통해 입력된 오디오 신호에 대응하는 노래 데이터 정보를 수신하고 가사 데이터 정보를 전송하는 통신부와 통신부를 통해 수신된 노래 데이터 정보로부터 대응하는 곡을 식별하고 식별된 곡에 대응하는 가사 데이터를 포함하는 가사 데이터 정보를 생성하여 통신부로 전달하는 제어부를 포함한다.In order to achieve the above object, a server for recognizing song lyrics includes a communication unit for receiving song data information corresponding to an audio signal inputted through a microphone and transmitting lyric data information, And transmits the generated lyric data information to the communication unit.

또한 상기와 같은 목적을 달성하기 위한 서버를 포함하는 노래 가사 자동 디스플레이 시스템은 노래 가사를 인식하는 서버를 포함하고, 노래 가사를 인식하는 서버는 마이크를 통해 입력된 오디오 신호에 대응하는 노래 데이터 정보를 수신하고 가사 데이터 정보를 전송하는 통신부와 통신부를 통해 수신된 노래 데이터 정보로부터 대응하는 곡을 식별하고 식별된 곡에 대응하는 가사 데이터를 포함하는 가사 데이터 정보를 생성하여 통신부로 전달하는 제어부를 포함한다.In order to achieve the above-mentioned object, a song lyrics automatic display system including a server includes a server for recognizing song lyrics, and a server for recognizing song lyrics includes song data information corresponding to an audio signal inputted through a microphone And a control unit for identifying the corresponding song from the song data information received through the communication unit and transmitting the generated song data information including the lyrics data corresponding to the identified song to the communication unit .

상기와 같은 본 발명에 따른 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템은 마이크 등을 통해 입력된 오디오 신호로부터 노래에 관련된 정보를 추출할 수 있도록 하는 효과가 있다. The automatic song-song display method, the server for recognizing song lyrics, and the automatic song-song display system including the server according to the present invention can extract information related to a song from an audio signal input through a microphone or the like It is effective.

또한 상기와 같은 본 발명에 따른 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템은 입력된 오디오 신호에 대응하는 가사를 식별하여 대응하는 가사를 디스플레이할 수 있도록 하는 효과가 있다. Also, the automatic song song display method according to the present invention as described above, the server for recognizing the song lyrics, and the song lyrics automatic display system including the server can identify the lyrics corresponding to the inputted audio signals and display the corresponding lyrics .

또한 상기와 같은 본 발명에 따른 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템은 실시간으로 가사를 디스플레이할 수 있도록 하는 효과가 있다. In addition, the automatic song-song display method, the server for recognizing the song lyrics, and the automatic song-song display system including the server according to the present invention can display the lyrics in real time.

또한 상기와 같은 본 발명에 따른 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템은 입력된 오디오 신호의 변화에 따라 가사의 디스플레이가 변경될 수 있도록 하는 효과가 있다. In addition, the automatic song-song display method, the server for recognizing song lyrics, and the automatic song-song display system including the server according to the present invention as described above can change the display of the lyrics according to the change of the input audio signal .

또한 상기와 같은 본 발명에 따른 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템은 입력된 오디오 신호와 가사의 디스플레이가 처리 시간과 네트워크의 지연 시간을 고려하여 동기화될 수 있도록 하는 효과가 있다. Also, the automatic song-song display method, the server for recognizing song lyrics, and the automatic song-song display system including the server according to the present invention, as described above, allow the input audio signal and the display of the lyrics to take into account the processing time and the delay time of the network So that they can be synchronized.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.

도 1은 노래를 인식하고인식된 노래의 가사를 디스플레이하기 위한 노래 가사 자동 디스플레이 시스템의 예시적인 시스템 구성도를 도시한 도면이다.
도 2는 노래 인식 서버의 예시적인 블록 구성도를 도시한 도면이다.
도 3은 노래 인식 서버에서 수행되는 예시적인 제어 흐름을 도시한 도면이다.
도 4는 개인용 장치의 예시적인 블록 구성도를 도시한 도면이다.
도 5는 개인용 장치에서 수행되는 예시적인 제어 흐름을 도시한 도면이다.
1 is a diagram showing an exemplary system configuration of a song lyrics automatic display system for recognizing a song and displaying the lyrics of the recognized song.
2 is a block diagram illustrating an example of a song recognition server.
3 is a diagram showing an exemplary control flow performed in the song recognition server.
4 is a block diagram showing an example of a personal apparatus.
5 is a diagram illustrating an exemplary control flow performed in a personal device.

상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술 되어 있는 상세한 설명을 통하여 더욱 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다.
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: It can be easily carried out. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 노래를 인식하고 인식한 노래의 가사를 디스플레이하기 위한 노래 가사 자동 디스플레이 시스템의 예시적인 시스템 구성도를 도시한 도면이다.1 is a diagram showing an exemplary system configuration of a song lyrics automatic display system for recognizing a song and displaying the lyrics of the recognized song.

도 1에 따르면 노래 가사 자동 디스플레이 시스템은 음원 소스(100), 개인용 장치(200), 통신 네트워크(300) 및 노래 인식 서버(400)를 포함한다. 이러한 노래 가사 자동 디스플레이 시스템의 블록 중 일부는 생략될 수 있다. 예를 들어 음원 소스(100)는 변형 예에 따라 생략될 수도 있다. 1, the song lyrics automatic display system includes a sound source 100, a personal device 200, a communication network 300, and a song recognition server 400. Some of the blocks of such a song lyrics automatic display system may be omitted. For example, the source source 100 may be omitted according to a variant.

도 1에 따른 노래 가사 자동 디스플레이 시스템의 각 구성 블록을 살펴보면, 음원 소스(100)는 노래를 재생하고 오디오로 출력할 수 있는 장치이다. 예를 들어 음원 소스(100)는 라디오, TV, 음향 데크, 음향 데크에 연결된 스피커 등일 수 있다.Referring to each constituent block of the song lyrics automatic display system according to FIG. 1, a sound source 100 is a device capable of reproducing a song and outputting it as audio. For example, the source 100 may be a radio, a TV, a sound deck, a speaker connected to a sound deck, and the like.

이러한 음원 소스(100)는 적어도 스피커를 포함하고 재생 중인 특정 노래(음악)를 오디오로 출력하여 주위의 청취자나 본 발명의 노래 가사 자동 디스플레이 시스템을 이용하는 사용자 등에게 노래를 들을 수 있도록 한다. Such a sound source 100 includes at least a speaker and outputs audio as a specific song (music) being reproduced so that the user can listen to the surrounding listener or a user who uses the song lyrics automatic display system of the present invention.

개인용 장치(200)는 개인이 이용가능한 장치이다. 예를 들어 개인용 장치(200)는 핸드폰, 스마트 폰, 태블릿 PC, 개인용 컴퓨터, 전자 액자 등일 수 있다. 그리고 개인용 장치(200)는 적어도 오디오를 전기 신호로 변환할 수 있는 마이크를 포함하고 이미지를 표시할 수 있는 디스플레이를 포함한다. Personal device 200 is a personally available device. For example, the personal device 200 may be a mobile phone, a smart phone, a tablet PC, a personal computer, a photo frame, and the like. And the personal device 200 includes a display that includes a microphone capable of converting at least audio to electrical signals and is capable of displaying an image.

개인용 장치(200)는 마이크와 디스플레이를 이용하여 음원 소스(100)로부터 출력된 노래를 직간접(바람직하게는 노래 인식 서버(400)를 통해) 인식하고 인식된 노래의 가사를 디스플레이할 수 있다. 개인용 장치(200)에 관한 더욱더 상세한 설명은 도 4 및 도 5를 통해서 살펴보도록 한다. The personal device 200 can directly or indirectly recognize (through the song recognition server 400) the song output from the sound source 100 using the microphone and the display and display the lyrics of the recognized song. A more detailed description of the personal device 200 will be given with reference to FIGS. 4 and 5. FIG.

노래 인식 서버(400)는 하나 이상의 개인용 장치(200)에 연결되어 노래를 인식하고 가사를 추출할 수 있는 장치이다. 이와 같은 노래 인식 서버(400)는 지정된 통신 프로토콜(예를 들어 OSI(Open System Interconnection) 7 계층 중 응용 계층의 통신 프로토콜)에 따라 외부의 개인용 장치(200)와 통신 가능하다. The song recognition server 400 is connected to one or more personal devices 200 to recognize songs and extract lyrics. The song recognition server 400 is capable of communicating with an external personal device 200 according to a designated communication protocol (for example, a communication protocol of an application layer among OSI (Open System Interconnection) 7 layers).

그리고 노래 인식 서버(400)는, 연결된 개인용 장치(200)로부터 노래 인식에 이용된 노래 데이터 정보를 수신하고 수신된 노래 데이터 정보로부터 대응하는 곡과 곡의 가사를 데이터 베이스를 이용하여 식별할 수 있다. 이후 식별된 곡과 가사는 노래 인식 서버(400)에 의해 개인용 장치(200)로 전달될 수 있다. 이를 전달받은 개인용 장치(200)는 가사를 디스플레이를 통해 출력할 수 있다.The song recognition server 400 can receive the song data information used for song recognition from the connected personal device 200 and identify the lyrics of the corresponding song and song from the received song data information using the database . The identified songs and lyrics may then be delivered to the personal device 200 by the song recognition server 400. The personal apparatus 200 receiving the information can output the lyrics through the display.

노래 인식 서버(400)에 관한 보다더 상세한 설명은 도 2 및 도 3을 통해서 살펴보도록 한다. A more detailed description of the song recognition server 400 will be given with reference to FIGS. 2 and 3. FIG.

통신 네트워크(300)는 하나 이상의 개인용 장치(200)와 노래 인식 서버(400) 사이의 데이터를 송수신할 수 있는 네트워크이다. 이러한 통신 네트워크(300)는 유선 랜과 같은 유선 통신 네트워크, LTE 또는 무선 랜과 같은 무선 통신 네트워크를 포함한다. 또는 통신 네트워크(300)는 유선 통신 네트워크와 무선 통신 네트워크의 조합으로 이루어질 수 있다. 이와 같은 통신 네트워크(300)는 바람직하게는 인터넷을 구성한다. The communication network 300 is a network capable of transmitting and receiving data between one or more personal devices 200 and the song recognition server 400. The communication network 300 includes a wired communication network such as a wired LAN, and a wireless communication network such as an LTE or wireless LAN. Or the communication network 300 may be a combination of a wired communication network and a wireless communication network. Such a communication network 300 preferably constitutes the Internet.

이상, 도 1에서는 음원 소스(100)가 존재하는 것으로 도시하였다. 이 음원 소스(100)는 생략될 수 있고 개인용 장치(200)가 음원 소스로서의 역할을 수행할 수도 있다. 이에 따라 개인용 장치는 저장된 특정 노래를 스피커를 통해 출력할 수 있고 마이크를 통한 입력으로, 또는 내부적인 직접 전달로 노래의 인식이나 가사의 디스플레이를 가능하도록 한다.
1, it is shown that the sound source 100 exists. The sound source 100 may be omitted and the personal device 200 may serve as a sound source. Accordingly, the personal apparatus can output the stored specific song through the speaker and enable the recognition of the song or the display of the lyrics by the input through the microphone or by the internal direct delivery.

도 2는 노래 인식 서버(400)의 예시적인 블록 구성도를 도시한 도면이다.2 is a block diagram showing an exemplary block configuration of the song recognition server 400. As shown in FIG.

도 2에 따르면, 노래 인식 서버(400)는 통신부(410), 저장부(420), 제어부(430) 및 연결부(440)를 포함한다. 이 중 일부의 블록은 노래 인식 서버(400)의 종류나 변형 예에 따라 생략되거나 도시되지 않은 다른 블록들이 이 블록 구성도에 더 포함하도록 구성될 수 있다. 그리고 도 2는 노래 인식이나 가사 인식을 위해 적어도 필요한 구성만을 도시하였고, 노래 인식이나 가사 인식에 상관없는 구성요소는 본 발명의 요지를 흐릴 수 있으므로 생략하도록 한다. 2, the song recognition server 400 includes a communication unit 410, a storage unit 420, a control unit 430, and a connection unit 440. Some of the blocks may be configured to include other blocks that are omitted or not shown in accordance with the type or variant of the song recognition server 400, in this block diagram. FIG. 2 shows only a configuration necessary for song recognition or lyrics recognition, and the components not related to the song recognition or the lyrics recognition are omitted because they may obscure the gist of the present invention.

노래 인식 서버(400)의 각 블록들을 살펴보면, 통신부(410)는 통신 네트워크(300)로 데이터를 송신하고 수신할 수 있도록 한다. 이러한 통신부(410)는 하나 이상의 개인용 장치(200)와 데이터 통신이 가능하도록 구성된다. Referring to the respective blocks of the song recognition server 400, the communication unit 410 allows the communication network 300 to transmit and receive data. The communication unit 410 is configured to be capable of data communication with one or more personal devices 200.

통신부(410)는 통신 네트워크(300)에 연결될 수 있고 통신 타입에 따라 지정된 유선 또는 무선의 아날로그 신호를 출력하고 수신하도록 구성된다.The communication unit 410 may be connected to the communication network 300 and is configured to output and receive a wired or wireless analog signal designated according to the communication type.

예를 들어 통신부(410)는 통신 네트워크(300)로부터 데이터를 수신하여 노래 인식 서버(400) 내부의 제어부(430)로 전달할 수 있고 제어부(430)로부터의 데이터를 통신 네트워크(300)로 출력할 수 있다. For example, the communication unit 410 can receive data from the communication network 300 and transmit the data to the control unit 430 in the song recognition server 400 and output the data from the control unit 430 to the communication network 300 .

저장부(420)는 하드 디스크와 같은 대용량 저장 매체, 휘발성 메모리, 비휘발성 메모리 등을 포함하여 각종 데이터와 프로그램을 저장한다. 이와 같은 저장부(420)는 데이터베이스를 포함할 수 있다. 예를 들어 저장부(420)는 곡 DB와 가사 DB를 포함한다. The storage unit 420 stores various data and programs including a mass storage medium such as a hard disk, a volatile memory, a non-volatile memory, and the like. The storage unit 420 may include a database. For example, the storage unit 420 includes a music DB and a lyrics DB.

곡 DB와 가사 DB는 연결된 개인용 장치(200)로부터 수신된 노래 데이터 정보로부터 곡을 식별하고 나아가 가사를 추출하기 위해서 이용된다. The song DB and the lyrics DB are used to identify songs from the song data information received from the connected personal device 200 and to extract the lyrics.

곡 DB는 노래 인식 서버(400)에서 인식 가능한 곡에 관련된 각종 정보를 각각의 곡 별로 저장한 데이터베이스이다. 각각의 곡 별 정보는 예를 들어 박자 정보, 멜로디 정보, 가수, 가수의 음성 특성, 작곡가, 제목, 하나 이상의 대표 단어 등과 같은 정보를 포함한다. 이와 같은 정보는 곡 DB의 설계나 설치시에 미리 구성될 수 있다. The song DB is a database storing various pieces of information related to songs that can be recognized by the song recognition server 400 for each song. Each song-specific information includes information such as, for example, beat information, melody information, a singer, a voice characteristic of a singer, a composer, a title, one or more representative words, Such information can be previously configured at the time of designing or installing the tune DB.

여기서 멜로디 정보나 가수의 음성 특성은 주파수 도메인이나 시간 도메인 상에서 정의된 정보일 수 있고 음악 인식 분야에서 널리 활용되는 소위 특성 벡터로 또는 특성 벡터의 조합으로 구성될 수 있다. Here, the melody information or the voice characteristic of the singer may be defined in the frequency domain or the time domain, and may be composed of a so-called characteristic vector widely used in the field of music recognition or a combination of characteristic vectors.

가사 DB는 곡 별 가사를 저장한 데이터베이스이다. 곡 별 각각의 가사는 개인용 장치(200)에 전달되어 디스플레이될 수 있다. 특히 곡 별 가사는 복 수개의 소절 데이터로 분할되어 가사 DB에서 관리될 수 있다. 소절 데이터는 노래의 마디를 나타내거나 개인용 장치(200)의 디스플레이에서 표시될 때 동일한 라인에 표시될 가사의 일부분을 나타낼 수 있다. The lyrics DB is a database that stores song lyrics. The lyrics of each song can be transmitted to the personal device 200 and displayed. In particular, the lyrics of a song can be divided into several pieces of measure data and managed in the lyrics DB. The measure data may indicate a portion of the lyrics to be displayed on the same line when displayed on the display of the personal device 200 or the node of the song.

또한 가사 DB에 포함되는 곡 별 가사는 복 수개의 소절 데이터와 각각 대응하는 복 수개의 시간 정보를 포함할 수 있다. 이러한 시간 정보는 대응하는 소절 데이터의 시작 시각과 종료 시각, 혹은 시작 시각과 소절 데이터의 연주 시간과 같은 정보를 포함할 수 있다. 그리고 시간 정보는 통신 네트워크(300)를 통해 연결된 개인용 장치(200)로 전송될 수 있다. 각각의 소절 데이터의 시간 정보는 곡의 연주 개시 후 상대적인 시간(시각)으로 표현될 수 있다.In addition, the lyrics per song included in the lyrics DB may include a plurality of measure data and a plurality of time information corresponding to each word. Such time information may include information such as the start time and end time of the corresponding measure data, or the start time and the playing time of the measure data. And the time information may be transmitted to the personal device 200 connected via the communication network 300. The time information of each measure data can be expressed in relative time (time) after the start of the performance of the music piece.

이와 같이 복수의 소절 데이터는 한 곡의 가사를 나타내며 시간 정보를 활용하여 소절 데이터 간 선후 관계나 각 소절 데이터가 연주되는 시간과 같은 정보를 개인용 장치(200)나 노래 인식 서버(400)에 제공할 수 있도록 구성된다. As described above, the plurality of measure data represents one piece of the lyrics, and information such as the posterior relationship between the measure data and the time at which each measure data is played is provided to the personal device 200 or the song recognition server 400 .

그리고 가사 DB에 포함되는 시간 정보는 미리 구성될 수 있고 개인용 장치(200)에서 복 수개의 소절 데이터로 표현되는 가사를 표시할 때 시간의 경과에 따라 특정 소절 데이터를 강조(highlight)하기 위해서 이용될 수 있다. The time information included in the lyrics DB may be configured in advance and may be used to highlight specific measure data as time elapses when displaying the lyrics represented by a plurality of measure data in the personal device 200 .

또한 가사 DB는 곡 별의 가사(또는 소절 데이터)에 대응하는 특성 벡터들을 더 포함할 수 있다. 이러한 특성 벡터들은 음성을 통한 가사 인식에 이용될 수 있다. In addition, the lyrics DB may further include characteristic vectors corresponding to the lyrics (or measure data) of the songs. These feature vectors can be used for speech recognition.

제어부(430)는 노래 인식 서버(400) 내의 블록들을 제어한다. 제어부(430)는 저장부(420)에 저장된 프로그램의 명령어를 실행할 수 있는 프로세서로 구성될 수 있다. 프로세서는 하나 이상의 실행 유닛(Execution Unit)을 포함하는 소위 CPU이거나 MPU(Micro Processor Unit) 등일 수 있다. The controller 430 controls the blocks in the song recognition server 400. The control unit 430 may be a processor capable of executing instructions of a program stored in the storage unit 420. A processor may be a so-called CPU, which may include one or more Execution Units, a Micro Processor Unit (MPU), or the like.

이와 같은 제어부(430)는 바람직하게는 저장부(420)에 저장된 각종 프로그램을 이용하여 다른 블록들을 제어한다. 예를 들어 제어부(430)는 저장부(420)에 저장된 데이터베이스를 활용하여 원격의 개인용 장치(200)로부터 수신된 노래 데이터 정보로부터 곡과 가사를 식별하고 추출할 수 있다. The control unit 430 preferably controls other blocks using various programs stored in the storage unit 420. [ For example, the control unit 430 can identify and extract songs and lyrics from the song data information received from the remote personal device 200 using the database stored in the storage unit 420. [

제어부(430)에서 수행되는 제어 흐름은 이하 도 3을 통해서 상세히 살펴보도록 한다. The control flow performed by the controller 430 will be described in detail with reference to FIG.

연결부(440)는 노래 인식 서버(400) 내의 블록 간에 데이터를 송신하거나 수신할 수 있도록 한다. 이러한 연결부(440)는 병렬 버스이거나 시리얼 버스이거나 혹은 단일의 신호 선이거나 이러한 버스나 신호 선의 조합으로 구성된다.
The connection unit 440 allows data to be transmitted or received between blocks in the song recognition server 400. [ This connection 440 may be a parallel bus, a serial bus, a single signal line, or a combination of such buses or signal lines.

도 3은 노래 인식 서버(400)에서 수행되는 예시적인 제어 흐름을 도시한 도면이다. 도 3의 제어 흐름은 제어부(430)에 의해서 다른 블록을 제어함으로써 이루어지며 바람직하게는 저장부(420)에 저장된 프로그램을 이용하여 이루어진다. FIG. 3 is a diagram illustrating an exemplary control flow performed in the song recognition server 400. FIG. The control flow of FIG. 3 is performed by controlling the other blocks by the control unit 430, and is preferably performed by using a program stored in the storage unit 420.

먼저, 도 3의 제어 흐름은 통신 네트워크(300)를 통한 원격의 개인용 장치(200)로부터의 접속 요청에 따라 시작(S100)하고 종료 요청에 따라 종료(S200)될 수 있다. First, the control flow of FIG. 3 may start (S100) according to a connection request from a remote personal device 200 via the communication network 300 and end (S200) according to a termination request.

이러한 접속 요청의 수신에 따라 제어부(430)는 원격의 개인용 장치(200)와 통신 설정을 수행한다. 예를 들어 제어부(430)는 OSI 7 계층의 응용 계층에서 수행되는 프로그램을 이용하여 개인용 장치(200)에 ID(예를 들어 세션 ID 등)를 할당할 수 있다.Upon receipt of the connection request, the controller 430 performs communication setup with the remote personal device 200. For example, the control unit 430 may assign an ID (e.g., a session ID) to the personal device 200 using a program executed in the application layer of the OSI layer 7.

이후 단계 S101에서, 제어부(430)는 통신부(410)를 통해 노래 데이터 정보를 수신한다. 수신된 노래 데이터 정보는 개인용 장치(200)의 마이크를 통해 입력된 오디오로부터 생성된 오디오 데이터를 포함할 수 있다. 오디오 데이터는 개인용 장치(200)에서 식별된 한 소절을 나타내는 데이터이거나 약속된 시간 동안에 마이크를 통해 수신된 데이터일 수 있다. 그리고 이 오디오 데이터는 임의의 약속된 포맷으로 압축되어 있을 수 있다. 약속된 시간이나 약속된 포맷은 통신 설정 시에 결정되거나 프로그램 자체에서 미리 설정될 수 있다. In step S101, the control unit 430 receives the song data information through the communication unit 410. [ The received song data information may include audio data generated from audio input through the microphone of the personal device 200. [ The audio data may be data representing one measure identified in the personal device 200 or data received via a microphone during an appointed time. And the audio data may be compressed in any desired format. The promised time or the promised format can be determined at the time of communication setting or preset in the program itself.

단계 S103에서, 제어부(430)는 노래 데이터 정보의 오디오 데이터에 대응하는 곡을 저장부(420)의 곡 DB와 가사 DB를 이용하여 식별한다. 예를 들어 제어부(430)는 오디오 데이터와 곡 DB에 포함된 각종 정보를 비교하여 특정 곡을 식별할 수 있다. In step S103, the control unit 430 identifies a song corresponding to the audio data of the song data information by using the song DB and the lyrics DB of the storage unit 420. [ For example, the control unit 430 can identify a specific music by comparing audio data with various information included in the music DB.

이를 위해, 제어부(430)는 수신된 오디오 데이터로부터 음성 데이터와 멜로디 데이터를 분리하고 또한 박자 정보를 추출한다. 일반적으로 음성과 악기(예를 들어 피아노 등)의 특성이 상이하기에 이 음성 데이터와 멜로디 데이터는 분리 가능하다. To this end, the control unit 430 separates the audio data and the melody data from the received audio data and extracts the time information. Generally, the voice data and the melody data are separable because the characteristics of the voice and the musical instrument (for example, the piano) are different.

그리고 음성 데이터나 멜로디 데이터는 곡 DB에 저장된 가수의 음성 특성이나 멜로디 정보와 동일한 형태로 변환될 수 있다. The voice data or the melody data can be converted into the same form as the voice characteristic or the melody information of the mantissa stored in the music DB.

이와 같은 데이터나 정보를 획득한 제어부(430)는 분리된 음성 데이터와 분리된 멜로디 데이터와 나아가 박자 정보를 이용하여 곡 DB에서 특정 하나 이상의 곡을 식별한다. The controller 430, which has obtained such data or information, identifies one or more specific tunes in the tuning DB by using the separated tunes, melody data, and time information.

예를 들어 제어부(430)는 음성 데이터를 음성 인식하여 인식된 내용을 곡 DB에 저장된 대표 단어와 비교하여 각 곡과의 유사 여부를 결정할 수 있다. 또는 제어부(430)는 분리된 멜로디 데이터와 박자 정보를 이용하여 곡 DB의 멜로디 정보와 박자 정보를 비교하여 각 곡과의 유사 여부를 결정할 수 있다. 또는 제어부(430)는 음성 데이터로부터 추출된 음성 특성과 곡 DB에 저장된 가수의 음성 특성을 더 비교하여 각 곡과의 유사 여부를 결정할 수 있다. 또는 제어부(430)는 음성 인식이나 멜로디 정보나 박자 정보나 음성 특색의 조합으로 특정 곡과의 유사 여부를 결정할 수 있다. 이러한 유사 여부의 결정에 따라 특정 임계 유사도 이상의 곡들을 식별할 수 있을 것이다. For example, the control unit 430 can recognize the voice data and compare the recognized contents with representative words stored in the song DB to determine similarity with each song. Alternatively, the control unit 430 may compare the melody information and the beat information of the music DB using the separated melody data and beat information to determine whether or not the songs are similar to each other. Alternatively, the control unit 430 may compare the voice characteristics extracted from the voice data and the voice characteristics of the singers stored in the music DB to determine whether they are similar to the respective songs. Alternatively, the control unit 430 can determine whether or not the music piece is similar to a specific piece of music by a combination of voice recognition, melody information, beat information, and voice characteristic color. Based on the determination of similarity, it is possible to identify songs with a certain threshold similarity or higher.

이러한 과정은 물론 효율적인 검색과 비교가 필요하다. 특히 노래 인식 서버(400)에서 디지털 신호 처리가 필요하기에 더욱더 그러하다. 이에 따라 검색의 범위를 좁힐 필요가 있다. 이를 위해 제어부(430)는 곡 식별을 위한 각종 파라미터(위의 음성이나 멜로디나 박자나 음성 특색 등)의 순차적인 선택과 적용을 수행하도록 구성될 수 있다.This process, of course, requires efficient search and comparison. Especially since digital signal processing is required at the song recognition server 400. [ Accordingly, it is necessary to narrow the search range. For this purpose, the control unit 430 may be configured to sequentially select and apply various parameters (such as voice or melody, beat, voice characteristic, etc.) for music identification.

예를 들어 제어부(430)는 분리된 멜로디 데이터를 이용하여 곡 DB에서 이 멜로디 데이터와 일정 유사도 이상인 다수의 곡을 선택하고 이 다수의 곡에 분리된 음성 데이터로부터 인식된 내용이 존재하는 지를 식별하여 곡을 식별할 수 있다. 이 과정에서 제어부(430)는 인식된 내용과 대표 단어를 비교할 수 있다. 혹은 제어부(430)는 인식된 내용과 다수의 곡에 대응하는 복 수개의 소절 데이터의 가사를 비교하여 이로부터 곡을 식별할 수 있다. For example, the control unit 430 may select a plurality of songs having a predetermined degree of similarity or more from the melody data in the music DB using the separated melody data, and identify whether the recognized contents exist from the separated voice data in the plurality of songs The song can be identified. In this process, the control unit 430 can compare the recognized word with the representative word. Alternatively, the control unit 430 may compare the recognized content with lyrics of a plurality of measure data corresponding to a plurality of songs, and identify the songs from the lyrics.

이와 같은 과정을 통해 제어부(430)는 하나 혹은 복수의 곡을 식별할 수 있다. 일반적으로 하나의 곡을 식별할 수 있을 것으로 예상되나 식별력이 떨어지는 경우에는 복수의 곡이 식별되거나 선택될 수 있다. 이 복수의 곡에 관한 정보나 가사 정보는 개인용 장치(200)로 전달되어 개인용 장치(200)에서의 선택에 따라 특정 하나의 곡을 디스플레이하도록 구성될 수도 있다. Through this process, the controller 430 can identify one or a plurality of tunes. It is generally expected that one song can be identified, but multiple songs may be identified or selected if the discernment is poor. Information or lyric information on the plurality of songs may be transmitted to the personal device 200 and configured to display a specific one of the songs according to the selection in the personal device 200. [

이후 단계 S105에서, 제어부(430)는 식별된 곡에 대응하는 가사 데이터 정보를 가사 DB를 이용하여 생성한다. 가사 데이터 정보는 식별된 곡에 대응하는 가사를 포함할 수 있다. Thereafter, in step S105, the control unit 430 generates lyric data information corresponding to the identified music using the lyric DB. The lyrics data information may include lyrics corresponding to the identified songs.

좀 더 구체적으로 살펴보면, 제어부(430)는 가사 DB에서 식별된 곡에 대응하는 복수의 소절 데이터를 포함하는 가사 데이터와 복수의 소절 데이터 각각의 시간 정보를 추출하고 이를 포함하는 가사 데이터 정보를 생성할 수 있다. 소절 데이터의 시간 정보는 노래 연주 중 이 소절 데이터의 시작 시각이나 연주 시간 등과 같은 정보로 표현될 수 있다. 이 시간 정보는 이후 개인용 장치(200)에 의해서 언제 해당 소절 데이터가 강조되어야 하는지를 알 수 있도록 하고 나아가 노래와 가사의 시간 동기화에 이용될 수 있다. More specifically, the control unit 430 extracts time information of each of the plurality of measure data and the lyric data including a plurality of measure data corresponding to the music identified in the lyric DB, and generates the lyric data information including the time information . The time information of the measure data can be expressed by information such as the start time of the measure data, the performance time, and the like during the performance of the song. This time information can then be used by the personal device 200 to know when the corresponding measure data should be emphasized and further to be used for time synchronization of the song and the lyrics.

이와 같이 제어부(430)는 수신된 오디오 데이터로부터 인식된 곡의 모든 가사와 가사 내의 가사 데이터가 표시되어야 하는 시점에 관련된 정보를 개인용 장치(200)로 전송할 수 있다. In this manner, the controller 430 can transmit information related to all the lyrics of the song recognized from the received audio data and the time at which the lyrics data in the lyrics should be displayed to the personal device 200. [

또한 제어부(430)는 수신된 오디오 데이터와 식별된 곡의 가사 전체를 비교하여 특정 가사 일부분(예를 들어 소절 데이터)을 매칭할 수 있다. 예를 들어 제어부(430)는 수신된 오디오 데이터 자체 혹은 분리된 음성 데이터와 복수의 소절 데이터 각각을 비교하여 일정한 임계 유사도 이상으로 매칭되는 부분을 식별한다. In addition, the control unit 430 may compare the received audio data with the entire lyrics of the identified song to match a specific piece of lyrics (e.g., measure data). For example, the control unit 430 compares received audio data or separated voice data with each of a plurality of measure data, and identifies a portion matching the predetermined threshold similarity or more.

각각의 소절 데이터와 수신된 오디오 데이터의 음성 데이터가 비교될 수 있지만 이에 국한될 필요는 없다. 예를 들어 제어부(430)는 음성 데이터와 연속적인 두 개의 소절 데이터(예를 들어 한 소절의 소절 데이터와 이 소절 바로 후속하는 후속 소절의 소절 데이터)를 비교하여 매칭되는 부분을 식별할 수 있다.The respective measure data and the audio data of the received audio data can be compared but need not be limited. For example, the control unit 430 can compare the voice data with two consecutive measure data (for example, measure data of one measure and measure data of a succeeding measure immediately following the measure) to identify a matching portion.

그리고 제어부(430)는 이러한 매칭되는 부분 또는 매칭되는 소절 데이터를 나타내는 정보를 가사 데이터 정보에 포함시킬 수 있다. 이러한 매칭 정보는 노래의 연주가 진행됨에 따라 어떤 가사를 강조할 것인지를 개인용 장치(200)로 하여금 알 수 있도록 한다. The control unit 430 may include the information indicating the matched part or the matching measure data in the lyric data information. The matching information allows the personal apparatus 200 to know what kind of lyrics to emphasize as the song progresses.

여기서 매칭 정보는 개인용 장치(200)로부터의 오디오 데이터 정보의 수신과 가사 데이터 정보의 전송에 요구되는 네트워크 지연 시간과 단계 S103 등에서의 복수의 소절 데이터와 비교에 따른 경과 시간을 더 고려할 수 있다. Here, the matching information may further consider the network delay time required for reception of the audio data information from the personal device 200 and transmission of the lyric data information, and the elapsed time according to comparison of the plurality of measure data in step S103 and the like.

이에 따라 매칭 정보는 네트워크 지연 시간과 내부 경과 시간을 반영할 수 있다. 예를 들어 제어부(430)는 매칭되는 부분을 오디오 데이터의 대응하는 소절 데이터로부터 네트워크 지연 시간과 내부 처리 경과 시간 후에 대응하는 소절 데이터로 변경하거나 설정할 수 있다. Accordingly, the matching information may reflect the network delay time and the internal elapsed time. For example, the control unit 430 may change or set the matched portion from the corresponding measure data of the audio data to the corresponding measure data after the network delay time and the internal processing elapsed time.

네트워크 지연 시간은 간단하게는 통신 네트워크(300)를 통해 송신되는 데이터 패킷의 전송 시각과 이 데이터 패킷의 응답 패킷의 수신 시각의 차에 기초하여 결정될 수 있다. 그리고 경과 시간은 단계 S103과 단계 S105에 소요되는 시간으로 제어부(430)가 간단히 결정할 수 있다. The network delay time can be simply determined based on the difference between the transmission time of the data packet transmitted through the communication network 300 and the reception time of the response packet of this data packet. And the elapsed time can be easily determined by the control unit 430 as the time required for the steps S103 and S105.

그리고 원래의 매칭 정보에 지연 시간 등의 적용은 변형 예에 따라서는 생략될 수 있고 개인용 장치(200)에 의해서 이러한 매칭을 수행할 수도 있다. 개인용 장치(200)에서 이루어지는 매칭되는 소절 데이터의 결정은 도 5에서 살펴보도록 한다. The application of the delay time and the like to the original matching information may be omitted depending on the modification and may be performed by the personal device 200. The determination of the matching measure data in the personal device 200 will be described with reference to FIG.

그리고 가사 데이터 정보는 곡 DB에 포함된 다른 정보를 더 포함할 있다. 예를 들어 가사 데이터 정보는 제목이나 가수 등과 같은 정보를 더 포함할 수 있다. And the lyric data information further includes other information included in the tune DB. For example, the lyric data information may further include information such as a title, a singer, and the like.

이후 단계 S107에서, 제어부(430)는 생성된 가사 데이터 정보를 설정된 통신 채널을 통해 통신부(410)를 경유하여 개인용 장치(200)로 전송한다. Thereafter, in step S107, the controller 430 transmits the generated lyric data information to the personal device 200 via the communication unit 410 via the set communication channel.

이러한 단계 S101 내지 단계 S107은 반복적으로 수행될 수 있고, 반복적인 수행에 따라서는 더욱더 정확한 소절 데이터나 부분의 매칭이 이루어질 수도 있다. These steps S101 to S107 may be repeatedly performed, and more accurate measure data or part matching may be performed according to the repetitive execution.

이상, 도 3에서 살펴본 제어 흐름에 의해서 실시간으로 가사를 요청한 개인용 장치(200)로 전달할 수 있고 가사와 노래의 동기화를 시각적으로 이루어질 수 있도록 한다.
In this way, it is possible to deliver the lyrics to the personal apparatus 200 requesting the lyrics in real time by the control flow shown in FIG. 3, so that the lyrics and song can be synchronized visually.

도 4는 개인용 장치(200)의 예시적인 블록 구성도를 도시한 도면이다.4 is a block diagram illustrating an exemplary configuration of the personal device 200. As shown in FIG.

도 4에 따르면, 개인용 장치(200)는 오디오 수신부(210), 입력부(220), 출력부(230), 통신부(240), 저장부(250), 제어부(260) 및 연결부(270)를 포함한다. 이 중 일부의 블록은 개인용 장치(200)의 종류나 변형 예에 따라 생략되거나 도시되지 않은 다른 블록들이 이 블록 구성도에 더 포함하도록 구성될 수 있다. 그리고 도 4는 노래 인식과 가사 디스플레이를 위해 적어도 필요한 구성만을 도시하였고, 노래 인식과 가사 디스플레이와 상관없는 구성요소는 본 발명의 요지를 흐릴 수 있으므로 생략하도록 한다. 4, the personal device 200 includes an audio receiving unit 210, an input unit 220, an output unit 230, a communication unit 240, a storage unit 250, a control unit 260, and a connection unit 270 do. Some of the blocks may be configured to include other blocks that are omitted or not shown in accordance with the type or modification of the personal device 200, in addition to the block diagram. FIG. 4 shows only the necessary configuration for song recognition and lyrics display, and components not related to song recognition and lyrics display are omitted because they may obscure the gist of the present invention.

개인용 장치(200)의 각 블록들을 살펴보면, 오디오 수신부(210)는 마이크와 ADC(Analog Digital Converter)를 포함하여 마이크로부터 오디오 신호를 수신한다. 이러한 오디오 수신부(210)는 마이크로부터 수신된 아날로그의 오디오 신호를 ADC를 통해 디지털의 오디오 신호로 변환하여 출력할 수 있도록 구성된다. Referring to each block of the personal device 200, the audio receiver 210 receives an audio signal from a microphone including a microphone and an ADC (Analog Digital Converter). The audio receiving unit 210 is configured to convert an analog audio signal received from a microphone into a digital audio signal through an ADC and output the digital audio signal.

입력부(220)는 버튼이나 터치 패널 등을 포함하여 사용자 입력을 수신한다. 이러한 입력부(220)를 통한 사용자 입력은 본 발명에 따른 노래 인식과 가사 디스플레이에 이용되는 프로그램의 구동을 시작할 수 있도록 한다. The input unit 220 receives a user input including a button, a touch panel, and the like. The user input through the input unit 220 enables the start of the program used in the song recognition and the lyrics display according to the present invention.

출력부(230)는 LCD(Liquid Crystal Display)나 LED(Light Emitting Diode) 디스플레이 등을 포함하여 제어부(260)에 의해 생성된 이미지 데이터 등을 출력한다. 출력부(230)를 통해 다수의 프로그램을 표시할 수 있고, 사용자의 구동에 따라 수신된 가사 데이터 정보의 가사 데이터가 출력될 수 있도록 한다. The output unit 230 includes a liquid crystal display (LCD), a light emitting diode (LED) display, and the like, and outputs image data and the like generated by the control unit 260. A plurality of programs can be displayed through the output unit 230 and the lyric data of the received lyric data information can be outputted according to the driving of the user.

통신부(240)는 통신 네트워크(300)로 데이터를 송신하고 수신할 수 있도록 한다. 이러한 통신부(240)는 노래 인식 서버(400)와 데이터 통신이 가능하도록 구성된다. The communication unit 240 allows the communication network 300 to transmit and receive data. The communication unit 240 is configured to be capable of data communication with the song recognition server 400.

통신부(240)는 유선 랜이나 LTE 또는 무선랜과 같은 통신 네트워크(300)에 연결될 수 있고 통신 타입에 따르는 신호를 출력하고 수신하도록 구성된다.The communication unit 240 may be connected to a communication network 300 such as a wired LAN or an LTE or wireless LAN, and is configured to output and receive signals according to the communication type.

저장부(250)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함하여 각종 데이터와 프로그램을 저장한다. 이러한 저장부(250)는 노래 인식 서버(400)로 연결 요청을 수행하고 오디오 데이터를 생성하고 이에 따라 가사를 디스플레이하기 위한 응용 프로그램을 포함한다. The storage unit 250 stores various data and programs including a volatile memory and / or a nonvolatile memory. The storage unit 250 includes an application program for performing a connection request to the song recognition server 400 and generating audio data and displaying lyrics accordingly.

응용 프로그램은 개인용 장치(200)의 타입에 따라 혹은 개인용 장치(200)의 OS에 따라 상이한 형태로 구성될 수 있다. 예를 들어 응용 프로그램은 소위 스마트폰용 앱(App)일 수 있다. The application program may be configured differently depending on the type of the personal device 200 or on the OS of the personal device 200. [ For example, an application may be an application for a so-called smartphone (App).

제어부(260)는 개인용 장치(200) 내의 블록들을 제어한다. 제어부(260)는 저장부(250)에 저장된 프로그램의 명령어를 실행할 수 있는 프로세서로 구성될 수 있다. 프로세서는 하나 이상의 실행 유닛(Execution Unit)을 포함하는 소위 CPU이거나 MPU(Micro Processor Unit)이거나 AP(Application Processor) 등일 수 있다. The control unit 260 controls the blocks in the personal device 200. The control unit 260 may be a processor capable of executing instructions of a program stored in the storage unit 250. [ A processor may be a so-called CPU, a microprocessor unit (MPU), an application processor (AP), etc., including one or more execution units.

이와 같은 제어부(260)는 바람직하게는 저장부(250)에 저장된 각종 프로그램을 이용하여 다른 블록들을 제어한다. 예를 들어 제어부(260)는 저장부(250)에 저장된 응용 프로그램을 구동하여 원격의 노래 인식 서버(400)와 연결될 수 있다. 그리고 이 노래 인식 서버(400)와의 데이터 통신에 따라 가사 데이터를 수신하고 이 가사 데이터를 출력부(230)를 통해 디스플레이할 수 있다. The control unit 260 preferably controls other blocks by using various programs stored in the storage unit 250. For example, the control unit 260 can be connected to the remote song recognition server 400 by driving an application program stored in the storage unit 250. The song recognition server 400 receives the lyric data according to the data communication and displays the lyric data through the output unit 230.

제어부(260)에서 수행되는 제어 흐름은 이하 도 5를 통해서 상세히 살펴보도록 한다. The control flow performed by the control unit 260 will be described in detail with reference to FIG.

연결부(270)는 개인용 장치(200) 내의 블록 간에 데이터를 송신하거나 수신할 수 있도록 한다. 이러한 연결부(270)는 병렬 버스이거나 시리얼 버스이거나 혹은 단일의 신호 선이거나 이러한 버스나 신호 선의 조합으로 구성된다.
The connection unit 270 allows data to be transmitted or received between the blocks in the personal device 200. [ The connection unit 270 may be a parallel bus, a serial bus, a single signal line, or a combination of such buses and signal lines.

도 5는 개인용 장치(200)에서 수행되는 예시적인 제어 흐름을 도시한 도면이다. 도 5의 제어 흐름은 제어부(260)에 의해서 다른 블록을 제어함으로써 이루어지며 바람직하게는 저장부(250)에 저장된 응용 프로그램을 이용하여 이루어진다. FIG. 5 is a diagram illustrating an exemplary control flow performed in the personal device 200. FIG. The control flow of FIG. 5 is performed by controlling the other blocks by the control unit 260, and is preferably performed by using an application program stored in the storage unit 250.

먼저, 도 5의 제어 흐름은 입력부(220)를 통한 사용자 입력으로 지정된 응용 프로그램이 구동됨으로써 시작(S300)되고 사용자 입력을 통한 종료 요청에 따라 종료(S400)될 수 있다. The control flow of FIG. 5 may be started (S300) by driving an application program designated as a user input through the input unit 220 and may be terminated (S400) according to a termination request through a user input.

시작 이후에, 제어부(260)는 통신부(240)를 통해 원격의 노래 인식 서버(400)로 접속 요청을 하고 통한 통신 채널을 설정한다. After the start, the control unit 260 makes a connection request to the remote song recognition server 400 through the communication unit 240 and sets a communication channel through the connection.

이후 단계 S301에서, 오디오 수신부(210)는 마이크로부터의 아날로그 오디오 신호를 디지털의 오디오 신호로 변환한다. 좀 더 구체적으로 마이크는 공기중의 음파를 전기 신호로 변환하고 전기 신호로 변환된 아날로그 오디오 신호는 ADC를 통해 디지털의 오디오 신호로 변환된다. 이후 이 디지털의 오디오 신호는 지정된 버스(I2S 등)를 통해 제어부(260)로 전달된다. In step S301, the audio receiving unit 210 converts the analog audio signal from the microphone into a digital audio signal. More specifically, the microphone converts the sound waves in the air into an electrical signal, and the analog audio signal converted into an electrical signal is converted into a digital audio signal through the ADC. Then, the digital audio signal is transmitted to the control unit 260 through the designated bus (I2S, etc.).

이러한 단계 S301에 의해서 생성된 디지털의 오디오 신호는 시간상으로 연속적으로 출력되는 신호일 수 있다. The digital audio signal generated in step S301 may be a signal output continuously in time.

단계 S303에서, 제어부(260)는 오디오 수신부(210)로부터 디지털의 오디오 신호를 수신하고 수신된 디지털의 오디오 신호에 기초하여 오디오 데이터를 생성한다. 오디오 데이터는 연속적인 디지털의 오디오 신호로부터 식별된 한 소절을 나타내는 데이터이거나 일정한 시간 동안에 연속적으로 수신된 오디오 신호의 데이터일 수 있다. In step S303, the control unit 260 receives the digital audio signal from the audio receiving unit 210 and generates audio data based on the received digital audio signal. The audio data may be data representing one measure identified from successive digital audio signals or may be data of an audio signal continuously received for a certain period of time.

한 소절을 나타내는 데이터를 식별하는 방법의 예로서, 제어부(260)는 디지털의 오디오 신호에서 음성 검출을 이용하여 일정 시간 음성이 검출되지 않는 시점에서부터 다음의 일정 시간(예를 들어 1초 등) 음성이 검출되지 않는 시점까지의 오디오 신호의 데이터를 한 소절로 간단히 식별할 수 있다.As an example of a method of identifying data indicating one measure, the control unit 260 may detect a predetermined time (for example, one second) from the point where no speech is detected for a predetermined time using a voice detection in a digital audio signal The data of the audio signal up to the point in time when the audio signal is not detected can be simply identified by one measure.

그리고 제어부(260)는 디지털의 오디오 신호를 원격의 노래 인식 서버(400)와 약속된 포맷으로 압축하여 오디오 데이터를 생성할 수 있다. 이러한 압축은 음악이나 음성에 이용되는 압축 포맷일 수 있다. The control unit 260 may compress the digital audio signal in a format agreed with the remote song recognition server 400 to generate audio data. Such compression may be a compressed format used for music or speech.

이후 단계 S305에서, 제어부(260)는 생성된 오디오 데이터를 포함하는 노래 데이터 정보를 연결된 노래 인식 서버(400)로 통신부(240)를 통해 전송한다. 노래 데이터 정보는 노래 인식 서버(400)와 약속된 포맷으로 구성될 수 있고 오디오 데이터 외에도 각종 정보를 더 포함할 수 있다. In step S305, the control unit 260 transmits the song data information including the generated audio data to the connected song recognition server 400 through the communication unit 240. [ The song data information may be configured in a format agreed with the song recognition server 400 and may further include various information in addition to audio data.

이후 단계 S307에서, 제어부(260)는 전송된 노래 데이터 정보에 대응한 가사 데이터 정보를 노래 인식 서버(400)로부터 수신한다. 이와 같이 수신된 가사 데이터 정보는 마이크를 통해 인식된 노래의 가사 정보를 포함한다. Thereafter, in step S307, the control unit 260 receives the lyrics data information corresponding to the transmitted song data information from the song recognition server 400. [ The received lyric data information includes the lyric information of the song recognized through the microphone.

구체적으로, 가사 데이터 정보는 인식된 곡의 전체 가사를 나타내는 복수의 소절 데이터와 소절 데이터 각각에 관련된 시간 정보를 포함한다. 또한 가사 데이터 정보는 단계 S303에서 전송된 오디오 데이터에 매칭되는 소절 데이터를 나타내는 매칭 정보를 포함할 수 있다. 매칭 정보는 제어부(260)의 제어에 따라 출력부(230)을 통해 가사가 디스플레이될 때 어떤 가사를 강조할 것인지를 결정하기 위해서 이용된다. Specifically, the lyric data information includes a plurality of measure data indicating the total lyrics of the recognized music piece and time information related to each measure data. In addition, the lyric data information may include matching information indicating measure data matched with the audio data transmitted in step S303. The matching information is used to determine what words to emphasize when the lyrics are displayed through the output unit 230 under the control of the control unit 260. [

이후 단계 S309에서, 제어부(260)는 가사 데이터 정보에 포함된 가사 데이터를 출력부(230)를 통해 출력하여 LCD나 LED 등으로 구성된 출력 화면에 디스플레이한다. 여기서 출력 화면은 LCD나 LED 디스플레이 자체를 나타내거나 응용 프로그램에 의해서 가사를 표시하기 위해서 이용가능한 디스플레이 내의 일정 영역을 나타내거나 응용 프로그램에 의해서 제어 가능한 디스플레이의 전체 영역을 나타낸다. Then, in step S309, the control unit 260 outputs the lyric data included in the lyric data information through the output unit 230 and displays it on an output screen composed of an LCD, an LED, or the like. Where the output screen represents the LCD or LED display itself, or represents a certain area within the display that is available for displaying the lyrics by an application program, or an entire area of the display that is controllable by the application.

구체적으로, 제어부(260)는 복수의 소절 데이터 중에서 현재 표시될 하나 이상의 소절 데이터를 선택한다. 이러한 선택은 가사 데이터 정보에 포함된 매칭 정보에 기초하여 결정될 수 있다. 복수의 소절 데이터는 전체 가사를 나타내고 개인용 장치(200)의 디스플레이는 시인성(visibility)으로 인해 모든 가사를 표시할 수 없을 수 있다. 이에 따라 특정 시간에는 일부의 가사만이 표시되고 후속하는 다른 시간에는 다른 가사가 표시되도록 구성할 필요가 있다. Specifically, the control unit 260 selects one or more measure data to be displayed at present from a plurality of measure data. This selection can be determined based on the matching information included in the lyric data information. The plurality of measure data may represent the entire lyrics and the display of the personal device 200 may not be able to display all the lyrics due to visibility. Accordingly, it is necessary to configure such that only a part of the lyrics is displayed at a specific time, and other words are displayed at a subsequent time.

그리고 제어부(260)는 매칭 정보에 기초하여 선택된 하나 이상의 소절 데이터 중 특정 하나의 소절 데이터를 마이크를 통해 입력된 오디오 신호에 대응하는 소절 데이터로 결정할 수 있다. 이러한 소절 데이터를 강조하여 가사와 노래의 오디오 신호를 동기화할 수 있도록 한다. Then, the control unit 260 may determine a particular one of the one or more measure data selected based on the matching information as measure data corresponding to the audio signal input through the microphone. This measure data is emphasized so that the audio signals of the lyrics and songs can be synchronized.

이에 따라 제어부(260)는 복수의 소절 데이터 중에서 하나 이상의 소절 데이터를 이미지 데이터로 변환하여 출력부(230)를 통해 디스플레이하고 하나 이상의 소절 데이터 중 특정 하나의 소절 데이터를 이미지로 강조(다른 색상을 이용하거나 반전시키거나 등)하여 출력부(230)를 통해 디스플레이한다. Accordingly, the control unit 260 converts one or more measure data from the plurality of measure data into image data, displays it through the output unit 230, and emphasizes a certain one measure data among the one or more measure data Or the like) and displays it through the output unit 230.

이러한 과정은 가사 데이터 정보의 수신시 수행될 수 있고, 이후 시간 경과에 따라서 변경되고 강조되는 소절 데이터의 이미지만을 변경하여 이루어질 수 있다. 그리고 강조될 소절 데이터의 변경은 노래 데이터 정보에 포함된 각 소절 데이터의 시간 정보를 이용하여 이루어진다. This process may be performed upon receipt of the housework data information, and may be performed by changing only the image of the modifying data to be changed and emphasized over time. The change of the measure data to be emphasized is performed using the time information of each measure data included in the song data information.

한편 단계 S305에서 전송된 오디오 데이터에 응답하여 매칭되는 소절 데이터를 나타내는 매칭 정보는 네트워크 지연 시간과 노래 인식 서버(400)에서의 처리 시간을 고려된 정보이거나 혹은 이 시간이 고려되지 않은 정보일 수 있다. On the other hand, the matching information indicating the bar data to be matched in response to the audio data transmitted in step S305 may be information considering the network delay time and the processing time in the song recognition server 400, .

만일 지연 시간과 노래 인식 서버(400)에서의 경과 시간이 고려된 경우에는, 제어부(260)는 단지 매칭 정보로부터 대응하는 소절 데이터를 식별하여 식별된 소절 데이터를 포함하는 하나 이상의 소절 데이터를 나타내고 식별된 소절 데이터를 강조하는 이미지 데이터를 출력부(230)를 통해 출력하면 된다. If the delay time and the elapsed time in the song recognition server 400 are considered, the control unit 260 identifies the corresponding measure data from the matching information, and indicates one or more measure data including the identified measure data, And output image data for emphasizing the decoded measure data through the output unit 230.

만일 지연 시간과 경과 시간이 고려되지 않은 경우에는, 제어부(260)는 이러한 시간을 자체적으로 계산할 수 있다. If the delay time and the elapsed time are not considered, the control unit 260 can calculate this time by itself.

예를 들어 제어부(260)는 오디오 신호를 마이크를 통해 수신한 시각을 이용하여 자체적으로 계산할 수 있다. 제어부(260)는 단계 S303에서 오디오 데이터 생성에 이용되는 디지털의 오디오 신호의 수신 시각을 저장부(250)에 기록한다. 이와 같이 저장되는 수신 시각은 수신 시작 시각과 수신 종료 시각 또는 수신 시간을 포함할 수 있다.For example, the control unit 260 can calculate itself by using the time at which the audio signal is received via the microphone. The control unit 260 records the reception time of the digital audio signal used for generating audio data in the storage unit 250 in step S303. The reception time stored as described above may include a reception start time, a reception end time, or a reception time.

이후 제어부(260)는 가사 데이터 정보를 수신한 시각을 또한 저장부(250)에 저장한다. 그리고 가사 데이터 정보를 수신한 시각과 오디오 신호의 수신 시각(수신 시작 시각 또는 수신 종료 시각)의 차이 값을 계산한다. 그리고 제어부(260)는 차이 값과 가사 데이터 정보에 포함되는 매칭 정보의 매칭되는 소절 데이터를 이용하여 현재 강조할 소절 데이터를 결정할 수 있다. Thereafter, the control unit 260 also stores the time at which the ladder data information was received in the storage unit 250. [ Then, a difference value between the time of receiving the lyric data information and the reception time (reception start time or reception end time) of the audio signal is calculated. The control unit 260 can determine the measure data to be emphasized using the difference value and the matching measure data of the matching information included in the lyric data information.

예를 들어 차이 값이 수신된 매칭 정보의 소절 데이터의 시간 정보의 연주 시간을 초과하는 경우에는 이 소절 데이터 이후에 연주되고 차이 값에 따라 결정되는 소절 데이터를 강조할 소절 데이터로 결정할 수 있다. 또는 차이 값이 연주 시간 이내인 경우에도 차이 값과 연주 시간과의 비율에 따라 일정 비율 이상인 경우에 후속하는 소절 데이터를 강조할 소절 데이터로 결정할 수 있다. For example, when the difference value exceeds the performance time of the time information of the measure data of the received matching information, it may be determined as the measure data to be emphasized on the measure data which is played after the measure data and is determined according to the difference value. Alternatively, even if the difference value is within the performance time, it can be determined as the measure data for emphasizing the subsequent measure data in the case where the difference value is equal to or greater than a certain ratio according to the ratio of the difference value and the performance time.

이와 같이 강조될 소절 데이터는 원격의 노래 인식 서버(400)에 의해서 또는 개인용 장치(200)에 의해서 다양한 방법으로 동적으로 결정될 수 있다. 그리고 강조될 소절 데이터는 노래 인식 서버(400)에서의 경과 시간과 네트워크 지연 시간을 고려하여 결정된다. 이와 같이 실시간으로 노래와 가사의 동적인 동기화가 가능하다. The measure data to be emphasized in this way can be dynamically determined by the remote song recognition server 400 or by the personal device 200 in various ways. And the measure data to be emphasized is determined in consideration of the elapsed time and the network delay time in the song recognition server 400. This enables dynamic synchronization of songs and lyrics in real time.

한편 단계 S309에서, 제어부(260)는 개인용 장치(200) 내부에서 결정된 시간의 경과에 따라 디스플레이되는 하나 이상의 소절 데이터나 강조될 소절 데이터를 변경할 수 있다. On the other hand, in step S309, the control unit 260 may change one or more measure data to be emphasized or measure data to be emphasized according to the passage of time determined within the personal device 200. [

이 과정에서 제어부(260)는 가사 데이터 정보에 포함된 소절 데이터 각각의 시간 정보를 이용한다. In this process, the controller 260 uses the time information of each measure data included in the lyric data information.

예를 들어 제어부(260)는 가사 데이터 정보의 수신에 따라 하나 이상의 소절 데이터를 선택하고 강조될 소절 데이터를 결정하여 출력부(230)를 통해 출력 화면에 디스플레이한다. For example, the control unit 260 selects one or more measure data according to the reception of the ladder data information, determines the measure data to be emphasized, and displays the measure data on the output screen through the output unit 230.

이후 제어부(260)는 내부의 타이머(도면 미도시)를 이용하여 시간 경과를 측정하고 디스플레이 후 경과 된 시간이 강조될 소절 데이터의 연주 시간을 초과하는지를 판단한다. 만일 초과하는 경우에는 이후 강조될 소절 데이터를 후속하는 소절 데이터로 결정하여 해당 소절 데이터를 강조하도록 디스플레이하고 이전의 소절 데이터의 강조를 제거한다. Thereafter, the control unit 260 measures a time lapse using an internal timer (not shown) and determines whether the elapsed time after display exceeds the playing time of the measure data to be emphasized. If so, the measure data to be emphasized will be determined as the following measure data, emphasizing the measure data and eliminating the emphasis of the previous measure data.

만일 선택된 하나 이상의 소절 데이터의 마지막 소절 데이터가 강조되는 상태인 경우에는 이 하나 이상의 소절 데이터에 후속하고 출력 화면에 디스플레이될 새로운 하나 이상의 소절 데이터를 선택하여 디스플레이하고 첫 번째 소절 데이터를 강조하도록 제어부(260)가 출력부(230)를 제어한다.If the last measure data of the selected one or more measure data is emphasized, the controller 260 selects one or more measure data subsequent to the one or more measure data and displays the selected one or more measure data to be displayed on the output screen, ) Controls the output unit (230).

그리고 단계 S301 내지 단계 S309는 일정한 주기로 반복적으로 수행될 수 있다. 예를 들어 일정한 시간의 경과 시에 노래 인식 서버(400)로 재차 노래 데이터 정보를 전송할 수 있다. 또는 노래 인식 서버(400)가 매칭되는 소절 데이터를 제대로 인식하지 못한 경우에 매칭되는 소절 데이터의 인식이 가능할 때까지 반복적으로 노래 데이터 정보를 전송할 수 있다. And steps S301 to S309 may be repeatedly performed at a predetermined period. For example, it is possible to transmit the song data information to the song recognition server 400 again after a predetermined time elapses. Or when the song recognition server 400 does not correctly recognize the bar data to be matched, the song data information can be repeatedly transmitted until it is possible to recognize the bar data to be matched.

한편 단계 309에서, 시간의 경과에 따라 강조될 소절 데이터가 다른 소절로 변경되어 디스플레이되는 것으로 설명하였다. 이러한 설명은 강조될 소절 데이터의 스크롤(scroll)이 가능하도록 한다. 즉 출력 화면에 여러 소절 데이터가 표시된 상태에서 소절 데이터의 출력 위치는 고정되고 강조될 소절 데이터가 달리 선택되어 강조 표시된다. On the other hand, in step 309, it is described that the measure data to be emphasized as time elapses is changed to another measure and displayed. This description allows scrolling of the measure data to be emphasized. In other words, when several measure data is displayed on the output screen, the output position of the measure data is fixed and the measure data to be emphasized is selected and highlighted.

이 외에도 다양한 방식으로 가사를 디스플레이할 수 있다. 예를 들어 강조될 소절 데이터의 위치는 출력 화면상에서 고정된 상태에서 시간의 경과에 따라 표시될 하나 이상의 소절 데이터를 변경하는 방안이 있을 수 있다. You can also display the lyrics in various ways. For example, the location of the measure data to be emphasized may be altered in one or more measure data to be displayed over time in a fixed state on the output screen.

즉 강조될 소절 데이터가 시간의 경과에 따라 변경될 때마다 출력 화면상에 표시될 하나 이상의 소절 데이터를 제어부(260)가 변경하고 변경된 하나 이상의 소절 데이터를 재차 출력 화면에 표시하는 방안이 있을 수 있다. 이와 같은 구성은 기존 소절 데이터의 표시 위치의 변경(예를 들어 스크롤 업이나 스크롤 다운)을 유도하고 현재 노래와 동기화되는 강조되는 소절 데이터의 위치는 고정되도록 한다. That is, there may be a method in which the controller 260 changes one or more measure data to be displayed on the output screen every time the measure data to be emphasized is changed over time, and the changed one or more measure data is displayed again on the output screen . Such a configuration induces a change in the display position of existing measure data (e.g., scroll-up or scroll-down) and fixes the position of the highlighted measure data that is synchronized with the current song.

이와 같은 과정을 통해, 제어부(260)는 실시간으로 가사와 음악의 동기를 이룰 수 있도록 하고 음향 기기 등과 같은 음원 소스(100)로부터 들려오는 노래에 관련된 가사뿐 아니라 다양한 정보를 획득가능하도록 한다.
In this way, the control unit 260 can synchronize the lyrics and music in real time, and can acquire various information as well as the lyrics related to the songs heard from the sound source 100 such as a sound device.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니다. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings.

100 : 음원 소스 200 : 개인용 장치
210 : 오디오 수신부 220 : 입력부
230 : 출력부 240 : 통신부
250 : 저장부 260 : 제어부
270 : 연결부
300 : 통신 네트워크 400 : 노래 인식 서버
410 : 통신부 420 : 저장부
430 : 제어부 440 : 연결부
100: Source source 200: Personal device
210: Audio receiving unit 220: Input unit
230: output unit 240: communication unit
250: storage unit 260: control unit
270:
300: communication network 400: song recognition server
410: communication unit 420: storage unit
430: control unit 440:

Claims (18)

노래 가사 자동 디스플레이 방법으로서,
(a) 마이크를 통해 입력된 오디오 신호에 대응하는 노래 데이터 정보를 수신하는 단계;
(b) 수신된 노래 데이터 정보로부터 대응하는 곡을 식별하는 단계;
(c) 식별된 곡에 대응하는 가사 데이터를 포함하는 가사 데이터 정보를 생성하는 단계; 및
(d) 상기 가사 데이터 정보를 전송하는 단계;를 포함하며,
상기 단계 (c)는 식별된 곡에 대응하는 복수의 소절 데이터를 포함하는 가사 데이터, 소절 데이터 각각의 시간 정보 및 복수의 소절 데이터 중 상기 노래 데이터 정보의 오디오 데이터와 매칭되는 소절 데이터를 나타내는 정보를 포함하는 가사 데이터 정보를 생성하는,
노래 가사 자동 디스플레이 방법.
CLAIMS 1. A song lyrics automatic display method,
(a) receiving song data information corresponding to an audio signal input through a microphone;
(b) identifying a corresponding song from the received song data information;
(c) generating lyric data information including lyric data corresponding to the identified tune; And
(d) transmitting the lyric data information,
Wherein the step (c) comprises the steps of: generating lyrics data including a plurality of measure data corresponding to the identified music, time information of each measure data, and information indicating measure data matching the audio data of the song data information among a plurality of measure data Generating lyric data information,
Automatic display method of song lyrics.
제1항에 있어서,
상기 단계 (b)는 (b-1) 상기 노래 데이터 정보의 오디오 데이터로부터 음성 데이터와 멜로디 데이터를 분리하는 단계; 및 (b-2) 분리된 음성 데이터와 분리된 멜로디 데이터를 이용하여 곡을 식별하는 단계;를 포함하는,
노래 가사 자동 디스플레이 방법.
The method according to claim 1,
The step (b) includes the steps of: (b-1) separating the audio data and the melody data from the audio data of the song data information; And (b-2) identifying the song using the separated voice data and the separated melody data.
Automatic display method of song lyrics.
제2항에 있어서,
상기 (b-2)는 분리된 멜로디 데이터를 이용하여 복수의 곡을 선택하는 단계; 및 선택된 복수의 곡에서 상기 분리된 음성 데이터로부터 인식되는 가사를 이용하여 하나 이상의 곡을 결정하는 단계;를 포함하는,
노래 가사 자동 디스플레이 방법.
3. The method of claim 2,
(B-2) selecting a plurality of songs using the separated melody data; And determining one or more songs using the lyrics recognized from the separated voice data in the selected plurality of songs.
Automatic display method of song lyrics.
삭제delete 제1항에 있어서,
상기 단계 (a) 내지 (d)는 노래 가사를 인식하기 위한 서버에서 수행되며,
상기 노래 가사 자동 디스플레이 방법은, 상기 서버에 연결된 개인용 장치에 의해, (e) 상기 가사 데이터 정보를 수신하는 단계; 및 (f) 상기 가사 데이터 정보의 가사 데이터를 출력 화면에 디스플레이하는 단계;를 더 포함하는,
노래 가사 자동 디스플레이 방법.
The method according to claim 1,
The steps (a) to (d) are performed in a server for recognizing song lyrics,
The method of automatic song lyrics display may further comprise: (e) receiving the lyric data information by a personal device connected to the server; And (f) displaying lyric data of the lyric data information on an output screen.
Automatic display method of song lyrics.
제5항에 있어서,
상기 단계 (f)는 가사 데이터에 포함된 복수의 소절 데이터 중 하나 이상의 소절 데이터를 출력 화면에 디스플레이하는 단계; 및 상기 매칭되는 소절 데이터에 기초하여 결정되는 소절 데이터를 강조(highlight)하는 단계;를 포함하며,
강조되는 소절 데이터는 시간의 경과에 따라 소절 데이터 각각의 시간 정보를 이용하여 변경되는,
노래 가사 자동 디스플레이 방법.
6. The method of claim 5,
Wherein the step (f) comprises: displaying one or more measure data of a plurality of measure data included in the lyric data on an output screen; And highlighting the measure data determined based on the matched measure data,
Wherein the emphasized measure data is changed using time information of each measure data as time elapses,
Automatic display method of song lyrics.
제1항에 있어서,
상기 매칭되는 소절 데이터를 나타내는 정보는 상기 노래 데이터 정보의 오디오 데이터로부터 분리되는 음성 데이터와 복수의 소절 데이터의 비교에 따른 경과 시간과 서버와 개인용 장치 사이에서의 네트워크 지연 시간을 이용하여 결정되는,
노래 가사 자동 디스플레이 방법.
The method according to claim 1,
Wherein the information indicating the matched measure data is determined by using an elapsed time according to a comparison between a plurality of measure data and voice data separated from audio data of the song data information and a network delay time between the server and the personal apparatus,
Automatic display method of song lyrics.
제6항에 있어서,
상기 개인용 장치에 의해, 상기 오디오 신호를 마이크를 통해 수신한 시각을 기록하는 단계;를 더 포함하며,
상기 단계 (f)의 소절 데이터를 강조하는 단계는 상기 가사 데이터 정보의 수신 시각과 기록된 시각과의 차이와 상기 매칭되는 소절 데이터를 나타내는 정보를 이용하여 강조될 소절 데이터를 결정하는,
노래 가사 자동 디스플레이 방법.
The method according to claim 6,
And recording, by the personal device, the time at which the audio signal was received via the microphone,
Wherein the step of emphasizing the measure data of the step (f) comprises the steps of determining the measure data to be emphasized by using the difference between the reception time of the lyric data information and the recorded time and the information indicating the matched measure data,
Automatic display method of song lyrics.
제5항에 있어서,
상기 개인용 장치에 의해, 마이크로부터 수신된 아날로그 신호를 디지털의 오디오 신호로 변환하는 단계; 변환된 디지털의 오디오 신호로부터 오디오 데이터를 생성하는 단계; 및 생성된 오디오 데이터를 포함하는 상기 노래 데이터 정보를 상기 서버로 전송하는 단계;를 더 포함하며,
상기 오디오 데이터는 곡의 한 소절을 나타내는 데이터이거나 일정한 시간 동안에 수신된 데이터이고,
상기 노래 데이터 정보를 상기 서버로 전송하는 단계는 반복적으로 수행되는,
노래 가사 자동 디스플레이 방법.
6. The method of claim 5,
Converting, by the personal device, an analog signal received from the microphone into a digital audio signal; Generating audio data from the converted digital audio signal; And transmitting the song data information including the generated audio data to the server,
The audio data is data representing a measure of the music or data received during a predetermined time,
Wherein the step of transmitting the song data information to the server is repeatedly performed,
Automatic display method of song lyrics.
노래 가사를 인식하는 서버로서,
마이크를 통해 입력된 오디오 신호에 대응하는 노래 데이터 정보를 수신하고 가사 데이터 정보를 전송하는 통신부;
상기 통신부를 통해 수신된 노래 데이터 정보로부터 대응하는 곡을 식별하고 식별된 곡에 대응하는 가사 데이터를 포함하는 상기 가사 데이터 정보를 생성하여 상기 통신부로 전달하는 제어부; 및
곡 DB와 가사 DB를 포함하는 저장부;를 포함하며,
상기 제어부는 식별된 곡에 대응하는 복수의 소절 데이터 및 소절 데이터 각각의 시간 정보를 상기 가사 DB로부터 추출하고 복수의 소절 데이터 중 상기 노래 데이터 정보의 오디오 데이터와 매칭되는 소절 데이터를 결정하며,
상기 제어부는 추출된 복수의 소절 데이터와 소절 데이터 각각의 시간 정보와 매칭되는 소절 데이터를 나타내는 정보를 포함하는 가사 데이터 정보를 생성하는,
서버.
A server for recognizing song lyrics,
A communication unit that receives song data information corresponding to an audio signal input through a microphone and transmits lyric data information;
A control unit for identifying the corresponding music piece from the song data information received through the communication unit, generating the lyric data information including the lyric data corresponding to the identified music piece, and transmitting the generated lyric data information to the communication unit; And
And a storage unit including a tune DB and a lyrics DB,
Wherein the controller extracts a plurality of measure data corresponding to the identified music piece and time information of each measure data from the lyrics DB and determines measure data to be matched with the audio data of the song data information among a plurality of measure data,
Wherein the control unit generates lyric data information including information indicating a plurality of pieces of measure data and time data of each piece of measure data,
server.
제10항에 있어서,
상기 제어부는 상기 노래 데이터 정보의 오디오 데이터로부터 음성 데이터와 멜로디 데이터를 분리하고 분리된 음성 데이터와 분리된 멜로디 데이터를 이용하여 상기 곡을 식별하는,
서버.
11. The method of claim 10,
Wherein the control unit separates the audio data and the melody data from the audio data of the song data information and identifies the music using the separated melody data and the separated audio data.
server.
제11항에 있어서,
곡 DB와 가사 DB를 포함하는 저장부;를 더 포함하며,
상기 제어부는 분리된 멜로디 데이터와 상기 곡 DB에 저장된 멜로디 정보의 비교로 복수의 곡을 선택하고 상기 분리된 음성 데이터로부터 인식되는 가사와 상기 선택된 복수의 곡에 대한 상기 가사 DB에 저장된 가사의 비교로 하나 이상의 곡을 결정하는,
서버.
12. The method of claim 11,
And a storage unit including a tune DB and a lyrics DB,
Wherein the control unit selects a plurality of songs by comparing the melody data separated from the melody data stored in the music DB and compares the lyrics recognized from the separated voice data with the lyrics stored in the lyrics DB for the selected plurality of songs Determining one or more songs,
server.
삭제delete 삭제delete 삭제delete 마이크를 통해 입력된 오디오 신호에 대응하는 노래 데이터 정보를 수신하고 가사 데이터 정보를 전송하는 통신부; 및 상기 통신부를 통해 수신된 노래 데이터 정보로부터 대응하는 곡을 식별하고 식별된 곡에 대응하는 가사 데이터를 포함하는 상기 가사 데이터 정보를 생성하여 상기 통신부로 전달하는 제어부;를 포함하는 노래 가사를 인식하는 서버; 및
상기 서버에 연결된 개인용 장치;를 포함하며,
상기 개인용 장치는, 상기 가사 데이터 정보를 수신하기 위한 통신부; 및 상기 가사 데이터 정보의 가사 데이터를 출력하는 출력부; 및 상기 출력부를 제어하는 제어부;를 포함하며,
상기 개인용 장치의 제어부는, 상기 가사 데이터 정보에 포함되는 복수의 소절 데이터 중 하나 이상의 소절 데이터를 나타내고 상기 하나 이상의 소절 데이터 중에서 결정되는 소절 데이터를 강조하기 위한 이미지 데이터를 상기 출력부로 전달하는,
노래 가사 자동 디스플레이 시스템.
A communication unit that receives song data information corresponding to an audio signal input through a microphone and transmits lyric data information; And a control unit for identifying the corresponding song from the song data information received through the communication unit and for generating the lyric data information including the lyric data corresponding to the identified song and transmitting the generated lyric data information to the communication unit server; And
And a personal device connected to the server,
The personal device includes: a communication unit for receiving the lyric data information; And an output unit for outputting lyric data of the lyric data information; And a control unit for controlling the output unit,
Wherein the controller of the personal device transmits image data for emphasizing the measure data determined from among the one or more measure data to at least one of the plurality of measure data included in the lyric data information to the output unit,
Song lyrics automatic display system.
제16항에 있어서,
상기 개인용 장치는 데이터를 저장하기 위한 저장부; 및 마이크로부터 오디오 신호를 수신하기 위한 오디오 수신부;를 더 포함하며,
상기 개인용 장치의 제어부는 상기 오디오 신호를 수신한 시각을 상기 저장부에 저장하고 상기 통신부를 통해 수신된 가사 데이터 정보의 수신 시각과 상기 저장부에 저장된 시각과의 차이를 이용하여 강조될 소절 데이터를 결정하는,
노래 가사 자동 디스플레이 시스템.
17. The method of claim 16,
The personal device comprising: a storage for storing data; And an audio receiver for receiving an audio signal from the microphone,
The control unit of the personal apparatus stores the time at which the audio signal was received in the storage unit and uses the difference between the reception time of the lyric data information received through the communication unit and the time stored in the storage unit, To determine,
Song lyrics automatic display system.
제17항에 있어서,
상기 오디오 수신부는 마이크로부터 수신된 오디오 신호를 디지털의 오디오 신호로 변환하고,
상기 개인용 장치의 제어부는 변환된 디지털의 오디오 신호로부터 오디오 데이터를 생성하고 생성된 오디오 데이터를 포함하는 노래 데이터 정보를 상기 통신부로 전달하여 상기 노래 데이터 정보가 상기 서버로 전송되도록 하며,
상기 오디오 데이터는 곡의 한 소절을 나타내는 데이터이거나 일정한 시간 동안에 상기 오디오 수신부를 통해 수신된 데이터이고,
상기 노래 데이터 정보는 반복적으로 전송되는,
노래 가사 자동 디스플레이 시스템.
18. The method of claim 17,
The audio receiver converts an audio signal received from a microphone into a digital audio signal,
The control unit of the personal device generates audio data from the converted digital audio signal and transmits the song data information including the generated audio data to the communication unit so that the song data information is transmitted to the server,
Wherein the audio data is data representing a measure of the music or data received via the audio receiver for a predetermined time,
Wherein the song data information is repeatedly transmitted,
Song lyrics automatic display system.
KR1020130149718A 2013-12-04 2013-12-04 Method for displaying music lyrics automatically, server for recognizing music lyrics and system for displaying music lyrics automatically comprising the server Expired - Fee Related KR101573868B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130149718A KR101573868B1 (en) 2013-12-04 2013-12-04 Method for displaying music lyrics automatically, server for recognizing music lyrics and system for displaying music lyrics automatically comprising the server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130149718A KR101573868B1 (en) 2013-12-04 2013-12-04 Method for displaying music lyrics automatically, server for recognizing music lyrics and system for displaying music lyrics automatically comprising the server

Publications (2)

Publication Number Publication Date
KR20150064870A KR20150064870A (en) 2015-06-12
KR101573868B1 true KR101573868B1 (en) 2015-12-04

Family

ID=53503431

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130149718A Expired - Fee Related KR101573868B1 (en) 2013-12-04 2013-12-04 Method for displaying music lyrics automatically, server for recognizing music lyrics and system for displaying music lyrics automatically comprising the server

Country Status (1)

Country Link
KR (1) KR101573868B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020222338A1 (en) * 2019-05-02 2020-11-05 엘지전자 주식회사 Artificial intelligence device for providing image information, and method therefor
CN113658594A (en) * 2021-08-16 2021-11-16 北京百度网讯科技有限公司 Lyric recognition method, device, equipment, storage medium and product

Also Published As

Publication number Publication date
KR20150064870A (en) 2015-06-12

Similar Documents

Publication Publication Date Title
KR101275467B1 (en) Apparatus and method for controlling automatic equalizer of audio reproducing apparatus
WO2016188211A1 (en) Audio processing method, apparatus and system
US20110066438A1 (en) Contextual voiceover
US20210027800A1 (en) Method for processing audio, electronic device and storage medium
WO2017028704A1 (en) Method and device for providing accompaniment music
CN110428798B (en) Method for synchronizing voice and accompaniment, Bluetooth device, terminal and storage medium
CN105611400B (en) Content processing apparatus and method for transmitting variable-size segments
JP2016070999A (en) Karaoke sound effect setting system
JP2006195385A (en) Music playback apparatus and music playback program
KR101573868B1 (en) Method for displaying music lyrics automatically, server for recognizing music lyrics and system for displaying music lyrics automatically comprising the server
JP2010078926A (en) Duet partner extracting system
JP6501344B2 (en) Karaoke scoring system considering listener's evaluation
JP2013160890A (en) Information processing program, information processing apparatus, lyrics display method, and communication system
EP3203468B1 (en) Acoustic system, communication device, and program
JP6937675B2 (en) Karaoke equipment
JP2007199574A (en) Music reproducing apparatus and music telop retrieval server
CN118575584A (en) Determining light effects based on audio rendering capabilities
KR102070071B1 (en) Song playing method, karaoke system and karaoke able to share and replay song performed
JP2019101148A (en) Communication karaoke system
JP7117228B2 (en) karaoke system, karaoke machine
WO2014142201A1 (en) Device and program for processing separating data
JP5349171B2 (en) Karaoke system with performance condition setting function
KR20150057302A (en) Method and apparatus for song reservation
JP5242856B1 (en) Music playback program and music playback system
KR101492039B1 (en) Method and system displaying retrieved songs using voice recognition

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20201127

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20201127

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000