[go: up one dir, main page]

KR102620988B1 - Search-based broadcasting system and operating method thereof - Google Patents

Search-based broadcasting system and operating method thereof Download PDF

Info

Publication number
KR102620988B1
KR102620988B1 KR1020220045949A KR20220045949A KR102620988B1 KR 102620988 B1 KR102620988 B1 KR 102620988B1 KR 1020220045949 A KR1020220045949 A KR 1020220045949A KR 20220045949 A KR20220045949 A KR 20220045949A KR 102620988 B1 KR102620988 B1 KR 102620988B1
Authority
KR
South Korea
Prior art keywords
data
search
user terminal
screen
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020220045949A
Other languages
Korean (ko)
Other versions
KR20230034865A (en
Inventor
모윤
Original Assignee
나우사이언스 유한회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 나우사이언스 유한회사 filed Critical 나우사이언스 유한회사
Publication of KR20230034865A publication Critical patent/KR20230034865A/en
Application granted granted Critical
Publication of KR102620988B1 publication Critical patent/KR102620988B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2542Management at additional data server, e.g. shopping server, rights management server for selling goods, e.g. TV shopping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/232Content retrieval operation locally within server, e.g. reading video streams from disk arrays
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/787Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/08Auctions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • H04N21/23109Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion by placing content in organized collections, e.g. EPG data repository
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/47815Electronic shopping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명의 일 실시예에 따른 검색 기반 방송 시스템은 제1 사용자 단말, 제2 사용자 단말, 및 서버를 포함하는 검색 기반 방송 시스템에 있어서, 상기 서버는, 제1 사용자 단말로부터 촬영 데이터를 수신하고, 제2 사용자 단말로부터 채팅 데이터를 수신하고, 상기 제1 사용자 단말에 상기 채팅 데이터 및 제1 검색 데이터를 전송하고, 상기 제2 사용자 단말에 방송 데이터를 전송하는 통신 인터페이스; 및 상기 촬영 데이터에 기초하여 오브젝트를 식별하고, 상기 오브젝트에 대한 제1 검색 데이터를 생성하는 프로세서;를 포함하고, 상기 제1 검색 데이터는 복수의 카테고리들로 분류 가능한 데이터이다.A search-based broadcasting system according to an embodiment of the present invention includes a first user terminal, a second user terminal, and a server, wherein the server receives shooting data from the first user terminal, a communication interface that receives chatting data from a second user terminal, transmits the chatting data and first search data to the first user terminal, and transmits broadcasting data to the second user terminal; and a processor that identifies an object based on the captured data and generates first search data for the object, wherein the first search data is data that can be classified into a plurality of categories.

Figure R1020220045949
Figure R1020220045949

Description

검색 기반 방송 시스템 및 그 구동 방법{Search-based broadcasting system and operating method thereof}Search-based broadcasting system and operating method thereof}

본 발명의 실시예들은 실시간 검색이 가능한 실시간 방송을 위한 검색 기반 방송 시스템 및 그 구동 방법에 관한 것이다.Embodiments of the present invention relate to a search-based broadcasting system for real-time broadcasting capable of real-time search and a method of operating the same.

방송 채널이 다양화됨에 따라 방송사에서 방송 서비스를 제공하는 전통적인 방송 방식부터 개인이 방송 서비스를 제공하는 새로운 방송 방식까지 다양한 방송 방식이 개발되고 있다.As broadcasting channels are diversifying, various broadcasting methods are being developed, ranging from traditional broadcasting methods in which broadcasting companies provide broadcasting services to new broadcasting methods in which individuals provide broadcasting services.

특히, 스마트 기기와 같은 사용자 단말을 통해 실시간 방송을 수행하는 방식이 개발되고 있는데, 촬영부와 디스플레이부가 하나의 기기에 집약된 스마트 기기의 특성 상 실시간 방송을 수행함에 있어서 방송인에게 보다 간편한 인터페이스가 제공될 필요가 있다.In particular, a method of performing real-time broadcasting through user terminals such as smart devices is being developed. Due to the nature of smart devices in which the recording unit and display unit are integrated into one device, a simpler interface is provided to broadcasters when performing real-time broadcasting. needs to be

또한, 실시간 방송의 특성 상 방송인이 보다 신속하게 방송에 제공할 컨텐츠를 확보하기 위해 실시간 검색이 수행될 필요가 있으며, 실시간 채팅을 통해 방송에 제공한 컨텐츠를 즉각적으로 채택할 필요가 있다.In addition, due to the nature of real-time broadcasting, real-time search needs to be performed in order for broadcasters to more quickly secure content to be provided for broadcasting, and there is a need to immediately adopt content provided for broadcasting through real-time chat.

본 발명의 실시예들은 실시간 방송을 수행함에 있어서 실시간 검색이 가능한 검색 기반 방송 시스템 및 그 구동 방법을 제공하고자 한다.Embodiments of the present invention seek to provide a search-based broadcasting system capable of real-time search when performing real-time broadcasting, and a method of operating the same.

본 발명의 일 실시예에 따른 검색 기반 방송 시스템은 제1 사용자 단말, 제2 사용자 단말, 및 서버를 포함하는 검색 기반 방송 시스템에 있어서, 상기 서버는, 제1 사용자 단말로부터 촬영 데이터를 수신하고, 제2 사용자 단말로부터 채팅 데이터를 수신하고, 상기 제1 사용자 단말에 상기 채팅 데이터 및 제1 검색 데이터를 전송하고, 상기 제2 사용자 단말에 방송 데이터를 전송하는 통신 인터페이스; 및 상기 촬영 데이터에 기초하여 오브젝트를 식별하고, 상기 오브젝트에 대한 제1 검색 데이터를 생성하는 프로세서;를 포함하고, 상기 제1 검색 데이터는 복수의 카테고리들로 분류 가능한 데이터이다.A search-based broadcasting system according to an embodiment of the present invention includes a first user terminal, a second user terminal, and a server, wherein the server receives shooting data from the first user terminal, a communication interface that receives chatting data from a second user terminal, transmits the chatting data and first search data to the first user terminal, and transmits broadcasting data to the second user terminal; and a processor that identifies an object based on the captured data and generates first search data for the object, wherein the first search data is data that can be classified into a plurality of categories.

본 발명의 일 실시예에 따른 검색 기반 방송 시스템은 제1 사용자 단말, 제2 사용자 단말, 및 서버를 포함하는 검색 기반 방송 시스템에 있어서, 상기 제1 사용자 단말은, 실시간 촬영을 수행하여 촬영 데이터를 생성하는 카메라부; 서버에 촬영 데이터를 전송하고, 상기 서버로부터 채팅 데이터 및 제1 검색 데이터를 수신하는 통신 인터페이스; 방송 화면, 채팅 화면, 및 검색 화면을 표시하는 디스플레이부; 및 상기 방송 화면에 상기 촬영 데이터가, 상기 채팅 화면에 상기 채팅 데이터가, 상기 검색 화면에 상기 제1 검색 데이터가 표시되도록 제어하는 프로세서;를 포함하고, 상기 제1 검색 데이터는 상기 촬영 데이터로부터 식별된 오브젝트에 대한 데이터이며, 복수의 카테고리들로 분류 가능한 데이터이다.A search-based broadcasting system according to an embodiment of the present invention is a search-based broadcasting system including a first user terminal, a second user terminal, and a server, wherein the first user terminal performs real-time shooting and collects the captured data. A camera unit that generates; a communication interface that transmits shooting data to a server and receives chatting data and first search data from the server; A display unit that displays a broadcast screen, a chat screen, and a search screen; And a processor that controls to display the captured data on the broadcast screen, the chat data on the chat screen, and the first search data on the search screen, wherein the first search data is identified from the captured data. This is data about an object, and is data that can be classified into multiple categories.

본 발명의 일 실시예에 따른 검색 기반 방송 시스템의 구동 방법은 제1 사용자 단말, 제2 사용자 단말, 및 서버를 포함하는 검색 기반 방송 시스템의 구동 방법에 있어서, 상기 제1 사용자 단말에 의해, 실시간 촬영을 수행하여 촬영 데이터를 생성하고, 방송 화면에 상기 촬영 데이터를 표시하고, 서버에 상기 촬영 데이터를 전송하는 단계; 상기 서버에 의해, 상기 제2 사용자 단말에 상기 촬영 데이터를 포함하는 방송 데이터를 전송하는 단계; 상기 제2 사용자 단말에 의해, 방송 화면에 상기 방송 데이터를 표시하고, 채팅 화면에 채팅 데이터를 표시하고, 서버에 상기 채팅 데이터를 전송하는 단계; 상기 서버에 의해, 상기 채팅 데이터를 상기 제1 사용자 단말에 전송하고, 상기 촬영 데이터에 기초하여 오브젝트를 식별하고, 상기 오브젝트에 대한 제1 검색 데이터를 생성하고, 상기 제1 검색 데이터를 상기 제1 사용자 단말에 전송하는 단계; 및 상기 제1 사용자 단말에 의해, 채팅 화면에 상기 채팅 데이터를 표시하고, 검색 화면에 상기 제1 검색 데이터를 표시하는 단계;를 포함하고, 상기 제1 검색 데이터는 상기 촬영 데이터로부터 식별된 오브젝트에 대한 데이터이며, 복수의 카테고리들로 분류 가능한 데이터이다.A method of driving a search-based broadcasting system according to an embodiment of the present invention is a method of driving a search-based broadcasting system including a first user terminal, a second user terminal, and a server, in real time by the first user terminal. performing shooting to generate shooting data, displaying the shooting data on a broadcast screen, and transmitting the shooting data to a server; transmitting, by the server, broadcast data including the shooting data to the second user terminal; Displaying the broadcast data on a broadcast screen, displaying chat data on a chat screen, and transmitting the chat data to a server, by the second user terminal; By the server, the chat data is transmitted to the first user terminal, an object is identified based on the shooting data, first search data for the object is generated, and the first search data is sent to the first user terminal. Transmitting to a user terminal; And displaying the chat data on a chat screen and the first search data on a search screen, by the first user terminal, wherein the first search data is applied to the object identified from the shooting data. This is data that can be classified into multiple categories.

본 발명의 실시예들에 따르면, 사용자 단말의 카메라를 이용하여 실시간 촬영을 수행하는 것만으로 방송 화면을 제공할 수 있으므로, 보다 간편하게 방송 서비스를 제공할 수 있다.According to embodiments of the present invention, a broadcast screen can be provided simply by performing real-time shooting using the camera of the user terminal, and thus a broadcast service can be provided more simply.

또한, 사용자 단말의 카메라를 이용하여 실시간 촬영을 수행하는 것만으로 촬영 대상에 대한 검색 결과를 획득할 수 있으므로, 획득한 검색 결과를 이용하여 보다 즉각적이고 효율적인 방송 서비스를 제공할 수 있다.In addition, since search results for a shooting target can be obtained simply by performing real-time shooting using the camera of the user terminal, a more immediate and efficient broadcast service can be provided using the obtained search results.

또한, 사용자 단말의 카메라를 이용하여 실시간 촬영을 수행하는 것만으로 촬영 대상에 대한 시청자의 관심사를 파악할 수 있으므로, 시청자와 소통 가능한 방송 서비스를 제공할 수 있다.In addition, since it is possible to determine the viewer's interests in the subject of filming simply by performing real-time filming using the camera of the user terminal, it is possible to provide a broadcasting service that allows communication with viewers.

결과적으로, 방송인은 실시간 방송을 수행하면서 실시간 검색한 결과를 이용하여 소정 주제에 대한 지속적이고 깊이 있는 방송 서비스를 제공할 수 있으며, 실시간 방송을 수행하면서 실시간 검색한 결과 중 실시간 채팅을 통해 시청자가 관심을 갖는 주제를 정확하고 신속하게 파악할 수 있으므로 시청자와 소통이 가능한 방송 서비스를 제공할 수 있다.As a result, broadcasters can provide continuous and in-depth broadcasting services on certain topics by using real-time search results while performing real-time broadcasting, and viewers can share their interest through real-time chat among the real-time search results while performing real-time broadcasting. Because it is possible to accurately and quickly identify topics, it is possible to provide a broadcasting service that allows communication with viewers.

도 1은 본 발명의 일 실시예에 따른 검색 기반 방송 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 검색 기반 방송 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 검색 기반 방송 시스템이 제공하는 방송인의 사용자 단말의 화면과 시청자의 사용자 단말의 화면을 각각 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 검색 기반 방송 시스템이 제공하는 방송인의 사용자 단말의 화면과 시청자의 사용자 단말의 화면을 각각 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 검색 기반 방송 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 검색 기반 방송 시스템이 제공하는 방송인의 사용자 단말의 화면과 시청자의 사용자 단말의 화면을 각각 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 검색 기반 방송 시스템이 제공하는 방송인의 사용자 단말의 화면과 시청자의 사용자 단말의 화면을 각각 도시한 도면이다.
1 is a diagram schematically showing a search-based broadcasting system according to an embodiment of the present invention.
Figure 2 is a flowchart illustrating a method of operating a search-based broadcasting system according to an embodiment of the present invention.
Figure 3 is a diagram illustrating the screen of a broadcaster's user terminal and the screen of a viewer's user terminal provided by a search-based broadcasting system according to an embodiment of the present invention.
Figure 4 is a diagram illustrating the screen of a broadcaster's user terminal and the screen of a viewer's user terminal provided by a search-based broadcasting system according to an embodiment of the present invention.
Figure 5 is a flowchart illustrating a method of operating a search-based broadcasting system according to an embodiment of the present invention.
Figure 6 is a diagram illustrating the screen of a broadcaster's user terminal and the screen of a viewer's user terminal provided by a search-based broadcasting system according to an embodiment of the present invention.
Figure 7 is a diagram illustrating the screen of a broadcaster's user terminal and the screen of a viewer's user terminal provided by a search-based broadcasting system according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can be modified in various ways and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all transformations, equivalents, and substitutes included in the spirit and technical scope of the present invention. In describing the present invention, if it is determined that a detailed description of related known technologies may obscure the gist of the present invention, the detailed description will be omitted.

이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following embodiments, terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. Terms are used only to distinguish one component from another.

이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the following examples are only used to describe specific examples and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In the following embodiments, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but one or more It should be understood that this does not preclude the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in various numbers of hardware or/and software configurations that execute specific functions. For example, embodiments of the present invention provide direct memory, processing, logic, look-up tables, etc. that can execute various functions under the control of one or more microprocessors or other control devices. Circuit configurations can be employed. Similar to the fact that elements of embodiments of the invention may be implemented as software programming or software elements, embodiments of the invention may include various algorithms implemented as combinations of data structures, processes, routines or other programming constructs. , can be implemented in programming or scripting languages such as C, C++, Java, assembler, etc. Functional aspects may be implemented as algorithms running on one or more processors. Additionally, embodiments of the present invention may employ conventional technologies for electronic environment setup, signal processing, and/or data processing. Terms such as mechanism, element, means, and configuration can be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of software routines in connection with a processor, etc.

도 1은 본 발명의 일 실시예에 따른 검색 기반 방송 시스템(10)을 개략적으로 도시한 도면이다.Figure 1 is a diagram schematically showing a search-based broadcasting system 10 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 검색 기반 방송 시스템(10)은 제1 사용자 단말(100a), 제2 사용자 단말(100b), 서버(200), 및 데이터베이스(205)를 포함한다.Referring to FIG. 1, the search-based broadcasting system 10 according to an embodiment of the present invention includes a first user terminal 100a, a second user terminal 100b, a server 200, and a database 205. do.

제1 사용자 단말(100a)은 방송인의 사용자 단말일 수 있으며, 제2 사용자 단말(100b)은 시청자의 사용자 단말일 수 있다.The first user terminal 100a may be a broadcaster's user terminal, and the second user terminal 100b may be a viewer's user terminal.

서버(200)는 제1 사용자 단말(100a)에 의해 획득된 방송 화면에 기초하여 데이터베이스(205)로부터 검색 데이터를 추출할 수 있다. 서버(200)는 제1 사용자 단말(100a) 및 제2 사용자 단말(100b) 사이에 채팅 데이터를 공유시킬 수 있다.The server 200 may extract search data from the database 205 based on the broadcast screen acquired by the first user terminal 100a. The server 200 may share chatting data between the first user terminal 100a and the second user terminal 100b.

제1 사용자 단말(100a)은 하나일 수 있으며, 제2 사용자 단말(100b)은 하나 이상일 수 있으며, 이에 한정하지 않는다.There may be one first user terminal 100a, and there may be more than one second user terminal 100b, but the present invention is not limited thereto.

제1 사용자 단말(100a)은 카메라부(101a), 통신 인터페이스(103a), 디스플레이부(105a), 프로세서(107a), 및 사용자 인터페이스(109a)를 포함한다.The first user terminal 100a includes a camera unit 101a, a communication interface 103a, a display unit 105a, a processor 107a, and a user interface 109a.

제1 사용자 단말(100a)은 애플리케이션을 활성화하여 검색 기반 방송 시스템(10)을 활성화할 수 있다. 제1 사용자 단말(100a)은 미리 저장된 애플리케이션을 가리키는 아이콘을 선택하는 사용자 입력에 따라 애플리케이션을 활성화할 수 있다.The first user terminal 100a may activate the search-based broadcasting system 10 by activating an application. The first user terminal 100a may activate an application according to a user input of selecting an icon indicating a pre-stored application.

애플리케이션이 활성화되면, 카메라부(101a)가 실시간 촬영을 수행하여 촬영 데이터를 생성하며, 통신 인터페이스(103a)가 서버(200)에 촬영 데이터를 전송하고, 서버(200)로부터 채팅 데이터 및 제1 검색 데이터를 수신하며, 디스플레이부(101a)가 애플리케이션 화면을 표시한다.When the application is activated, the camera unit 101a performs real-time shooting to generate shooting data, and the communication interface 103a transmits the shooting data to the server 200, chat data and first search from the server 200. Data is received, and the display unit 101a displays an application screen.

방송인의 제1 사용자 단말(100a)에 제공되는 애플리케이션 화면은 방송 화면, 채팅 화면, 검색 화면을 포함할 수 있다. 방송 화면, 채팅 화면, 검색 화면은 서로 다른 영역에 표시될 수도 있고, 적어도 일부가 동일 영역에 표시될 수도 있으며, 이에 한정하지 않는다.The application screen provided to the broadcaster's first user terminal 100a may include a broadcast screen, a chat screen, and a search screen. The broadcast screen, chat screen, and search screen may be displayed in different areas, or at least part of them may be displayed in the same area, but the present invention is not limited to this.

프로세서(107a)는 방송 화면에 촬영 데이터가, 채팅 화면에 채팅 데이터가, 검색 화면에 제1 검색 데이터가 표시되도록 제어한다.The processor 107a controls to display captured data on the broadcast screen, chat data on the chat screen, and first search data on the search screen.

제1 검색 데이터는 서버(200)가 촬영 데이터에 기초하여 데이터베이스(205)로부터 추출한 검색 데이터를 의미할 수 있다.The first search data may refer to search data extracted by the server 200 from the database 205 based on the shooting data.

촬영 데이터는 이미지 데이터 및/또는 오디오 데이터를 포함할 수 있다.Captured data may include image data and/or audio data.

이미지 데이터는 소정의 오브젝트를 화면의 소정 위치에서 촬영한 데이터일 수도 있고, 소정의 오브젝트를 소정 시간 이상 촬영한 데이터일 수도 있고, 소정의 오브젝트를 화면의 소정 위치에서 소정 시간 이상 촬영한 데이터일 수도 있으며, 이에 한정하지 않는다.Image data may be data in which a certain object is photographed at a certain location on the screen, or it may be data in which a certain object is photographed over a certain period of time, or it may be data in which a certain object is photographed at a certain position on the screen over a certain period of time. and is not limited to this.

오디오 데이터는 소정의 오브젝트를 소정 횟수 이상 호명한 데이터일 수 있으며, 이에 한정하지 않는다.Audio data may be data that refers to a predetermined object more than a predetermined number of times, but is not limited to this.

제1 검색 데이터는 촬영 데이터로부터 식별된 오브젝트에 대한 데이터이며, 복수의 카테고리들로 분류 가능한 데이터이다.The first search data is data about an object identified from shooting data and is data that can be classified into a plurality of categories.

제1 검색 데이터는 이미지 데이터 및/또는 텍스트 데이터를 포함할 수 있다. 제1 검색 데이터의 이미지 데이터는 촬영 데이터의 이미지 데이터의 유사 이미지 데이터일 수 있다. 제1 검색 데이터의 텍스트 데이터는 촬영 데이터의 이미지 데이터 및/또는 오디오 데이터로부터 추출된 오브젝트에 관련된 텍스트 데이터일 수 있다.The first search data may include image data and/or text data. The image data of the first search data may be similar image data to the image data of the shooting data. The text data of the first search data may be text data related to an object extracted from image data and/or audio data of the shooting data.

오브젝트에 관련된 텍스트 데이터는 오브젝트를 직접적으로 설명하는 텍스트 데이터일 수도 있고, 오브젝트와 유사한 오브젝트를 설명하는 텍스트 데이터일 수도 있으며, 이에 한정하지 않는다.Text data related to an object may be text data directly describing the object or text data describing an object similar to the object, but is not limited thereto.

카테고리는 상품 카테고리, 장소 카테고리, 검색 엔진 카테고리 등일 수 있으며, 이에 한정하지 않는다.The category may be a product category, a location category, a search engine category, etc., but is not limited thereto.

상품 카테고리는 판매처, 가격 비교, 유사 상품 중 적어도 하나를 포함할 수 있고, 장소 카테고리는 인근 명소, 뉴스, 역사, 행사, 교통 수단 중 적어도 하나를 포함할 수 있고, 검색 엔진 카테고리는 검색 엔진에 오브젝트를 검색한 결과를 가리킬 수 있다.The product category may include at least one of a seller, price comparison, and similar product, the place category may include at least one of nearby attractions, news, history, events, and means of transportation, and the search engine category may include an object to a search engine. It can refer to search results.

이처럼, 방송인은 애플리케이션이 활성화된 제1 사용자 단말(100a)의 카메라부(101a)를 이용하여 실시간 촬영을 수행하는 것만으로 시청자인 제2 사용자 단말(100b)들에 방송 화면을 제공할 수 있다. 또한, 방송인은 실시간 촬영을 수행하는 것만으로 서버(200)로부터 촬영 대상에 대한 검색 결과를 획득할 수 있고, 획득한 검색 결과를 이용하며 방송을 수행할 수 있으므로, 보다 즉각적이고 효율적인 방송 수행이 가능하다.In this way, the broadcaster can provide a broadcast screen to the second user terminals 100b, which are viewers, simply by performing real-time filming using the camera unit 101a of the first user terminal 100a with the application activated. In addition, broadcasters can obtain search results for the filming target from the server 200 simply by performing real-time filming, and can perform broadcasting using the obtained search results, enabling more immediate and efficient broadcasting. do.

애플리케이션이 활성화된 상태에서, 통신 인터페이스(103a)가 서버(200)로부터 공통 단어 식별 데이터를 수신하고, 프로세서(107a)가 검색 화면에 표시된 제1 검색 데이터 중 공통 단어를 다른 단어와 구별되도록 표시할 수 있다.When the application is activated, the communication interface 103a receives common word identification data from the server 200, and the processor 107a displays common words among the first search data displayed on the search screen to distinguish them from other words. You can.

사용자 인터페이스(109a)가 다른 단어와 구별되도록 표시된 공통 단어를 선택하는 사용자 입력을 수신하고, 프로세서(107a)가 사용자 입력에 대응하여 공통 단어 선택 데이터를 생성하고, 통신 인터페이스(103a)가 서버(200)에 공통 단어 선택 데이터를 전송할 수 있다.The user interface 109a receives a user input for selecting a common word displayed to be distinguished from other words, the processor 107a generates common word selection data in response to the user input, and the communication interface 103a receives the user input to select a common word displayed to distinguish it from other words. ) can transmit common word selection data.

통신 인터페이스(103a)가 서버(200)로부터 제2 검색 데이터를 수신하고, 프로세서(107a)가 검색 화면에 제2 검색 데이터가 표시되도록 제어할 수 있다. 검색 화면에는 제1 검색 데이터 대신 제2 검색 데이터가 표시될 수도 있고, 제1 검색 데이터와 제2 검색 데이터가 함께 표시될 수도 있으며, 이에 한정하지 않는다.The communication interface 103a may receive second search data from the server 200, and the processor 107a may control the second search data to be displayed on the search screen. On the search screen, second search data may be displayed instead of the first search data, or the first search data and the second search data may be displayed together, but the present invention is not limited to this.

제2 검색 데이터는 공통 단어와 관련된 데이터이며, 복수의 카테고리들로 분류 가능한 데이터이다.The second search data is data related to common words and is data that can be classified into a plurality of categories.

제2 검색 데이터는 이미지 데이터 및/또는 텍스트 데이터를 포함할 수 있다. 제2 검색 데이터의 이미지 데이터는 공통 단어를 가리키는 이미지 데이터 및/또는 공통 단어를 가리키는 이미지 데이터의 유사 이미지 데이터일 수 있으며, 이에 한정하지 않는다. 제2 검색 데이터의 텍스트 데이터는 공통 단어와 관련된 텍스트 데이터일 수 있다.The second search data may include image data and/or text data. The image data of the second search data may be image data indicating a common word and/or image data similar to the image data indicating a common word, but is not limited thereto. Text data of the second search data may be text data related to common words.

공통 단어에 관련된 텍스트 데이터는 공통 단어를 직접적으로 설명하는 텍스트 데이터일 수도 있고, 공통 단어와 유사한 단어를 설명하는 텍스트 데이터일 수도 있으며, 이에 한정하지 않는다.Text data related to a common word may be text data directly describing the common word, or may be text data describing words similar to the common word, but is not limited thereto.

카테고리는 상품 카테고리, 장소 카테고리, 검색 엔진 카테고리 등일 수 있으며, 이에 한정하지 않는다.The category may be a product category, a location category, a search engine category, etc., but is not limited thereto.

서버(200)는 통신 인터페이스(201) 및 프로세서(203)를 포함한다. 데이터베이스(205)는 서버(200)의 일 구성일 수도 있고, 서버(200)와 구별된 별개의 구성일 수도 있고, 하나 이상일 수도 있으며, 이에 한정하지 않는다.Server 200 includes a communication interface 201 and a processor 203. The database 205 may be a component of the server 200, may be a separate component from the server 200, or may be one or more databases, but is not limited thereto.

통신 인터페이스(201)는 제1 사용자 단말(100a)로부터 촬영 데이터를 수신하고, 제2 사용자 단말(100b)로부터 채팅 데이터를 수신하고, 제1 사용자 단말(100a)에 채팅 데이터 및 제1 검색 데이터를 전송하고, 제2 사용자 단말(100b)에 방송 데이터를 전송한다.The communication interface 201 receives shooting data from the first user terminal 100a, receives chatting data from the second user terminal 100b, and provides chatting data and first search data to the first user terminal 100a. transmission, and broadcast data is transmitted to the second user terminal 100b.

프로세서(203)는 촬영 데이터를 포함하는 방송 데이터를 생성할 수 있다. 프로세서(203)는 촬영 데이터에 기초하여 오브젝트를 식별하고, 오브젝트에 대한 제1 검색 데이터를 생성한다.The processor 203 may generate broadcast data including shooting data. The processor 203 identifies the object based on the captured data and generates first search data for the object.

프로세서(203)는 촬영 데이터 및 채팅 데이터에 기초하여 오브젝트를 식별할 수도 있다. 예를 들어, 프로세서(203)는 촬영 데이터의 적어도 일부의 이미지 데이터를 가리키는 채팅 데이터의 텍스트 데이터를 오브젝트로 식별할 수도 있고, 촬영 데이터의 적어도 일부의 오디오 데이터를 가리키는 채팅 데이터의 텍스트 데이터를 오브젝트로 식별할 수도 있으며, 이에 한정하지 않는다.The processor 203 may identify objects based on shooting data and chatting data. For example, the processor 203 may identify text data of chat data indicating at least a portion of image data of the shooting data as an object, and may identify text data of chat data indicating at least a portion of audio data of the shooting data as an object. It can be identified, but is not limited to this.

제1 검색 데이터는 복수의 카테고리들로 분류 가능한 데이터이다.The first search data is data that can be classified into a plurality of categories.

프로세서(203)는 촬영 데이터에 포함된 이미지 데이터를 분석하여, 화면의 소정 위치에서 촬영된 오브젝트를 주기적으로 식별할 수도 있고, 소정 시간 이상 촬영된 오브젝트를 주기적으로 식별할 수도 있고, 화면의 소정 위치에서 소정 시간 이상 촬영된 오브젝트를 주기적으로 식별할 수도 있으며, 이에 한정하지 않는다.The processor 203 may analyze image data included in the captured data to periodically identify objects photographed at a predetermined location on the screen, or periodically identify objects photographed for more than a predetermined time, and may periodically identify objects photographed at a predetermined location on the screen. Objects photographed over a predetermined period of time may be periodically identified, but the method is not limited to this.

프로세서(203)는 촬영 데이터에 포함된 오디오 데이터를 분석하여 소정 횟수 이상 호명된 오브젝트를 주기적으로 식별할 수 있으며, 이에 한정하지 않는다.The processor 203 may periodically identify objects that have been called a predetermined number of times by analyzing audio data included in the shooting data, but is not limited to this.

데이터베이스(205)는 텍스트 데이터 및/또는 이미지 데이터를 미리 저장한 공간을 의미할 수도 있고, 검색 엔진을 의미할 수도 있으며, 이에 한정하지 않는다. 데이터베이스(205)는 프로세서(203)에 의해 검색 데이터를 생성하는데 이용될 수 있다.The database 205 may refer to a space in which text data and/or image data are previously stored, or may refer to a search engine, but is not limited thereto. Database 205 may be used by processor 203 to generate search data.

프로세서(203)는 채팅 데이터와 제1 검색 데이터의 공통 단어를 추출하고, 통신 인터페이스(201)는 제1 사용자 단말(100a)에 공통 단어 식별 데이터를 전송할 수 있다.The processor 203 extracts common words from the chat data and the first search data, and the communication interface 201 may transmit common word identification data to the first user terminal 100a.

통신 인터페이스(201)는 제1 사용자 단말(100a)로부터 공동 단어 선택 데이터를 수신하고, 프로세서(203)는 공통 단어 선택 데이터에 대응하여 공통 단어에 대한 제2 검색 데이터를 생성하고, 통신 인터페이스(201)는 제1 사용자 단말(100a)에 제2 검색 데이터를 전송할 수 있다.The communication interface 201 receives common word selection data from the first user terminal 100a, the processor 203 generates second search data for a common word in response to the common word selection data, and the communication interface 201 ) may transmit second search data to the first user terminal 100a.

제2 사용자 단말(100b)은 통신 인터페이스(103b), 디스플레이부(105b), 프로세서(107b), 사용자 인터페이스(109b)를 포함할 수 있다.The second user terminal 100b may include a communication interface 103b, a display unit 105b, a processor 107b, and a user interface 109b.

제2 사용자 단말(100b)은 복수(100bi, 100bj)일 수 있다.There may be multiple second user terminals 100b (100bi, 100bj).

제2 사용자 단말(100b)은 애플리케이션을 활성화하여 검색 기반 방송 시스템(10)을 활성화할 수 있다. 제2 사용자 단말(100b)은 미리 저장된 애플리케이션을 가리키는 아이콘을 선택하는 사용자 입력에 따라 애플리케이션을 활성화할 수 있다. 제2 사용자 단말(100b)은 알림 메시지를 선택하는 사용자 입력에 따라 애플리케이션을 활성화할 수 있다. 알림 메시지는 제1 사용자 단말(100a)의 애플리케이션이 활성화되었음을 알리는 정보를 포함할 수 있으며, 이에 한정하지 않는다.The second user terminal 100b may activate the search-based broadcasting system 10 by activating an application. The second user terminal 100b may activate the application according to a user input of selecting an icon indicating a pre-stored application. The second user terminal 100b may activate the application according to a user input for selecting a notification message. The notification message may include, but is not limited to, information indicating that the application of the first user terminal 100a has been activated.

애플리케이션이 활성화되면, 통신 인터페이스(103b)는 서버(200)로부터 방송 데이터를 수신하고, 서버(200)에 채팅 데이터를 전송하고, 디스플레이부(105b)가 애플리케이션 화면을 표시할 수 있다.When the application is activated, the communication interface 103b can receive broadcast data from the server 200, transmit chat data to the server 200, and the display unit 105b can display the application screen.

시청자의 제2 사용자 단말(100b)에 제공되는 애플리케이션 화면은 방송 화면 및 채팅 화면을 포함할 수 있다. 방송 화면 및 검색 화면은 서로 다른 영역에 표시될 수도 있고, 적어도 일부가 동일 영역에 표시될 수도 있으며, 이에 한정하지 않는다.The application screen provided to the viewer's second user terminal 100b may include a broadcast screen and a chat screen. The broadcast screen and the search screen may be displayed in different areas, or at least part of them may be displayed in the same area, but are not limited to this.

프로세서(107b)는 방송 화면에 방송 데이터가, 채팅 화면에 채팅 데이터가 표시되도록 제어할 수 있다.The processor 107b can control broadcast data to be displayed on the broadcast screen and chat data to be displayed on the chat screen.

사용자 인터페이스(109b)는 채팅 데이터를 작성하는 사용자 입력을 수신할 수 있다.User interface 109b may receive user input creating chat data.

이처럼, 방송인은 애플리케이션이 활성화된 제1 사용자 단말(100a)의 카메라부(101a)를 이용하여 실시간 촬영을 수행하는 것만으로 서버(200)에 의해 생성된 검색 결과와 채팅 데이터의 공통 단어에 대한 검색 결과를 획득할 수 있고, 획득된 검색 결과를 이용하며 방송을 수행할 수 있으므로, 시청자와 소통 가능한 방송 수행이 가능하다.In this way, the broadcaster searches for common words in the search results generated by the server 200 and chat data simply by performing real-time filming using the camera unit 101a of the first user terminal 100a with the application activated. Since results can be obtained and broadcasting can be performed using the obtained search results, broadcasting that can communicate with viewers is possible.

이하에서는, 도 2 내지 도 4를 참조하여 본 발명의 일 실시예에 따른 검색 기반 방송 시스템의 제1 검색 데이터 제공 방법을 보다 상세하게 설명한다.Hereinafter, a method of providing first search data in a search-based broadcasting system according to an embodiment of the present invention will be described in more detail with reference to FIGS. 2 to 4.

도 2는 본 발명의 일 실시예에 따른 검색 기반 방송 시스템의 동작 방법을 설명하기 위한 흐름도이다.Figure 2 is a flowchart illustrating a method of operating a search-based broadcasting system according to an embodiment of the present invention.

도 2를 참조하면, 제1 사용자 단말(100a)은, 실시간 촬영을 수행하여 촬영 데이터를 생성하고(S201), 촬영 데이터를 서버(200)에 전송한다(S203).Referring to FIG. 2, the first user terminal 100a performs real-time shooting to generate shooting data (S201) and transmits the shooting data to the server 200 (S203).

서버(200)는 촬영 데이터를 포함하는 방송 데이터를 생성하고, 방송 데이터를 제2 사용자 단말(100b)에 전송한다(S205).The server 200 generates broadcast data including shooting data and transmits the broadcast data to the second user terminal 100b (S205).

제2 사용자 단말(100b)은 방송 데이터를 방송 화면에, 채팅 데이터를 채팅 화면에 표시한다(S207). 채팅 데이터는 적어도 하나의 제2 사용자 단말(100b)이 사용자 입력으로 수신한 데이터일 수 있고, 제1 사용자 단말(100a)이 사용자 입력으로 수신한 데이터를 포함할 수도 있으며, 이에 한정하지 않는다.The second user terminal 100b displays broadcast data on the broadcast screen and chat data on the chat screen (S207). The chat data may be data received by at least one second user terminal 100b as a user input, and may include data received by the first user terminal 100a as a user input, but is not limited thereto.

제2 사용자 단말(100b)은 채팅 데이터를 서버(200)에 전송하고(S209), 서버(200)는 채팅 데이터를 제1 사용자 단말(100a)에 전송한다(S211).The second user terminal 100b transmits chatting data to the server 200 (S209), and the server 200 transmits the chatting data to the first user terminal 100a (S211).

제1 사용자 단말(100a)은 촬영 데이터를 방송 화면에, 채팅 데이터를 채팅 화면에 표시한다(S213).The first user terminal 100a displays the shooting data on the broadcast screen and the chatting data on the chat screen (S213).

한편, 서버(200)는 제1 사용자 단말(100a)로부터의 촬영 데이터에 기초하여 오브젝트를 식별하고(S215), 식별된 오브젝트에 대한 검색을 수행하여 제1 검색 데이터를 생성하고(S217), 제1 검색 데이터를 제1 사용자 단말(100a)에 전송한다(S219).Meanwhile, the server 200 identifies an object based on the captured data from the first user terminal 100a (S215), performs a search for the identified object to generate first search data (S217), and 1 Search data is transmitted to the first user terminal 100a (S219).

제1 사용자 단말(100a)은 제1 검색 데이터를 검색 화면에 표시한다(S211).The first user terminal 100a displays the first search data on the search screen (S211).

도 3은 본 발명의 일 실시예에 따른 검색 기반 방송 시스템이 제공하는 방송인의 사용자 단말의 화면과 시청자의 사용자 단말의 화면을 각각 도시한 도면이다.Figure 3 is a diagram illustrating the screen of a broadcaster's user terminal and the screen of a viewer's user terminal provided by a search-based broadcasting system according to an embodiment of the present invention.

도 3을 참조하면, 제1 사용자 단말(100a)의 방송 화면(1051a)에는 촬영 데이터가 표시될 수 있고, 채팅 화면(1053a)에는 채팅 데이터가 표시될 수 있고, 검색 화면(1055a)에는 제1 검색 데이터가 표시될 수 있다.Referring to FIG. 3, shooting data may be displayed on the broadcast screen 1051a of the first user terminal 100a, chatting data may be displayed on the chat screen 1053a, and the first user terminal 100a may display the first Search data may be displayed.

제2 사용자 단말(100b)의 방송 화면(1051b)에는 방송 데이터가 표시될 수 있고, 채팅 화면(1053b)에는 채팅 데이터가 표시될 수 있다.Broadcast data may be displayed on the broadcast screen 1051b of the second user terminal 100b, and chat data may be displayed on the chat screen 1053b.

제1 사용자 단말(100a)의 방송 화면(1051a)과 제2 사용자 단말(100b)의 방송 화면(1051b)은 동일한 화면 또는 적어도 일부가 동일한 화면일 수 있다. 이를 통해 방송인은 실시간 방송을 수행할 수 있다.The broadcast screen 1051a of the first user terminal 100a and the broadcast screen 1051b of the second user terminal 100b may be the same screen or at least part of the same screen. Through this, broadcasters can perform real-time broadcasting.

제1 사용자 단말(100a)의 채팅 화면(1053a)과 제2 사용자 단말(100b)의 채팅 화면(1053b)은 동일한 채팅 데이터 또는 적어도 일부가 동일한 채팅 데이터를 출력할 수 있다. 이를 통해 방송인과 시청자는 실시간 채팅을 수행할 수 있다.The chat screen 1053a of the first user terminal 100a and the chat screen 1053b of the second user terminal 100b may output the same chat data or at least some of the same chat data. This allows broadcasters and viewers to chat in real time.

제1 사용자 단말(100a)의 검색 화면(1055a)에는 서버(200)로부터 전송된 제1 검색 데이터가 표시될 수 있다. 제1 검색 데이터는 방송 화면(1051a)에 표시된 촬영 데이터와 관련된 데이터일 수 있다.First search data transmitted from the server 200 may be displayed on the search screen 1055a of the first user terminal 100a. The first search data may be data related to the shooting data displayed on the broadcast screen 1051a.

예를 들어, 제1 사용자 단말(100a)의 카메라부(101a)가 청계천을 실시간으로 촬영하면, 서버(200)는 제1 사용자 단말(100a)로부터 전송된 촬영 데이터로부터 청계천을 식별할 수 있다. 서버(200)는 데이터베이스(205)에 청계천을 검색하고, 검색 데이터를 분류하여 제1 사용자 단말(100a)에 전송할 수 있다.For example, when the camera unit 101a of the first user terminal 100a photographs Cheonggyecheon in real time, the server 200 may identify Cheonggyecheon from the captured data transmitted from the first user terminal 100a. The server 200 may search Cheonggyecheon in the database 205, classify the search data, and transmit it to the first user terminal 100a.

제1 사용자 단말(100a)의 검색 화면(1055a)에는, 청계천을 직접적으로 설명하는 텍스트 데이터(청계천: 개요, 역사, 복원, 교량), 청계천을 따라 위치한 광장시장의 먹거리를 설명하는 텍스트 데이터(광장시장: 막걸리, 빈대떡, 꼼장어), 청계천을 따라 위치한 세운상가의 이슈를 설명하는 텍스트 데이터(세운상가: 주상복합아파트, 역사), 청계천을 따라 위치한 방산시장의 상품을 설명하는 텍스트 데이터(방산시장: 비닐, 등산복, 침구, 옷)가 제1 검색 데이터로서 표시될 수 있다.In the search screen 1055a of the first user terminal 100a, text data directly describing Cheonggyecheon (Cheonggyecheon: overview, history, restoration, bridges), text data describing the food at Gwangjang Market located along Cheonggyecheon (Plaza Market: makgeolli, bindaetteok, sea eel), text data explaining issues of Sewoon Shopping Center located along Cheonggyecheon (Sewoon Shopping Center: residential-commercial apartment complex, history), text data explaining products of Bangsan Market located along Cheonggyecheon (Bangsan Market: vinyl, hiking clothes, bedding, clothes) may be displayed as first search data.

이를 통해 방송인은 실시간 방송과 실시간 검색을 동시에 수행할 수 있다.Through this, broadcasters can perform real-time broadcasting and real-time search at the same time.

한편, 방송인은 제1 사용자 단말(100a)의 검색 화면(1055a)에 표시된 제1 검색 데이터 중 일부인 “청계천: 복원”을 선택할 수 있으며, 제1 사용자 단말(100a)은 사용자 입력에 따라 선택된 제1 검색 데이터 중 일부를 서버(200)에 전송할 수 있다.Meanwhile, the broadcaster can select “Cheonggyecheon: Restoration”, which is part of the first search data displayed on the search screen 1055a of the first user terminal 100a, and the first user terminal 100a selects the first search data selected according to the user input. Some of the search data may be transmitted to the server 200.

서버(200)는 제1 사용자 단말(100a)로부터 전송된 제1 검색 데이터 중 일부를 재검색할 수 있다. 이하에서, 도 4를 참조하여, 서버(200)에 의해 제1 검색 데이터 중 일부가 재검색된 결과를 보다 상세하게 설명한다.The server 200 may re-search some of the first search data transmitted from the first user terminal 100a. Below, with reference to FIG. 4 , the results of re-searching some of the first search data by the server 200 will be described in more detail.

도 4는 본 발명의 일 실시예에 따른 검색 기반 방송 시스템이 제공하는 방송인의 사용자 단말의 화면과 시청자의 사용자 단말의 화면을 각각 도시한 도면이다.Figure 4 is a diagram illustrating the screen of a broadcaster's user terminal and the screen of a viewer's user terminal provided by a search-based broadcasting system according to an embodiment of the present invention.

도 4를 참조하면, 서버(200)는 “청계천: 복원”에 대한 이미지 데이터 및 텍스트 데이터를 재검색할 수 있다.Referring to FIG. 4, the server 200 may re-search image data and text data for “Cheonggyecheon: Restoration.”

서버(200)는 “청계천: 복원”에 대한 이미지 데이터를 제1 사용자 단말(100a) 및 제2 사용자 단말(100b)에, “청계천: 복원”에 대한 텍스트 데이터를 제1 사용자 단말(100a)에 전송할 수 있다.The server 200 sends image data about “Cheonggyecheon: Restoration” to the first user terminal 100a and the second user terminal 100b, and sends text data about “Cheonggyecheon: Restoration” to the first user terminal 100a. Can be transmitted.

서버(200)에 의해 제1 사용자 단말(100a) 및 제2 사용자 단말(100b)에 전송되는 “청계천: 복원”에 대한 이미지 데이터는, 복수의 이미지 데이터들 중에서 가장 관련성이 높거나, 가장 최근에 촬영되거나, 가장 최근에 업로드되거나, 가장 많이 다운로드되거나, 가장 많이 인용된 이미지 데이터일 수 있으며, 이에 한정하지 않는다.The image data for “Cheonggyecheon: Restoration” transmitted by the server 200 to the first user terminal 100a and the second user terminal 100b is the most relevant or most recent among the plurality of image data. It may be, but is not limited to, image data that has been captured, most recently uploaded, most downloaded, or most cited.

제1 사용자 단말(100a)의 방송 화면(1051a) 및 제2 사용자 단말(100b)의 방송 화면(1051b)에는 각각 “청계천: 복원”에 대한 이미지 데이터가 표시될 수 있다.Image data for “Cheonggyecheon: Restoration” may be displayed on the broadcast screen 1051a of the first user terminal 100a and the broadcast screen 1051b of the second user terminal 100b, respectively.

“청계천: 복원”에 대한 텍스트 데이터는 복수의 카테고리들로 분류 가능한 데이터일 수 있다. “청계천: 복원”에 대한 텍스트 데이터는 “청계천” 및 “복원”과 모두 관련된 데이터로서 복원과 관련된 서울의 다른 개천들을 설명하는 텍스트 데이터(복원: 홍제천, 중랑천, 굴포천)을 포함할 수 있으며, 이에 한정하지 않는다.Text data about “Cheonggyecheon: Restoration” may be data that can be classified into multiple categories. Text data for “Cheonggyecheon: Restoration” is data related to both “Cheonggyecheon” and “restoration” and may include text data describing other streams in Seoul related to restoration (restoration: Hongjecheon, Jungnangcheon, Gulpocheon), It is not limited.

제1 사용자 단말(100a)의 검색 화면(1055a)에는 “청계천: 복원”에 대한 텍스트 데이터가 표시될 수 있다.Text data about “Cheonggyecheon: Restoration” may be displayed on the search screen 1055a of the first user terminal 100a.

이를 통해 방송인은 실시간 방송을 수행하면서 실시간 검색한 결과를 이용하여 소정 주제에 대한 지속적이고 깊이 있는 방송 서비스를 제공할 수 있다.Through this, broadcasters can provide continuous and in-depth broadcasting services on certain topics by using real-time search results while performing real-time broadcasting.

이하에서는, 도 5 내지 도 7을 참조하여 본 발명의 일 실시예에 따른 검색 기반 방송 시스템의 제2 검색 데이터 제공 방법을 보다 상세하게 설명한다.Hereinafter, a method of providing second search data in a search-based broadcasting system according to an embodiment of the present invention will be described in more detail with reference to FIGS. 5 to 7.

도 5는 본 발명의 일 실시예에 따른 검색 기반 방송 시스템의 동작 방법을 설명하기 위한 흐름도이다.Figure 5 is a flowchart illustrating a method of operating a search-based broadcasting system according to an embodiment of the present invention.

도 5를 참조하면, 서버(200)는 채팅 데이터와 제1 검색 데이터의 공통 단어를 추출한다(S501).Referring to FIG. 5, the server 200 extracts common words between chatting data and first search data (S501).

S501의 채팅 데이터 및 제1 검색 데이터는 S211의 채팅 데이터 및 S219의 제1 검색 데이터일 수 있다.The chatting data and first search data of S501 may be the chatting data of S211 and the first search data of S219.

서버(200)는 채팅 데이터의 텍스트 데이터와 제1 검색 데이터의 이미지 데이터를 비교하여, 제1 검색 데이터의 이미지 데이터의 적어도 일부를 가리키는 채팅 데이터의 텍스트 데이터의 적어도 일부를 공통 단어로서 추출할 수 있다.The server 200 may compare the text data of the chat data with the image data of the first search data and extract at least a portion of the text data of the chat data that indicates at least a portion of the image data of the first search data as a common word. .

서버(200)는 채팅 데이터의 텍스트 데이터와 제1 검색 데이터의 텍스트 데이터를 비교하여, 동일 텍스트 데이터를 공통 단어로서 추출할 수 있다.The server 200 may compare the text data of the chat data and the text data of the first search data and extract the same text data as a common word.

서버(200)는 공통 단어를 가리키는 공통 단어 식별 데이터를 생성하여 제1 사용자 단말(100a)에 전송한다(S503).The server 200 generates common word identification data indicating a common word and transmits it to the first user terminal 100a (S503).

제1 사용자 단말(100a)은 공통 단어 식별 데이터에 대응하여 검색 화면을 업데이트한다(S505).The first user terminal 100a updates the search screen in response to the common word identification data (S505).

예를 들어, 제1 사용자 단말(100a)은 검색 화면에 공통 단어 식별 데이터가 가리키는 공통 단어를 다른 단어와 구별되도록 보다 굵게 표시하거나, 밑줄로 표시하거나, 다른 색상으로 표시하거나, 다른 크기로 표시하거나, 깜빡이는 등 애니메이션 효과를 갖도록 표시할 수 있으며, 이에 한정하지 않는다.For example, the first user terminal 100a displays the common word indicated by the common word identification data in bolder, underlined, different color, or different size to distinguish it from other words on the search screen. , can be displayed to have animation effects such as blinking, but is not limited to this.

제1 사용자 단말(100a)은 공통 단어를 선택하는 사용자 입력을 수신한다(S507). 제1 사용자 단말(100a)은 사용자 입력에 따라 공통 단어 선택 데이터를 생성할 수 있다.The first user terminal 100a receives a user input for selecting a common word (S507). The first user terminal 100a may generate common word selection data according to user input.

제1 사용자 단말(100a)이 서버(200)에 공통 단어 선택 데이터를 전송하면(S509), 서버(200)는 공통 단어 선택 데이터에 대응하여 공통 단어를 검색한다(S511). 서버(200)는 데이터베이스(205)를 이용하여 공통 단어를 검색한 결과인 제2 검색 데이터를 생성할 수 있다.When the first user terminal 100a transmits common word selection data to the server 200 (S509), the server 200 searches for a common word corresponding to the common word selection data (S511). The server 200 may generate second search data that is a result of searching for a common word using the database 205.

서버(200)가 제2 검색 데이터를 제1 사용자 단말(100a)에 전송하면(S513), 제1 사용자 단말(100a)은 검색 화면을 업데이트한다(S515). 제1 사용자 단말은 검색 화면에 제2 검색 데이터를 표시함으로써 검색 화면을 업데이트할 수 있다.When the server 200 transmits the second search data to the first user terminal 100a (S513), the first user terminal 100a updates the search screen (S515). The first user terminal may update the search screen by displaying the second search data on the search screen.

도 6은 본 발명의 일 실시예에 따른 검색 기반 방송 시스템이 제공하는 방송인의 사용자 단말의 화면과 시청자의 사용자 단말의 화면을 각각 도시한 도면이다.Figure 6 is a diagram illustrating the screen of a broadcaster's user terminal and the screen of a viewer's user terminal provided by a search-based broadcasting system according to an embodiment of the present invention.

도 6을 참조하면, 제1 사용자 단말(100a)의 방송 화면(1051a)에는 촬영 데이터가 표시될 수 있고, 채팅 화면(1053a)에는 채팅 데이터가 표시될 수 있고, 검색 화면(1055a)에는 제1 검색 데이터가 표시될 수 있다.Referring to FIG. 6, shooting data may be displayed on the broadcast screen 1051a of the first user terminal 100a, chatting data may be displayed on the chat screen 1053a, and the first user terminal 100a may display the first screen 1055a. Search data may be displayed.

제2 사용자 단말(100b)의 방송 화면(1051b)에는 방송 데이터가 표시될 수 있고, 채팅 화면(1053b)에는 채팅 데이터가 표시될 수 있다.Broadcast data may be displayed on the broadcast screen 1051b of the second user terminal 100b, and chat data may be displayed on the chat screen 1053b.

제1 사용자 단말(100a)의 방송 화면(1051a)과 제2 사용자 단말(100b)의 방송 화면(1051b)은 동일한 화면 또는 적어도 일부가 동일한 화면일 수 있다.The broadcast screen 1051a of the first user terminal 100a and the broadcast screen 1051b of the second user terminal 100b may be the same screen or at least part of the same screen.

제1 사용자 단말(100a)의 채팅 화면(1053a)과 제2 사용자 단말(100b)의 채팅 화면(1053b)은 동일한 채팅 데이터 또는 적어도 일부가 동일한 채팅 데이터를 출력할 수 있다.The chat screen 1053a of the first user terminal 100a and the chat screen 1053b of the second user terminal 100b may output the same chat data or at least some of the same chat data.

제1 사용자 단말(100a)의 검색 화면(1055a)에는 서버(200)로부터 전송된 제1 검색 데이터가 표시될 수 있다. 제1 검색 데이터는 방송 화면(1051a)에 표시된 촬영 데이터와 관련된 데이터일 수 있다.First search data transmitted from the server 200 may be displayed on the search screen 1055a of the first user terminal 100a. The first search data may be data related to the shooting data displayed on the broadcast screen 1051a.

예를 들어, 제1 사용자 단말(100a)의 카메라부(101a)가 광장시장을 실시간으로 촬영하면, 서버(200)는 제1 사용자 단말(100a)로부터 전송된 촬영 데이터로부터 광장시장을 식별할 수 있다. 서버(200)는 데이터베이스(205)에 광장시장을 검색하고, 검색 데이터를 분류하여 제1 사용자 단말(100a)에 전송할 수 있다.For example, when the camera unit 101a of the first user terminal 100a photographs the Gwangjang Market in real time, the server 200 can identify the Gwangjang Market from the shooting data transmitted from the first user terminal 100a. there is. The server 200 may search the Gwangjang Market in the database 205, classify the search data, and transmit it to the first user terminal 100a.

제1 사용자 단말(100a)의 검색 화면(1055a)에는, 광장시장의 먹거리를 설명하는 텍스트 데이터(광장시장: 막걸리, 빈대떡, 꼼장어), 광장시장 인근의 자연 환경인 청계천을 직접적으로 설명하는 텍스트 데이터(청계천: 개요, 역사, 복원, 교량), 광장시장 인근의 오래된 건물인 세운상가의 이슈를 설명하는 텍스트 데이터(세운상가: 주상복합아파트, 역사), 광장시장 인근의 또 다른 시장인 방산시장의 상품을 설명하는 텍스트 데이터(방산시장: 비닐, 등산복, 침구, 옷)가 제1 검색 데이터로서 표시될 수 있다.In the search screen 1055a of the first user terminal 100a, text data describing the food of Gwangjang Market (Gwangjang Market: Makgeolli, Bindaetteok, Sea Eel), text data directly describing Cheonggyecheon, a natural environment near Gwangjang Market. (Cheonggyecheon: Overview, History, Restoration, Bridges), Text data explaining the issues of Sewoon Shopping Center, an old building near Gwangjang Market (Sewoon Shopping Center: Residential and commercial complex, history), Bangsan Market, another market near Gwangjang Market Text data describing a product (Bangsan Market: vinyl, hiking clothes, bedding, clothes) may be displayed as first search data.

한편, 서버(200)에 의해 채팅 데이터와 제1 검색 데이터의 공통 단어로서 “빈대떡”이 추출되어 “빈대떡”을 가리키는 공통 단어 식별 데이터가 제1 사용자 단말(100a)에 전송되면, 제1 사용자 단말(100a)은 “빈대떡”을 다른 단어와 구별되도록 음영 표시할 수 있다. 이때, 제1 사용자 단말(100a)은 검색 화면(1055a)에서 “빈대떡”의 카테고리에 해당하는 “광장시장” 역시 “빈대떡”과 같이 음영 표시할 수 있으며, 이에 한정하지 않는다. 제1 사용자 단말(100a)은 채팅 화면(1053a)에서 “빈대떡”을 다른 단어와 구별되도록 음영 표시할 수 있으며, 이에 한정하지 않는다.Meanwhile, when “Bindaetteok” is extracted as a common word of the chat data and the first search data by the server 200 and common word identification data indicating “Bindaetteok” is transmitted to the first user terminal 100a, the first user terminal (100a) can shade “Bindaetteok” to distinguish it from other words. At this time, the first user terminal 100a may also display “Gwangjang Market” corresponding to the category of “Bindaetteok” in shades like “Bindaetteok” on the search screen 1055a, but is not limited to this. The first user terminal 100a may shade “Bindaetteok” on the chat screen 1053a to distinguish it from other words, but is not limited to this.

도시하지 않았으나, 서버(200)는 “빈대떡”을 가리키는 공통 단어 식별 데이터를 제2 사용자 단말(100b)에 전송할 수도 있다. 이때, 제2 사용자 단말(100b)은 채팅 화면(1053b)에서 “빈대떡”을 다른 단어와 구별되도록 음영 표시할 수 있다.Although not shown, the server 200 may transmit common word identification data indicating “Bindaetteok” to the second user terminal 100b. At this time, the second user terminal 100b may shade “Bindaetteok” to distinguish it from other words on the chat screen 1053b.

한편, 방송인이 제1 사용자 단말(100a)의 검색 화면(1055b) 내 “빈대떡”을 선택한 경우, 제1 사용자 단말(100a)은 사용자 입력에 따른 공통 단어 선택 데이터를 서버(200)에 전송할 수 있다.Meanwhile, when the broadcaster selects “Bindaetteok” in the search screen 1055b of the first user terminal 100a, the first user terminal 100a may transmit common word selection data according to the user input to the server 200. .

도 7은 본 발명의 일 실시예에 따른 검색 기반 방송 시스템이 제공하는 방송인의 사용자 단말의 화면과 시청자의 사용자 단말의 화면을 각각 도시한 도면이다.Figure 7 is a diagram illustrating the screen of a broadcaster's user terminal and the screen of a viewer's user terminal provided by a search-based broadcasting system according to an embodiment of the present invention.

도 7을 참조하면, 서버(200)는 도 6의 제1 사용자 단말(100a)로부터 수신한 공통 단어 선택 데이터에 대응하여 “빈대떡”에 대한 제2 검색 데이터를 생성할 수 있다.Referring to FIG. 7, the server 200 may generate second search data for “Bindaetteok” in response to the common word selection data received from the first user terminal 100a of FIG. 6.

이때, 서버(200)는 “빈대떡”과 “빈대떡”의 카테고리에 해당하는 “광장시장”을 함께 검색한 결과로서 제2 검색 데이터를 생성할 수 있다.At this time, the server 200 may generate second search data as a result of searching together “Bindaetteok” and “Gwangjang Market” corresponding to the categories of “Bindaetteok”.

도시하지 않았으나, 서버(200)는 “빈대떡”을 검색한 결과로서 제2 검색 데이터를 생성할 수도 있고, “빈대떡”의 카테고리에 해당하는 “광장시장”이 속한 지역과 “빈대떡”을 함께 검색한 결과로서 제2 검색 데이터를 생성할 수도 있으며, 이에 한정하지 않는다.Although not shown, the server 200 may generate second search data as a result of searching for “Bindaetteok,” and search for “Bindaetteok” together with the area where “Gwangjang Market,” which corresponds to the category of “Bindaetteok,” belongs. Second search data may be generated as a result, but the method is not limited to this.

제2 검색 데이터는 “광장시장” 내 “빈대떡 판매처”를 지도 상에 표시한 이미지 데이터 및 “광장시장” 내 “빈대떡 판매처”를 나열한 텍스트 데이터를 포함할 수 있다.The second search data may include image data showing “Bindaetteok Sellers” in “Gwangjang Market” on a map and text data listing “Bindaetteok Sellers” in “Gwangjang Market.”

이미지 데이터는 제1 사용자 단말(100a)의 현재 위치를 나타내는 인디케이터(100ai)를 더 포함할 수 있다.The image data may further include an indicator 100ai indicating the current location of the first user terminal 100a.

서버(200)는 “광장시장” 내 “빈대떡 판매처”를 지도 상에 표시한 이미지 데이터를 제1 사용자 단말(100a) 및 제2 사용자 단말(100b)에, “광장시장” 내 “빈대떡 판매처”를 나열한 텍스트 데이터를 제1 사용자 단말(100a)에 전송할 수 있다.The server 200 sends image data showing “Bindaetteok Sellers” in “Gwangjang Market” on a map to the first user terminal 100a and the second user terminal 100b, and sends “Bindaetteok Sellers” in “Gwangjang Market” to the first user terminal 100a and the second user terminal 100b. The listed text data can be transmitted to the first user terminal 100a.

제1 사용자 단말(100a)의 방송 화면(1051a) 및 제2 사용자 단말(100b)의 방송 화면(1051b)에는 각각 “광장시장” 내 “빈대떡 판매처”를 지도 상에 표시한 이미지 데이터가 표시될 수 있다.The broadcast screen 1051a of the first user terminal 100a and the broadcast screen 1051b of the second user terminal 100b may display image data showing the “Bindaetteok Sales Store” in the “Gwangjang Market” on a map, respectively. there is.

제1 사용자 단말(100a)의 검색 화면(1055a)에는 “광장시장” 내 “빈대떡 판매처”를 나열한 텍스트 데이터가 표시될 수 있다.Text data listing “Bindaetteok Sellers” in “Gwangjang Market” may be displayed on the search screen 1055a of the first user terminal 100a.

한편, 서버(200)는 채팅 데이터와 제2 검색 데이터의 공통 단어로서 “B네 빈대떡”이 추출되어 “B네 빈대떡”을 가리키는 공통 단어 식별 데이터가 제1 사용자 단말(100a)에 전송되면, 제1 사용자 단말(100a)은 “B네 빈대떡”을 다른 단어와 구별되도록 음영 표시할 수 있다. 이때, 제1 사용자 단말(100a)은 검색 화면(1055a)에서 “B네 빈대떡”의 카테고리에 해당하는 “광장시장” 및 “빈대떡” 역시 “B네 빈대떡”과 같이 음영 표시할 수 있으며, 이에 한정하지 않는다. 제1 사용자 단말(100a)은 채팅 화면(1053a)에서 “B네 빈대떡”을 다른 단어와 구별되도록 음영 표시할 수 있으며, 이에 한정하지 않는다.Meanwhile, the server 200 extracts “B’s Bindaetteok” as a common word between the chat data and the second search data and transmits common word identification data indicating “B’s Bindaetteok” to the first user terminal 100a. 1 The user terminal 100a can shade “B’s Bindaetteok” to distinguish it from other words. At this time, the first user terminal 100a may also shade “Gwangjang Market” and “Bindaetteok” corresponding to the category of “B’s Bindaetteok” in the search screen 1055a, such as “B’s Bindaetteok,” and is limited to this. I never do that. The first user terminal 100a may shade “B’s Bindaetteok” to distinguish it from other words on the chat screen 1053a, but is not limited to this.

도시하지 않았으나, 서버(200)는 “B네 빈대떡”을 가리키는 공통 단어 식별 데이터를 제2 사용자 단말(100b)에 전송할 수도 있다. 이때, 제2 사용자 단말(100b)은 채팅 화면(1053b)에서 “B네 빈대떡”을 다른 단어와 구별되도록 음영 표시할 수 있다.Although not shown, the server 200 may transmit common word identification data indicating “B's Bindaetteok” to the second user terminal 100b. At this time, the second user terminal 100b may shade “B’s Bindaetteok” to distinguish it from other words on the chat screen 1053b.

도시하지 않았으나, 방송인이 제1 사용자 단말(100a)의 검색 화면(1055b) 내 “B네 빈대떡”을 선택한 경우, 제1 사용자 단말(100a)은 사용자 입력에 따른 공통 단어 선택 데이터를 서버(200)에 전송할 수 있다.Although not shown, when the broadcaster selects “B's Bindaetteok” in the search screen 1055b of the first user terminal 100a, the first user terminal 100a sends common word selection data according to the user input to the server 200. can be transmitted to.

이때, 서버(200)는 제1 사용자 단말(100a)의 현재 위치를 나타내는 인디케이터(100ai)로부터 “B네 빈대떡”에 이르는 경로가 표시된 이미지 데이터 및 제1 사용자 단말(100a)의 현재 위치로부터 “B네 빈대떡”에 이르는 경로를 설명한 텍스트 데이터를 생성할 수 있다.At this time, the server 200 displays image data showing the path from the indicator 100ai indicating the current location of the first user terminal 100a to “B’s Bindaetteok” and “B” from the current location of the first user terminal 100a. You can create text data that describes the path to “your Bindaetteok”.

서버(200)는 제1 사용자 단말(100a)의 현재 위치를 나타내는 인디케이터(100ai)로부터 “B네 빈대떡”에 이르는 경로가 표시된 이미지 데이터를 제1 사용자 단말(100a) 및 제2 사용자 단말(100b)에, 제1 사용자 단말(100a)의 현재 위치로부터 “B네 빈대떡”에 이르는 경로를 설명한 텍스트 데이터를 제1 사용자 단말(100a)에 전송할 수 있다.The server 200 sends image data showing the path from the indicator 100ai indicating the current location of the first user terminal 100a to “B’s Bindaetteok” to the first user terminal 100a and the second user terminal 100b. In this case, text data describing the path from the current location of the first user terminal 100a to “B’s Bindaetteok” can be transmitted to the first user terminal 100a.

이를 통해 방송인은 실시간 방송을 수행하면서 실시간 검색한 결과 중 실시간 채팅을 통해 시청자가 관심을 갖는 주제를 정확하고 신속하게 파악할 수 있으므로 시청자와 소통이 가능한 방송 서비스를 제공할 수 있다.Through this, broadcasters can accurately and quickly identify topics that viewers are interested in through real-time chat among real-time search results while performing real-time broadcasting, thereby providing a broadcasting service that allows communication with viewers.

이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.So far, the present invention has been examined with a focus on preferred embodiments. A person skilled in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention.

그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and the inventions claimed by the claims and inventions equivalent to the claimed inventions should be construed as included in the present invention.

100a: 제1 사용자 단말
100b: 제2 사용자 단말
200: 서버
205: 데이터베이스
100a: first user terminal
100b: second user terminal
200: server
205: database

Claims (20)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1 사용자 단말, 제2 사용자 단말, 및 서버를 포함하는 검색 기반 방송 시스템에 있어서, 상기 제1 사용자 단말은,
실시간 촬영을 수행하여 촬영 데이터를 생성하는 카메라부;
서버에 촬영 데이터를 전송하고, 상기 서버로부터 채팅 데이터 및 제1 검색 데이터를 수신하는 통신 인터페이스;
방송 화면, 채팅 화면, 및 검색 화면을 표시하는 디스플레이부; 및
상기 방송 화면에 상기 촬영 데이터가, 상기 채팅 화면에 상기 채팅 데이터가, 상기 검색 화면에 상기 제1 검색 데이터가 표시되도록 제어하는 프로세서;를 포함하고,
상기 제1 검색 데이터는 상기 촬영 데이터로부터 식별된 오브젝트에 대한 데이터이며, 복수의 카테고리들로 분류 가능한 데이터이고,
상기 통신 인터페이스는 상기 서버로부터 공통 단어 식별 데이터를 수신하고,
상기 프로세서는 상기 검색 화면에 상기 공통 단어 식별 데이터에 대응하는 공통 단어가 다른 단어와 구별되도록 표시하는, 검색 기반 방송 시스템.
In a search-based broadcasting system including a first user terminal, a second user terminal, and a server, the first user terminal:
A camera unit that performs real-time shooting to generate shooting data;
a communication interface that transmits shooting data to a server and receives chatting data and first search data from the server;
A display unit that displays a broadcast screen, a chat screen, and a search screen; and
A processor configured to control the captured data to be displayed on the broadcast screen, the chat data to be displayed on the chat screen, and the first search data to be displayed on the search screen,
The first search data is data about an object identified from the shooting data and is data that can be classified into a plurality of categories,
the communication interface receives common word identification data from the server,
The processor displays a common word corresponding to the common word identification data on the search screen to distinguish it from other words.
청구항 9에 있어서,
상기 오브젝트가 상품인 경우 상기 제1 검색 데이터는 상품 카테고리로 분류 가능한 데이터이며,
상기 상품 카테고리는 판매처, 가격 비교, 유사 상품 중 적어도 하나를 포함하는, 검색 기반 방송 시스템.
In claim 9,
When the object is a product, the first search data is data that can be classified into a product category,
A search-based broadcasting system in which the product category includes at least one of a seller, price comparison, and similar products.
청구항 9에 있어서,
상기 오브젝트가 장소인 경우 상기 제1 검색 데이터는 장소 카테고리로 분류 가능한 데이터이며,
상기 장소 카테고리는 인근 명소, 뉴스, 역사, 행사, 교통 수단 중 적어도 하나를 포함하는, 검색 기반 방송 시스템.
In claim 9,
When the object is a place, the first search data is data that can be classified into a place category,
A search-based broadcasting system in which the place category includes at least one of nearby attractions, news, history, events, and transportation.
청구항 9에 있어서,
상기 제1 검색 데이터는 검색 엔진 카테고리로 분류 가능한 데이터이며,
상기 검색 엔진 카테고리는 검색 엔진에 상기 오브젝트를 검색한 결과를 가리키는, 검색 기반 방송 시스템.
In claim 9,
The first search data is data that can be classified into search engine categories,
The search engine category is a search-based broadcasting system that indicates results of searching the object in a search engine.
청구항 9에 있어서,
상기 촬영 데이터는 이미지 데이터를 포함하고,
상기 촬영 데이터는 상기 오브젝트를 화면의 소정 위치에서 소정 시간 이상 촬영한 데이터인, 검색 기반 방송 시스템.
In claim 9,
The shooting data includes image data,
A search-based broadcasting system in which the captured data is data obtained by photographing the object at a predetermined location on the screen over a predetermined period of time.
삭제delete 청구항 9에 있어서,
상기 공통 단어를 선택하는 사용자 입력을 수신하는 사용자 인터페이스;를 더 포함하고,
상기 프로세서는 상기 사용자 입력에 대응하여 공통 단어 선택 데이터를 생성하고,
상기 통신 인터페이스는 상기 서버에 상기 공통 단어 선택 데이터를 전송하고, 상기 서버로부터 제2 검색 데이터를 수신하고,
상기 프로세서는 상기 검색 화면에 상기 제2 검색 데이터가 표시되도록 제어하고,
상기 제2 검색 데이터는 상기 공통 단어와 관련된 데이터이며, 복수의 카테고리들로 분류 가능한 데이터인, 검색 기반 방송 시스템.
In claim 9,
It further includes a user interface that receives user input for selecting the common word,
The processor generates common word selection data in response to the user input,
The communication interface transmits the common word selection data to the server and receives second search data from the server,
The processor controls the second search data to be displayed on the search screen,
The second search data is data related to the common word and is data that can be classified into a plurality of categories.
청구항 9에 있어서,
상기 제2 사용자 단말의 방송 화면에는 상기 촬영 데이터를 포함하는 방송 데이터가, 상기 제2 사용자 단말의 채팅 화면에는 상기 채팅 데이터가 표시되는, 검색 기반 방송 시스템.
In claim 9,
A search-based broadcasting system in which broadcast data including the captured data is displayed on a broadcast screen of the second user terminal, and the chat data is displayed on a chat screen of the second user terminal.
제1 사용자 단말, 제2 사용자 단말, 및 서버를 포함하는 검색 기반 방송 시스템의 구동 방법에 있어서,
상기 제1 사용자 단말에 의해, 실시간 촬영을 수행하여 촬영 데이터를 생성하고, 방송 화면에 상기 촬영 데이터를 표시하고, 상기 서버에 상기 촬영 데이터를 전송하는 단계;
상기 서버에 의해, 상기 제2 사용자 단말에 상기 촬영 데이터를 포함하는 방송 데이터를 전송하는 단계;
상기 제2 사용자 단말에 의해, 방송 화면에 상기 방송 데이터를 표시하고, 채팅 화면에 채팅 데이터를 표시하고, 서버에 상기 채팅 데이터를 전송하는 단계;
상기 서버에 의해, 상기 채팅 데이터를 상기 제1 사용자 단말에 전송하고, 상기 촬영 데이터에 기초하여 오브젝트를 식별하고, 상기 오브젝트에 대한 제1 검색 데이터를 생성하고, 상기 제1 검색 데이터를 상기 제1 사용자 단말에 전송하는 단계; 및
상기 제1 사용자 단말에 의해, 채팅 화면에 상기 채팅 데이터를 표시하고, 검색 화면에 상기 제1 검색 데이터를 표시하는 단계;를 포함하고,
상기 제1 검색 데이터는 상기 촬영 데이터로부터 식별된 오브젝트에 대한 데이터이며, 복수의 카테고리들로 분류 가능한 데이터이고,
상기 서버에 의해, 상기 채팅 데이터와 상기 제1 검색 데이터의 공통 단어를 추출하고, 상기 제1 사용자 단말에 공통 단어 식별 데이터를 전송하는 단계;
상기 서버에 의해, 상기 제1 사용자 단말로부터 공통 단어 선택 데이터를 수신하고, 상기 공통 단어 선택 데이터에 대응하여 상기 공통 단어에 대한 제2 검색 데이터를 생성하는 단계;
상기 서버에 의해, 상기 제1 사용자 단말에 상기 제2 검색 데이터를 전송하는 단계; 및
상기 제1 사용자 단말에 의해, 상기 검색 화면에 상기 제2 검색 데이터를 표시하는 단계;를 더 포함하는, 검색 기반 방송 시스템의 구동 방법.
In a method of driving a search-based broadcasting system including a first user terminal, a second user terminal, and a server,
generating captured data by performing real-time shooting by the first user terminal, displaying the captured data on a broadcast screen, and transmitting the captured data to the server;
transmitting, by the server, broadcast data including the shooting data to the second user terminal;
Displaying the broadcast data on a broadcast screen, displaying chat data on a chat screen, and transmitting the chat data to a server, by the second user terminal;
By the server, the chat data is transmitted to the first user terminal, an object is identified based on the shooting data, first search data for the object is generated, and the first search data is sent to the first user terminal. Transmitting to a user terminal; and
Comprising: displaying the chat data on a chat screen and displaying the first search data on a search screen, by the first user terminal,
The first search data is data about an object identified from the shooting data and is data that can be classified into a plurality of categories,
Extracting, by the server, a common word between the chatting data and the first search data and transmitting common word identification data to the first user terminal;
receiving common word selection data from the first user terminal, by the server, and generating second search data for the common word in response to the common word selection data;
transmitting, by the server, the second search data to the first user terminal; and
A method of driving a search-based broadcasting system, further comprising: displaying the second search data on the search screen by the first user terminal.
청구항 17에 있어서,
상기 제1 검색 데이터는 상품 카테고리로 분류 가능한 데이터, 장소 카테고리로 분류 가능한 데이터, 및 검색 엔진 카테고리로 분류 가능한 데이터 중 적어도 하나를 포함하는, 검색 기반 방송 시스템의 구동 방법.
In claim 17,
The first search data includes at least one of data classifiable into a product category, data classifiable into a place category, and data classifiable into a search engine category.
청구항 17에 있어서,
상기 서버에 의해, 상기 촬영 데이터에 기초하여 오브젝트를 식별하는 단계는,
상기 촬영 데이터에 포함된 이미지 데이터를 분석하여 화면의 소정 위치에서 소정 시간 이상 촬영된 오브젝트를 주기적으로 식별하는 단계인, 검색 기반 방송 시스템의 구동 방법.
In claim 17,
The step of identifying, by the server, an object based on the photographed data,
A method of driving a search-based broadcasting system, which is a step of periodically identifying objects photographed over a predetermined time at a predetermined location on the screen by analyzing image data included in the captured data.
삭제delete
KR1020220045949A 2021-09-03 2022-04-13 Search-based broadcasting system and operating method thereof Active KR102620988B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210117509 2021-09-03
KR20210117509 2021-09-03

Publications (2)

Publication Number Publication Date
KR20230034865A KR20230034865A (en) 2023-03-10
KR102620988B1 true KR102620988B1 (en) 2024-01-05

Family

ID=85511752

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020220045949A Active KR102620988B1 (en) 2021-09-03 2022-04-13 Search-based broadcasting system and operating method thereof
KR1020220111465A Ceased KR20230034921A (en) 2021-09-03 2022-09-02 Real-time purchase broadcasting system and operating method thereof
KR1020220111464A Active KR102620989B1 (en) 2021-09-03 2022-09-02 Real-time sales broadcasting system and operating method thereof

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020220111465A Ceased KR20230034921A (en) 2021-09-03 2022-09-02 Real-time purchase broadcasting system and operating method thereof
KR1020220111464A Active KR102620989B1 (en) 2021-09-03 2022-09-02 Real-time sales broadcasting system and operating method thereof

Country Status (1)

Country Link
KR (3) KR102620988B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102772261B1 (en) * 2023-05-23 2025-02-26 주식회사 메타전스 System for providing optical character recognition based homeshopping product searching and comparing service

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101482094B1 (en) * 2011-06-27 2015-01-13 주식회사 케이티 Method and system for providing information associated with image
KR101720940B1 (en) * 2013-01-28 2017-04-10 네이버 주식회사 Apparatus, method and computer readable recording medium for sharing a real time video through a chatting window of a messenger service
KR20160022432A (en) * 2014-08-19 2016-03-02 정무성 Bargaining Induction System Using Curation Commerce and Method thereof
KR101914840B1 (en) * 2016-12-30 2018-11-02 최원석 Online marketing system and method thereof
KR101929649B1 (en) * 2017-02-10 2018-12-14 한양대학교 산학협력단 System and method for recommendation of open chat room through chat log keyword extraction
KR101901454B1 (en) * 2017-03-24 2018-09-21 박수범 A real-time shopping method using image recognition in broadcasting and a smart phone equipped with an application for implementing it
KR20170073563A (en) * 2017-06-15 2017-06-28 지대호 Method and apparatus for providing bi-directional escrow service of electronic commerce
US11631096B2 (en) * 2018-10-02 2023-04-18 Mercari, Inc. Inventory ingestion, image processing, and market descriptor pricing system

Also Published As

Publication number Publication date
KR20230034920A (en) 2023-03-10
KR20230034865A (en) 2023-03-10
KR20230034921A (en) 2023-03-10
KR102620989B1 (en) 2024-01-05

Similar Documents

Publication Publication Date Title
US20200245036A1 (en) Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game
KR102014761B1 (en) Method and system for sorting a search result with space objects, and a computer-readable storage device
CN107870962B (en) Method and system for remotely managing local space objects
JP6120467B1 (en) Server device, terminal device, information processing method, and program
US11392996B2 (en) Systems and methods for creating a navigable path between pages of a network platform based on linking database entries of the network platform
CN108230220B (en) Watermark adding method and device
KR101670824B1 (en) Method for Intermediating Advertisement Director and Advertiser
WO2019192424A1 (en) Short video processing method and device, and mobile terminal
EP3388958B1 (en) Method and system for managing viewability of location-based spatial object
KR102620988B1 (en) Search-based broadcasting system and operating method thereof
US20210118065A1 (en) Location-Based Open Social Networks And Incentivization Methods
US12333615B2 (en) Location-based open social networks
KR101502984B1 (en) Method and apparatus for providing information of objects in contents and contents based on the object
JP2017228278A (en) Server device, terminal device, information processing method, and program
US8955011B1 (en) Location-based movie identification systems and methods
US20200242666A1 (en) Location-Based Open Social Networks And Incentivization Methods
US10368213B1 (en) Location-based open social networks
US10230676B2 (en) Location-based open social networks
KR101923130B1 (en) Social Networking Service Providing System
TWI779375B (en) Method for conditionally displaying digital content, system thereof and computer-readable storage
KR20200020431A (en) Server for managing of natural park tour service
WO2009002098A1 (en) Method for providing and searching information keyword and information contents related to contents and system thereof
RU2754199C1 (en) Method for e-commerce through a public broadcasting environment
KR101082928B1 (en) System for providing moving pictures on the basis of a user and its method
CN114443973A (en) Conditional digital content display method, system and computer readable medium

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PA0302 Request for accelerated examination

St.27 status event code: A-1-2-D10-D17-exm-PA0302

St.27 status event code: A-1-2-D10-D16-exm-PA0302

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

AMND Amendment
E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E601 Decision to refuse application
PE0601 Decision on rejection of patent

St.27 status event code: N-2-6-B10-B15-exm-PE0601

AMND Amendment
E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PX0901 Re-examination

St.27 status event code: A-2-3-E10-E12-rex-PX0901

PX0701 Decision of registration after re-examination

St.27 status event code: A-3-4-F10-F13-rex-PX0701

X701 Decision to grant (after re-examination)
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601