KR100642888B1 - A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method. - Google Patents
A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method. Download PDFInfo
- Publication number
- KR100642888B1 KR100642888B1 KR1020040083637A KR20040083637A KR100642888B1 KR 100642888 B1 KR100642888 B1 KR 100642888B1 KR 1020040083637 A KR1020040083637 A KR 1020040083637A KR 20040083637 A KR20040083637 A KR 20040083637A KR 100642888 B1 KR100642888 B1 KR 100642888B1
- Authority
- KR
- South Korea
- Prior art keywords
- video
- story
- narrative structure
- extracting
- story development
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
본 발명은 드라마와 같은 스토리 중심 비디오에서 스토리 이해가 가능한 비디오 요약 생성 방법에 관한 것으로, 더욱 상세하게는 스토리가 있는 비디오에 대해 자동으로 서사 구조 (스토리 전개 구조) 및 단위별 전개 정도(양)를 추출할 수 있고, 이를 기반으로 원하는 시간에 맞는 스토리 이해가 가능한 비디오 요약을 자동으로 생성할 수 있는 비디오 요약 생성 방법 및 그 방법을 구현하기 위한 프로그램을 저장한 기록매체에 관한 것이다.The present invention relates to a method of generating a video summary capable of understanding a story in a story-driven video such as drama, and more specifically, to the narrative video, the narrative structure (story development structure) and the degree of development (quantity) per unit are automatically determined. The present invention relates to a video summary generation method capable of automatically generating video summaries that can be extracted, and to a story understanding based on a desired time, and a recording medium storing a program for implementing the method.
본 발명에 따르면, 스토리가 있는 비디오에 대한 요약 서비스를 제공할 시 각 비디오에 대해 본 발명에서 제시하는 비디오 분석 규칙에 따라 비디오를 분석하여, 스토리 전개 구조 및 단위별 전개 정도를 생성하고, 이를 기반으로 입력된 사용자가 원하는 요약 시간에 맞게 스토리 전개를 가장 잘 표현할 수 있는 축약된 요약 비디오를 생성한다. 사용자는 생성된 요약 비디오를 보고 제한된 시간 안에 전체 스토리를 파악할 수 있다.According to the present invention, when providing a summary service for a video having a story, the video is analyzed according to the video analysis rules proposed in the present invention for each video to generate a story development structure and a degree of development for each unit, and based on this. Create a shortened summary video that best represents the story development for the summary time input by the user. The user can view the generated summary video and get the full story within a limited time.
비디오, 요약, 스토리, 이해, 스토리 전개, 비디오 분석, 서사 구조Video, summary, story, understanding, story development, video analysis, narrative structure
Description
도 1은 종래의 요약 방법에 따른 축구 비디오의 주요 장면 특성을 나타낸 예시도.1 is an exemplary view showing the main scene characteristics of a soccer video according to a conventional summary method.
도 2는 가변 샘플링율을 이용한 종래의 요약 방법을 도식화한 예시도.2 is a diagram illustrating a conventional summary method using a variable sampling rate.
도 3은 본 발명의 실시 예에 따른 전처리 과정의 상세 과정을 나타낸 도면.3 is a view showing a detailed process of the pretreatment process according to an embodiment of the present invention.
도 4는 본 발명의 실시 예에 따른 등장인물간의 상호 작용의 종류를 나타낸 예시도.Figure 4 is an illustration showing the type of interaction between the characters according to an embodiment of the present invention.
도 5는 본 발명의 실시 예에 따른 상호 작용이 있는 신간에 적용 가능한 필름 작성 기술의 종류를 나타낸 예시도.5 is an exemplary view showing a kind of film making technology applicable to a new book with interaction according to an embodiment of the present invention.
도 6은 본 발명에서 제시한 서사 구조 그래프의 예시도.Figure 6 is an illustration of a narrative structure graph presented in the present invention.
도 7은 도 6에 도시된 사용자가 입력한 요약 시간에 따른 요약 결과 서브 그래프 예시도.FIG. 7 is a diagram illustrating a summary result subgraph according to a summary time input by a user illustrated in FIG. 6.
도 8은 본 발명에서 제시한 스토리 이해 가능한 비디오 요약 방법의 전 과정을 간략히 나타낸 도면.8 is a view briefly illustrating the entire process of the story comprehension video summary method presented in the present invention.
도 9는 본 발명에서 제시한 스토리 이해 가능한 비디오 요약 방법을 구현한 실험 데이터를 나타낸 도면.9 is a view showing experimental data implementing the story comprehensible video summary method proposed in the present invention.
본 발명은 스토리 이해 가능한 비디오 요약 생성방법에 관한 것이다. 보다 상세하게는 스토리가 있는 비디오에 대해 자동으로 서사 구조 및 단위별 스토리 전개 정도(양)를 추출할 수 있고, 이를 기반으로 원하는 시간에 맞는 스토리 이해가 가능한 비디오 요약을 자동으로 생성할 수 있는 비디오 요약 생성방법 및 그 방법을 구현하기 위한 프로그램이 저장된 기록매체에 관한 것이다.The present invention relates to a method for generating a story comprehensible video summary. More specifically, it is possible to automatically extract the narrative structure and the amount of story development by unit for the video with the story, and based on this, the video can automatically generate a video summary that can understand the story at the desired time. A method of generating a summary and a recording medium storing a program for implementing the method.
최근 인터넷, 모바일 기기, TV 등 다양한 매체에서의 멀티미디어 서비스가 가능해지면서, 필요한 멀티미디어 정보를 빠른 시간에 획득할 수 있는 방법에 대한 요구가 증가하고 있다. 특히, 비디오의 경우 하나의 비디오 파일 전체를 대상으로 하는 검색보다는 비디오 파일 내의 특정 부분을 검색하는 방법 혹은 필요 부분을 모아서 보여주는 방법과 같이 파일 내의 세부 단위를 대상으로 하는 검색이 결과 확인 시 적은 시간이 소요된다.Recently, as multimedia services are available in various media such as the Internet, mobile devices, and TVs, there is an increasing demand for a method of quickly obtaining necessary multimedia information. In particular, in the case of a video, a search for a specific unit in the file takes less time to check the results, such as searching a specific part of the video file or gathering necessary parts, rather than searching a whole video file. It takes
그 중 필요 부분을 모아서 보여주는 요약 방법은 비디오 전체에 대한 정보를 주면서도 결과 확인 시 적은 시간이 소요된다는 장점이 있는 반면, 접근 방법이 요약 결과를 보고자하는 사용자의 요구나 요약하고자 하는 대상 비디오의 내용 속성에 따라 달라진다는 단점이 있다. 예를 들어, 스포츠 비디오는 경기 규칙에 따라 비디오 가 구성되며, 주로 득점 장면이 해당 비디오의 중요 장면이 된다.The summary method, which gathers the necessary parts, has the advantage that it takes less time to check the results while providing information about the entire video, while the approach requires the user to view the summary results or the content attributes of the target video to be summarized. The disadvantage is that it depends on. For example, a sports video consists of videos according to the rules of the game, and the scoring scene is the main scene of the video.
도 1은 축구에서의 골 장면을 찾아낼 수 있는 규칙을 분석한 예이다. 도 1을 참조하면, 일반적인 축구 중계 비디오에서 골 장면의 위치가 도시되어 있다. 다큐멘터리나 드라마와 같은 비디오는 특정 부분이 중요하다기 보다는 전체 비디오에 중요 부분이 산재한다. 따라서 이런 경우 기존 연구 방법에서는 유사한 장면을 생략하는 방법으로 전체 비디오의 다양한 장면을 보여줌으로써 비디오의 전체 분위기를 파악할 수 있는 방법이 연구되어 왔다.1 is an example of analyzing a rule for finding a goal scene in soccer. Referring to FIG. 1, the location of a goal scene in a typical soccer relay video is shown. Videos such as documentaries and dramas have more important parts of the video than the ones that matter. Therefore, in this case, the existing research method has been studied how to grasp the overall mood of the video by showing various scenes of the entire video by omitting similar scenes.
도 2는 샘플링율을 다르게 하여 중복되는 부분을 제거함으로써 사용자가 전체 비디오의 변화 상황을 원래 재생 시간보다 빠르게 알 수 있도록 한 예이다. 즉, 화면의 변화(예를 들면, 색상의 변화, 움직임의 변화 등)가 많은 부분(201)은 샘플링율을 높이고 변화가 적은 부분(202)은 샘플링율을 낮춰 전체 비디오의 변화 상황을 빨리 재생시키는 방법이 도시되어 있다.FIG. 2 is an example in which a user may notice a change state of the entire video earlier than the original playback time by removing overlapping portions by changing sampling rates. That is, the
드라마와 같은 스토리 중심 비디오의 경우 요약을 보고자 하는 사용자는 특정 부분 뿐만 아니라 전체 스토리가 어떻게 전개되었는지를 알기를 원한다. 도 1의 방법을 사용할 경우 특정 성질을 가진 부분을 검출하거나, 도 2의 방법을 사용할 경우 누가 등장했는지 정도의 상황을 알 수 있으나, 어떤 스토리가 전개되었는지를 파악하기는 어렵다는 문제점이 있다.In case of story-driven video, such as drama, a user who wants to see a summary wants to know not only the specific part but also how the entire story is developed. When the method of FIG. 1 is used, a part having a specific property is detected, or when the method of FIG. 2 is used, it is possible to know the situation as to who appeared, but it is difficult to determine what story has been developed.
이에, 본 발명은 상기한 문제점을 해결하기 위한 것으로서 본 발명의 목적은 드라마와 같은 스토리 중심 비디오에서 사용자가 스토리를 이해할 수 있도록 하는 특 성을 추출하고, 이를 바탕으로 스토리 이해가 가능한 비디오 요약본을 생성할 수 있는 비디오 요약 생성 방법 및 그 방법을 구현하기 위한 프로그램이 저장된 기록매체를 제시하는데 있다.Accordingly, an object of the present invention is to solve the above problems, and an object of the present invention is to extract a feature that allows a user to understand a story in a story-centric video such as drama, and generate a video summary that can be understood based on the story. The present invention provides a method for generating a video summary and a recording medium storing a program for implementing the method.
본 발명의 다른 목적은 사용자가 네트워크 환경이나 개인 환경의 영향으로 보고자 하는 요약 시간을 다르게 설정하여도, 주어진 요약 시간에 맞는 스토리 이해가 가능한 비디오 요약을 생성할 수 있는 비디오 요약 생성 방법 및 그 방법을 구현하기 위한 프로그램이 저장된 기록매체를 제시하는데 있다.It is another object of the present invention to provide a video summary generation method and method for generating a video summary capable of understanding a story for a given summary time, even if the user sets a different summary time due to the influence of a network environment or a personal environment. A program for implementing is provided to present a stored recording medium.
본 발명의 또 다른 목적은 모든 과정을 자동화하여 요약 생성 시 소용되는 인력과 시간을 절감시키는 주어진 요약 시간에 맞는 스토리 이해가 가능한 비디오 요약을 생성할 수 있는 비디오 요약 생성 방법 및 그 방법을 구현하기 위한 프로그램이 저장된 기록매체를 제시하는데 있다.It is still another object of the present invention to implement a video summary generation method and method for automating all processes to generate a video summary capable of story comprehension for a given summary time, which reduces the manpower and time required for generating the summary. The program is to present a stored recording medium.
상기한 본 발명의 목적을 달성하기 위한 기술적 사상으로서, 본 발명에서는, 스토리 중심 비디오에 대해 스토리 이해가 가능한 요약본을 생성하는 방법에 있어서, 사용자로부터 요약될 대상의 소스 비디오를 입력받는 단계와; 상기 소스 비디오에 대하여 미리 지정된 전처리 과정을 수행하는 단계; 상기 전처리 과정으로부터 생성된 정보를 대상으로 서사 구조와 단위별 스토리 전개 정도를 계산하여 생성하는 단계; 상기 사용자로부터 요약 시간을 입력받는 단계; 상기 서사 구조 및 단위별 스토리 전개 정도를 이용하여 상기 요약 시간에 맞는 스토리 이해가 가능한 요약본을 생성하는 단계를 포함하는 스토리 이해가 가능한 요약본을 생성하는 방법이 제공되고, 해당 스토리 중심 비디오의 스토리 이해 가능한 요약 생성 방법의 수행을 가능하게 하는 시스템, 장치 및 기록매체가 제공된다.As a technical idea for achieving the above object of the present invention, there is provided a method for generating a story understandable summary for a story-centric video, comprising: receiving a source video of a subject to be summarized from a user; Performing a predetermined preprocessing process on the source video; Calculating a narrative structure and a story development degree for each unit based on the information generated from the preprocessing step; Receiving a summary time from the user; Provided is a method for generating a story understandable summary including the step of generating a summary capable of understanding the story in accordance with the summary time using the narrative structure and the degree of story development by unit. A system, apparatus, and record carrier are provided that enable performing the method of generating a summary.
이 때, 상기 소스 영상에 대하여 미리 지정된 전처리 과정을 수행하는 단계는 상기 소스 영상에 대하여 샷 경계를 추출하는 단계, 상기 소스 영상에 대하여 신 (서사 구조의 단위) 경계를 추출하고, 신에 속한 샷 개수와 길이를 추출하는 단계, 각 샷에 포함되어 있는 인물을 인식하고, 해당 샷에서의 각 인물의 위치를 추출하는 단계 및 각 샷에 속한 모든 프레임에서 프레임 전체와 인물 영역을 제외한 영역 (배경 영역) 의 평균 색상을 추출하는 단계를 포함할 수 있다.In this case, performing a predetermined preprocessing process on the source image may include extracting a shot boundary with respect to the source image, extracting a scene (unit of narrative structure) with respect to the source image, and taking a shot belonging to the scene. Extracting the number and length, recognizing the person included in each shot, extracting the position of each person in the shot, and all the frames belonging to each shot except the entire frame and the person area (background area) Extracting an average color of the < RTI ID = 0.0 >
또한, 상기 전처리 과정으로부터 생성된 정보를 대상으로 서사 구조와 단위별 스토리 전개 정도를 계산하여 생성하는 단계는 상기 소스 영상에서 추출된 각 신이 등장인물들 간의 상호 작용을 포함하는지 아닌지를 알아내는 단계, 상호작용을 포함하는 신에 대하여 포함된 상호 작용의 종류를 알아내는 단계와 상호작용을 포함하는 신에 대하여 모든 각 신들 간의 스토리 전개를 위한 필름 작성 기술의 적용 여부를 알아내는 단계 및 등장인물 간의 상호 작용 및 필름 작성 기술의 적용 여부를 이용한 신간 스토리 전개 정도를 계산하는 단계를 포함한다.In addition, the step of calculating and generating the narrative structure and the story development for each unit based on the information generated from the preprocessing process may include: determining whether each scene extracted from the source image includes interaction between characters; Identifying the types of interactions involved for the gods containing interactions, and identifying the application of film-making techniques for story development among all the gods for the gods containing interactions and the interaction between characters Computing the story development of the new story using the action and whether the film production technology is applied.
또한, 상기 소스 영상에서 추출된 각 신이 등장인물들 간의 상호 작용을 포함하는지 아닌지를 알아내는 단계는 적어도 두 명 이상의 등장인물을 포함하는 것을 특징으로 한다. 상기 신에 포함된 상호작용의 종류는 ‘대화 ’(등장인물들이 서로 대화를 하는 경우), ‘액션’(등장인물들 간의 움직임이 많은 경우) 등 가능한 종류 중 하나 이상이 포함될 수 있다. 또한 상호작용을 포함하는 신에 대하여 모든 각 신들 간의 스토리 전개를 위해 적용 가능한 필름 작성 기술의 종류는 ‘그래픽 관계’, ‘ 리듬적 관계’, ‘공간적 관계’, ‘시간적 관계’ 등 가능한 종류 중 하나 이상이 적용될 수 있다. 상기 등장인물 간의 상호 작용 및 필름 작성 기술의 적용 여부를 이용한 신간 스토리 전개 정도는 신에 포함된 등장인물들의 중요도와 해당 신에 포함된 상호작용의 강도 및 해당 신간에 적용된 필름 작성 기술의 강도에 따라 달라짐을 특징으로 한다.In addition, the step of determining whether each scene extracted from the source image includes the interaction between the characters is characterized in that it comprises at least two characters. The type of interaction included in the scene may include one or more of possible types such as 'conversation' (when the characters interact with each other) and 'action' (when there is a lot of movement between the characters). Also, the kind of film making technique applicable to story development between all the gods about the god including interaction is one of the possible types such as 'graphical relationship', 'rhythmical relationship', 'spatial relationship' and 'temporal relationship'. The above can be applied. The extent of the story development using the interaction between the characters and the application of the film creation technology depends on the importance of the characters included in the scene, the strength of the interaction included in the scene, and the strength of the film creation technology applied to the scene. It is characterized by the difference.
마지막으로, 상기 서사 구조 및 단위별 스토리 전개 정도를 이용하여 상기 요약 시간에 맞는 스토리 이해가 가능한 요약본을 생성하는 단계는 해당 요약 시간을 만족하고, 요약에 포함된 신간의 스토리 전개 정도가 최대가 되는 것을 특징으로 한다. Finally, the step of generating a summary capable of understanding the story in accordance with the summary time using the narrative structure and the degree of story development for each unit satisfies the summary time, and the new story development degree included in the summary is maximized. It is characterized by.
이어서, 첨부한 도면들을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명하기로 한다.Next, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명에 따른 스토리 이해가 가능한 서사 구조 중심의 비디오 요약 방법은 사용자 단말기(예를 들어, 퍼스널 컴퓨터, 이동통신단말기, 개인휴대정보단말기(PDA) 등)에 설치된 응용 프로그램(이하, 비디오 요약 요청 프로그램 이라 칭함)에 의해 수행될 수 있을 뿐 아니라, 당해 기능을 수행하기 위한 별도의 장치에 의해 수행될 수 있다. 이하에서는 본 발명에 따른 비디오 요약 방법이 사용자 단말기에 설치된 응용 프로그램에 의해 수행되는 경우를 가정하여 당해 응용 프로그램의 동작을 상세히 설명하기로 한다.The narrative structure-oriented video summarization method according to the present invention includes an application (hereinafter, a video summary request program) installed in a user terminal (eg, a personal computer, a mobile communication terminal, a personal digital assistant, etc.). It may be performed by a separate device for performing the function, as well as). Hereinafter, assuming that the video summarization method according to the present invention is performed by an application program installed in a user terminal, the operation of the application program will be described in detail.
도 3은 본 발명의 실시 예에 따른 전처리 과정과 여기서 추출된 정보를 나타 낸 도면이다.3 is a diagram illustrating a preprocessing process and information extracted therein according to an embodiment of the present invention.
도 3을 참조하면, 사용자가 요약할 대상 비디오를 입력하면, 샷 경계 및 신 경계 및 등장인물 정보를 추출한다. 이 때, 필요한 정보인 각 신(scene)에 속한 샷의 개수, 평균 길이, 평균 색상 등을 계산한다. 특히 등장인물 정보의 경우 신에 속한 프레임에서 얼굴을 인식하고, 인식한 얼굴의 위치도 추출한다.Referring to FIG. 3, when a user inputs a target video to be summarized, shot boundary, neural boundary, and character information are extracted. At this time, the number, average length, average color, etc. of shots belonging to each scene which are necessary information are calculated. In particular, in the case of character information, a face is recognized in a frame belonging to the scene, and the position of the recognized face is also extracted.
또한, 평균 색상의 경우 해당 영역 픽셀의 RGB 값을 이용한다. 샷, 신 경계, 얼굴 인식, 평균 색상 등의 추출에는 이미 존재하는 다양한 알고리즘을 사용할 수 있다. 각각 다양한 알고리즘이 이미 공개되어 있으므로 본 명세서에서는 이에 대해 언급하지 않는다.In addition, the average color uses the RGB value of the pixel of the corresponding area. Various algorithms already available for extraction of shots, nervous system, face recognition, average color, etc. can be used. Since various algorithms are already disclosed for each, the specification does not mention them.
그 후, 전처리 과정에서 생성된 각 정보를 이용하여 신에 포함된 등장인물간의 상호 작용의 종류 그리고 상호 작용이 있는 신간에 적용된 필름 작성 기술의 종류를 알아낸다.After that, the information generated in the preprocessing process is used to find out the type of interaction between the characters included in the scene and the type of film making technique applied to the book with the interaction.
도 4 및 도 5는 본 발명의 실시 예에 따른 등장 인물간의 상호 작용의 종류 및 상호 작용이 있는 신간에 적용 가능한 필름 작성 기술의 종류를 나타낸 예시도이다.4 and 5 are exemplary views showing the type of interaction between the characters according to an embodiment of the present invention and the type of film making technique applicable to the new book with the interaction.
도 4,5에서는 이미 방영된 드라마 비디오의 장면들로 예를 표시하였다. 도 4에 나타나 있는 ‘대화’, ‘액션’ 상호 작용의 경우, ‘대화’는 대화를 하고 있는 인물이 번갈아 나타나는 샷으로 신이 구성될 경우 그리고 ‘액션’은 샷들 간 혹은 샷 내부에서 등장 인물간의 거리 변화가 급격한 경우로 알아낼 수 있다.4 and 5 show examples of scenes of drama videos that have already been aired. In the case of the 'conversation', 'action' interaction shown in Fig. 4, the 'conversation' is when the scene is composed of alternating shots of the person having a conversation, and the 'action' is the distance between the characters or within the shot. This can be found as the case of sudden change.
도 5에 나타나 있는 스토리 전개를 표시하기 위한 신간 필름 작성 기술의 경 우, ‘그래픽 관계’는 신간 그래픽 성질의 대조 즉, 등장인물의 움직임, 명암, 색상의 대조로, ‘리듬적 관계’는 해당 신을 구성하는 샷의 길이 대조(예를 들면, 느린 템포의 신에서 갑자기 빠른 템포의 신으로)로, ‘공간적 관계’는 배경 영역의 변화에 따른 공간의 대조로, ‘시간적 관계’는 등장인물의 변화 등의 시간 흐름을 알 수 있는 속성으로 알아낼 수 있다. 상호 작용의 종류와 필름 작성 기술의 종류는 본 발명의 사상 내에서 확장 가능하며, 확장에 따르는 본 명세서의 요약 방법의 변경은 불필요하다.In the case of a new film production technique for displaying the story development shown in FIG. 5, 'graphic relationship' is a contrast of new graphic properties, that is, a movement of characters, contrast, and color, and a 'rhythmic relationship' is applicable. In contrasting the length of shots that make up a scene (for example, from a slow tempo god to a sudden fast tempo god), 'spatial relationship' is a contrast of space according to the change of background area, and 'temporal relationship' is a character's character. You can find out the properties of the time flow such as change. The type of interaction and the type of film making technique are extensible within the spirit of the present invention, and no change in the summary method of the present specification with extension is necessary.
본 발명에서 상호 작용이 있는 신들은 요약을 위한 서사 구조의 단위가 되고, 각 신간의 스토리 전개 정도는 상술한 정보를 대상으로 구한다.In the present invention, the interacting gods become a unit of narrative structure for summarization, and the story development degree of each god is obtained from the above-described information.
즉, 특정 신 A, B간에 발생한 단위별 스토리 전개 정도는 A, B에 속한 상호 작용을 하는 등장인물의 중요도와 A, B에 존재하는 상호 작용들의 강도 그리고 스토리 전개를 표시하기 위한 필름 작성 기술들의 강도를 이용하여 계산한다. 등장인물의 중요도, 상호 작용들의 강도, 필름 작성 기술들의 강도가 높을수록 스토리 전개는 많으며, 이 때 각 요소의 가중치는 목적에 따라 조절할 수 있다. 다음은 스토리 전개 정도를 구하는 수학식을 나타낸다.That is, the degree of story development by unit occurred between specific scenes A and B is based on the importance of the characters interacting in A and B, the intensity of the interactions in A and B, and the film creation techniques to indicate story development. Calculate using strength. The greater the importance of characters, the intensity of interactions, and the intensity of film-making techniques, the more storytelling becomes, and the weight of each element can be adjusted according to the purpose. The following equation shows how to develop the story.
단, A, B는 상호작용을 포함하는 임의의 신, W1, W2, W3는 가중치 신을 단위로 한 서사 구조와 스토리 전개 정도는 서사 구조를 점으로, 스토리 전개 정도를 에지로 매핑하여 그래프 구조로 간략하게 표시할 수 있다.However, A and B are arbitrary scenes including interactions, W 1 , W 2 , and W 3 are narrative structures based on weighted scenes and story development degree is based on narrative structure, and story development degree is mapped to edge. The graph structure can be displayed briefly.
도 6은 4개의 신으로 이루어진 비디오의 서사 구조 그래프 예시도이다.6 is an exemplary diagram of a narrative structure graph of a video consisting of four scenes.
소스 영상에 대해 전처리 과정과 서사 구조, 스토리 전개 정도 분석이 완료되면 상응하는 그래프가 생성된다. 이 그래프를 바탕으로 사용자의 요약 시간을 만족하고 스토리 전개 정도가 최대가 되는 신으로 구성되는 비디오 요약을 생성한다. 본 발명의 실시 예에서는 최대 스토리 전개 정도를 나타내는 2개의 신을 선택하여 나아가는 방법을 설명한다.When the preprocessing, narrative structure, and story development are analyzed for the source image, the corresponding graph is generated. Based on this graph, a video summary is created that consists of scenes that satisfy the user's summary time and maximize the storyline. In the embodiment of the present invention, a method of selecting and moving two scenes representing the maximum story development degree will be described.
도 7에서는 도 6의 예시도에서 요약하는 방법을 보여준다. 즉, 도 7(a), 7(b)에서와 같이 2개의 신을 선택하면서 사용자의 비디오 요약 시간에 근접한지를 비교한다. 요약 시간을 넘지 않는 범위에서 계속 반복한다.FIG. 7 illustrates a method summarized in the example diagram of FIG. 6. That is, the two scenes are selected as shown in Figs. 7 (a) and 7 (b) to compare whether they are close to the video summary time of the user. Repeat for as long as you do not exceed the summary time.
도 8은 본 발명의 실시 예에 대한 구성 개념도이다.8 is a conceptual view illustrating the configuration of an embodiment of the present invention.
본 발명의 실시 예에 의하면, 각각 50분 정도의 이미 방송된 4개의 드라마 비디오를 입력 하였을 경우 시나리오 작가가 생성한 요약과 비교하였을 때, recall과 precision이 1/5 정도 요약에서 80%이상임을 알 수 있다 (도 9 참조). 이는 본 발명이 스토리 전개 가능한 비디오 요약을 생성하고 있음을 보여준다.According to an embodiment of the present invention, when inputting four drama videos that are already broadcast for about 50 minutes each, the recall and precision are greater than 80% in the 1/5 summary when compared with the summary generated by the screenwriter. (See FIG. 9). This shows that the present invention produces a story developable video summary.
이상에서와 같이, 본 발명은 상기 실시 예에 한정되지 않으며, 많은 변형이 본 발명의 사상 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 가능함은 물론이다.As described above, the present invention is not limited to the above embodiment, and many variations are possible by those skilled in the art within the spirit of the present invention.
상술한 바와 같이 본 발명에 따르면 첫째, 드라마와 같은 스토리 중심 비디오에서 사용자가 스토리를 이해할 수 있도록 하는 특성을 추출하고, 이를 바탕으로 스토리 이해가 가능한 비디오 요약을 생성할 수 있는 비디오 요약 방법 및 그 방법을 구현하기 위한 프로그램을 저장한 기록매체를 제공할 수 있다. As described above, according to the present invention, first, a video summarization method and method for extracting a feature that enables a user to understand a story from a story-driven video such as drama, and generating a video summarization that can be understood based on the story. It is possible to provide a recording medium storing a program for implementing the.
둘째, 본 발명에 의하면 사용자가 네트워크 환경이나 개인 환경의 영향으로 보고자 하는 요약 시간을 다르게 설정하여도, 주어진 요약 시간에 맞는 스토리 이해가 가능한 비디오 요약을 생성할 수 있는 비디오 요약 방법 및 그 방법을 구현하기 위한 프로그램을 저장한 기록매체를 제공할 수 있다.Second, according to the present invention, a video summarization method and a method for implementing the video summarization method capable of generating a video summarization capable of understanding a story in accordance with a given summarization time even if the user sets a different summarization time to be viewed by the influence of a network environment or a personal environment are implemented. It is possible to provide a recording medium storing a program for this purpose.
셋째, 본 발명에 의하면 모든 과정을 자동화하여 요약 생성 시 소용되는 인력과 시간을 절감시키는 스토리 이해가 가능한 비디오 요약을 생성할 수 있는 비디오 요약 방법 및 그 방법을 구현하기 위한 프로그램을 저장한 기록매체를 제공할 수 있다.Third, according to the present invention, there is provided a video summarization method capable of generating a video summarization capable of comprehending a story that can reduce the manpower and time used to generate a summarization by automating all processes, and a recording medium storing a program for implementing the method. Can provide.
Claims (10)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020040083637A KR100642888B1 (en) | 2004-10-19 | 2004-10-19 | A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method. |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020040083637A KR100642888B1 (en) | 2004-10-19 | 2004-10-19 | A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method. |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20060034494A KR20060034494A (en) | 2006-04-24 |
| KR100642888B1 true KR100642888B1 (en) | 2006-11-08 |
Family
ID=37143284
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020040083637A Expired - Fee Related KR100642888B1 (en) | 2004-10-19 | 2004-10-19 | A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method. |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR100642888B1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11908192B2 (en) | 2018-05-29 | 2024-02-20 | Samsung Electronics Co., Ltd. | Electronic device and control method therefor |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101391599B1 (en) | 2007-09-05 | 2014-05-09 | 삼성전자주식회사 | Method for generating an information of relation between characters in content and appratus therefor |
| KR100995839B1 (en) * | 2008-08-08 | 2010-11-22 | 주식회사 아이토비 | Multi-media content display system and its method using reduced information extraction system and reduced information of multimedia digital contents |
| KR101031357B1 (en) * | 2009-07-15 | 2011-04-29 | 인하대학교 산학협력단 | Method and apparatus for extracting the main role |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20010054421A (en) * | 1999-12-06 | 2001-07-02 | 송문섭 | Method and apparatus on video search, browsing and summary using the fidelity of the key frame hierarchy |
| KR100305964B1 (en) | 1999-10-22 | 2001-11-02 | 구자홍 | Method for providing user adaptive multiple levels of digest stream |
| JP2002320204A (en) | 2001-04-20 | 2002-10-31 | Nippon Telegr & Teleph Corp <Ntt> | Video data management / generation method, video distribution service system using the same, processing program therefor, and recording medium |
| KR20030026529A (en) * | 2001-09-26 | 2003-04-03 | 엘지전자 주식회사 | Keyframe Based Video Summary System |
| KR100405818B1 (en) | 2000-08-29 | 2003-11-14 | 한국과학기술연구원 | Method of video scene segmentation based on color and motion features |
| KR100436828B1 (en) | 2001-10-09 | 2004-06-23 | 한국방송공사 | Video-on-demand service compression system |
-
2004
- 2004-10-19 KR KR1020040083637A patent/KR100642888B1/en not_active Expired - Fee Related
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100305964B1 (en) | 1999-10-22 | 2001-11-02 | 구자홍 | Method for providing user adaptive multiple levels of digest stream |
| KR20010054421A (en) * | 1999-12-06 | 2001-07-02 | 송문섭 | Method and apparatus on video search, browsing and summary using the fidelity of the key frame hierarchy |
| KR100405818B1 (en) | 2000-08-29 | 2003-11-14 | 한국과학기술연구원 | Method of video scene segmentation based on color and motion features |
| JP2002320204A (en) | 2001-04-20 | 2002-10-31 | Nippon Telegr & Teleph Corp <Ntt> | Video data management / generation method, video distribution service system using the same, processing program therefor, and recording medium |
| KR20030026529A (en) * | 2001-09-26 | 2003-04-03 | 엘지전자 주식회사 | Keyframe Based Video Summary System |
| KR100436828B1 (en) | 2001-10-09 | 2004-06-23 | 한국방송공사 | Video-on-demand service compression system |
Non-Patent Citations (1)
| Title |
|---|
| 1004368280000 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11908192B2 (en) | 2018-05-29 | 2024-02-20 | Samsung Electronics Co., Ltd. | Electronic device and control method therefor |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20060034494A (en) | 2006-04-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN118312922B (en) | Multi-mode network content security intelligent auditing system and method thereof | |
| KR101816113B1 (en) | Estimating and displaying social interest in time-based media | |
| EP1081960B1 (en) | Signal processing method and video/voice processing device | |
| US8010903B2 (en) | System and method for visualizing and navigating dynamic content in a graphical user interface | |
| US8316301B2 (en) | Apparatus, medium, and method segmenting video sequences based on topic | |
| US6954900B2 (en) | Method for summarizing news video stream using synthetic key frame based upon video text | |
| US20170083770A1 (en) | Video segmentation techniques | |
| EP1067786B1 (en) | Data describing method and data processor | |
| CN113766330A (en) | Method and device for generating recommendation information based on video | |
| JP2009201144A (en) | Moving image automatically summarizing device and method, utilizing fuzzy based characteristic support vector | |
| CN110796098A (en) | Method, device, equipment and storage medium for training and auditing content auditing model | |
| Ghadiyaram et al. | A time-varying subjective quality model for mobile streaming videos with stalling events | |
| CN113742567A (en) | Multimedia resource recommendation method and device, electronic equipment and storage medium | |
| Jin et al. | Network video summarization based on key frame extraction via superpixel segmentation | |
| Sharma et al. | Video interframe forgery detection: Classification, technique & new dataset | |
| Elahi et al. | Visually-aware video recommendation in the cold start | |
| KR100642888B1 (en) | A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method. | |
| Guerrini et al. | Interactive film recombination | |
| CN114363535B (en) | Video subtitle extraction method, device and computer-readable storage medium | |
| CN112333554B (en) | Multimedia data processing method and device, electronic equipment and storage medium | |
| CN109756759A (en) | A method and device for recommending bullet screen information | |
| Ranjan et al. | Video Summary Based on Visual and Mid-level Semantic Features | |
| JP2006217046A (en) | Video index image generator and generation program | |
| Gyo Chung et al. | Video summarisation based on collaborative temporal tags | |
| Hales et al. | Investigating visualisation techniques for rapid triage of digital forensic evidence |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| FPAY | Annual fee payment |
Payment date: 20101001 Year of fee payment: 5 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| LAPS | Lapse due to unpaid annual fee | ||
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20111031 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20111031 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |