[go: up one dir, main page]

KR100642888B1 - A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method. - Google Patents

A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method. Download PDF

Info

Publication number
KR100642888B1
KR100642888B1 KR1020040083637A KR20040083637A KR100642888B1 KR 100642888 B1 KR100642888 B1 KR 100642888B1 KR 1020040083637 A KR1020040083637 A KR 1020040083637A KR 20040083637 A KR20040083637 A KR 20040083637A KR 100642888 B1 KR100642888 B1 KR 100642888B1
Authority
KR
South Korea
Prior art keywords
video
story
narrative structure
extracting
story development
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020040083637A
Other languages
Korean (ko)
Other versions
KR20060034494A (en
Inventor
정병희
이윤준
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020040083637A priority Critical patent/KR100642888B1/en
Publication of KR20060034494A publication Critical patent/KR20060034494A/en
Application granted granted Critical
Publication of KR100642888B1 publication Critical patent/KR100642888B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명은 드라마와 같은 스토리 중심 비디오에서 스토리 이해가 가능한 비디오 요약 생성 방법에 관한 것으로, 더욱 상세하게는 스토리가 있는 비디오에 대해 자동으로 서사 구조 (스토리 전개 구조) 및 단위별 전개 정도(양)를 추출할 수 있고, 이를 기반으로 원하는 시간에 맞는 스토리 이해가 가능한 비디오 요약을 자동으로 생성할 수 있는 비디오 요약 생성 방법 및 그 방법을 구현하기 위한 프로그램을 저장한 기록매체에 관한 것이다.The present invention relates to a method of generating a video summary capable of understanding a story in a story-driven video such as drama, and more specifically, to the narrative video, the narrative structure (story development structure) and the degree of development (quantity) per unit are automatically determined. The present invention relates to a video summary generation method capable of automatically generating video summaries that can be extracted, and to a story understanding based on a desired time, and a recording medium storing a program for implementing the method.

본 발명에 따르면, 스토리가 있는 비디오에 대한 요약 서비스를 제공할 시 각 비디오에 대해 본 발명에서 제시하는 비디오 분석 규칙에 따라 비디오를 분석하여, 스토리 전개 구조 및 단위별 전개 정도를 생성하고, 이를 기반으로 입력된 사용자가 원하는 요약 시간에 맞게 스토리 전개를 가장 잘 표현할 수 있는 축약된 요약 비디오를 생성한다. 사용자는 생성된 요약 비디오를 보고 제한된 시간 안에 전체 스토리를 파악할 수 있다.According to the present invention, when providing a summary service for a video having a story, the video is analyzed according to the video analysis rules proposed in the present invention for each video to generate a story development structure and a degree of development for each unit, and based on this. Create a shortened summary video that best represents the story development for the summary time input by the user. The user can view the generated summary video and get the full story within a limited time.

비디오, 요약, 스토리, 이해, 스토리 전개, 비디오 분석, 서사 구조Video, summary, story, understanding, story development, video analysis, narrative structure

Description

스토리 이해 가능한 서사 구조 중심의 비디오 요약 생성방법 및 그 방법을 구현하기 위한 프로그램이 저장된 기록매체{Narrative structure based video abstraction method for understanding a story and storage medium storing program for realizing the method}Narrative structure based video abstraction method for understanding a story and storage medium storing program for realizing the method

도 1은 종래의 요약 방법에 따른 축구 비디오의 주요 장면 특성을 나타낸 예시도.1 is an exemplary view showing the main scene characteristics of a soccer video according to a conventional summary method.

도 2는 가변 샘플링율을 이용한 종래의 요약 방법을 도식화한 예시도.2 is a diagram illustrating a conventional summary method using a variable sampling rate.

도 3은 본 발명의 실시 예에 따른 전처리 과정의 상세 과정을 나타낸 도면.3 is a view showing a detailed process of the pretreatment process according to an embodiment of the present invention.

도 4는 본 발명의 실시 예에 따른 등장인물간의 상호 작용의 종류를 나타낸 예시도.Figure 4 is an illustration showing the type of interaction between the characters according to an embodiment of the present invention.

도 5는 본 발명의 실시 예에 따른 상호 작용이 있는 신간에 적용 가능한 필름 작성 기술의 종류를 나타낸 예시도.5 is an exemplary view showing a kind of film making technology applicable to a new book with interaction according to an embodiment of the present invention.

도 6은 본 발명에서 제시한 서사 구조 그래프의 예시도.Figure 6 is an illustration of a narrative structure graph presented in the present invention.

도 7은 도 6에 도시된 사용자가 입력한 요약 시간에 따른 요약 결과 서브 그래프 예시도.FIG. 7 is a diagram illustrating a summary result subgraph according to a summary time input by a user illustrated in FIG. 6.

도 8은 본 발명에서 제시한 스토리 이해 가능한 비디오 요약 방법의 전 과정을 간략히 나타낸 도면.8 is a view briefly illustrating the entire process of the story comprehension video summary method presented in the present invention.

도 9는 본 발명에서 제시한 스토리 이해 가능한 비디오 요약 방법을 구현한 실험 데이터를 나타낸 도면.9 is a view showing experimental data implementing the story comprehensible video summary method proposed in the present invention.

본 발명은 스토리 이해 가능한 비디오 요약 생성방법에 관한 것이다. 보다 상세하게는 스토리가 있는 비디오에 대해 자동으로 서사 구조 및 단위별 스토리 전개 정도(양)를 추출할 수 있고, 이를 기반으로 원하는 시간에 맞는 스토리 이해가 가능한 비디오 요약을 자동으로 생성할 수 있는 비디오 요약 생성방법 및 그 방법을 구현하기 위한 프로그램이 저장된 기록매체에 관한 것이다.The present invention relates to a method for generating a story comprehensible video summary. More specifically, it is possible to automatically extract the narrative structure and the amount of story development by unit for the video with the story, and based on this, the video can automatically generate a video summary that can understand the story at the desired time. A method of generating a summary and a recording medium storing a program for implementing the method.

최근 인터넷, 모바일 기기, TV 등 다양한 매체에서의 멀티미디어 서비스가 가능해지면서, 필요한 멀티미디어 정보를 빠른 시간에 획득할 수 있는 방법에 대한 요구가 증가하고 있다. 특히, 비디오의 경우 하나의 비디오 파일 전체를 대상으로 하는 검색보다는 비디오 파일 내의 특정 부분을 검색하는 방법 혹은 필요 부분을 모아서 보여주는 방법과 같이 파일 내의 세부 단위를 대상으로 하는 검색이 결과 확인 시 적은 시간이 소요된다.Recently, as multimedia services are available in various media such as the Internet, mobile devices, and TVs, there is an increasing demand for a method of quickly obtaining necessary multimedia information. In particular, in the case of a video, a search for a specific unit in the file takes less time to check the results, such as searching a specific part of the video file or gathering necessary parts, rather than searching a whole video file. It takes

그 중 필요 부분을 모아서 보여주는 요약 방법은 비디오 전체에 대한 정보를 주면서도 결과 확인 시 적은 시간이 소요된다는 장점이 있는 반면, 접근 방법이 요약 결과를 보고자하는 사용자의 요구나 요약하고자 하는 대상 비디오의 내용 속성에 따라 달라진다는 단점이 있다. 예를 들어, 스포츠 비디오는 경기 규칙에 따라 비디오 가 구성되며, 주로 득점 장면이 해당 비디오의 중요 장면이 된다.The summary method, which gathers the necessary parts, has the advantage that it takes less time to check the results while providing information about the entire video, while the approach requires the user to view the summary results or the content attributes of the target video to be summarized. The disadvantage is that it depends on. For example, a sports video consists of videos according to the rules of the game, and the scoring scene is the main scene of the video.

도 1은 축구에서의 골 장면을 찾아낼 수 있는 규칙을 분석한 예이다. 도 1을 참조하면, 일반적인 축구 중계 비디오에서 골 장면의 위치가 도시되어 있다. 다큐멘터리나 드라마와 같은 비디오는 특정 부분이 중요하다기 보다는 전체 비디오에 중요 부분이 산재한다. 따라서 이런 경우 기존 연구 방법에서는 유사한 장면을 생략하는 방법으로 전체 비디오의 다양한 장면을 보여줌으로써 비디오의 전체 분위기를 파악할 수 있는 방법이 연구되어 왔다.1 is an example of analyzing a rule for finding a goal scene in soccer. Referring to FIG. 1, the location of a goal scene in a typical soccer relay video is shown. Videos such as documentaries and dramas have more important parts of the video than the ones that matter. Therefore, in this case, the existing research method has been studied how to grasp the overall mood of the video by showing various scenes of the entire video by omitting similar scenes.

도 2는 샘플링율을 다르게 하여 중복되는 부분을 제거함으로써 사용자가 전체 비디오의 변화 상황을 원래 재생 시간보다 빠르게 알 수 있도록 한 예이다. 즉, 화면의 변화(예를 들면, 색상의 변화, 움직임의 변화 등)가 많은 부분(201)은 샘플링율을 높이고 변화가 적은 부분(202)은 샘플링율을 낮춰 전체 비디오의 변화 상황을 빨리 재생시키는 방법이 도시되어 있다.FIG. 2 is an example in which a user may notice a change state of the entire video earlier than the original playback time by removing overlapping portions by changing sampling rates. That is, the portion 201 having a large amount of change of the screen (for example, the change of color, the change of motion, etc.) increases the sampling rate while the portion of the small change 202 decreases the sampling rate to quickly reproduce the change state of the entire video. The method is shown.

드라마와 같은 스토리 중심 비디오의 경우 요약을 보고자 하는 사용자는 특정 부분 뿐만 아니라 전체 스토리가 어떻게 전개되었는지를 알기를 원한다. 도 1의 방법을 사용할 경우 특정 성질을 가진 부분을 검출하거나, 도 2의 방법을 사용할 경우 누가 등장했는지 정도의 상황을 알 수 있으나, 어떤 스토리가 전개되었는지를 파악하기는 어렵다는 문제점이 있다.In case of story-driven video, such as drama, a user who wants to see a summary wants to know not only the specific part but also how the entire story is developed. When the method of FIG. 1 is used, a part having a specific property is detected, or when the method of FIG. 2 is used, it is possible to know the situation as to who appeared, but it is difficult to determine what story has been developed.

이에, 본 발명은 상기한 문제점을 해결하기 위한 것으로서 본 발명의 목적은 드라마와 같은 스토리 중심 비디오에서 사용자가 스토리를 이해할 수 있도록 하는 특 성을 추출하고, 이를 바탕으로 스토리 이해가 가능한 비디오 요약본을 생성할 수 있는 비디오 요약 생성 방법 및 그 방법을 구현하기 위한 프로그램이 저장된 기록매체를 제시하는데 있다.Accordingly, an object of the present invention is to solve the above problems, and an object of the present invention is to extract a feature that allows a user to understand a story in a story-centric video such as drama, and generate a video summary that can be understood based on the story. The present invention provides a method for generating a video summary and a recording medium storing a program for implementing the method.

본 발명의 다른 목적은 사용자가 네트워크 환경이나 개인 환경의 영향으로 보고자 하는 요약 시간을 다르게 설정하여도, 주어진 요약 시간에 맞는 스토리 이해가 가능한 비디오 요약을 생성할 수 있는 비디오 요약 생성 방법 및 그 방법을 구현하기 위한 프로그램이 저장된 기록매체를 제시하는데 있다.It is another object of the present invention to provide a video summary generation method and method for generating a video summary capable of understanding a story for a given summary time, even if the user sets a different summary time due to the influence of a network environment or a personal environment. A program for implementing is provided to present a stored recording medium.

본 발명의 또 다른 목적은 모든 과정을 자동화하여 요약 생성 시 소용되는 인력과 시간을 절감시키는 주어진 요약 시간에 맞는 스토리 이해가 가능한 비디오 요약을 생성할 수 있는 비디오 요약 생성 방법 및 그 방법을 구현하기 위한 프로그램이 저장된 기록매체를 제시하는데 있다.It is still another object of the present invention to implement a video summary generation method and method for automating all processes to generate a video summary capable of story comprehension for a given summary time, which reduces the manpower and time required for generating the summary. The program is to present a stored recording medium.

상기한 본 발명의 목적을 달성하기 위한 기술적 사상으로서, 본 발명에서는, 스토리 중심 비디오에 대해 스토리 이해가 가능한 요약본을 생성하는 방법에 있어서, 사용자로부터 요약될 대상의 소스 비디오를 입력받는 단계와; 상기 소스 비디오에 대하여 미리 지정된 전처리 과정을 수행하는 단계; 상기 전처리 과정으로부터 생성된 정보를 대상으로 서사 구조와 단위별 스토리 전개 정도를 계산하여 생성하는 단계; 상기 사용자로부터 요약 시간을 입력받는 단계; 상기 서사 구조 및 단위별 스토리 전개 정도를 이용하여 상기 요약 시간에 맞는 스토리 이해가 가능한 요약본을 생성하는 단계를 포함하는 스토리 이해가 가능한 요약본을 생성하는 방법이 제공되고, 해당 스토리 중심 비디오의 스토리 이해 가능한 요약 생성 방법의 수행을 가능하게 하는 시스템, 장치 및 기록매체가 제공된다.As a technical idea for achieving the above object of the present invention, there is provided a method for generating a story understandable summary for a story-centric video, comprising: receiving a source video of a subject to be summarized from a user; Performing a predetermined preprocessing process on the source video; Calculating a narrative structure and a story development degree for each unit based on the information generated from the preprocessing step; Receiving a summary time from the user; Provided is a method for generating a story understandable summary including the step of generating a summary capable of understanding the story in accordance with the summary time using the narrative structure and the degree of story development by unit. A system, apparatus, and record carrier are provided that enable performing the method of generating a summary.

이 때, 상기 소스 영상에 대하여 미리 지정된 전처리 과정을 수행하는 단계는 상기 소스 영상에 대하여 샷 경계를 추출하는 단계, 상기 소스 영상에 대하여 신 (서사 구조의 단위) 경계를 추출하고, 신에 속한 샷 개수와 길이를 추출하는 단계, 각 샷에 포함되어 있는 인물을 인식하고, 해당 샷에서의 각 인물의 위치를 추출하는 단계 및 각 샷에 속한 모든 프레임에서 프레임 전체와 인물 영역을 제외한 영역 (배경 영역) 의 평균 색상을 추출하는 단계를 포함할 수 있다.In this case, performing a predetermined preprocessing process on the source image may include extracting a shot boundary with respect to the source image, extracting a scene (unit of narrative structure) with respect to the source image, and taking a shot belonging to the scene. Extracting the number and length, recognizing the person included in each shot, extracting the position of each person in the shot, and all the frames belonging to each shot except the entire frame and the person area (background area) Extracting an average color of the < RTI ID = 0.0 >

또한, 상기 전처리 과정으로부터 생성된 정보를 대상으로 서사 구조와 단위별 스토리 전개 정도를 계산하여 생성하는 단계는 상기 소스 영상에서 추출된 각 신이 등장인물들 간의 상호 작용을 포함하는지 아닌지를 알아내는 단계, 상호작용을 포함하는 신에 대하여 포함된 상호 작용의 종류를 알아내는 단계와 상호작용을 포함하는 신에 대하여 모든 각 신들 간의 스토리 전개를 위한 필름 작성 기술의 적용 여부를 알아내는 단계 및 등장인물 간의 상호 작용 및 필름 작성 기술의 적용 여부를 이용한 신간 스토리 전개 정도를 계산하는 단계를 포함한다.In addition, the step of calculating and generating the narrative structure and the story development for each unit based on the information generated from the preprocessing process may include: determining whether each scene extracted from the source image includes interaction between characters; Identifying the types of interactions involved for the gods containing interactions, and identifying the application of film-making techniques for story development among all the gods for the gods containing interactions and the interaction between characters Computing the story development of the new story using the action and whether the film production technology is applied.

또한, 상기 소스 영상에서 추출된 각 신이 등장인물들 간의 상호 작용을 포함하는지 아닌지를 알아내는 단계는 적어도 두 명 이상의 등장인물을 포함하는 것을 특징으로 한다. 상기 신에 포함된 상호작용의 종류는 ‘대화 ’(등장인물들이 서로 대화를 하는 경우), ‘액션’(등장인물들 간의 움직임이 많은 경우) 등 가능한 종류 중 하나 이상이 포함될 수 있다. 또한 상호작용을 포함하는 신에 대하여 모든 각 신들 간의 스토리 전개를 위해 적용 가능한 필름 작성 기술의 종류는 ‘그래픽 관계’, ‘ 리듬적 관계’, ‘공간적 관계’, ‘시간적 관계’ 등 가능한 종류 중 하나 이상이 적용될 수 있다. 상기 등장인물 간의 상호 작용 및 필름 작성 기술의 적용 여부를 이용한 신간 스토리 전개 정도는 신에 포함된 등장인물들의 중요도와 해당 신에 포함된 상호작용의 강도 및 해당 신간에 적용된 필름 작성 기술의 강도에 따라 달라짐을 특징으로 한다.In addition, the step of determining whether each scene extracted from the source image includes the interaction between the characters is characterized in that it comprises at least two characters. The type of interaction included in the scene may include one or more of possible types such as 'conversation' (when the characters interact with each other) and 'action' (when there is a lot of movement between the characters). Also, the kind of film making technique applicable to story development between all the gods about the god including interaction is one of the possible types such as 'graphical relationship', 'rhythmical relationship', 'spatial relationship' and 'temporal relationship'. The above can be applied. The extent of the story development using the interaction between the characters and the application of the film creation technology depends on the importance of the characters included in the scene, the strength of the interaction included in the scene, and the strength of the film creation technology applied to the scene. It is characterized by the difference.

마지막으로, 상기 서사 구조 및 단위별 스토리 전개 정도를 이용하여 상기 요약 시간에 맞는 스토리 이해가 가능한 요약본을 생성하는 단계는 해당 요약 시간을 만족하고, 요약에 포함된 신간의 스토리 전개 정도가 최대가 되는 것을 특징으로 한다. Finally, the step of generating a summary capable of understanding the story in accordance with the summary time using the narrative structure and the degree of story development for each unit satisfies the summary time, and the new story development degree included in the summary is maximized. It is characterized by.

이어서, 첨부한 도면들을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명하기로 한다.Next, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명에 따른 스토리 이해가 가능한 서사 구조 중심의 비디오 요약 방법은 사용자 단말기(예를 들어, 퍼스널 컴퓨터, 이동통신단말기, 개인휴대정보단말기(PDA) 등)에 설치된 응용 프로그램(이하, 비디오 요약 요청 프로그램 이라 칭함)에 의해 수행될 수 있을 뿐 아니라, 당해 기능을 수행하기 위한 별도의 장치에 의해 수행될 수 있다. 이하에서는 본 발명에 따른 비디오 요약 방법이 사용자 단말기에 설치된 응용 프로그램에 의해 수행되는 경우를 가정하여 당해 응용 프로그램의 동작을 상세히 설명하기로 한다.The narrative structure-oriented video summarization method according to the present invention includes an application (hereinafter, a video summary request program) installed in a user terminal (eg, a personal computer, a mobile communication terminal, a personal digital assistant, etc.). It may be performed by a separate device for performing the function, as well as). Hereinafter, assuming that the video summarization method according to the present invention is performed by an application program installed in a user terminal, the operation of the application program will be described in detail.

도 3은 본 발명의 실시 예에 따른 전처리 과정과 여기서 추출된 정보를 나타 낸 도면이다.3 is a diagram illustrating a preprocessing process and information extracted therein according to an embodiment of the present invention.

도 3을 참조하면, 사용자가 요약할 대상 비디오를 입력하면, 샷 경계 및 신 경계 및 등장인물 정보를 추출한다. 이 때, 필요한 정보인 각 신(scene)에 속한 샷의 개수, 평균 길이, 평균 색상 등을 계산한다. 특히 등장인물 정보의 경우 신에 속한 프레임에서 얼굴을 인식하고, 인식한 얼굴의 위치도 추출한다.Referring to FIG. 3, when a user inputs a target video to be summarized, shot boundary, neural boundary, and character information are extracted. At this time, the number, average length, average color, etc. of shots belonging to each scene which are necessary information are calculated. In particular, in the case of character information, a face is recognized in a frame belonging to the scene, and the position of the recognized face is also extracted.

또한, 평균 색상의 경우 해당 영역 픽셀의 RGB 값을 이용한다. 샷, 신 경계, 얼굴 인식, 평균 색상 등의 추출에는 이미 존재하는 다양한 알고리즘을 사용할 수 있다. 각각 다양한 알고리즘이 이미 공개되어 있으므로 본 명세서에서는 이에 대해 언급하지 않는다.In addition, the average color uses the RGB value of the pixel of the corresponding area. Various algorithms already available for extraction of shots, nervous system, face recognition, average color, etc. can be used. Since various algorithms are already disclosed for each, the specification does not mention them.

그 후, 전처리 과정에서 생성된 각 정보를 이용하여 신에 포함된 등장인물간의 상호 작용의 종류 그리고 상호 작용이 있는 신간에 적용된 필름 작성 기술의 종류를 알아낸다.After that, the information generated in the preprocessing process is used to find out the type of interaction between the characters included in the scene and the type of film making technique applied to the book with the interaction.

도 4 및 도 5는 본 발명의 실시 예에 따른 등장 인물간의 상호 작용의 종류 및 상호 작용이 있는 신간에 적용 가능한 필름 작성 기술의 종류를 나타낸 예시도이다.4 and 5 are exemplary views showing the type of interaction between the characters according to an embodiment of the present invention and the type of film making technique applicable to the new book with the interaction.

도 4,5에서는 이미 방영된 드라마 비디오의 장면들로 예를 표시하였다. 도 4에 나타나 있는 ‘대화’, ‘액션’ 상호 작용의 경우, ‘대화’는 대화를 하고 있는 인물이 번갈아 나타나는 샷으로 신이 구성될 경우 그리고 ‘액션’은 샷들 간 혹은 샷 내부에서 등장 인물간의 거리 변화가 급격한 경우로 알아낼 수 있다.4 and 5 show examples of scenes of drama videos that have already been aired. In the case of the 'conversation', 'action' interaction shown in Fig. 4, the 'conversation' is when the scene is composed of alternating shots of the person having a conversation, and the 'action' is the distance between the characters or within the shot. This can be found as the case of sudden change.

도 5에 나타나 있는 스토리 전개를 표시하기 위한 신간 필름 작성 기술의 경 우, ‘그래픽 관계’는 신간 그래픽 성질의 대조 즉, 등장인물의 움직임, 명암, 색상의 대조로, ‘리듬적 관계’는 해당 신을 구성하는 샷의 길이 대조(예를 들면, 느린 템포의 신에서 갑자기 빠른 템포의 신으로)로, ‘공간적 관계’는 배경 영역의 변화에 따른 공간의 대조로, ‘시간적 관계’는 등장인물의 변화 등의 시간 흐름을 알 수 있는 속성으로 알아낼 수 있다. 상호 작용의 종류와 필름 작성 기술의 종류는 본 발명의 사상 내에서 확장 가능하며, 확장에 따르는 본 명세서의 요약 방법의 변경은 불필요하다.In the case of a new film production technique for displaying the story development shown in FIG. 5, 'graphic relationship' is a contrast of new graphic properties, that is, a movement of characters, contrast, and color, and a 'rhythmic relationship' is applicable. In contrasting the length of shots that make up a scene (for example, from a slow tempo god to a sudden fast tempo god), 'spatial relationship' is a contrast of space according to the change of background area, and 'temporal relationship' is a character's character. You can find out the properties of the time flow such as change. The type of interaction and the type of film making technique are extensible within the spirit of the present invention, and no change in the summary method of the present specification with extension is necessary.

본 발명에서 상호 작용이 있는 신들은 요약을 위한 서사 구조의 단위가 되고, 각 신간의 스토리 전개 정도는 상술한 정보를 대상으로 구한다.In the present invention, the interacting gods become a unit of narrative structure for summarization, and the story development degree of each god is obtained from the above-described information.

즉, 특정 신 A, B간에 발생한 단위별 스토리 전개 정도는 A, B에 속한 상호 작용을 하는 등장인물의 중요도와 A, B에 존재하는 상호 작용들의 강도 그리고 스토리 전개를 표시하기 위한 필름 작성 기술들의 강도를 이용하여 계산한다. 등장인물의 중요도, 상호 작용들의 강도, 필름 작성 기술들의 강도가 높을수록 스토리 전개는 많으며, 이 때 각 요소의 가중치는 목적에 따라 조절할 수 있다. 다음은 스토리 전개 정도를 구하는 수학식을 나타낸다.That is, the degree of story development by unit occurred between specific scenes A and B is based on the importance of the characters interacting in A and B, the intensity of the interactions in A and B, and the film creation techniques to indicate story development. Calculate using strength. The greater the importance of characters, the intensity of interactions, and the intensity of film-making techniques, the more storytelling becomes, and the weight of each element can be adjusted according to the purpose. The following equation shows how to develop the story.

A-B간 스토리 전개 정도 = (A,B에 속한 등장인물의 중요도 ×W1) + (A,B에 속한 상호 작용들의 강도 ×W2) + (A-B간에 적용된 필름 작성 기술들의 강도 ×W3)Story development degree between AB = (importance of characters belonging to A and B × W 1 ) + (strength of interactions belonging to A and B × W 2 ) + (intensity of film making techniques applied between AB × W 3 )

단, A, B는 상호작용을 포함하는 임의의 신, W1, W2, W3는 가중치 신을 단위로 한 서사 구조와 스토리 전개 정도는 서사 구조를 점으로, 스토리 전개 정도를 에지로 매핑하여 그래프 구조로 간략하게 표시할 수 있다.However, A and B are arbitrary scenes including interactions, W 1 , W 2 , and W 3 are narrative structures based on weighted scenes and story development degree is based on narrative structure, and story development degree is mapped to edge. The graph structure can be displayed briefly.

도 6은 4개의 신으로 이루어진 비디오의 서사 구조 그래프 예시도이다.6 is an exemplary diagram of a narrative structure graph of a video consisting of four scenes.

소스 영상에 대해 전처리 과정과 서사 구조, 스토리 전개 정도 분석이 완료되면 상응하는 그래프가 생성된다. 이 그래프를 바탕으로 사용자의 요약 시간을 만족하고 스토리 전개 정도가 최대가 되는 신으로 구성되는 비디오 요약을 생성한다. 본 발명의 실시 예에서는 최대 스토리 전개 정도를 나타내는 2개의 신을 선택하여 나아가는 방법을 설명한다.When the preprocessing, narrative structure, and story development are analyzed for the source image, the corresponding graph is generated. Based on this graph, a video summary is created that consists of scenes that satisfy the user's summary time and maximize the storyline. In the embodiment of the present invention, a method of selecting and moving two scenes representing the maximum story development degree will be described.

도 7에서는 도 6의 예시도에서 요약하는 방법을 보여준다. 즉, 도 7(a), 7(b)에서와 같이 2개의 신을 선택하면서 사용자의 비디오 요약 시간에 근접한지를 비교한다. 요약 시간을 넘지 않는 범위에서 계속 반복한다.FIG. 7 illustrates a method summarized in the example diagram of FIG. 6. That is, the two scenes are selected as shown in Figs. 7 (a) and 7 (b) to compare whether they are close to the video summary time of the user. Repeat for as long as you do not exceed the summary time.

도 8은 본 발명의 실시 예에 대한 구성 개념도이다.8 is a conceptual view illustrating the configuration of an embodiment of the present invention.

본 발명의 실시 예에 의하면, 각각 50분 정도의 이미 방송된 4개의 드라마 비디오를 입력 하였을 경우 시나리오 작가가 생성한 요약과 비교하였을 때, recall과 precision이 1/5 정도 요약에서 80%이상임을 알 수 있다 (도 9 참조). 이는 본 발명이 스토리 전개 가능한 비디오 요약을 생성하고 있음을 보여준다.According to an embodiment of the present invention, when inputting four drama videos that are already broadcast for about 50 minutes each, the recall and precision are greater than 80% in the 1/5 summary when compared with the summary generated by the screenwriter. (See FIG. 9). This shows that the present invention produces a story developable video summary.

이상에서와 같이, 본 발명은 상기 실시 예에 한정되지 않으며, 많은 변형이 본 발명의 사상 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 가능함은 물론이다.As described above, the present invention is not limited to the above embodiment, and many variations are possible by those skilled in the art within the spirit of the present invention.

상술한 바와 같이 본 발명에 따르면 첫째, 드라마와 같은 스토리 중심 비디오에서 사용자가 스토리를 이해할 수 있도록 하는 특성을 추출하고, 이를 바탕으로 스토리 이해가 가능한 비디오 요약을 생성할 수 있는 비디오 요약 방법 및 그 방법을 구현하기 위한 프로그램을 저장한 기록매체를 제공할 수 있다. As described above, according to the present invention, first, a video summarization method and method for extracting a feature that enables a user to understand a story from a story-driven video such as drama, and generating a video summarization that can be understood based on the story. It is possible to provide a recording medium storing a program for implementing the.

둘째, 본 발명에 의하면 사용자가 네트워크 환경이나 개인 환경의 영향으로 보고자 하는 요약 시간을 다르게 설정하여도, 주어진 요약 시간에 맞는 스토리 이해가 가능한 비디오 요약을 생성할 수 있는 비디오 요약 방법 및 그 방법을 구현하기 위한 프로그램을 저장한 기록매체를 제공할 수 있다.Second, according to the present invention, a video summarization method and a method for implementing the video summarization method capable of generating a video summarization capable of understanding a story in accordance with a given summarization time even if the user sets a different summarization time to be viewed by the influence of a network environment or a personal environment are implemented. It is possible to provide a recording medium storing a program for this purpose.

셋째, 본 발명에 의하면 모든 과정을 자동화하여 요약 생성 시 소용되는 인력과 시간을 절감시키는 스토리 이해가 가능한 비디오 요약을 생성할 수 있는 비디오 요약 방법 및 그 방법을 구현하기 위한 프로그램을 저장한 기록매체를 제공할 수 있다.Third, according to the present invention, there is provided a video summarization method capable of generating a video summarization capable of comprehending a story that can reduce the manpower and time used to generate a summarization by automating all processes, and a recording medium storing a program for implementing the method. Can provide.

Claims (10)

스토리 중심 비디오에 대해 스토리 이해가 가능한 비디오 요약 생성 방법을 수행하기 위한 프로그램이 설치된 사용자 단말에서 상기 프로그램을 실행하여 소스 비디오에 대한 요약을 생성하는 방법에 있어서,A method of generating a summary of a source video by executing the program in a user terminal having a program installed therein, the method for performing a story understanding method for story-centric video is provided. 요약 대상인 소스 비디오를 입력받는 제 1 단계와;A first step of receiving a source video to be summarized; 상기 소스 비디오에 대하여 샷 경계를 추출하고, 신 경계를 추출하고, 등장 인물 얼굴을 인식하고, 인식된 얼굴 위치를 추출하는 전처리 과정을 수행하는 제 2단계와;A second step of performing a preprocessing process for extracting a shot boundary, extracting a new boundary, recognizing a character face, and extracting a recognized face position with respect to the source video; 상기 전처리 과정으로부터 생성된 정보를 대상으로 서사 구조와 신 간 스토리 전개 정도를 생성하는 제 3 단계와;A third step of generating a narrative structure and a new story development degree based on the information generated from the preprocessing step; 상기 소스 비디오에 대한 요약 시간을 입력받는 제 4 단계; 및Receiving a summary time for the source video; And 서사 구조를 이루는 각 신들의 상영시간 및 서사 구조를 이루는 각 신 간의 스토리 전개 정도를 이용하여, 서사 구조를 이루는 신들의 조합들 중에서 신들의 상영시간의 합이 상기 비디오 요약 시간을 초과하지 않고 각 신 간의 스토리 전개 정도의 합이 최대가 되는 신들의 조합을 추출하는 제 5 단계를 포함하고,Using the screening times of the deities in the narrative structure and the story development between the deities in the narrative structure, the sum of the screening times of the gods among the combinations of the deities in the narrative structure does not exceed the video summarization time, but each scene A fifth step of extracting a combination of gods whose sum of the degree of story development between them is the maximum; 상기 제 3 단계는,The third step, 상기 소스 비디오에서 추출된 각 신에서 대화 또는 액션 또는 대화 및 액션을 포함하는 등장인물들 간의 상호 작용을 포함하는 신인 서사 구조를 이루는 신을 추출하는 단계와;Extracting, from each scene extracted from the source video, a scene forming a rookie narrative structure including a dialogue or action or interaction between characters including the dialogue and action; 상기 서사 구조를 이루는 신에 대하여 포함된 상호 작용의 종류를 알아내는 단계와;Finding out the kinds of interactions that are involved with the deities that form the narrative structure; 상기 서사 구조를 이루는 모든 임의의 두 개의 신들 간의 스토리 전개를 위한 필름 작성 기술의 종류를 알아내는 단계; 및Finding a kind of film making technique for story development between any two gods constituting the narrative structure; And 상기 서사 구조를 이루는 모든 임의의 두 개의 신들 간의 스토리 전개 정도를 아래의 수학식을 이용하여 계산해내는 단계를 포함하여 이루어지는 것을 특징으로 하는 스토리 이해 가능한 비디오 요약 생성 방법.And calculating a story development degree between any two gods constituting the narrative structure using the following equation. [수학식][Equation] A-B 간 스토리 전개 정도 = ( A, B에 속한 등장인물의 중요도 × W₁) + (A, B에 속한 상호 작용들의 강도 × W₂) + ( A-B 간에 적용된 필름 작성 기술들의 강도 × W₃)Degree of story development between A and B = (Importance of characters in A and B × W ×) + (Intensity of interactions in A and B × W₂) + (Intensity of film-making techniques applied between A and B × W₃) 단, A, B는 상호작용을 포함하는 임의의 신, W₁,W₂,W₃는 가중치임.Where A and B are arbitrary scenes containing interactions, and W₁, W₂, W₃ are weighted. ( 삭 제 )( delete ) ( 삭 제 )( delete ) ( 삭 제 )( delete ) 청구항 1에 있어서, The method according to claim 1, 상기 3단계에서 신들 간의 스토리 전개를 위한 필름 작성 기술에는In the third step, the film making technology for developing the story between the gods 등장인물의 움직임, 명암, 색상 등과 같은 그래픽 성질의 대조를 나타내는 그래픽 관계와;Graphical relationships indicative of contrasts in graphical properties such as character movement, contrast, color, and the like; 신을 구성하는 샷의 길이 대조(예를 들면, 느린 템포의 신에서 갑자기 빠른 템포의 신으로)를 나타내는 리듬적 관계;A rhythmic relationship representing the length contrast of the shots that make up the scene (eg, from a slow tempo god to a sudden fast tempo god); 배경 영역의 변화에 따른 공간의 대조를 나타내는 공간적 관계; 및Spatial relationships representing contrast of space with changes in background area; And 등장인물의 변화와 같은 시간적 관계 중에 적어도 하나 이상을 포함하는 것을 특징으로 하는 스토리 이해 가능한 비디오 요약 생성방법.And at least one of a temporal relationship such as a change of character. ( 삭 제 )( delete ) ( 삭 제 )( delete ) 스토리 중심 비디오에 대해 스토리 이해가 가능한 비디오 요약 생성방법을 수행하기 위해 사용자 단말에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되며, 상기 사용자 단말에 의해 판독될 수 있는 기록매체에 있어서,In the recording medium readable by the user terminal, a program of instructions that can be executed by the user terminal is tangibly implemented in order to perform a video summary generation method capable of story understanding for the story-centric video. 요약 대상인 소스 비디오를 입력받는 제 1 단계와;A first step of receiving a source video to be summarized; 상기 소스 비디오에 대하여 샷 경계를 추출하고, 신 경계를 추출하고, 등장 인물 얼굴을 인식하고, 인식된 얼굴 위치를 추출하는 전처리 과정을 수행하는 제 2단계와;A second step of performing a preprocessing process for extracting a shot boundary, extracting a new boundary, recognizing a character face, and extracting a recognized face position with respect to the source video; 상기 전처리 과정으로부터 생성된 정보를 대상으로 서사 구조와 신 간 스토리 전개 정도를 생성하는 제 3 단계와;A third step of generating a narrative structure and a new story development degree based on the information generated from the preprocessing step; 상기 소스 비디오에 대한 요약 시간을 입력받는 제 4 단계; 및Receiving a summary time for the source video; And 서사 구조를 이루는 각 신들의 상영시간 및 서사 구조를 이루는 각 신 간의 스토리 전개 정도를 이용하여, 서사 구조를 이루는 신들의 조합들 중에서 신들의 상영시간의 합이 상기 비디오 요약 시간을 초과하지 않고 각 신 간의 스토리 전개 정도의 합이 최대가 되는 신들의 조합을 추출하는 제 5 단계를 포함하고,Using the screening times of the deities in the narrative structure and the story development between the deities in the narrative structure, the sum of the screening times of the gods among the combinations of the deities in the narrative structure does not exceed the video summarization time, but each scene A fifth step of extracting a combination of gods whose sum of the degree of story development between them is the maximum; 상기 제 3 단계는,The third step, 상기 소스 비디오에서 추출된 각 신에서 대화 또는 액션 또는 대화 및 액션을 포함하는 등장인물들 간의 상호 작용을 포함하는 신인 서사 구조를 이루는 신을 추출하는 단계와;Extracting, from each scene extracted from the source video, a scene forming a rookie narrative structure including a dialogue or action or interaction between characters including the dialogue and action; 상기 서사 구조를 이루는 신에 대하여 포함된 상호 작용의 종류를 알아내는 단계와;Finding out the kinds of interactions that are involved with the deities that form the narrative structure; 상기 서사 구조를 이루는 모든 임의의 두 개의 신들 간의 스토리 전개를 위한 필름 작성 기술의 종류를 알아내는 단계; 및Finding a kind of film making technique for story development between any two gods constituting the narrative structure; And 상기 서사 구조를 이루는 모든 임의의 두 개의 신들 간의 스토리 전개 정도를 아래의 수학식을 이용하여 계산해내는 단계를 포함하는 절차가 상기 사용자 단말에 의해 수행되게 하는 비디오 요약 프로그램이 저장된 기록 매체.And a video summary program for causing a procedure to be performed by the user terminal including calculating a story development degree between all two gods constituting the narrative structure using the following equation. [ 수학식 ][Equation] A-B 간 스토리 전개 정도 = ( A, B에 속한 등장인물의 중요도 × W₁) + (A, B에 속한 상호 작용들의 강도 × W₂) + ( A-B 간에 적용된 필름 작성 기술들의 강도 × W₃)Degree of story development between A and B = (Importance of characters in A and B × W ×) + (Intensity of interactions in A and B × W₂) + (Intensity of film-making techniques applied between A and B × W₃) 단, A, B는 상호작용을 포함하는 임의의 신, W₁,W₂,W₃는 가중치임.Where A and B are arbitrary scenes containing interactions, and W₁, W₂, W₃ are weighted. 청구항 8에 있어서,The method according to claim 8, 상기 사용자 단말에는 퍼스널 컴퓨터, 이동통신 단말기, 개인휴대정보 단말기(PDA)가 포함되는 것을 특징으로 하는 비디오 요약 프로그램이 저장된 기록 매체.And a personal computer, a mobile communication terminal, and a personal digital assistant (PDA) in the user terminal. ( 삭 제 )( delete )
KR1020040083637A 2004-10-19 2004-10-19 A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method. Expired - Fee Related KR100642888B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040083637A KR100642888B1 (en) 2004-10-19 2004-10-19 A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040083637A KR100642888B1 (en) 2004-10-19 2004-10-19 A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method.

Publications (2)

Publication Number Publication Date
KR20060034494A KR20060034494A (en) 2006-04-24
KR100642888B1 true KR100642888B1 (en) 2006-11-08

Family

ID=37143284

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040083637A Expired - Fee Related KR100642888B1 (en) 2004-10-19 2004-10-19 A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method.

Country Status (1)

Country Link
KR (1) KR100642888B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908192B2 (en) 2018-05-29 2024-02-20 Samsung Electronics Co., Ltd. Electronic device and control method therefor

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101391599B1 (en) 2007-09-05 2014-05-09 삼성전자주식회사 Method for generating an information of relation between characters in content and appratus therefor
KR100995839B1 (en) * 2008-08-08 2010-11-22 주식회사 아이토비 Multi-media content display system and its method using reduced information extraction system and reduced information of multimedia digital contents
KR101031357B1 (en) * 2009-07-15 2011-04-29 인하대학교 산학협력단 Method and apparatus for extracting the main role

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010054421A (en) * 1999-12-06 2001-07-02 송문섭 Method and apparatus on video search, browsing and summary using the fidelity of the key frame hierarchy
KR100305964B1 (en) 1999-10-22 2001-11-02 구자홍 Method for providing user adaptive multiple levels of digest stream
JP2002320204A (en) 2001-04-20 2002-10-31 Nippon Telegr & Teleph Corp <Ntt> Video data management / generation method, video distribution service system using the same, processing program therefor, and recording medium
KR20030026529A (en) * 2001-09-26 2003-04-03 엘지전자 주식회사 Keyframe Based Video Summary System
KR100405818B1 (en) 2000-08-29 2003-11-14 한국과학기술연구원 Method of video scene segmentation based on color and motion features
KR100436828B1 (en) 2001-10-09 2004-06-23 한국방송공사 Video-on-demand service compression system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100305964B1 (en) 1999-10-22 2001-11-02 구자홍 Method for providing user adaptive multiple levels of digest stream
KR20010054421A (en) * 1999-12-06 2001-07-02 송문섭 Method and apparatus on video search, browsing and summary using the fidelity of the key frame hierarchy
KR100405818B1 (en) 2000-08-29 2003-11-14 한국과학기술연구원 Method of video scene segmentation based on color and motion features
JP2002320204A (en) 2001-04-20 2002-10-31 Nippon Telegr & Teleph Corp <Ntt> Video data management / generation method, video distribution service system using the same, processing program therefor, and recording medium
KR20030026529A (en) * 2001-09-26 2003-04-03 엘지전자 주식회사 Keyframe Based Video Summary System
KR100436828B1 (en) 2001-10-09 2004-06-23 한국방송공사 Video-on-demand service compression system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
1004368280000

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908192B2 (en) 2018-05-29 2024-02-20 Samsung Electronics Co., Ltd. Electronic device and control method therefor

Also Published As

Publication number Publication date
KR20060034494A (en) 2006-04-24

Similar Documents

Publication Publication Date Title
CN118312922B (en) Multi-mode network content security intelligent auditing system and method thereof
KR101816113B1 (en) Estimating and displaying social interest in time-based media
EP1081960B1 (en) Signal processing method and video/voice processing device
US8010903B2 (en) System and method for visualizing and navigating dynamic content in a graphical user interface
US8316301B2 (en) Apparatus, medium, and method segmenting video sequences based on topic
US6954900B2 (en) Method for summarizing news video stream using synthetic key frame based upon video text
US20170083770A1 (en) Video segmentation techniques
EP1067786B1 (en) Data describing method and data processor
CN113766330A (en) Method and device for generating recommendation information based on video
JP2009201144A (en) Moving image automatically summarizing device and method, utilizing fuzzy based characteristic support vector
CN110796098A (en) Method, device, equipment and storage medium for training and auditing content auditing model
Ghadiyaram et al. A time-varying subjective quality model for mobile streaming videos with stalling events
CN113742567A (en) Multimedia resource recommendation method and device, electronic equipment and storage medium
Jin et al. Network video summarization based on key frame extraction via superpixel segmentation
Sharma et al. Video interframe forgery detection: Classification, technique & new dataset
Elahi et al. Visually-aware video recommendation in the cold start
KR100642888B1 (en) A method of creating a video summary based on the narrative structure that can be understood and a recording medium storing a program for implementing the method.
Guerrini et al. Interactive film recombination
CN114363535B (en) Video subtitle extraction method, device and computer-readable storage medium
CN112333554B (en) Multimedia data processing method and device, electronic equipment and storage medium
CN109756759A (en) A method and device for recommending bullet screen information
Ranjan et al. Video Summary Based on Visual and Mid-level Semantic Features
JP2006217046A (en) Video index image generator and generation program
Gyo Chung et al. Video summarisation based on collaborative temporal tags
Hales et al. Investigating visualisation techniques for rapid triage of digital forensic evidence

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

FPAY Annual fee payment

Payment date: 20101001

Year of fee payment: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20111031

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20111031

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000