[go: up one dir, main page]

KR100319159B1 - Content-based video retrieval data organization method and video retrieval method - Google Patents

Content-based video retrieval data organization method and video retrieval method Download PDF

Info

Publication number
KR100319159B1
KR100319159B1 KR1019980053237A KR19980053237A KR100319159B1 KR 100319159 B1 KR100319159 B1 KR 100319159B1 KR 1019980053237 A KR1019980053237 A KR 1019980053237A KR 19980053237 A KR19980053237 A KR 19980053237A KR 100319159 B1 KR100319159 B1 KR 100319159B1
Authority
KR
South Korea
Prior art keywords
place
video
relationship
content
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1019980053237A
Other languages
Korean (ko)
Other versions
KR20000038289A (en
Inventor
김현준
이진수
Original Assignee
구자홍
엘지전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구자홍, 엘지전자주식회사 filed Critical 구자홍
Priority to KR1019980053237A priority Critical patent/KR100319159B1/en
Priority to US09/239,531 priority patent/US6492998B1/en
Priority to CNB991095553A priority patent/CN1269344C/en
Priority to EP99123530A priority patent/EP1006459A3/en
Priority to JP34569999A priority patent/JP3454764B2/en
Publication of KR20000038289A publication Critical patent/KR20000038289A/en
Application granted granted Critical
Publication of KR100319159B1 publication Critical patent/KR100319159B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 내용기반 동영상 검색 데이터 구성방법과 동영상 검색방법에 관한 것으로서, 특히 동영상 내용을 오브젝트(Object)와 장소(Place) 및 사건(Event)의 관계로 표현함으로써, 보다 쉽게 동영상 내용을 이해하고 또 검색할 수 있도록 한 다.The present invention relates to a method of constructing content-based video retrieval data and a video retrieval method. In particular, the video content is expressed in a relationship between an object, a place, and an event, thereby making it easier to understand the video content. Make it searchable.

종래의 동영상 검색 시스템은 키 프레임들의 시간적 나열에 의한 검색이거나, 동영상 샷(Shot)들의 시간적인 연결관계를 제시하거나, 동영상에 나타나는 오브젝트의 출현구간과 속성을 정의함으로써 동영상 검색을 수행한다.Conventional video retrieval system performs video retrieval by temporally arranging key frames, presenting a temporal connection of video shots, or defining an appearance period and an attribute of an object appearing in a video.

본 발명은 도2에 도시한 바와같이 드라마, 영화 등의 동영상에 대하여 사건 전개상 주요 구성요소로 작용하는 오브젝트(등장인물 등), 장소, 사건(내용설명)의 관계로 표현하고, 하나의 오브젝트와 하나의 장소의 관계 또는 복수개의 오브젝트와 하나의 장소의 관계를 선택하면 해당 조건에 부합되는 등장구간을 검색하여 대표 장면과 함께 그 구간에 해당하는 내용(사건)을 텍스트로 제시함으로써, 동영상 전체는 물론 특정 위치를 포함하는 부분 내용 까지 보다 쉽고 간편하게 검색할 수 있도록 한 내용기반 동영상 검색 데이터 구성방법과 동영상 검색방법을 제공한다.As shown in FIG. 2, the present invention is expressed as a relationship between an object (such as a character), a place, and an event (content description) that act as main components in the development of an event for a movie such as a drama or a movie. If you select the relationship between one place or the relationship between a plurality of objects and one place, search for the section that meets the conditions and present the contents (event) of the section together with the representative scene as text. Of course, it provides a content-based video retrieval data construction method and video retrieval method that makes it easier and easier to search even partial contents including a specific location.

Description

내용기반 동영상 검색 데이터 구성방법과 동영상 검색방법Content-based video retrieval data organization and video retrieval method

본 발명은 내용기반 동영상 검색 데이터 구성방법과 동영상 검색방법에 관한 것으로서, 특히 오브젝트(Object)와 장소(Place), 시간에 따른 사건(Event)의 관점에서 동영상 내용을 실질적으로 반영하는 상호 관련요소 사이의 관계를 정의하여 표현함으로써, 동영상 검색시에 상기 오브젝트와 장소, 사건의 상호 관계로부터 보다 쉽게 동영상을 검색할 수 있도록 한 내용기반 동영상 검색 데이타의 구조와 그 검색방법이며, 오브젝트와 장소의 관계로부터 동영상을 검색할 수 있도록 하는 사용자 인터페이스로서의 동영상 검색 브라우저(Video Story Browser)에 관한 것이다.The present invention relates to a method of constructing content-based video retrieval data and a video retrieval method. In particular, the present invention relates to interrelationship elements that substantially reflect video content in terms of objects, places, and events over time. Defining and expressing the relation between the two objects is a structure of the content-based video retrieval data and its retrieval method, which makes it easier to retrieve a video from the interrelationship between the object, place, and event. A video story browser as a user interface that enables searching for a video.

동영상 검색을 위한 종래의기술은 대부분 키프레임(Key Frame)들을 시간축으로 1차원 나열한 것들이 대부분이었다.Most of the conventional techniques for video retrieval have been one-dimensionally arranged key frames on a time axis.

한편, 동영상 검색을 위한 종래의 기술로서 미합중국 특허 제 5,708,767 호(Method and apparatus for video browsing based on content and structure)의 경우는 동영상의 샷(Shot)들의 시간적인 연결 그래프를 단순히 나태내준다.Meanwhile, in the case of US Patent No. 5,708,767 (Method and apparatus for video browsing based on content and structure) as a conventional technology for video search, it simply shows a graph of temporal connection of shots of video.

이와같이 단순히 샷들의 시간적인 관계는 대표적인 장면들만 제시하고 있기 때문에 이러한 대표적인 장면 몇몇으로부터 그 내용의 전개, 그 내용 자체를 이해하기에는 매우 부족하다.As such, since the temporal relationship of shots presents only representative scenes, it is very difficult to understand the development of the contents from the representative scenes and the contents themselves.

한편, 동영상 검색을 위한 종래의 기술로서 미합중국 특허 제 5,655,117 호(Method and apparatus for indexing multimedia information streams)의 경우는 동영상에 나타나는 오브젝트들을 정의하고 각 오브젝트의 출현 구간과 오브젝트의애트리뷰트(속성)을 정의함으로써 오브젝트 기반 검색방법을 제공하지만, 이러한 방법 또한 전체적인 내용을 이해하기는 어렵고, 내용이 파악되지 않으므로 원하는 검색을 하기 위한 검색조건으로 어떤 특정한 오브젝트 및 애트리뷰트를 지정할지 결정하기 힘들다는 문제가 있다.On the other hand, in the prior art for video retrieval US Patent No. 5,655,117 (Method and apparatus for indexing multimedia information streams) by defining the objects appearing in the video, by defining the appearance period of each object and the attributes (properties) of the object Although it provides an object-based search method, this method also has a problem that it is difficult to understand the overall content, it is difficult to determine what specific objects and attributes to specify a search condition for the desired search because the content is not understood.

즉, 드라마나 영화 등의 일반적인 동영상은 시간에 따라 장소를 달리하면서 등장인물들이 엮어나가는 사건전개를 그 내용으로 하기 때문에, 단순히 등장인물이나 장면을 발췌하여 보는 것만으로는 그 전체적인 내용을 요약하고 또 이해하며 검색하기가 실질적으로 불가능한 것이다.In other words, the general video such as drama or movie is based on the development of events in which the characters are intertwined in different places according to time, so simply extracting the characters or scenes summarizes the entire contents. It is practically impossible to understand and search.

본 발명은 동영상을 구성하는 요소로서 동영상의 내용을 오브젝트, 장소, 사건, 시간이라는 요소의 관계로 표현함으로써 동영상 내용을 보다 쉽게 요약하고 또 검색할 수 있는 내용기반 동영상 검색 시스템을 제공한다.The present invention provides a content-based video retrieval system that can summarize and search video contents more easily by expressing the contents of the video as a component of the video by the relationship of elements such as object, place, event, and time.

본 발명은 영화, 드라마 등의 일반적인 동영상 내용을 주요 오브젝트와 장소와의 관계로 보고 여기에 사건과 시간의 전개라는 관점을 반영하여 구성한 관계 그래프로부터 내용기반 동영상을 검색할 수 있도록 한 동영상 검색 시스템을 제공한다.The present invention provides a video retrieval system that allows users to search general video contents such as movies and dramas in relation to main objects and places, and to search for content-based videos from a relationship graph constructed by reflecting the viewpoint of the development of events and time. to provide.

본 발명은 동영상 내용을 주요 오브젝트와 장소와의 관계로 간주하여, 오브젝트와 장소와의 관계에는 시간적인 요소에 의한 복수개의 등장 구간이 존재하고 각 등장 구간에는 사건이 기술되는 관점에서 내용기반으로 동영상을 검색하는 검색 시스템을 제공한다.The present invention regards video content as a relationship between a main object and a place, and there are a plurality of appearance sections based on temporal elements in the relationship between the object and the place, and each appearance section has a content-based video in terms of describing an event. Provide a search system to search it.

본 발명은 동영상 내용을 주요 오브젝트와 장소의 관계 그래프로 표현하고, 주요 오브젝트는 동영상 종류에 따라 인물, 동물 등으로 정의되고 사건은 텍스트로 표현되며 장소의 단위는 동영상 내용에 따라 다른 레벨로 표현됨과 함께 장소의 단위를 단일레벨 또는 다중레벨로 표현되는 것을 기반으로 하여 동영상을 검색하는 검색 시스템을 제공한다.In the present invention, the video content is represented by a graph of the relationship between the main object and the place, the main object is defined as a person, an animal, etc. according to the video type, the event is represented by the text, and the unit of the place is represented at different levels according to the video content. Together, the present invention provides a retrieval system for retrieving a video based on a unit of a place represented by a single level or a multilevel.

본 발명은 동영상 내용을 주요 오브젝트와 장소, 이들 사이의 관계로 표현하며 하나의 관계는 하나 이상의 등장 구간이 존재하여 표시되고, 하나의 등장 구간은 동영상 내에서 실제 구간이 표시되며 그 구간을 대표하는 프레임에 대한 표시와 사건을 텍스트로서 기술하는 부분을 표시함으로써 동영상을 검색하는 검색 시스템을 제공한다.The present invention expresses the contents of the video as a main object, a place, and a relationship therebetween. One relationship is displayed in which one or more appearance sections exist, and one appearance section represents an actual section in the video and represents the section. The present invention provides a retrieval system for retrieving a video by displaying a frame and a part describing an event as text.

본 발명은 동영상 내용을 주요 오브젝트와 장소, 사건의 관계로 표현하고, 여기서 하나의 오브젝트와 하나의 장소와의 관계 뿐만 아니라 복수개의 오브젝트와 장소와의 관계도 검색할 수 있는 내용기반 동영상 검색 시스템을 제공한다.The present invention provides a content-based video retrieval system capable of expressing video contents in relation to main objects, places, and events, and retrieving not only the relationship between one object and one place, but also the relationship between a plurality of objects and places. to provide.

본 발명은 또한, 동영상 내의 오브젝트에 대한 정보를 나타내는 오브젝트정보 영역과, 상기 오브젝트와 상관성 있는 장소에 관한 정보를 나타내는 장소정보영역과, 상기 오브젝트와 장소와의 관계를 나타내는 사건내용 정보로서 해당 사건의 대표장면을 지시하는 정보와 해당 사건내용을 설명하는 텍스트 정보를 포함하는 사건내용정보 영역을 포함하며, 각각의 정보영역은 검색 가능하도록 상호 연결된 동영상 검색 데이타가 기록된 기록매체를 제공한다.The present invention also provides an object information area indicating information on an object in a video, a place information area indicating information on a place correlated with the object, and event content information indicating a relationship between the object and a place. An event content information area includes information indicating a representative scene and text information describing the event content, and each information area provides a recording medium on which video search data, which are interconnected to each other, is recorded so as to be searchable.

도1은 본 발명에서 동영상 검색을 위한 오브젝트와 장소의 관계를 설정하여 검색 정보를 구성하는 단계를 나타낸 플로우차트1 is a flowchart illustrating a step of configuring search information by setting a relationship between an object and a place for video search in the present invention.

도2는 본 발명에서 구현된 오브젝트와 장소의 관계를 설정하는 그래프 데이타의 구조를 예를 들어 나타낸 도면2 is a view showing an example of the structure of graph data for setting the relationship between an object and a place implemented in the present invention.

도3은 본 발명에 의한 동영상 제작과 검색기의 일실시예를 나타낸 블럭도Figure 3 is a block diagram showing an embodiment of a video production and searcher according to the present invention

도4는 본 발명에서 구현된 오브젝트와 장소의 관계를 설정하는 그래프 데이타 구조에 따른 사용자 인터페이스의 예를 나타낸 도면4 is a diagram showing an example of a user interface according to a graph data structure for setting a relationship between an object and a place implemented in the present invention.

도5는 본 발명에서 구현된 오브젝트와 장소의 관계를 설정하는 그래프 데이타 구조에 따른 사용자 인터페이스의 또다른 예를 나타낸 도면5 illustrates another example of a user interface according to a graph data structure for setting a relationship between an object and a place implemented in the present invention.

도6은 본 발명에서 구현된 오브젝트와 장소의 관계를 설정하는 그래프 데이타 구조에서 복수개의 오브젝트와 장소를 선택한 경우에 따른 사용자 인터페이스의 예를 나타낸 도면FIG. 6 is a view showing an example of a user interface according to a case where a plurality of objects and places are selected in a graph data structure for setting the relationship between objects and places implemented in the present invention. FIG.

도7,도8은 본 발명에서 장소의 다중레벨을 설명하기 위한 사용자 인터페이스의 예를 나타낸 도면7 and 8 show examples of a user interface for explaining multiple levels of a place in the present invention.

본 발명은 동영상의 내용을 구성하는 요소로서 오브젝트와 그 오브젝트에 상관성있는 장소를 서로 관계짓고 그 관계를 나타내는 정보를 포함하며, 상기 오브젝트와 장소의 관계에 속하는 내용전개의 사건으로서 동영상 구간 및 대표 장면을 지시하는 정보와 해당 동영상 구간의 사건내용을 표시하는 정보를 포함하는 것을 특징으로 하는 내용기반 동영상 검색 데이타 구조로서, 상기 오브젝트와 장소에 대하여 그 오브젝트와 장소 각각에 종속되는 하위계층의 오브젝트와 장소의 관계를 나타내는 정보를 더 포함할 수 있다.The present invention relates to an element constituting the contents of a moving picture and includes information indicating an object and a place correlated with the object and indicating the relationship, and a moving picture section and a representative scene as an event of content development belonging to the relationship between the object and the place. A content-based video retrieval data structure comprising information indicative of a message and information indicating an event content of a corresponding video section, wherein the objects and places of sub-layers that depend on each of the objects and places with respect to the object and place. It may further include information indicating the relationship of.

또한 본 발명은 동영상의 내용을 구성하는 요소로서 오브젝트와 장소를 선정하여 상호 상관성있는 오브젝트와 장소를 관계짓는 관계 그래프 설정과정과; 상기 관계지워진 오브젝트와 장소의 관계에 해당하는 내용전개의 사건으로서 동영상 구간 및 대표장면을 설정하고 사건 전개의 내용을 부가하는 검색정보 설정과정과; 상기 설정된 관계 그래프로부터 선택되는 관계에 해당하는 검색정보로서 상기 동영상 구간 및 대표장면과 내용을 제시하는 검색과정으로 이루어진 것을 특징으로 하는 내용기반 동영상 검색방법이다.The present invention also relates to a process of establishing a relation graph for selecting an object and a place as elements constituting the contents of a moving picture and associating objects and places with mutual correlation; A search information setting process of setting a video section and a representative scene as an event of content development corresponding to the relationship between the related object and a place, and adding contents of the event development; And a search process for presenting the video section, the representative scene and the content as search information corresponding to the relationship selected from the set relationship graph.

또한 본 발명은 동영상의 내용을 구성하는 요소로서 주요 오브젝트와 장소와의 관계 그래프를 설정하고 또 그 관계에 해당하는 등장구간들의 위치정보 및 그 등장구간을 대표하는 대표 프레임 위치정보와 함께 사건 설명을 텍스트로서 부가하는 검색 데이타 형성과정과, 상기 동영상에 대하여 오브젝트와 장소와의 관계 그래프를 표시하는 관계 그래프 표시과정과, 상기 표시된 관계 그래프로부터 적어도 하나의 관계가 선택되면 상기 위치정보에 근거하여 상기 선택된 관계안에 존재하는등장구간들의 대표 프레임 및 사건 설명을 표시하고 사용자가 원하는 구간을 상영하는 검색결과 표시과정으로 이루어진 것을 특징으로 하는 내용기반 동영상 검색방법으로서, 상기 등장구간들 중에서 원하는 등장구간을 선택하면 해당 대표 프레임이 표시되고 상기 사건 설명 또는 보다 자세한 사건설명을 표시하며, 상기 관계 그래프로부터 복수개의 오브젝트와 장소와의 관계가 선택될 수 있고, 복수개의 오브젝트와 장소와의 관계가 선택되면 복수개의 오브젝트가 해당 장소에서 함께 등장한 구간들만 검색하여 표시하는 것을 특징으로 하는 내용기반 동영상 검색방법이다.In addition, the present invention sets the relationship graph between the main object and the place as an element constituting the content of the video, and describes the event together with the position information of the appearance sections corresponding to the relationship and the representative frame position information representing the appearance section. A process of forming search data to be added as text, a process of displaying a relationship graph of an object and a place for the video, and when at least one relationship is selected from the displayed relationship graph, the selected data based on the location information; A content-based video retrieval method comprising a search result display process for displaying a representative frame and an event description of lighting sections existing in a relationship and screening a section desired by a user. The representative frame is displayed An event description or a more detailed event description is displayed, and a relationship between a plurality of objects and a place may be selected from the relationship graph, and when a relationship between the plurality of objects and a place is selected, a section in which the plurality of objects have appeared together at the corresponding place Content-based video retrieval method characterized in that the search and display only.

이하 첨부된 도면을 참조하여 본 발명을 더욱 상세히 설명한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

도1은 본 발명의 내용기반 동영상 검색방법과 검색 브라우저를 구현하기 위한 동영상 검색 시스템의 구성 수순을 나타낸다.1 is a block diagram of a video search system for implementing a content-based video search method and a search browser according to the present invention.

먼저, 단계(101)는 주요 오브젝트 및 장소의 설정단계를 나타낸다.First, step 101 shows setting of main objects and places.

이 단계(101)에서는 영화나 드라마 등의 동영상 내용에 대하여 주요 오브젝트와 장소를 설정하는데, 예를 들면 주요 오브젝트로는 등장인물중 사건 전개에 필요한 주요 등장인물을 설정하고, 이 등장인물과 함께 사건 전개에 필요한 주요 장소를 설정하며, 이때 설정되는 장소는 장면내에서 전혀 다른 모습으로 나타날 수도 있다.In this step 101, a main object and a place are set for the contents of a video such as a movie or a drama. For example, as the main object, a main character necessary for the development of the event is set as the main object, and the event is accompanied by the character. Set the main place required for deployment, and the place to be set may appear completely different in the scene.

예를들어 장소를 병원으로 한다고 해도 그 병원내의 복도 장면, 입원실 장면, 수술실 장면, 로비 장면, 병원 마당 장면 등등을 더욱 세분화될 수 있고, 이러한 것을 장소에 의존적인(종속되는) 하위계층의 장소로서 설정할 수 있다.For example, even if the place is a hospital, the corridor scene, the hospital scene, the operating room scene, the lobby scene, the hospital yard scene, etc. in the hospital can be further subdivided. Can be set.

물론, 개념적으로는 '병원'이라는 장소임을 알고 같은 장소로 표현하는 것이동영상 내용 전체의 이해에 도움이 될 경우에는 이들을 하나의 주요 장소로 결합한다.Of course, if it is conceptually known as a 'hospital' place and expressed in the same place helps to understand the entire video content, combine them into one main place.

또한, 주요 오브젝트로서 등장인물의 경우에도 그 인물에 의존적인(종속되는) 하위계층의 오브젝트를 더 설정할 수도 있다.In addition, even in the case of a character as a main object, an object of a lower hierarchy dependent on the character may be further set.

다음 단계(102)는 상기 단계(101)에서 설정된 주요 오브젝트와 장소와의 관계를 설정하는 단계이다.The next step 102 is to establish a relationship between the main object and the place set in the step 101.

예를 들면 주요 오브젝트로서 등장인물A, 등장인물B, 등장인물C가 설정되고, 장소로서 병원, 방안, 야외가 설정되었다면 등장인물A가 등장하는(관계있는) 장소는 병원과 방안, 등장인물B가 관계있는 장소는 방안, 야외, 등장인물C가 관계있는 장소는 야외 등과 같이 등장인물과 장소와의 관계를 설정한다.For example, if character A, character B, and character C are set as main objects, and hospital, room, and outdoor are set as places, the place where character A appears (relevant) is hospital, room, character B. Place is related to room, outdoor, and character C is related to the place and character.

이러한 관계는 실제로 동영상에서 그 장소에 그 오브젝트가 등장하는 구간이 될 것이므로, 이 것을 인덱싱(Indexing)하는 것이다.Since this relationship will actually be the section in which the object appears in that place in the video, it is indexed.

그 오브젝트가 등장하는 구간은 실제로 화면에 그 오브젝트가 보이는 순간만을 의미할 수도 있으나, 내용상 그 오브젝트가 등장하고 있는 씬(Scene)의 전체 구간을 의미할 수도 있다.The section in which the object appears may mean only the moment when the object is actually visible on the screen, but may also mean the entire section of the scene in which the object appears.

다음 단계(103)는 대표장면의 설정 단계로서, 상기 단계(102)에서 설정된 오브젝트와 장소와의 관계로부터 그 장소에 관계되는 해당 오브젝트의 등장구간을 대표할 수 있는 장면을 설정하는데, 하나의 대표 프레임으로 설정하여 그 프레임 위치를 표시하는 것이다.The next step 103 is a step of setting the representative scene, and sets a scene that can represent the appearance section of the object related to the place from the relationship between the object and the place set in the step 102. It is set to a frame to display the frame position.

상기의 예에 따르면 등장인물A-병원의 관계로부터 등장인물A가 병원에 등장하는 구간을 대표하는 프레임으로 '수술장면 프레임'을 설정하고 이 프레임의 위치를 표시하는 것이다.According to the above example, from the relationship between the character A-hospital, the character A represents a section in which the character appears in the hospital, and sets a 'surgical scene frame' and displays the position of the frame.

다음 단계(104)는 사건 설명단계로서, 상기 앞 단계들에서 얻어진 등장구간 마다 적절한 주석을 달아주는 것이다.The next step 104 is an event description step, in which appropriate annotations are given for each emergence section obtained in the previous steps.

상기의 예에 따르면 등장인물A-병원의 관계로부터 '수술장면 프레임'을 대표 장면으로 설정해주고, 그 등장구간의 내용을 요약할 수 있는 설명을 텍스트로 부가하는 것이다.According to the above example, the operation scene frame is set as the representative scene from the relationship between the character A-hospital, and a description to summarize the content of the appearance section is added as text.

상기한 바와같이 동영상 내용을 기반으로 하여 주요 오브젝트와 장소의 관계를 설정하고 또 등장구간의 인덱싱 및 등장구간의 대표 프레임 설정, 주석 달기(사건)를 수행함으로써 오브젝트-장소-사건-시간의 관계에 기반하는 동영상 검색의 기본 정보가 완성된다.As described above, the relationship between the main object and the place is set based on the contents of the video, and the indexing of the appearance section, the representative frame setting of the appearance section, and the annotation are performed (events). Basic information of video search based is completed.

이러한 정보들은 한가지 예로서 멀티미디어 스트림의 헤더(Header)에 수록할 수도 있다.Such information may be included in a header of a multimedia stream as an example.

그러면 동영상 재생(검색)시스템에서는 멀티미디어 스트림의 헤더에 수록된 상기의 정보들을 검출하고 또 판독하여 그 동영상에 대한 내용기반 검색을 수행할 수 있게 된다.Then, the video reproducing (searching) system can detect and read the information contained in the header of the multimedia stream and perform a content-based search for the video.

도2는 상기 도1의 단계들을 거쳐서 구현된 오브젝트와 장소/사건의 관계 그래프를 위한 데이타 구조의 일예를 나타낸다.FIG. 2 shows an example of a data structure for a relationship graph of an object and a place / event implemented through the steps of FIG.

오브젝트로서 인물1(human A)(201), 인물2(human B)(202), 인물3(human C) (203)이 설정되고, 장소로서 병원(204), 방안(205), 야외(206)가 설정되며,인물1(201)은 병원(204)과 야외(206)라는 장소와 관계가 설정되고, 인물2(202)는 병원(204)과 방안(205)이라는 장소와 관계가 설정되고, 인물3(203)은 방안(205)이라는 장소와 관계가 설정된다.Human 1 201, Human B 202, Human C 203 are set as objects, hospital 204, room 205, outdoor 206 as a place. Is set, the character 1 (201) has a relationship with the place of the hospital 204 and the outdoor 206, and the person 2 202 has a relationship with the place of the hospital 204 and the room 205 is established The person 3 203 has a relationship with a place called the room 205.

그리고, 각각의 오브젝트(201)(202)(203)와 각각의 장소(204)(205)(206)와의 관계는 링크(207)로서 그래프화된다.And, the relationship between each object 201, 202, 203 and each place 204, 205, 206 is graphed as a link 207.

그리고 상기 링크(207)로서 그래프화되는 오브젝트-장소의 설정관계에 따라 인물이 등장하는 구간이 인덱싱 된다.The section in which the person appears is indexed according to the object-place setting relationship graphed as the link 207.

예를 들면 도2에서는 인물1(201)과 병원(204)의 관계설정으로부터 해당 인물1이 병원에서 등장하는 3개의 등장구간1,2,3(208)(209)(210)이 대응되고, 각각의 등장구간을 대표하는 장면과 그 등장구간의 시작 및 종료위치, 등장구간에 대한 사건설명이 각각 설정된다.For example, in FIG. 2, three appearance sections 1, 2, 3 (208, 209, 210) in which the person 1 appears in the hospital correspond to each other based on the relationship between the person 1 201 and the hospital 204. The scene representing each appearance section, the start and end positions of the appearance section, and the event description for the appearance section are set.

예를 들면, 도2에서 볼 때 인물1(201)이 병원(204)이라는 관계 장소에 등장하는 구간 중에서, 등장구간2(209)의 경우 등장구간은 프레임16(Frame16) 부터 프레임21(Frame21)이고, 이 중에서 대표장면으로서 프레임18(Frame18)을 키프레임 (211)으로 하여 그 위치정보(Frm_K)를 수록하고, 또한 등장구간2(209)의 첫번째 프레임(Frame16)을 시작 프레임(212)으로 하여 그 위치정보(Frm_S)를 수록하고, 등장구간2의 마지막 프레임(Frame21)을 종료 프레임(213)으로 하여 그 위치정보(Frm_E)를 수록하며, 등장구간2(209)에 해당하는 내용의 요약(사건)을 텍스트로 하여 사건정보(Event(text))로 수록한 것을 보이고 있다.For example, as shown in FIG. 2, among the sections in which the person 1 201 appears in the related place of the hospital 204, in the case of the appearance section 2 209, the appearance section is from frame 16 to frame 21. Among them, as the representative scene, frame 18 is used as the key frame 211 to store the positional information Frm_K, and the first frame Frame 16 of the appearance section 2 209 is the start frame 212. The position information Frm_S is recorded, the last frame Frame21 of appearance section 2 is used as the end frame 213, and the position information Frm_E is recorded, and the summary corresponding to appearance section 2 209 is summarized. (Event) is shown as event information (Event) in text.

한편, 상기 오브젝트로서 등장인물(201)(202)(203)에 의존적인(종속되는) 하위 계층의 오브젝트 관련 정보(215)(Human Object Scheme)를 수록할 수도 있고, 또한 상기 장소로서 병원(204)이나 방안(205) 또는 야외(206)등에 의존적인(종속되는) 하위 계층의 장소 관련 정보(Place Object Scheme)(216)를 수록할 수도 있다.On the other hand, the object related information 215 (Human Object Scheme) of the lower layer dependent on (dependent on) the characters 201, 202, and 203 as the object may be stored, and the hospital 204 as the place may be included. ) May include a Place Object Scheme 216 of a lower hierarchy dependent on (dependent on) the room 205 or the outdoor 206.

이 것은 예를 들면 병원(204)이라는 큰 테두리의 장소에서도 입원실, 복도, 로비, 수술실 등의 하위계층적인 장소를 오브젝트-장소의 관계로 설정함을 의미하는 것이다.This means, for example, that the lower hierarchical places such as an inpatient room, a corridor, a lobby, an operating room, etc. are set in an object-place relationship even in a large bordered place called the hospital 204.

도2와 같은 오브젝트-장소/사건의 관계 그래프 구조는 오브젝트와 장소 하나의 관계에 대해서 복수개의 등장구간이 존재할 수 있고, 복수개의 오브젝트와 하나의 장소가 관계를 가질 수도 있으며, 하나의 오브젝트와 복수개의 장소가 관계를 가질 수도 있다.In the object-place / event relationship graph structure of FIG. 2, a plurality of appearance sections may exist for a relationship between an object and a place, a plurality of objects may have a relationship, and one object may have a plurality of places. Places may have relationships.

즉, 단일 레벨의 오브젝트-장소 관계는 물론, 다중적인 오브젝트-장소 관계를 가질수도 있는 것이다.That is, not only a single level of object-place relationship but also multiple object-place relationships can be provided.

도3은 상기 도1 및 도2로부터 구현되는 본 발명의 동영상 검색 시스템의 전체적인 블럭도의 한가지 실시예를 나타내며 여기에 도시된 것에 의해서 본 발명이 제한되지는 않는다.FIG. 3 shows one embodiment of an overall block diagram of the video search system of the present invention implemented from FIGS. 1 and 2 above, and the present invention is not limited thereto.

도3에서는 설명의 편의상 비디오 공급자와 사용자의 입장으로 분리하였다.In FIG. 3, for convenience of description, the video provider is separated into a user's position.

비디오 공급자는 상기 도1의 과정을 통해서 도2와 같은 검색정보를 제공하고, 사용자는 도2와 같은 검색정보를 이용해서 도4 내지 도6과 같은 검색 브라우저에 의한 동영상 검색을 실행할 수 있게 되는 것이다.The video provider provides search information as shown in FIG. 2 through the process of FIG. 1, and the user can perform video search by the search browser as shown in FIGS. 4 to 6 using the search information as shown in FIG. .

디지탈 비디오 데이타(301)는 입력 비디오 버퍼(302)에 저장되고, 비디오 버퍼(302)에 저장된 디지탈 비디오 데이타는 비디오 프로세싱 유닛(303)에 의해서 멀티 미디어 비디오 스트림의 파일로 콘트롤되며, 콘트롤 프로세싱 유닛(304)은 필요한 각각의 정보를 제작하거나 있는 정보를 읽어서 처리한다.The digital video data 301 is stored in the input video buffer 302, and the digital video data stored in the video buffer 302 is controlled by the video processing unit 303 as a file of the multimedia video stream, and the control processing unit ( 304) produces each piece of information required or reads and processes the information.

사용자 인터페이스 및 표시부(305)는 비디오 프로세싱 유닛(303) 및 콘트롤 프로세싱 유닛(304)에 의해서 처리되는 비디오 데이타의 표시는 물론, 상기한 도2의 데이타 제작을 위한 사용자 정보들을 입력하기 위한 인터페이스를 제공한다.The user interface and display unit 305 provides an interface for displaying the video data processed by the video processing unit 303 and the control processing unit 304 as well as inputting user information for data production of FIG. do.

콘트롤 프로세싱 유닛(304)에서 처리된 도2 구조의 오브젝트-장소/사건 관계 정보들은 비디오 정보처리 메모리(306)에 저장되고, 여기에 저장된 오브젝트-장소/사건 관계 정보는 비디오 버퍼(302)에 수록된 비디오 데이타와 함께 적절한 포맷으로서 저장공간(307)에 저장된다.The object-place / event relationship information of the structure of FIG. 2 processed by the control processing unit 304 is stored in the video information processing memory 306, and the object-place / event relationship information stored therein is stored in the video buffer 302. The video data is stored in the storage 307 as an appropriate format.

이 저장공간(307)에 저장된 비디오 데이타 및 도2의 검색관련 정보들은 기록매체의 형태 또는 유선이나 무선 방송통신망을 통해서 사용자에게 제공된다.The video data stored in the storage space 307 and the retrieval related information of FIG. 2 are provided to the user in the form of a recording medium or via a wired or wireless broadcast communication network.

사용자측에서는 상기 저장공간(307)으로부터 제공되는 비디오 데이타와 오브젝트-장소/사건 데이타를 검출하고 또 판독하여 사용자 요구에 응답하게 된다.The user side detects and reads video data and object-place / event data provided from the storage space 307 to respond to user requests.

즉, 비디오 버퍼(308)에 저장되는 비디오 데이타에 대해서 비디오 프로세싱 유닛(309)과 콘트롤 프로세싱 유닛(310)의 데이타 처리가 이루어지고, 이때 오브젝트-장소/사건 데이타를 비디오 정보처리 메모리(312)를 이용해서 처리하여 사용자 인터페이스 및 표시부(311)로 응답하게 되는 것이다.That is, data processing of the video processing unit 309 and the control processing unit 310 is performed on the video data stored in the video buffer 308, and the object-place / event data is stored in the video information processing memory 312. And the user interface and the display unit 311 respond.

즉, 도3에 나타낸 내용기반 동영상 검색 시스템에 의하면, 공급자측에서는 사용자 인터페이스 및 표시부(305)를 통해서 도1의 과정 및 도2의 데이타 구조를완성하게 되고 이렇게 완성된 정보를 적절한 저장공간에 비디오 데이타와 함께 수록하게 되며, 사용자측에서는 사용자 인터페이스 및 표시부(311)를 통해서 도4 내지 도6에 나타낸 바와같은 동영상 검색을 수행하게 되는 것이다.That is, according to the content-based video retrieval system shown in FIG. 3, the provider side completes the process of FIG. 1 and the data structure of FIG. 2 through the user interface and the display unit 305, and stores the completed information in the appropriate storage space. In addition, the user side performs a video search as shown in FIGS. 4 to 6 through the user interface and the display unit 311.

도4는 사용자측에 제공되는 동영상 검색 브라우저(사용자 인터페이스)의 일예를 나타내었으며, 도2와 같은 오브젝트(인물)-장소/사건의 관계에 대응하고 있다.FIG. 4 illustrates an example of a video search browser (user interface) provided to the user side, and corresponds to the relationship of an object (person) -place / event as shown in FIG.

즉, 내용기반 동영상 검색 브라우저(400)는 도2와 같이 제작된 오브젝트와 장소의 관계 그래프(401) 및 선택된 관계에 대응하는 키프레임(402)/사건(내용설명)을 제시한다.That is, the content-based video retrieval browser 400 presents the relationship graph 401 of the object and the place produced as shown in FIG. 2 and a key frame 402 / event (content description) corresponding to the selected relationship.

오브젝트-장소의 관계는 오브젝트로서 등장인물1(human A)(403)이 장소로서 병원(406) 및 야외(408)와 관계로 설정되고, 등장인물2(human B)(404)은 병원(406) 및 방안(407)의 관계로 설정되고, 등장인물3(human C)(405)은 방안(407)과의 관계로 설정된다.The object-place relationship is established in relation to the hospital 406 and the open air 408 as a place, as human A 403 as the object, and the human B 404 as the hospital 406 as an object. ) And the room 407, and the character C (405) is set in the relationship with the room (407).

이 중에서 사용자가 검색을 원하는 내용으로서 링크(409)로 관련지워진 인물2(404)와 병원(406)의 단일레벨에 대한 검색을 사용자 인터페이스 및 표시부(311)를 이용해서 선택하면 콘트롤 프로세싱 유닛(310)은 비디오 정보처리 메모리(312)를 참조하여 상기 관계(409)에 해당하는 4개의 등장구간1,2,3,4(410)과 각각의 등장구간에 해당하는 사건(내용설명)(411)을 제시한다.If the user selects a search for a single level of the person 2 404 and the hospital 406 associated with the link 409 as the content that the user wants to search, the control processing unit 310 is selected. ) Refers to the video information processing memory 312, the four appearance sections 1, 2, 3, 4 410 corresponding to the relationship 409 and the events (content description) 411 corresponding to each appearance section. To present.

물론 여기서, 상기 관계 그래프로부터 하나 이상의 오브젝트만을 선택하면 장소와 관계없이 그 오브젝트(들)이 함께 등장한 구간을 검색하여 표시할 수도 있으며, 또한 특정 장소만을 선택한다면 오브젝트와 상관없이 그 장소가 배경인 구간만을 검색하여 표시할 수도 있다.Of course, if only one or more objects are selected from the relation graph, a section in which the object (s) appears together can be searched for and displayed regardless of a place, and if only a specific place is selected, the section in which the place is the background regardless of the object You can also search for and display only.

도5는 상기 도4에서 하나의 오브젝트-장소 관계에 속한 복수개의 등장구간들 중에서 하나를 대표 프레임을 이용해서 선택하였을 경우에 해당 등장구간의 설명과 대표 프레임이 표시된 사용자 인터페이스를 나타낸다.FIG. 5 illustrates a user interface in which a description of the appearance section and a representative frame are displayed when one of the plurality of appearance sections belonging to one object-place relationship is selected using the representative frame in FIG. 4.

즉, 도5에는 상기 도4와 같은 검색 브라우저에서 인물2(404)-병원(406)의 관계를 선택하고 여기서 다시 그 인물2-병원의 관계에 해당하는 4개의 등장구간들 중에서 등장구간2를 선택하였을 경우에 등장구간2에 대한 설명(511)과 대표 프레임(510)이 표시된 것을 보인다.That is, FIG. 5 selects the relationship between the person 2 404 and the hospital 406 in the search browser as shown in FIG. 4, and again shows the appearance area 2 among the 4 appearance areas corresponding to the relationship between the person 2 and the hospital. When it is selected, it is shown that the description 511 and the representative frame 510 of the appearance section 2 are displayed.

이 경우에도 검색 브라우저(500)는 오브젝트-장소의 설정관계 그래프(501)와 키프레임(502)을 제시하며, 등장인물1,2,3(503,504,505), 장소(506,507,508), 관계링크(509)의 데이타 구조를 제시하고 있다.In this case, the search browser 500 presents the object-place setting relationship graph 501 and the key frame 502, and the characters 1, 2, 3 (503, 504, 505), the place (506, 507, 508), and the relationship link 509. The data structure of is presented.

부호 512는 등장구간2의 대표 프레임(510)을 보고 사용자가 해당 구간의 재생을 원하는 경우에 선택하는 아이콘으로서 제시하였으며, 이 것을 이용하면 해당 구간의 시작 프레임부터 종료 프레임 까지를 디스플레이한다.Reference numeral 512 is presented as an icon for selecting when the user wants to play the corresponding section by looking at the representative frame 510 of the appearance section 2, and when using this, the frame from the start frame to the end frame of the section is displayed.

도6은 본 발명에서 복수개의 오브젝트에 대한 하나의 장소 대응관계로부터 등장구간과 사건(내용설명)을 제시하는 경우를 보인다.FIG. 6 shows a case where an appearance section and an event (contents description) are presented from one place correspondence relationship for a plurality of objects in the present invention.

검색 브라우저(600)는 오브젝트-장소의 설정관계 그래프(601)와 키프레임(602)을 제시하며, 등장인물1,2,3(603,604,605), 장소(606,607,608), 관계링크(609)(610)의 데이타 구조를 제시하고, 등장인물1(603) 및 등장인물2(604)의복수개의 오브젝트와 하나의 장소(606)를 선택한 경우, 등장인물1(603)과 등장인물2(604)가 동시에 병원(606)에 등장하는 2개 구간에 대한 대표 프레임(611,613) 및 각각의 설명(612,614)을 검색하여 보이고 있다.The search browser 600 presents the object-place setting relationship graph 601 and the key frame 602, and the characters 1, 2, 3 (603, 604, 605), the place 606, 607, 608, and the relationship link 609 (610). When the data structure of the character is selected and a plurality of objects and a place 606 of the character 1 603 and the character 2 604 are selected, the character 1 603 and the character 2 604 simultaneously. The representative frames 611 and 613 and descriptions 612 and 614 of two sections appearing in the hospital 606 are searched and shown.

즉, 인물1(603)과 인물2(604), 장소(606) 관계내에 존재하는 등장구간들 중에서 두 인물이 같이 등장하는 구간은 2개 구간으로서 해당 구간들에 대한 대표 프레임(611)(613)과 설명(612,614)을 제시하고 있다.That is, among the appearance sections existing in the relationship between person 1 603, person 2 604, and place 606, two sections appearing together are two sections, representing frames 611 and 613 for the sections. ) And explanations (612, 614).

또한, 복수개의 오브젝트만을 선택한다면 상기 선택된 오브젝트가 장소와 상관없이 함께 등장한 구간만을 검색하여 준다.In addition, if only a plurality of objects are selected, only the section in which the selected objects appear together regardless of the location is searched.

또한, 하나의 장소를 선택하면 상기 선택된 장소가 나타나는 구간을 오브젝트와 상관없이 검색하여 준다.In addition, if one place is selected, the section in which the selected place appears is searched regardless of the object.

도7과 도8은 본 발명에서 장소의 다중레벨을 설명하기 위한 사용자 인터페이스의 예를 나타낸 도면이다.7 and 8 illustrate examples of a user interface for describing multiple levels of a place in the present invention.

먼저, 도7에서 검색 브라우저(700)는 오브젝트와 장소의 관계 표시부(701)와 사건내용(설명) 표시부(702)를 가지고 있고, 오브젝트와 장소의 관계 표시부(701)에는 오브젝트와 장소의 관계를 그래프로 표시하는 부분(703)과 선택된 관계에 해당하는 대표장면(Key Frame)(704) 및 그 구간의 사건내용의 설명(705)을 표시하는 부분을 가지고 있다.First, in FIG. 7, the search browser 700 has a relationship display unit 701 of an object and a place and an event description (explanation) display unit 702. The relationship display unit 701 of an object and a place shows a relationship between an object and a place. It has a portion 703 for displaying in a graph, a key frame 704 corresponding to the selected relationship, and a portion for displaying a description 705 of the event contents of the section.

도7에서는 오브젝트로서 3명의 등장인물(Character A,B,C)을 제시하고 있으며, 장소로서 병원(Hospital), 등장인물A의 집(A's house), 그리고 공원(The park)을 제시하고 있다.In Fig. 7, three characters (Character A, B, C) are presented as objects, and a hospital (Hospital), a character's house (A's house), and a park (The park) are presented as places.

또, 등장인물A는 병원과 공원에 관계짓고, 등장인물B는 병원에 관계짓고, 등장인물C는 등장인물A의 집에 관계지워져 있다.In addition, character A is related to the hospital and the park, character B is related to the hospital, and character C is related to the house of the character A.

여기서 등장인물B와 병원의 관계(706)를 선택한 경우에 등장인물B가 병원에 등장하는 구간에 대한 대표장면이 키프레임(704)으로서 제시되고 있으며 그 구간에 대한 사건설명(705)이 함께 제시되고 있음을 보인다.In this case, when the relationship between the character B and the hospital (706) is selected, the representative scene of the section in which the character B appears in the hospital is presented as a key frame 704, and the event description (705) for the section is presented together. Seems to be.

한편, 상기한 바와같이 '병원'이라는 장소의 하위계층에 해당하는 레벨이 있음을 표시부-확장버튼 표식(707)으로 나타내고 있다.Meanwhile, as described above, the display unit-extension button marker 707 indicates that there is a level corresponding to the lower hierarchy of the place called 'hospital'.

이 확장버튼 표식은 메뉴로 표현될 수도 있다.This extended button marker may be represented as a menu.

그러므로 사용자가 이 확장버튼 표식(707)을 선택하면 도8과 같이 '병원'이라는 장소의 하위계층에 해당하는 레벨에서의 오브젝트-장소 관계가 제시된다.Therefore, when the user selects the extended button marker 707, the object-place relationship is presented at the level corresponding to the lower hierarchy of the place called 'hospital' as shown in FIG.

즉, 도8에서도 검색 브라우저(800)는 오브젝트-장소 관계 표시부(801), 사건내용 설명부(802), 오브젝트-장소 관계 그래프 표시부(803), 선택된 관계에 해당하는 키프레임(804) 및 사건내용의 설명(805) 등을 가지면서, '병원'이라는 상위계층의 장소에 대하여 병원로비(The lobby of the hospital) 및 병실(The room of the hospital)이라는 하위계층의 레벨이 제시되고, 또 이 하위계층의 레벨에 대하여 등장인물B와의 관계(806a,806b)가 제시되는 것이다.That is, in Fig. 8, the search browser 800 also includes an object-place relationship display unit 801, an event description unit 802, an object-place relationship graph display unit 803, a key frame 804 and an event corresponding to the selected relationship. With the description of the contents (805), the level of the lower class of the lobby of the hospital and the room of the hospital is presented for the place of the upper class of 'hospital'. A relationship 806a, 806b with character B is presented for the level of the lower hierarchy.

그러므로 사용자는 도8의 검색 브라우저로부터 등장인물B와 병원로비의 관계(806a) 또는 등장인물B와 병실의 관계(806b)를 선택할 수 있고, 이렇게 선택된 관계에 해당하는 키프레임(804) 및 그 설명(805)이 검색 결과로서 제시된다.Therefore, the user can select the relationship 806a between the character B and the hospital lobby or the relationship 806b between the character B and the sickroom from the search browser of FIG. 8, and the key frame 804 corresponding to the selected relationship and the description thereof. 805 is presented as a search result.

또한, 다시 상위레벨인 병원으로 가기 위해 그림처럼 병원로비와 병실을 그룹화하는 버튼 표식(807)을 두어 이 버튼 표식(807)을 선택하면 도7의 검색화면으로 돌아간다.In addition, if the button marker 807 is placed to group the hospital lobby and the hospital room as shown in the figure to return to the upper level hospital, the button marker 807 is returned to the search screen of FIG.

상기 도1 내지 도8에서 설명한 바와같이 본 발명은 동영상의 내용을 오브젝트와 장소와의 관계로부터 검색할 수 있었다.As described above with reference to Figs. 1 to 8, the present invention can retrieve the contents of a video from the relation between an object and a place.

상기 도1 내지 도8에서는 하나의 비디오 파일 즉, 1편의 드라마나 1편의 영화에 대해서 설명하였다.1 to 8, one video file, that is, one drama or one movie has been described.

그러나, 본 발명의 오브젝트-장소 기반 동영상 검색 시스템의 개념을 확장 적용하여, 본 발명의 동영상 검색 브라우저에서; 복수개의 비디오 파일 전체를 하나의 관계 그래프로 표현하고, 또 각각의 비디오 파일의 내용을 하나의 관계 그래프로 표현한 구조를 모두 가지고, 전체 내용을 관계 그래프로부터 대략 검색하고 하나의 비디오 파일 내용의 관계 그래프로부터 세부적으로 검색하는 동영상 검색 시스템도 실시 가능한 것이다.However, by extending the concept of the object-place based video retrieval system of the present invention, the video retrieval browser of the present invention; Represents a plurality of video files in one relationship graph, and has a structure in which the contents of each video file are expressed in a relationship graph. The entire content is roughly retrieved from the relationship graph, and the relationship graph of the contents of one video file is shown. It is also possible to implement a video search system that searches in detail.

예를 들어, 시리즈물 같은 경우 여러개의 비디오 파일로 나누어져 있다고 해도, 시리즈물의 특성상 공통된 오브젝트(예를 들면 같은 주인공)와 공통된 장소(예를 들면 사건전개의 주된 장소)하에서 서로다른 사건이 전개되거나, 맥락상 같은 사건이 여러회에 걸쳐 나누어 상영되는 경우가 보통이므로, 이러한 경우에는 여러편의 비디오 파일의 내용을 전체적으로 하나의 비디오 파일처럼 간주하여 상기 도1 내지 도8의 오브젝트-장소의 관계 그래프 구조로 표현하고, 또 여기에다 각각의 비디오 파일의 내용을 상기 도1 내지 도8과 같은 오브젝트-장소의 관계 그래프 구조로 표현함으로써, 복수개의 비디오 파일에 대한 전체적인 내용을 개략적으로 검색하고 또 하나의 비디오 파일에 대해서 세부적으로 검색하는 것이 가능하게 되는 것이다.For example, in the case of a series, even if it is divided into several video files, due to the nature of the series, different events are developed under a common object (for example, the same main character) and a common place (for example, the main place of event development). In this case, since the same events are often screened in several contexts, in this case, the contents of several video files are regarded as a single video file as a whole, and the object-place relationship graph structure of FIGS. By expressing the content of each video file in the object-place relationship graph structure as shown in Figs. 1 to 8, the entire contents of the plurality of video files are roughly searched and another video file is displayed. It is possible to search in detail about.

본 발명은 드라마, 영화 등 일반적인 동영상의 내용을 오브젝트, 장소, 시간에 따른 사건이라는 요소의 관계로 표현함으로써 사용자가 보다 쉽게 동영상의 전체적인 또는 부분적인 내용을 요약하고 검색할 수 있는 동영상 검색 시스템을 제공한다.The present invention provides a video retrieval system that enables a user to easily summarize and search the entire or partial contents of a video by expressing the contents of a general video such as a drama or a movie in terms of an object, a place, and an event according to time. do.

본 발명은 동영상의 내용 전체에 대한 요약은 물론, 특정한 위치를 선택하여 그 위치에 해당하는 내용을 검색할 수 있다.The present invention can search the contents corresponding to the location by selecting a specific location as well as the summary of the entire content of the video.

본 발명은 영화나 드라마 등의 동영상에 대하여 그 사건 전개의 기본적이고 일반적인 요소인 등장인물, 사건, 배경이라는 3요소를 기준으로 상호 관계 그래프를 제시하였으므로 내용 표현 자체가 이해하기에 매우 자연스럽고, 오브젝트가 인물이 아닌 동물 이야기 등을 내용으로 하는 동영상에도 적용 가능하다.The present invention presents a correlation graph based on three elements of characters, events, and backgrounds, which are basic and general elements of the development of the event, for a movie such as a movie or a drama, so that the content expression itself is very natural to understand, and an object Can also be applied to videos that contain animal stories rather than people.

본 발명에서는 장소가 사건 전개에 따라 그 레벨이 달라질 수 있는데도 적응적으로 대응할 수 있다.In the present invention, the place can be adaptively responded even though the level may be changed according to the development of the event.

즉, 본 발명에서는 설정된 오브젝트와 장소에 의존적인 하위계층의 오브젝트 또는 장소를 설정하므로 사건 전개에 따른 내용의 이해와 요약을 더욱 쉽게한다.That is, according to the present invention, an object or a place of a lower layer that is dependent on the set object and place is set, making it easier to understand and summarize contents according to the development of an event.

본 발명은 동영상 내용을 오브젝트와 장소 및 시간에 따른 사건의 전개라는 관점에서 관계를 설정하였기 때문에 다양한 응용이 가능하다.In the present invention, various applications are possible because the video content is set in terms of the development of an object and an event according to a place and a time.

예를 들어 골프와 같은 스포츠를 내용으로 하는 동영상에 대하여, 주요 오브젝트는 골퍼가 되고, 주요 장소는 각 홀 또는 각 홀내의 특징에 따라, 티 그라운드, 페어웨이, 러프 등으로 그룹지어진 장소일 수 있고, 각 장면의 이벤트는 골퍼의 스윙 종류가 될 수 있으므로, 스포츠 중계를 효율적으로 표현해주는 좋은 응용이 될 수 있다.For example, for a video about a sport such as golf, the main object may be a golfer, and the main place may be a place grouped into a tee ground, fairway, rough, etc. according to each hole or characteristics of each hole, Since the event of each scene can be a golfer's swing type, it can be a good application for efficiently representing sports relay.

또한 본 발명은 복수개의 비디오 파일들의 내용을 하나의 관계 그래프로 표현한 구조와, 각각의 비디오 파일 내용을 하나의 관계 그래프로 표현한 구조를 모두 가지고, 복수개의 비디오 파일 전체 내용을 관계 그래프로부터 개략적으로 검색하고 하나의 비디오 파일 내용의 관계 그래프로부터 세부적인 검색을 수행할 수 있으므로, 복수개의 비디오 파일에 대한 일괄 검색을 가능하게 한다.In addition, the present invention has a structure in which the contents of a plurality of video files are represented by one relationship graph and a structure in which the contents of each video file are represented by one relationship graph, and the entire contents of the plurality of video files are roughly searched from the relation graph. The detailed search can be performed from the relationship graph of the contents of one video file, thereby enabling the batch search for a plurality of video files.

이와같이 본 발명은 다양한 분야에 적용되어 전체적인 동영상의 요약과 이해 및 원하는 구간의 효율적인 검색을 가능하게 한다.As described above, the present invention is applied to various fields to enable a summary and understanding of an entire video and an efficient search of a desired section.

Claims (21)

오브젝트와 장소 정보를 포함하는 동영상의 내용을 구성하는 요소에 있어, 오브젝트와 그 오브젝트가 등장하는 장소를 지정하고, 그 관계를 그래프로 나타내는 정보와, 상기 오브젝트와 관련된 장소에서 발생하는 사건의 내용을 나타내는 정보를 포함하여 동영상 데이타를 검색하기 위한 검색 데이타를 구성하는 것을 특징으로 하는 내용기반 동영상 검색 데이타 구성방법.In an element constituting the contents of a video including an object and place information, information about an object and a place where the object appears, a graph showing a relationship thereof, and contents of an event occurring at a place related to the object A method of constructing content-based video retrieval data, comprising retrieval data for retrieving video data including information indicating. 제 1 항에 있어서, 상기 오브젝트와 관련되 장소에서 발생하는 사건의 내용은 동영상 구간 및 대표장면을 지시하는 정보 포함하는 것을 특징으로 하는 내용기반 동영상 검색 데이타 구성방법.The method of claim 1, wherein the content of the event occurring at a location associated with the object includes information indicating a video section and a representative scene. 제 1 항에 있어서, 상기 오브젝트와 장소에 대하여 그 오브젝트와 장소 각각에 종속되는 하위계층의 오브젝트와 장소의 관계를 나타내는 정보를 더 포함하는 것을 특징으로 하는 내용기반 동영상 검색 데이타 구성방법.The content-based video retrieval data construction method according to claim 1, further comprising information indicating a relationship between an object and a place of a lower hierarchy dependent on each of the object and the place. 제 1 항에 있어서, 상기 오브젝트와 장소는 적어도 하나 이상의 상호 상관성 있는 관계로 지워지는 것을 특징으로 하는 내용기반 동영상 검색 데이타 구성방법.The method of claim 1, wherein the object and the place are erased in at least one mutually correlated relationship. 제 1 항에 있어서, 상기 오브젝트와 장소의 관계를 나타내는 정보는 오브젝트와 장소를 서로 연결하는 그래프로서 제시되는 것을 특징으로 하는 내용기반 동영상 검색 데이타 구성방법.The method of claim 1, wherein the information representing the relationship between the object and the place is presented as a graph connecting the object and the place with each other. 제 2 항에 있어서, 상기 동영상 구간 및 대표장면을 지시하는 정보는 동영상의 해당 프레임 위치를 가리키는 것을 특징으로 하는 내용기반 동영상 검색 데이타 구성방법.3. The method of claim 2, wherein the information indicating the video section and the representative scene indicates a corresponding frame position of the video. 제 1 항에 있어서, 상기 동영상 구간의 사건내용을 표시하는 정보는 텍스트인 것을 특징으로 하는 내용기반 동영상 검색 데이타 구성방법.The method of claim 1, wherein the information indicating the event content of the video section is text. 제 2 항에 있어서, 상기 동영상 구간 및 대표장면을 지시하는 정보에 응답하여 해당 동영상 구간을 연속 재생하는 정보를 더 포함하는 것을 특징으로 하는 내용기반 동영상 검색 데이타 구성방법.The method of claim 2, further comprising information for continuously playing the video section in response to the information indicating the video section and the representative scene. 동영상의 내용을 구성하는 요소로서 오브젝트와 장소를 선정하여 상호 상관성있는 오브젝트와 장소를 관계짓는 관계 그래프 설정과정과; 상기 관계지워진 오브젝트와 장소의 관계에 해당하는 내용전개의 사건으로서 동영상 구간 및 대표장면을 설정하고 사건 전개의 내용을 부가하는 검색정보 설정과정과; 상기 설정된 관계 그래프로부터 선택되는 관계에 해당하는 검색정보로서 상기 동영상 구간 및 대표장면과 내용을 제시하는 검색과정으로 이루어진 것을 특징으로 하는 내용기반 동영상검색방법.A relationship graph setting process of selecting an object and a place as an element constituting the contents of a moving picture and associating a mutually correlated object and a place; A search information setting process of setting a video section and a representative scene as an event of content development corresponding to the relationship between the related object and a place, and adding contents of the event development; And a search process of presenting the video section, the representative scene and the content as search information corresponding to the relationship selected from the set relationship graph. 동영상의 내용을 구성하는 요소로서 주요 오브젝트와 장소와의 관계 그래프를 설정하고 또 그 관계에 해당하는 등장구간들의 위치정보 및 그 등장구간을 대표하는 대표 프레임 위치정보와 함께 사건 설명을 텍스트로서 부가하는 검색 데이타 형성과정과, 상기 동영상에 대하여 오브젝트와 장소와의 관계 그래프를 표시하는 관계 그래프 표시과정과, 상기 표시된 관계 그래프로부터 적어도 하나의 관계가 선택되면 상기 위치정보에 근거하여 상기 선택된 관계안에 존재하는 등장구간들의 대표 프레임 및 사건 설명을 표시하고 사용자가 원하는 구간을 상영하는 검색결과 표시과정으로 이루어진 것을 특징으로 하는 내용기반 동영상 검색방법.Set up a graph of the relationship between the main object and the place as the elements that constitute the contents of the video, and add the event description as text along with the position information of the appearance sections corresponding to the relationship and the representative frame position information representing the appearance section. Forming a search data, displaying a relation graph of the object and the place with respect to the moving image, and if at least one relation is selected from the displayed relation graph, the relation data is present in the selected relation based on the position information. Content-based video retrieval method characterized by consisting of a search result display process for displaying the representative frame and the event description of the appearance section and the user desired section. 제 10 항에 있어서, 상기 오브젝트-장소의 관계 그래프를 복수개의 비디오 파일 전체와 각각의 비디오 파일에 대하여 모두 설정하고, 상기 설정된 비디오 파일 전체 및 각각의 비디오 파일에 대한 관계 그래프로부터 복수개의 비디오 파일 전체 내용의 검색과 비디오 파일 각각에 대한 세부검색을 수행하는 것을 특징으로 하는 내용기반 동영상 검색방법.11. The method of claim 10, wherein the object-place relationship graph is set for all of the plurality of video files and for each video file, and the plurality of video files in total from the set video file and the relationship graph for each video file. Content-based video retrieval method characterized by performing a content search and detailed search for each video file. 제 10 항 또는 제 11 항에 있어서, 상기 등장구간들 중에서 원하는 등장구간을 선택하면 해당 대표 프레임이 표시되고 상기 사건 설명 또는 보다 자세한 사건설명을 표시하는 것을 특징으로 하는 내용기반 동영상 검색방법.12. The method of claim 10 or 11, wherein if a desired appearance section is selected from among the appearance sections, a corresponding representative frame is displayed and the event description or a more detailed event description is displayed. 제 10 항 또는 제 11 항에 있어서, 상기 관계 그래프로부터 복수개의 오브젝트와 장소와의 관계가 선택될 수 있고, 복수개의 오브젝트와 장소와의 관계가 선택되면 복수개의 오브젝트가 해당 장소에서 함께 등장한 구간들만 검색하여 표시하는 것을 특징으로 하는 내용기반 동영상 검색방법.12. The method of claim 10 or 11, wherein a relationship between a plurality of objects and a place may be selected from the relationship graph, and when the relationship between the plurality of objects and a place is selected, only sections in which the plurality of objects appear together at the corresponding place Content-based video search method characterized in that the search and display. 제 10 항 또는 제 11 항에 있어서, 상기 관계 그래프로부터 하나 이상의 오브젝트만을 선택하면 장소와 관계없이 그 오브젝트(들)이 함께 등장한 구간을 검색하여 표시하는 것을 특징으로하는 내용기반 동영상 검색방법.12. The method of claim 10 or 11, wherein if only one or more objects are selected from the relationship graph, a section in which the object (s) appears together is displayed regardless of the location. 제 10 항 또는 제 11 항에 있어서, 상기 관계 그래프로부터 특정 장소만을 선택하면 오브젝트와 관계없이 그 장소가 배경인 구간만을 검색하여 표시하는 것을 특징으로 하는 내용기반 동영상 검색방법.The method of claim 10, wherein if a specific place is selected from the relationship graph, only a section in which the place is a background is searched and displayed regardless of an object. 오브젝트와 장소 정보를 포함하는 동영상의 내용을 구성하는 요소에 있어, 주요 오브젝트와 관련된 장소에 대한 정보를 나타낸 그래프를 가지고 해당 영역에 표시하고, 상기 관계 그래프로부터 사용자에 의해 선택된 관계 그래프에 포함된 사건의 내용정보를 표시하여 선택된 오브젝트에 관련된 장소에 대응하는 동영상 구간의 사건내용을 나타내는 정보를 검색하는 것을 특징으로 하는 동영상 검색 브라우저.In the elements constituting the contents of a video including object and place information, an event is included in a relationship graph selected by a user from the relationship graph with a graph showing information on a place related to a main object and displayed in the corresponding area. The video search browser, comprising: displaying content information and searching for information representing an event content of a video section corresponding to a place related to the selected object. 제 16 항에 있어서, 상기 오브젝트-장소의 관계 그래프는 오브젝트나 장소에 의존적인 하위계층으로서의 오브젝트-장소의 관계 그래프를 가지며, 이 하위계층의 오브젝트-장소의 관계 그래프로부터 선택된 관계에 해당하는 동영상 구간의 사건 내용을 검색하는 것을 특징으로 하는 동영상 검색 브라우저.17. The moving picture section according to claim 16, wherein the relationship graph of the object-place has an object-place relationship graph as a sublayer dependent on an object or a place, and a moving picture section corresponding to the relationship selected from the relationship graph of the object-place of this sublayer. Video search browser, characterized by searching the contents of the case. 제 16 항에 있어서, 상기 오브젝트-장소의 관계 그래프는 하나의 오브젝트와 적어도 하나 이상의 장소와의 관계나, 적어도 하나 이상의 오브젝트와 하나의 장소와의 관계 그래프를 가지며, 이 오브젝트-장소와의 관계 그래프로부터 적어도 하나 이상의 관계 그래프가 선택되어 해당 동영상 구간의 사건내용을 검색하는 것을 특징으로 하는 동영상 검색 브라우저.17. The relationship graph of claim 16, wherein the object-place relationship graph has a relationship between one object and at least one place or a relationship graph between at least one object and one place and the relationship graph with this object-place At least one relationship graph is selected from the video search browser, characterized in that for searching the event content of the video section. 제 16 항 또는 제 17 항 또는 제 18 항중의 어느 한항에 있어서, 상기 오브젝트-장소의 관계 그래프로부터 선택된 관계에 해당하는 동영상구간의 사건내용은 그 동영상 구간의 대표장면과 사건내용의 설명으로서 검색되는 것을 특징으로 하는 동영상 검색 브라우저.19. The event content according to any one of claims 16, 17 and 18, wherein the event content corresponding to the relationship selected from the object-place relationship graph is retrieved as the representative scene of the video section and the description of the event content. Video search browser, characterized in that. 동영상 내의 오브젝트에 대한 정보를 나타내는 오브젝트정보 영역과,An object information area representing information about an object in the video, 상기 오브젝트와 상관성 있는 장소에 관한 정보를 나타내는 장소정보 영역과.A place information area indicating information about a place correlated with the object; 상기 오브젝트와 장소와의 관계를 나타내는 사건내용 정보로서 해당사건의 대표장면을 지시하는 정보와 해당 사건 내용을 설명하는 텍스트 정보를 포함하는 사건내용정보 영역을 가지고 있으며, 각각의 정보영역은 검색 가능하도록 상호 연결되어 있는 것임을 특징으로 하는 동영상 검색 데이타가 기록된 기록 매체As the event content information indicating the relationship between the object and the place, it has an event content information area including information indicating a representative scene of the event and text information describing the event content, and each information area is searchable. Recording media having recorded video retrieval data characterized in that they are interconnected 제 20항에 있어서, 상기 장소 정보영역은 그 오브젝트와 장소 각각에 종속되는 하위계층의 오브젝트와 장소의 관계를 나타내는 정보를 더 포함하는 것을 특징으로 하는 동영상 검색 데이타가 기록된 기록매체.21. The recording medium of claim 20, wherein the place information area further includes information indicating a relationship between an object and a place of a lower hierarchy subordinate to each of the object and the place.
KR1019980053237A 1998-12-05 1998-12-05 Content-based video retrieval data organization method and video retrieval method Expired - Fee Related KR100319159B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1019980053237A KR100319159B1 (en) 1998-12-05 1998-12-05 Content-based video retrieval data organization method and video retrieval method
US09/239,531 US6492998B1 (en) 1998-12-05 1999-01-29 Contents-based video story browsing system
CNB991095553A CN1269344C (en) 1998-12-05 1999-07-09 Video story-glancing over system base on content
EP99123530A EP1006459A3 (en) 1998-12-05 1999-11-25 Content-based video story browsing system
JP34569999A JP3454764B2 (en) 1998-12-05 1999-12-06 Search system and search method for searching video based on content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019980053237A KR100319159B1 (en) 1998-12-05 1998-12-05 Content-based video retrieval data organization method and video retrieval method

Publications (2)

Publication Number Publication Date
KR20000038289A KR20000038289A (en) 2000-07-05
KR100319159B1 true KR100319159B1 (en) 2002-04-22

Family

ID=19561490

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980053237A Expired - Fee Related KR100319159B1 (en) 1998-12-05 1998-12-05 Content-based video retrieval data organization method and video retrieval method

Country Status (1)

Country Link
KR (1) KR100319159B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087776A (en) 2016-01-21 2017-07-31 주식회사 알티캐스트 Service method and service system for providing self-growing contents based on relationship information
KR20170087775A (en) 2016-01-21 2017-07-31 주식회사 알티캐스트 Service method and service system for providing self-growing contents based on relationship information

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100693650B1 (en) * 1999-07-03 2007-03-14 엘지전자 주식회사 Video Browsing System Using Multi-object Information Structure
KR100721409B1 (en) * 2005-12-20 2007-05-23 엔에이치엔(주) Video scene retrieval method and scene retrieval system using the same
TWI474200B (en) * 2012-10-17 2015-02-21 Inst Information Industry Scene clip playback system, method and recording medium
KR102700003B1 (en) * 2018-10-08 2024-08-29 삼성전자주식회사 Electronic apparatus and method for controlling the electronicy apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087776A (en) 2016-01-21 2017-07-31 주식회사 알티캐스트 Service method and service system for providing self-growing contents based on relationship information
KR20170087775A (en) 2016-01-21 2017-07-31 주식회사 알티캐스트 Service method and service system for providing self-growing contents based on relationship information

Also Published As

Publication number Publication date
KR20000038289A (en) 2000-07-05

Similar Documents

Publication Publication Date Title
JP3454764B2 (en) Search system and search method for searching video based on content
US8234674B2 (en) Method of constructing information on associate meanings between segments of multimedia stream and method of browsing video using the same
KR100347710B1 (en) Method and data structure for video browsing based on relation graph of characters
US7181757B1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
CN101138233B (en) Method and apparatus for selecting portions of an audiovisual program
US6370316B1 (en) Apparatus for retrieving and administrating moving pictures and related network system
US20020126143A1 (en) Article-based news video content summarizing method and browsing system
CN101398843B (en) Device and method for browsing video summary description data
KR100370247B1 (en) Video browser based on character relation
JP3574606B2 (en) Hierarchical video management method, hierarchical management device, and recording medium recording hierarchical management program
KR100335817B1 (en) Method for representing abstract/detail relationship among segments in order to provide efficient browsing of video stream and video browsing method using the abstract/detail relationships among segments
KR100319160B1 (en) How to search video and organize search data based on event section
KR100319159B1 (en) Content-based video retrieval data organization method and video retrieval method
KR100319158B1 (en) Video browsing system based on event
KR100518861B1 (en) Video browsing system based on event
KR100518846B1 (en) Video data construction method for video browsing based on content
KR100361499B1 (en) Method for representing cause/effect relationship among segments in order to provide efficient browsing of video stream and video browsing method using the cause/effect relationships among segments

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 10

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 11

FPAY Annual fee payment

Payment date: 20121128

Year of fee payment: 12

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 12

FPAY Annual fee payment

Payment date: 20131122

Year of fee payment: 13

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 13

FPAY Annual fee payment

Payment date: 20141124

Year of fee payment: 14

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 14

FPAY Annual fee payment

Payment date: 20151124

Year of fee payment: 15

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 15

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20161218

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20161218

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000