[go: up one dir, main page]

JP2003256432A - Image material information description method, remote retrieval system, remote retrieval method, edit device, remote retrieval terminal, remote edit system, remote edit method, edit device, remote edit terminal, and image material information storage device, and method - Google Patents

Image material information description method, remote retrieval system, remote retrieval method, edit device, remote retrieval terminal, remote edit system, remote edit method, edit device, remote edit terminal, and image material information storage device, and method

Info

Publication number
JP2003256432A
JP2003256432A JP2002060328A JP2002060328A JP2003256432A JP 2003256432 A JP2003256432 A JP 2003256432A JP 2002060328 A JP2002060328 A JP 2002060328A JP 2002060328 A JP2002060328 A JP 2002060328A JP 2003256432 A JP2003256432 A JP 2003256432A
Authority
JP
Japan
Prior art keywords
video
video material
editing
search
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002060328A
Other languages
Japanese (ja)
Other versions
JP2003256432A5 (en
Inventor
Haruo Hiki
春夫 比企
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Sony Corp
Original Assignee
Sony Corp
Telecommunications Advancement Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Telecommunications Advancement Organization filed Critical Sony Corp
Priority to JP2002060328A priority Critical patent/JP2003256432A/en
Publication of JP2003256432A publication Critical patent/JP2003256432A/en
Publication of JP2003256432A5 publication Critical patent/JP2003256432A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To precisely retrieve image materials stored in a large-capacity archive from a remote place. <P>SOLUTION: The attribute information of image material in the archive 2 is described in an MPEG-7 file and structured as a database. In this file, further representative still-picture of the material and voice are described. The material is retrieved from the DB according to a genre dictionary by a remote retrieval/edit terminal 1, and the retrieval result is transmitted from the archive 2 to the terminal 1 by the MPEG-7 file. At the terminal 1, necessary material is selected according to the transmitted file, and edited. The edit result is transmitted as EDL data to an edit device 3. In the edit device 3, according to the transmitted EDL data, the material is obtained from the archive 2 to automatically perform the actual edit work. The material in the archive 2 can be easily retrieved from the terminal 1 at the remote place of the archive 2 and the edit device 3, and actual edit work can be automatically performed. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、映像素材ライブ
ラリに蓄積された映像素材を遠隔地から検索し、検索さ
れた映像素材を用いた編集作業を遠隔地から行う際に用
いて好適な映像素材情報記述方法、遠隔検索システム、
遠隔検索方法、遠隔検索装置および遠隔検索端末、遠隔
編集システム、遠隔編集方法、遠隔編集装置および遠隔
編集端末、ならびに、映像素材記憶装置および方法に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video material suitable for use when a video material stored in a video material library is searched from a remote location and an editing operation using the searched video material is performed from a remote location. Information description method, remote search system,
The present invention relates to a remote search method, a remote search device and a remote search terminal, a remote editing system, a remote editing method, a remote editing device and a remote editing terminal, and a video material storage device and method.

【0002】[0002]

【従来の技術】大容量のアーカイブに蓄積された映像素
材の編集を、通信ネットワークを介して遠隔地の編集端
末装置から行うような遠隔編集システムが提案されてい
る。編集端末装置による編集結果は、遠隔編集端末に対
して遠隔地にある編集センタに送信され、編集センタで
は、この編集結果に基づきアーカイブから映像素材を取
り出し、編集を行い、編集済みの映像として出力する。
2. Description of the Related Art A remote editing system has been proposed in which video material stored in a large-capacity archive is edited from a remote editing terminal device via a communication network. The editing result by the editing terminal device is transmitted to the remote editing terminal to the editing center at a remote location, and the editing center extracts the video material from the archive based on the editing result, edits it, and outputs it as an edited video. To do.

【0003】図33は、この従来技術による遠隔編集シ
ステムの一例の構成を概略的に示す。大容量アーカイブ
310は、例えば多数のハードディスク装置から構成さ
れ、極めて多数の映像素材を格納可能とされている。大
容量アーカイブ310に格納された映像素材は、所定の
方法で検索して取り出すことができる。このような大容
量アーカイブ310を擁するアーカイブセンタ300
と、大規模な編集システム311を擁する編集センタ3
01と、比較的小規模な編集作業を行うことができる遠
隔編集端末302とが通信ネットワーク304で互いに
接続される。
FIG. 33 schematically shows the structure of an example of a remote editing system according to this conventional technique. The large-capacity archive 310 is composed of, for example, a large number of hard disk devices and can store an extremely large number of video materials. The video material stored in the large-capacity archive 310 can be retrieved and retrieved by a predetermined method. An archive center 300 having such a large-capacity archive 310
And an editing center 3 having a large-scale editing system 311
01 and a remote editing terminal 302 capable of performing a relatively small-scale editing work are connected to each other via a communication network 304.

【0004】この構成は、遠隔編集端末302から編集
システム311を制御して、大容量アーカイブ310に
蓄積されている映像素材を用いた編集作業を行うのが目
的とされている。通信ネットワーク304を例えばイン
ターネットとすることで、遠隔編集端末302が大容量
アーカイブ310および編集センタ301に対して遙か
に離れた場所にあっても、大容量アーカイブ310に格
納された映像素材を用いた編集作業を遠隔編集端末30
2で行うことができるようにするものである。
The purpose of this configuration is to control the editing system 311 from the remote editing terminal 302 to perform editing work using the video material stored in the large-capacity archive 310. By using the communication network 304 as the Internet, for example, even if the remote editing terminal 302 is located far away from the large-capacity archive 310 and the editing center 301, the video material stored in the large-capacity archive 310 can be used. Remote editing terminal 30
2 is to be able to do.

【0005】先ず、オペレータにより遠隔編集端末30
2が操作され、遠隔編集端末302から大容量アーカイ
ブ310に対して、通信ネットワーク304を介して、
必要な映像素材の検索が要求される。大容量アーカイブ
310では、この要求に基づき映像素材の検索を行い、
検索された映像素材によるビデオ信号を通信ネットワー
ク304を介して遠隔編集端末302に送信する。この
場合、ビデオ信号は、所定の圧縮符号化方式で圧縮符号
化されて送信される。遠隔編集端末302では、送信さ
れたビデオ信号を用いて編集作業が行われる。編集結果
は、例えばIN点、OUT点、エフェクト処理内容など
の編集結果データとして、通信ネットワーク304を介
して編集システム311に送信される。
First, the operator remotely edits the terminal 30.
2 is operated, and from the remote editing terminal 302 to the large-capacity archive 310 via the communication network 304,
A search for the required video material is required. In the large-capacity archive 310, the video material is searched based on this request,
A video signal based on the searched video material is transmitted to the remote editing terminal 302 via the communication network 304. In this case, the video signal is compression encoded by a predetermined compression encoding method and transmitted. In the remote editing terminal 302, editing work is performed using the transmitted video signal. The editing result is transmitted to the editing system 311 via the communication network 304 as editing result data such as IN point, OUT point, effect processing content, and the like.

【0006】編集システム311では、受信された編集
結果データに基づき、大容量アーカイブ310から遠隔
編集端末302で編集に用いられたのと同じ映像素材を
得る。このときには、映像素材は、高画質を保つために
圧縮符号化されずに、例えばSMPTE 259Mによ
り規定されるSDI(Serial Digital Interface)などの
伝送フォーマットにより伝送される。編集センタ301
では、遠隔編集端末302から送信された編集結果デー
タに基づき映像素材を用いて編集を行う。編集結果の映
像は、例えばビデオテープ313に記録される。
The editing system 311 obtains the same video material as that used for editing at the remote editing terminal 302 from the large-capacity archive 310 based on the received editing result data. At this time, the video material is not compressed and encoded in order to maintain high image quality, but is transmitted in a transmission format such as SDI (Serial Digital Interface) defined by SMPTE 259M. Editing center 301
Then, editing is performed using the video material based on the editing result data transmitted from the remote editing terminal 302. The video of the edited result is recorded on, for example, the video tape 313.

【0007】このようなシステムにおいては、大容量ア
ーカイブ310に格納された極めて多数の映像素材の中
から、オペレータが必要とする映像素材を的確に検索で
きる必要がある。従来では、キーワードによるテキスト
検索が多く行われていた。これは、例えば、大容量アー
カイブ310に映像素材を格納する際に、格納される映
像素材のキーワードとなるテキストが入力され、入力さ
れたテキストは、映像素材と関連付けられて大容量アー
カイブ310に格納される。この映像素材と関連付けら
れたテキストに基づき、映像素材のキーワード検索を行
う。
In such a system, it is necessary to accurately retrieve the video material required by the operator from the extremely large number of video materials stored in the large-capacity archive 310. Conventionally, many text searches have been performed using keywords. This is because, for example, when a video material is stored in the large-capacity archive 310, text that is a keyword of the stored video material is input, and the input text is stored in the large-capacity archive 310 in association with the video material. To be done. A keyword search for video material is performed based on the text associated with this video material.

【0008】また、近年では、静止画像や動画像による
検索が可能なシステムも出現している。例えば、大容量
アーカイブ310に映像素材を格納する際に、格納され
る映像素材から静止画像や映像素材そのものである動画
像を、例えばシーンチェンジを検出することにより自動
的に抽出し、抽出された静止画像や動画像が映像素材と
関連付けられて大容量アーカイブ310に格納される。
Further, in recent years, a system capable of searching by still images and moving images has also appeared. For example, when a video material is stored in the large-capacity archive 310, a still image or a moving image which is the video material itself is automatically extracted from the stored video material by, for example, detecting a scene change. Still images and moving images are stored in the large-capacity archive 310 in association with video materials.

【0009】検索時には、例えば映像素材と関連付けら
れた静止画像や動画像をプレビューしながら必要な映像
素材を探し出すことができる。これを上述のテキストに
基づく検索と組み合わせることで、テキストにより検索
された映像素材を、その映像素材に関連付けられた静止
画像や動画像でプレビューすることができ、より的確に
映像素材の検索を行うことができる。
At the time of search, for example, a required video material can be searched for while previewing a still image or a moving image associated with the video material. By combining this with the above-mentioned text-based search, the video material searched by text can be previewed with a still image or a moving image associated with the video material, and the video material can be searched more accurately. be able to.

【0010】[0010]

【発明が解決しようとする課題】上述したキーワードに
よる検索は、検索に必要なデータの伝送量が少なくて済
み、通信ネットワークにおける利用に適しているといえ
る。しかしながら、キーワード検索では、情報量が少な
いため、なかなか必要な映像素材を検索結果として得ら
れないという問題点があった。
It can be said that the above-mentioned retrieval by the keyword requires a small amount of data transmission for the retrieval and is suitable for use in a communication network. However, the keyword search has a problem in that it is difficult to obtain the necessary video material as a search result because the amount of information is small.

【0011】静止画を用いた検索でも同様に、映像素材
の所定の1フレームを自動的に抽出した静止画では、必
ずしもその映像素材を的確に表現しているとはいえず、
この場合にも、なかなか必要な映像素材を検索結果とし
て得られないという問題点があった。
Similarly in a search using a still image, a still image obtained by automatically extracting a predetermined one frame of a video material does not necessarily represent the video material accurately.
Even in this case, there is a problem that it is difficult to obtain the necessary video material as a search result.

【0012】一方、映像素材に基づく動画像を用いて検
索を行えば、上述のテキストによる検索や静止画による
検索よりも高い精度で必要な映像素材を検索結果として
得ることができることが期待される。しかしながら、こ
の場合、動画像データは、データ容量が大きくなるた
め、データ転送の際に通信トラフィックを圧迫し、通信
ネットワークを経由しての利用に適していないという問
題点があった。
On the other hand, if a search is performed using a moving image based on a video material, it is expected that the required video material can be obtained as a search result with higher accuracy than the above-described search by text or search by a still image. . However, in this case, since the moving image data has a large data capacity, there is a problem in that the communication traffic is compressed at the time of data transfer and is not suitable for use via a communication network.

【0013】例えば、上述した通信ネットワーク304
にインターネットを利用することで、インターネットに
接続された家庭用のコンピュータ装置なども、上述した
編集端末装置302として用いることができるようにな
る。この場合、編集においては、編集に用いられる映像
素材の動画像データの全てを通信ネットワーク304を
経由して伝送するには、極めて長時間を伝送に要する
か、若しくは、データ転送レートが極めて高速なネット
ワークが必要とされることになる。そのため、インター
ネットからの利用を考えると、動画像を用いて映像素材
を検索することは、現実的ではないという問題点があっ
た。
For example, the communication network 304 described above
By using the Internet, a home computer device or the like connected to the Internet can also be used as the editing terminal device 302 described above. In this case, in editing, it takes a very long time to transmit all the moving image data of the video material used for editing via the communication network 304, or the data transfer rate is extremely high. A network will be needed. Therefore, considering the use from the Internet, there is a problem that it is not realistic to search the video material using the moving image.

【0014】したがって、この発明の目的は、大容量ア
ーカイブに格納されている映像素材に対する遠隔地から
の検索を、より的確に行うことができるような映像素材
情報記述方法、遠隔検索システム、遠隔検索方法、遠隔
検索装置および遠隔検索端末、遠隔編集システム、遠隔
編集方法、遠隔編集装置および遠隔編集端末、ならび
に、映像素材記憶装置および方法を提供することにあ
る。
Therefore, an object of the present invention is to describe a video material information description method, a remote search system, and a remote search that enable a more accurate search from a remote location for video materials stored in a large-capacity archive. A method, a remote search device and a remote search terminal, a remote editing system, a remote editing method, a remote editing device and a remote editing terminal, and a video material storage device and method.

【0015】[0015]

【課題を解決するための手段】この発明は、上述した課
題を解決するために、映像データベースを世界共通に利
用するために検索用語を共通化したデータベースに用い
られる映像素材情報記述方法において、映像素材の属性
情報を、映像素材を全体および部分に分けて記述し、映
像素材の全体および部分のそれぞれの属性情報の記述に
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて、検索に必要なデータを記
述すると共に、映像素材に対応する静止画および音声を
埋め込むようにしたことを特徴とする映像素材情報記述
方法である。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a video material information description method used in a database in which search terms are shared in order to universally use the video database. The attribute information of the material is described by dividing the video material into the whole and parts, and the search terms are standardized in order to universally use the video database for the description of the attribute information of the whole and the part of the video material. Is a method for describing video material information, characterized in that data necessary for retrieval is described by using, and a still image and audio corresponding to the video material are embedded.

【0016】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の検索を行うようにし
た遠隔検索システムにおいて、映像素材が蓄積される映
像アーカイブと、映像アーカイブに蓄積された映像素材
の、映像素材が全体および部分に分けられたそれぞれに
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて検索に必要なデータが映像
素材の属性情報として記述されると共に、映像素材に対
応する静止画および音声が埋め込まれたデータが格納さ
れるデータベースと、映像アーカイブおよびデータベー
スと地理的に離れた場所にあり、映像アーカイブに蓄積
された映像素材の検索を行う検索要求を通信ネットワー
クを介してデータベースに送信する遠隔検索端末とを有
し、遠隔検索端末による検索要求に対する検索結果は、
共通化された検索用語により記述されたファイルとして
通信ネットワークを介してデータベースから遠隔検索端
末に送信されるようにしたことを特徴とする遠隔検索シ
ステムである。
Further, according to the present invention, the video material is searched using the video material information described by the video material information description method used in the database in which the search terms are shared so that the video database can be used universally. In the remote search system, the video database is used globally for the video archive in which the video material is stored and the video material stored in the video archive is divided into whole and part. The data required for the search is described as the attribute information of the video material using a common search term for this purpose, and the database that stores the data in which the still image and audio corresponding to the video material are stored, and the video The video material stored in the video archive is geographically separated from the archive and database. Via the communication network a search request to perform search and a remote search terminal to be sent to the database, the search results for the search request by the remote retrieval terminal,
The remote search system is characterized in that it is transmitted from a database to a remote search terminal via a communication network as a file described by a common search term.

【0017】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の検索を行うようにし
た遠隔検索方法において、映像素材が映像アーカイブに
蓄積されるステップと、映像アーカイブに蓄積された映
像素材の、映像素材が全体および部分に分けられたそれ
ぞれに対し、映像データベースを世界共通に利用するた
めに共通化された検索用語を用いて検索に必要なデータ
が映像素材の属性情報として記述されると共に、映像素
材に対応する静止画および音声が埋め込まれたデータが
データベースに格納されるステップと、映像アーカイブ
およびデータベースと地理的に離れた場所にある遠隔検
索端末から、映像アーカイブに蓄積された映像素材の検
索を行う検索要求を通信ネットワークを介してデータベ
ースに送信する送信のステップとを有し、遠隔検索端末
による検索要求に対する検索結果が共通化された検索用
語により記述されたファイルとして通信手段を介してデ
ータベースから遠隔検索端末に送信されるようにしたこ
とを特徴とする遠隔検索方法である。
Further, according to the present invention, the video material is searched using the video material information described by the video material information description method used in the database in which the search terms are standardized so that the video database can be used universally. In the remote search method as described above, a step is taken to store the video material in the video archive, and for the video material stored in the video archive, the video material is divided into whole and part, and the video database is shared globally. The data required for the search is described as the attribute information of the video material by using the search terms common to the use, and the data in which the still image and the audio corresponding to the video material are embedded is stored in the database. Video from steps and remote search terminals geographically separated from the video archive and database. And a step of transmitting a search request for searching the video material accumulated in the archive to the database via the communication network, and the search result for the search request by the remote search terminal is described by common search terms. The file is transmitted as a file from the database to the remote search terminal via the communication means.

【0018】また、この発明は、映像素材を用いた編集
を行う編集装置において、遠隔検索端末から送信され
た、遠隔検索端末により映像アーカイブに蓄積された映
像素材の、映像素材が全体および部分に分けられたそれ
ぞれに対し映像データベースを世界共通に利用するため
に共通化された検索用語を用いて検索に必要なデータが
映像素材の属性情報として記述されると共に、映像素材
に対応する静止画および音声が埋め込まれたデータが格
納されるデータベースが検索された結果で得られた静止
画および音声に基づき行われた編集の結果を示す編集結
果データを受信する受信手段と、受信手段により受信さ
れた編集結果データに基づき、映像アーカイブからの映
像素材の入手および入手された映像素材に対する編集を
行う編集手段とを有し、編集手段による編集は、編集結
果データに基づき自動的に行うことが可能とされたこと
を特徴とする編集装置である。
Further, the present invention is, in an editing apparatus for editing using video material, the video material transmitted from the remote search terminal and accumulated in the video archive by the remote search terminal, as a whole or in part. The data necessary for the search is described as the attribute information of the video material by using the search terms that are shared for the divided use of the video database globally. Receiving means for receiving edit result data indicating the result of editing performed based on the still image and the sound obtained as a result of searching the database in which the data in which the voice is embedded is searched, and the receiving means. Based on the editing result data, it has an editing means to obtain the video material from the video archive and edit the acquired video material. , Edited by the editing means is editing apparatus characterized in that it is possible to automatically perform based on the edited result data.

【0019】また、この発明は、映像素材を用いた編集
を行う編集方法において、遠隔検索端末から送信され
た、遠隔検索端末により映像アーカイブに蓄積された映
像素材の、映像素材が全体および部分に分けられたそれ
ぞれに対し映像データベースを世界共通に利用するため
に共通化された検索用語を用いて検索に必要なデータが
記述されると共に、映像素材に対応する静止画および音
声が埋め込まれた属性情報が格納されるデータベースが
検索された結果で得られた静止画および音声に基づき行
われた編集の結果を示す編集結果データを受信する受信
のステップと、受信のステップにより受信された編集結
果データに基づき、映像アーカイブからの映像素材の入
手および入手された映像素材に対する編集を行う編集の
ステップとを有し、編集のステップによる編集は、編集
結果データに基づき自動的に行うことが可能とされたこ
とを特徴とする編集方法である。
Further, the present invention is an editing method for editing using video material, wherein the video material transmitted from the remote search terminal and accumulated in the video archive by the remote search terminal includes the video material in whole or in part. The data required for the search is described by using the common search terms for the divided video database to be used globally, and the attribute that the still image and audio corresponding to the video material are embedded The receiving step of receiving edit result data indicating the result of the edit performed based on the still image and the sound obtained by the search of the database storing the information, and the edit result data received by the receiving step Based on the above, there is an editing step of performing acquisition of the video material from the video archive and editing the acquired video material, Edited by condensing step is the editing method characterized in that it is possible to automatically perform based on the edited result data.

【0020】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の検索を行うようにし
た遠隔検索端末において、映像素材が蓄積される映像ア
ーカイブに蓄積された映像素材の検索を行う検索要求
を、映像アーカイブに蓄積された映像素材の、映像素材
が全体および部分に分けられたそれぞれに対し、映像デ
ータベースを世界共通に利用するために共通化された検
索用語を用いて検索に必要なデータが映像素材の属性情
報として記述されると共に、映像素材に対応する静止画
および音声が埋め込まれたデータが格納されるデータベ
ースに通信ネットワークを介して送信する遠隔検索手段
と、遠隔検索手段による検索要求に対する検索結果がデ
ータベースから送信された共通化された検索用語により
記述されたファイルを通信ネットワークを介して受信
し、受信されたファイルに埋め込まれた静止画および音
声を取り出す手段とを有し、映像アーカイブおよびデー
タベースと地理的に離れた場所にあることを特徴とする
遠隔検索端末である。
Further, according to the present invention, the video material is searched by using the video material information described by the video material information description method used in the database in which the search terms are shared so that the video database can be used universally. In the remote search terminal, the search request for searching the video material stored in the video archive in which the video material is stored is divided into the whole and part of the video material stored in the video archive. For each of them, the data necessary for the search is described as the attribute information of the video material by using the search terms that are standardized for the worldwide use of the video database, and the still image and audio corresponding to the video material are also described. A remote search means for transmitting via a communication network to a database storing embedded data, and The search result corresponding to the search request is transmitted from the database, the file described by the common search term is received through the communication network, and the still image and the sound embedded in the received file are extracted. However, it is a remote search terminal that is located geographically apart from the video archive and database.

【0021】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて遠隔検索端末で映像素材の検索
を行うようにした遠隔検索方法において、映像素材が蓄
積される映像アーカイブに蓄積された映像素材の検索を
行う検索要求を、映像アーカイブに蓄積された映像素材
の、映像素材が全体および部分に分けられたそれぞれに
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて検索に必要なデータが映像
素材の属性情報として記述されると共に、映像素材に対
応する静止画および音声が埋め込まれたデータが格納さ
れるデータベースに、映像アーカイブおよびデータベー
スと地理的に離れた場所にある遠隔検索端末から通信ネ
ットワークを介して送信する遠隔検索のステップと、遠
隔検索のステップによる検索要求に対する検索結果がデ
ータベースから送信された共通化された検索用語により
記述されたファイルが遠隔検索端末により通信ネットワ
ークを介して受信され、受信されたファイルに埋め込ま
れた静止画および音声を取り出すステップとを有するこ
とを特徴とする遠隔検索方法である。
Further, the present invention uses a video material information described by a video material information description method used in a database in which search terms are shared in order to universally use the video database, and the video material is used in a remote search terminal. In the remote search method that searches for the video material, the search request to search the video material stored in the video archive is stored. For each of these, the data required for the search is described as the attribute information of the video material using the search terms that are standardized so that the video database can be used globally Geographically separate from video archives and databases in databases that store data with embedded images and audio. A remote search step in which a remote search terminal at a location sends it via a communication network, and a search result for a search request by the remote search step is sent from a database and a file described by a common search term is remotely searched. A still image and audio received by the terminal via the communication network and embedded in the received file.

【0022】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法において、映像
素材の属性情報を、映像素材を全体および部分に分けて
記述し、映像素材の全体および部分のそれぞれの属性情
報の記述に対し、映像データベースを世界共通に利用す
るために共通化された検索用語を用いて、映像素材を用
いた編集に必要なデータを記述するようにしたことを特
徴とする映像素材情報記述方法である。
Further, according to the present invention, in a video material information description method used for a database in which search terms are shared in order to universally use the video database, the attribute information of the video material is set to the whole or part of the video material. Separately described, and using the search terms that are standardized for universal use of the video database for the description of the attribute information of the whole and part of the video material, it is necessary for editing using the video material. This is a video material information description method characterized by describing data.

【0023】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の編集を行うようにし
た遠隔編集システムにおいて、映像素材が蓄積される映
像アーカイブと、映像アーカイブに蓄積された映像素材
の、映像素材が全体および部分に分けられたそれぞれに
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて映像素材を用いた編集に必
要なデータが映像素材の属性情報として記述されるデー
タが格納されるデータベースと、映像アーカイブおよび
データベースと地理的に離れた場所にあり、映像アーカ
イブに蓄積された映像素材の属性情報として記述された
編集に必要なデータを用いて映像素材の編集を行い、編
集の結果を示す編集結果データを通信ネットワークを介
して送信する遠隔編集端末と、遠隔編集端末から送信さ
れた編集結果情報に基づき、映像アーカイブから映像素
材を入手し、入手された映像素材に対して編集を行う編
集装置とを有し、編集に必要なデータは、共通化された
検索用語を用いて記述されたファイルで遠隔編集装置に
供給され、編集装置による編集は、編集結果情報に基づ
き自動的に行うことが可能とされたことを特徴とする遠
隔編集システムである。
Further, according to the present invention, the video material is edited by using the video material information described by the video material information description method used in the database in which the search terms are standardized so that the video database can be used universally. In the remote editing system, the video database is used globally for the video archive in which the video material is stored and the video material stored in the video archive is divided into whole and part. A database that stores data in which the data necessary for editing using video material is described as attribute information of the video material using a search term that is common to the video archive and a location geographically separated from the video archive and database. The data required for editing described as attribute information of the video material stored in the video archive. Edit the video material using the, and edit the video material from the video archive based on the remote editing terminal that sends the editing result data indicating the editing result via the communication network and the editing result information sent from the remote editing terminal. It has an editing device that obtains and edits the obtained video material, and the data necessary for editing is supplied to the remote editing device in a file described using a common search term and edited. The remote editing system is characterized in that the editing by the device can be automatically performed based on the editing result information.

【0024】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の編集を行うようにし
た遠隔編集方法において、映像素材を映像アーカイブに
蓄積するステップと、映像アーカイブに蓄積された映像
素材の、映像素材が全体および部分に分けられたそれぞ
れに対し、映像データベースを世界共通に利用するため
に共通化された検索用語を用いて映像素材を用いた編集
に必要なデータが映像素材の属性情報として記述される
データをデータベースに格納するステップと、映像アー
カイブおよびデータベースと地理的に離れた場所にあ
り、映像アーカイブに蓄積された映像素材の属性情報と
して記述された編集に必要なデータを用いて映像素材の
編集を行い、編集の結果を示す編集結果データを遠隔編
集端末より通信ネットワークを介して送信する送信のス
テップと、送信のステップにより送信された編集結果情
報に基づき、映像アーカイブから映像素材を入手し、入
手された映像素材に対して編集装置により編集を行うス
テップとを有し、編集に必要なデータは、共通化された
検索用語を用いて記述されたファイルで遠隔編集装置に
供給され、編集装置による編集は、編集結果情報に基づ
き自動的に行うことが可能とされたことを特徴とする遠
隔編集方法である。
Further, according to the present invention, the video material is edited by using the video material information described by the video material information description method used in the database in which the search terms are shared so that the video database can be used universally. In the remote editing method as described above, the step of storing the video material in the video archive and the use of the video database in the world for each of the video materials stored in the video archive are divided into whole and part. In order to do this, the step of storing in the database the data in which the data necessary for editing using the video material is described as the attribute information of the video material using the common search terms, and the geographical separation from the video archive and the database. Edited as attribute information of video material stored in video archive Edit the video material using the necessary data and send the edit result data indicating the result of the edit from the remote editing terminal via the communication network. Based on the send step and the edit result information sent by the send step. , A step of obtaining video material from a video archive and editing the obtained video material with an editing device, and the data required for editing is a file described using a common search term. The remote editing method is characterized in that it is supplied to the remote editing apparatus and the editing by the editing apparatus can be automatically performed based on the editing result information.

【0025】また、この発明は、映像素材を用いた編集
を行う編集装置において、映像素材が蓄積される映像ア
ーカイブおよび映像アーカイブに蓄積された映像素材
の、映像素材が全体および部分に分けられたそれぞれに
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて映像素材を用いた編集に必
要なデータが映像素材の属性情報として記述されるデー
タが格納されるデータベースと地理的に離れた場所にあ
る、映像アーカイブに蓄積された映像素材の属性情報と
して記述された編集に必要なデータを用いて映像素材の
編集を行う遠隔編集端末から送信された、編集の結果を
示す編集結果データを通信ネットワークを介して受信す
る受信手段と、受信手段により受信された編集結果デー
タに基づき、映像アーカイブからの映像素材の入手およ
び入手された映像素材に対する編集を行う編集手段とを
有し、編集手段による編集は、編集結果データに基づき
自動的に行うことが可能とされたことを特徴とする編集
装置である。
Further, according to the present invention, in an editing apparatus for editing using a video material, the video material of the video archive in which the video material is stored and the video material stored in the video archive is divided into whole and part. For each of them, there is a database that stores data that describes the data necessary for editing using video material using the search terms that are standardized for universal use of the video database as the attribute information of the video material. Edit results sent from a remote editing terminal that edits video material using data necessary for editing that is described as attribute information of video material stored in a video archive that is geographically separated. Receiving means for receiving the edit result data shown via the communication network, and a video image based on the edit result data received by the receiving means. It is characterized in that it has an editing means for obtaining a video material from a Kaibu and editing the obtained video material, and the editing by the editing means can be automatically performed based on the edited result data. It is an editing device.

【0026】また、この発明は、映像素材を用いた編集
を行う編集方法において、映像素材が蓄積される映像ア
ーカイブおよび映像アーカイブに蓄積された映像素材
の、映像素材が全体および部分に分けられたそれぞれに
対し、映像データベースを世界共通に利用するために共
通化された検索用語を用いて映像素材を用いた編集に必
要なデータが映像素材の属性情報として記述されるデー
タが格納されるデータベースと地理的に離れた場所にあ
る、映像アーカイブに蓄積された映像素材の属性情報と
して記述された編集に必要なデータを用いて映像素材の
編集を行う遠隔編集端末から送信された、編集の結果を
示す編集結果データを通信ネットワークを介して受信す
る受信のステップと、受信のステップにより受信された
編集結果データに基づき、映像アーカイブからの映像素
材の入手および入手された映像素材に対する編集を行う
編集のステップとを有し、編集のステップによる編集
は、編集結果データに基づき自動的に行うことが可能と
されたことを特徴とする編集方法である。
Further, according to the present invention, in the editing method for editing using video material, the video material of the video archive in which the video material is stored and the video material stored in the video archive is divided into whole and parts. For each of them, there is a database that stores data that describes the data necessary for editing using video material using the search terms that are standardized for universal use of the video database as the attribute information of the video material. Edit results sent from a remote editing terminal that edits video material using data necessary for editing that is described as attribute information of video material stored in a video archive that is geographically separated. Based on the editing result data received by the receiving step and the receiving step of receiving the editing result data shown through the communication network. It has an editing step of obtaining video material from the video archive and editing the acquired video material, and the editing by the editing step can be automatically performed based on the editing result data. This is an editing method characterized by the above.

【0027】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の編集を行うようにし
た遠隔編集端末において、映像アーカイブに蓄積された
映像素材の、映像素材が全体および部分に分けられたそ
れぞれに対し、映像データベースを世界共通に利用する
ために共通化された検索用語を用いて映像素材を用いた
編集に必要なデータが記述される属性情報を用いて映像
素材の編集を行う編集手段と、編集手段による編集の結
果を編集装置に対して通信ネットワークを介して送信す
る送信手段とを有し、映像アーカイブおよびデータベー
スと地理的に離れた場所にあることを特徴とする遠隔編
集端末である。
Further, according to the present invention, the video material is edited by using the video material information described by the video material information description method which is used in the database in which the search terms are standardized so that the video database can be used universally. In the remote editing terminal, the common search term is used to globally use the video database for each of the video materials stored in the video archive, which are divided into whole and part. Editing means for editing the video material using attribute information that describes the data necessary for editing using the video material, and transmission of the result of editing by the editing means to the editing device via the communication network A remote editing terminal having means and being located at a geographically distant location from the video archive and database.

【0028】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記述方法により記述され
た映像素材情報を用いて映像素材の編集を遠隔編集端末
で行う遠隔編集方法において、映像アーカイブに蓄積さ
れた映像素材の、映像素材が全体および部分に分けられ
たそれぞれに対し、映像データベースを世界共通に利用
するために共通化された検索用語を用いて映像素材を用
いた編集に必要なデータが記述される属性情報を用い
て、映像アーカイブおよびデータベースと地理的に離れ
た場所にある遠隔編集端末で映像素材の編集を行う編集
のステップと、編集のステップによる編集の結果を編集
装置に対して通信ネットワークを介して送信する送信の
ステップとを有することを特徴とする遠隔編集方法であ
る。
Further, according to the present invention, the video material is remotely edited by using the video material information described by the video material information description method used in the database in which the search terms are shared so that the video database can be used universally. In the remote editing method performed by the editing terminal, for each of the video materials stored in the video archive, which are divided into whole and part, a search term common to the video database is used globally. Using the attribute information that describes the data required for editing using the video material, an editing step of editing the video material at a remote editing terminal that is geographically distant from the video archive and database, A step of transmitting the result of the editing by the editing step to the editing device via the communication network. It is a remote editing and wherein the door.

【0029】また、この発明は、映像データベースを世
界共通に利用するために共通化された検索用語で記述さ
れた映像素材の属性情報を記憶する映像素材情報記憶装
置において、映像アーカイブに蓄積される映像素材の全
体および部分のそれぞれに対し、映像データベースを世
界共通に利用するために共通化された検索用語を用いて
検索に必要なデータが映像素材の属性情報として記述さ
れると共に、映像素材に対応する静止画および音声が埋
め込まれたデータが記憶されることを特徴とする映像素
材情報記憶装置である。
Further, the present invention is stored in a video archive in a video material information storage device for storing attribute information of video materials described by a common search term for universal use of the video database. For each and every part of the video material, the data required for the search is described as the attribute information of the video material by using the search terms that are standardized so that the video database can be used globally. The image material information storage device is characterized in that data in which a corresponding still image and audio are embedded is stored.

【0030】また、この発明は、映像データベースを世
界共通に利用するために共通化された検索用語で記述さ
れた映像素材の属性情報を記憶する映像素材情報記憶方
法において、映像アーカイブに蓄積される映像素材の全
体および部分のそれぞれに対し、映像データベースを世
界共通に利用するために共通化された検索用語を用いて
検索に必要なデータが映像素材の属性情報として記述さ
れると共に、映像素材に対応する静止画および音声が埋
め込まれたデータが映像素材情報記憶装置に記憶される
ことを特徴とする映像素材情報記憶方法である。
Further, the present invention is a video material information storage method for storing attribute information of video material described by a common search term for universal use of the video database, which is stored in a video archive. For each and every part of the video material, the data required for the search is described as the attribute information of the video material by using the search terms that are standardized so that the video database can be used globally. A method for storing image material information, characterized in that data in which a corresponding still image and audio are embedded is stored in the image material information storage device.

【0031】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記憶装置において、映像
アーカイブに蓄積される映像素材の全体および部分のそ
れぞれに対し、映像データベースを世界共通に利用する
ために共通化された検索用語を用いて映像素材を用いた
編集に必要なデータが映像素材の属性情報として記述さ
れたデータが記憶されることを特徴とする映像素材情報
記憶装置である。
Further, according to the present invention, in a video material information storage device used for a database in which search terms are shared in order to universally use a video database, all or part of the video material stored in a video archive is stored. On the other hand, the data necessary for editing using the video material is stored by using the search terms that are standardized for universal use of the video database, and the data that is described as the attribute information of the video material is stored. Is a video material information storage device.

【0032】また、この発明は、映像データベースを世
界共通に利用するために検索用語を共通化したデータベ
ースに用いられる映像素材情報記憶装置に映像素材情報
を記憶する映像素材情報記憶方法において、映像アーカ
イブに蓄積される映像素材の全体および部分のそれぞれ
に対し、映像データベースを世界共通に利用するために
共通化された検索用語を用いて映像素材を用いた編集に
必要なデータが映像素材の属性情報として記述されたデ
ータが映像素材情報記憶装置に記憶されることを特徴と
する映像素材情報記憶方法である。
Further, the present invention is a video material information storage method for storing video material information in a video material information storage device used for a database in which search terms are shared in order to use the video database universally. The attribute data of the video material is the data necessary for editing with the video material using the search terms that are standardized for universal use of the video database for all or part of the video material stored in The video material information storage method is characterized in that the data described as is stored in the video material information storage device.

【0033】また、この発明は、映像素材が蓄積された
映像アーカイブに対し、映像アーカイブと地理的に離れ
た場所から映像素材を検索し、検索された映像素材を用
いて編集を行う遠隔編集システムにおいて、映像アーカ
イブに蓄積された映像素材のテキストベースの属性情報
と、映像素材に対応する静止画および音声が登録された
データベースと、映像アーカイブと地理的に離れた場所
にあり、映像アーカイブに蓄積された映像素材をデータ
ベースに登録された属性情報と静止画および音声とに基
づき検索すると共に、検索による検索結果に基づき映像
素材を用いた編集を行い、編集の結果を編集結果データ
として出力する検索編集端末と、検索編集端末から出力
された編集結果データに基づき、映像アーカイブから映
像素材を入手し、入手された映像素材を用いて実際の編
集を行う編集装置とを有することを特徴とする遠隔編集
システムである。
Further, the present invention is a remote editing system for searching a video archive in which video materials are stored, from a location geographically distant from the video archive, and performing editing using the searched video material. , The text-based attribute information of the video material stored in the video archive, the database in which the still images and audio corresponding to the video material are registered, and the location that is geographically distant from the video archive and stored in the video archive A search is performed to search the created video material based on the attribute information registered in the database and the still image and audio, edit the video material based on the search result by the search, and output the edited result as edit result data. Obtain video material from the video archive based on the editing result data output from the editing terminal and the search editing terminal, A remote editing system characterized by having an editing device for performing actual editing by hand video material.

【0034】また、この発明は、映像素材が蓄積された
映像アーカイブに対し、映像アーカイブと地理的に離れ
た場所から映像素材を検索し、検索された映像素材を用
いて編集を行う遠隔編集方法において、映像アーカイブ
に蓄積された映像素材のテキストベースの属性情報と、
映像素材に対応する静止画および音声がデータベースに
登録されるステップと、映像アーカイブと地理的に離れ
た場所にある検索編集端末により、映像アーカイブに蓄
積された映像素材がデータベースに登録された属性情報
と静止画および音声とに基づき検索されると共に、検索
による検索結果に基づき映像素材を用いた編集が行わ
れ、編集の結果が編集結果データとして出力されるステ
ップと、検索編集端末から出力された編集結果データに
基づき、映像アーカイブから映像素材を入手し、入手さ
れた映像素材を用いて編集装置で実際の編集を行うステ
ップとを有することを特徴とする遠隔編集方法である。
Further, the present invention is a remote editing method for searching a video archive in which video materials are stored, from a location geographically distant from the video archive, and performing editing using the searched video material. In, in the text-based attribute information of the video material accumulated in the video archive,
The step of registering the still image and audio corresponding to the video material in the database, and the attribute information in which the video material accumulated in the video archive is registered in the database by the search and editing terminal geographically separated from the video archive. And the still image and the sound are searched, and the editing using the video material is performed based on the search result by the search, and the step of outputting the editing result as the editing result data, and the output from the search editing terminal The remote editing method is characterized in that it comprises a step of obtaining a video material from a video archive based on the edited result data, and using the obtained video material to perform actual editing with an editing device.

【0035】上述したように、請求項1に記載の発明
は、映像素材の属性情報を、映像素材を全体および部分
に分けて記述し、映像素材の全体および部分のそれぞれ
の属性情報の記述に対し、映像データベースを世界共通
に利用するために共通化された検索用語を用いて、検索
に必要なデータを記述すると共に、映像素材に対応する
静止画および音声を埋め込むようにしているため、映像
素材の属性情報に基づく映像素材の検索が容易であると
共に、映像素材の検索を当該映像素材の静止画および音
声を参照しながら行うことができる。
As described above, according to the first aspect of the invention, the attribute information of the video material is described by dividing the video material into the whole and the part, and the attribute information of the whole and the part of the video material is described. On the other hand, in order to describe the data required for the search using the search terms that are standardized for the worldwide use of the video database, the still images and audio corresponding to the video material are embedded, The video material can be easily searched based on the attribute information of the material, and the video material can be searched while referring to the still image and the sound of the video material.

【0036】また、請求項10および請求項12に記載
の発明は、映像素材が蓄積される映像アーカイブと、映
像アーカイブに蓄積された映像素材の、映像素材が全体
および部分に分けられたそれぞれに対し、映像データベ
ースを世界共通に利用するために共通化された検索用語
を用いて検索に必要なデータが映像素材の属性情報とし
て記述されると共に、映像素材に対応する静止画および
音声が埋め込まれたデータが格納されるデータベース
と、映像アーカイブおよびデータベースと地理的に離れ
た場所にあり、映像アーカイブに蓄積された映像素材の
検索を行う検索要求を通信ネットワークを介してデータ
ベースに送信する遠隔検索端末とを有し、遠隔検索端末
による検索要求に対する検索結果は、共通化された検索
用語により記述されたファイルとして通信ネットワーク
を介してデータベースから遠隔検索端末に送信されるよ
うにしているため、映像アーカイブに蓄積された映像素
材の検索を、映像アーカイブおよびデータベースから地
理的に離れた場所にある遠隔検索端末から容易に行うこ
とができると共に、映像素材の検索を当該映像素材の静
止画および音声を参照しながら行うことができる。
In the invention according to claims 10 and 12, the video archive in which the video material is stored and the video material in the video archive stored in the video archive are divided into whole and part. On the other hand, the data necessary for the search is described as the attribute information of the video material using the search terms that are standardized for the worldwide use of the video database, and the still image and audio corresponding to the video material are embedded. A remote search terminal that sends a search request to the database via a communication network, which is located geographically distant from the database in which the stored data is stored and the video archive and the database, and searches for the video material stored in the video archive. The search result for the search request by the remote search terminal is described by a common search term. Since it is sent as a file from the database to the remote search terminal via the communication network, the search of the video material stored in the video archive can be performed by the remote search terminal located geographically apart from the video archive and the database. It is possible to easily search from the video material and search for the video material while referring to the still image and the sound of the video material.

【0037】また、請求項13および請求項14に記載
の発明は、遠隔検索端末から送信された、遠隔検索端末
により映像アーカイブに蓄積された映像素材の、映像素
材が全体および部分に分けられたそれぞれに対し映像デ
ータベースを世界共通に利用するために共通化された検
索用語を用いて検索に必要なデータが記述されると共
に、映像素材に対応する静止画および音声が埋め込まれ
た属性情報が格納されるデータベースが検索された結果
で得られた静止画および音声に基づき行われた編集の結
果を示す編集結果データを受信し、受信された編集結果
データに基づき、映像アーカイブからの映像素材の入手
および入手された映像素材に対する編集を自動的に行う
ことが可能とされているため、映像アーカイブおよびデ
ータベースから地理的に離れた場所にある遠隔検索端末
からの指示に基づき、実際に映像アーカイブに蓄積され
ている映像素材を用いた編集を行うことができる。
Further, in the invention according to claims 13 and 14, the video material of the video material transmitted from the remote search terminal and accumulated in the video archive by the remote search terminal is divided into whole and part. For each, the data required for the search is described using a common search term for universal use of the video database, and the attribute information in which the still image and audio corresponding to the video material are embedded is stored. Receives edit result data indicating the result of edits made based on still images and audio obtained as a result of searching the database, and obtains video material from the video archive based on the received edit result data And since it is possible to automatically edit the acquired video material, it is possible to use geographic data from the video archive and database. Based on an instruction from the remote search terminal at a remote location, it is possible to actually perform the editing using the image material stored in the image archive.

【0038】また、請求項15および請求項17に記載
の発明は、映像素材が蓄積される映像アーカイブに蓄積
された映像素材の検索を行う検索要求を、映像アーカイ
ブおよびデータベースと地理的に離れた場所から、映像
アーカイブに蓄積された映像素材の、映像素材が全体お
よび部分に分けられたそれぞれに対し、映像データベー
スを世界共通に利用するために共通化された検索用語を
用いて検索に必要なデータが映像素材の属性情報として
記述されると共に、映像素材に対応する静止画および音
声が埋め込まれたデータが格納されるデータベースに通
信ネットワークを介して送信し、送信された検索要求に
対する検索結果がデータベースから送信された共通化さ
れた検索用語により記述されたファイルを通信ネットワ
ークを介して受信し、受信されたファイルに埋め込まれ
た静止画および音声を取り出すようにしているため、映
像アーカイブおよびデータベースから地理的に離れた場
所で、映像アーカイブに蓄積されている映像素材の検索
を行うことができると共に、検索を当該映像素材の静止
画および音声を参照しながら行うことができる。
Further, in the invention according to claims 15 and 17, the search request for searching the video material stored in the video archive in which the video material is stored is geographically separated from the video archive and the database. For each of the video materials stored in the video archive from the location and divided into the video materials in whole and in part, it is necessary to search using the common search terms for universal use of the video database. The data is described as the attribute information of the video material, and it is sent via the communication network to the database that stores the data in which the still images and audio corresponding to the video material are stored, and the search results for the sent search request are displayed. Receives the files described by the common search terms sent from the database via the communication network Since the still images and audio embedded in the received file are extracted, it is possible to search the video material stored in the video archive at a location geographically distant from the video archive and database. At the same time, the search can be performed while referring to the still image and audio of the video material.

【0039】また、請求項18に記載の発明は、映像素
材の属性情報を、映像素材を全体および部分に分けて記
述し、映像素材の全体および部分のそれぞれの属性情報
の記述に対し、映像データベースを世界共通に利用する
ために共通化された検索用語を用いて、映像素材を用い
た編集に必要なデータを記述するようにしているため、
映像素材の属性情報に基づき当該映像素材を用いた編集
を行うことができる。
According to the eighteenth aspect of the present invention, the attribute information of the image material is described by dividing the image material into the whole and the part, and the attribute information of the whole and the part of the image material is described in the image. In order to use the database universally, the search terms that are standardized are used to describe the data necessary for editing using video material.
Editing using the video material can be performed based on the attribute information of the video material.

【0040】また、請求項23および請求項25に記載
の発明は、映像素材が蓄積される映像アーカイブと、映
像アーカイブに蓄積された映像素材の、映像素材が全体
および部分に分けられたそれぞれに対し、映像データベ
ースを世界共通に利用するために共通化された検索用語
を用いて映像素材を用いた編集に必要なデータが映像素
材の属性情報として記述されるデータが格納されるデー
タベースと、映像アーカイブおよびデータベースと地理
的に離れた場所にあり、映像アーカイブに蓄積された映
像素材の属性情報として記述された編集に必要なデータ
を用いて映像素材の編集を行い、編集の結果を示す編集
結果データを通信ネットワークを介して送信する遠隔編
集端末と、遠隔編集端末から送信された編集結果情報に
基づき、映像アーカイブから映像素材を入手し、入手さ
れた映像素材に対して編集を行う編集装置とを有し、編
集に必要なデータは、共通化された検索用語を用いて記
述されたファイルで遠隔編集装置に供給され、編集装置
による編集は、編集結果情報に基づき自動的に行うこと
が可能とされたいるため、映像アーカイブおよびデータ
ベースから地理的に離れた場所から、映像アーカイブに
蓄積された映像素材を用いた実際の編集を行うことがで
きる。
The invention described in claims 23 and 25 is directed to a video archive in which the video material is stored and a video material stored in the video archive, in which the video material is divided into whole and parts. On the other hand, a database that stores data in which the data necessary for editing using video materials is described as the attribute information of the video materials by using the search terms that have been standardized for universal use of the video database, and the video. Edit result that shows the result of editing by editing the video material using data necessary for editing which is located in a geographically distant location from the archive and database and described as the attribute information of the video material stored in the video archive. Based on the remote editing terminal that sends data via the communication network and the editing result information sent from the remote editing terminal, The remote editing device has an editing device that obtains video material from Eve and edits the obtained video material, and the data required for editing is a file described using a common search term. The video material stored in the video archive is stored in the video archive from a location geographically distant from the video archive and database. The actual editing used can be done.

【0041】また、請求項26および請求項28に記載
の発明は、映像素材が蓄積される映像アーカイブおよび
映像アーカイブに蓄積された映像素材の、映像素材が全
体および部分に分けられたそれぞれに対し、映像データ
ベースを世界共通に利用するために共通化された検索用
語を用いて映像素材を用いた編集に必要なデータが映像
素材の属性情報として記述されるデータが格納されるデ
ータベースと地理的に離れた場所にある、映像アーカイ
ブに蓄積された映像素材の属性情報として記述された編
集に必要なデータを用いて映像素材の編集を行う遠隔編
集端末から送信された、編集の結果を示す編集結果デー
タを通信ネットワークを介して受信し、受信された編集
結果データに基づき映像アーカイブからの映像素材の入
手および入手された映像素材に対する編集を自動的に行
うことが可能とされているため、映像アーカイブおよび
データベースから地理的に離れた場所にある遠隔編集端
末からの指示に基づき、実際に映像アーカイブに蓄積さ
れている映像素材を用いた編集を行うことができる。
The invention described in claim 26 and claim 28 relates to the video archive in which the video material is stored and the video material stored in the video archive for each of which the video material is divided into whole and parts. , The database that stores the data that describes the data necessary for editing using the video material as the attribute information of the video material by using the search terms that are made common to use the video database globally Editing result showing the editing result sent from the remote editing terminal that edits the video material using the data necessary for editing, which is described as the attribute information of the video material stored in the video archive, which is located at a remote place. Data is received via the communication network, and the video material is acquired from the video archive and acquired based on the received edited result data. Since it is possible to automatically edit the video material, the video actually stored in the video archive is based on the instruction from the remote editing terminal that is geographically distant from the video archive and database. You can edit using the material.

【0042】また、請求項29および請求項31に記載
の発明は、映像アーカイブおよびデータベースと地理的
に離れた場所から、映像アーカイブに蓄積された映像素
材の、映像素材が全体および部分に分けられたそれぞれ
に対し、映像データベースを世界共通に利用するために
共通化された検索用語を用いて映像素材を用いた編集に
必要なデータが記述される属性情報を用いて行われた映
像素材の編集の結果を、編集装置に対して通信ネットワ
ークを介して送信するようにしているため、映像アーカ
イブおよびデータベースから地理的に離れた場所で、映
像アーカイブに蓄積されている映像素材を用いた編集を
行うことができる。
Further, in the invention described in claims 29 and 31, the video material of the video material accumulated in the video archive is divided into whole and part from a location geographically distant from the video archive and the database. For each of the above, the video material was edited using the attribute information that describes the data necessary for editing using the video material using the search terms that were made common for the worldwide use of the video database. Since the result of the above is transmitted to the editing device via the communication network, editing is performed using the video material accumulated in the video archive at a location geographically distant from the video archive and database. be able to.

【0043】また、請求項32および41に記載の発明
は、映像アーカイブに蓄積される映像素材の全体および
部分のそれぞれに対し、映像データベースを世界共通に
利用するために共通化された検索用語を用いて検索に必
要なデータが映像素材の属性情報として記述されると共
に、映像素材に対応する静止画および音声が埋め込まれ
たデータが記憶されるため、記憶された属性情報を用い
ることで、映像アーカイブに蓄積された映像素材の検索
が容易であると共に、検索を当該映像素材の静止画およ
び音声を参照しながら行うことができる。
In the inventions as claimed in claims 32 and 41, a common search term for globally using the video database is provided for each and every part of the video materials stored in the video archive. By using the stored attribute information, the data necessary for retrieval is described as the attribute information of the video material, and the data in which the still image and audio corresponding to the video material are embedded is stored. The video material stored in the archive can be easily searched, and the search can be performed while referring to the still image and audio of the video material.

【0044】また、請求項42および請求項47に記載
の発明は、映像アーカイブに蓄積される映像素材の全体
および部分のそれぞれに対し、映像データベースを世界
共通に利用するために共通化された検索用語を用いて映
像素材を用いた編集に必要なデータが映像素材の属性情
報として記述されたデータが記憶されるため、記憶され
た属性情報を用いることで、映像アーカイブに蓄積され
た映像素材を用いた編集を行うことができる。
The invention described in claims 42 and 47 is a common search for globally using a video database for each and every part of video material stored in a video archive. Since the data necessary for editing using the video material is described as the attribute information of the video material by using the term, the data stored in the video archive can be stored by using the stored attribute information. You can edit it.

【0045】また、請求項48および請求項50に記載
の発明は、映像アーカイブに蓄積された映像素材のテキ
ストベースの属性情報と、映像素材に対応する静止画お
よび音声が登録されたデータベースを、映像アーカイブ
と地理的に離れた場所にある検索編集端末により、映像
アーカイブに蓄積された映像素材を属性情報と静止画お
よび音声とに基づき検索すると共に、検索による検索結
果に基づき映像素材を用いた編集を行い、編集の結果を
編集結果データとして出力し、検索編集端末から出力さ
れた編集結果データに基づき、映像アーカイブから映像
素材を入手し、入手された映像素材を用いて編集装置に
より実際の編集を行うようにしているため、映像アーカ
イブから地理的に離れた場所にある検索編集端末で映像
アーカイブに蓄積された映像素材を用いた編集を行う場
合に、映像アーカイブと検索編集端末との間の通信トラ
フィックを抑えることができる。
Further, the inventions according to claims 48 and 50 include a database in which text-based attribute information of the video material stored in the video archive and a still image and audio corresponding to the video material are registered. A search and edit terminal located geographically distant from the video archive was used to search the video material stored in the video archive based on the attribute information, still images and audio, and the video material was used based on the search results of the search. Edit, output the result of editing as edit result data, obtain video material from the video archive based on the edit result data output from the search editing terminal, and use the obtained video material to perform actual editing by the editing device. Since the editing is done, it is stored in the video archive with a search editing terminal located geographically distant from the video archive. When the editing using the video material, it is possible to suppress the communication traffic between the video archive and retrieve editing terminal.

【0046】[0046]

【発明の実施の形態】以下、この発明の実施の一形態
を、図面を参照しながら説明する。図1は、この発明に
適用可能な遠隔編集システムの一例の構成を概略的に示
す。遠隔検索/編集端末1、大容量映像アーカイブ2お
よび映像編集装置3は、互いにネットワーク4で接続さ
れている。ネットワーク4は、例えばインターネットで
ある。遠隔検索/編集端末1は、大容量映像アーカイブ
2および映像編集装置3に対して地理的に離れた場所で
ある遠隔地に設けられる。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 schematically shows the configuration of an example of a remote editing system applicable to the present invention. The remote search / editing terminal 1, the large-capacity video archive 2 and the video editing device 3 are connected to each other via a network 4. The network 4 is, for example, the Internet. The remote search / editing terminal 1 is provided at a remote location which is geographically distant from the large capacity video archive 2 and the video editing apparatus 3.

【0047】大容量映像アーカイブ2は、例えば多数の
ハードディスク装置などから構成され、大容量を有し、
極めて多数の映像素材が蓄積可能とされる。また、大容
量映像アーカイブ2に蓄積された映像素材に関する情報
がデータベースに登録される。このデータベースに対し
て所定の書式に基づき検索条件を入力することで、大容
量映像アーカイブ2に蓄積された映像素材が検索され、
検索結果として検索条件に応じた映像素材を出力できる
ようになっている。
The large-capacity video archive 2 is composed of, for example, a large number of hard disk devices, and has a large capacity.
An extremely large number of video materials can be stored. In addition, information regarding the video material accumulated in the large-capacity video archive 2 is registered in the database. By inputting search conditions to this database based on a predetermined format, the video material stored in the large-capacity video archive 2 is searched,
As a search result, video material according to the search condition can be output.

【0048】映像編集装置3は、入力された映像素材を
編集して出力するもので、例えば入力された複数の映像
素材を所定の指示に基づきカット編集で繋ぎ合わせ、1
本の映像コンテンツとして出力する。この映像編集装置
3は、編集に用いる映像素材を識別可能な識別情報や編
集ポイントを示すタイムコードなどの、編集に必要なデ
ータを外部から供給することで、編集作業を自動的に行
うことができるようにされている。
The video editing device 3 edits and outputs the input video material. For example, a plurality of input video materials are connected by cut editing based on a predetermined instruction.
Output as video contents of book. The video editing apparatus 3 can automatically perform editing work by supplying data necessary for editing such as identification information capable of identifying video material used for editing and a time code indicating an editing point. It is made possible.

【0049】遠隔検索/編集端末1は、インターネット
4に接続可能とされた一般的なコンピュータ装置、例え
ばパーソナルコンピュータを用いることができる。この
遠隔検索/編集端末1は、GUI(Graphical User Inte
rface)が適用され、マウスなどのポインティングデバイ
スを用いたユーザによる直感的な操作が可能とされてい
る。例えば、画面に所定に配置され表示されたボタンな
どを、ポインティングデバイスから出力される座標情報
に基づき指示し、ポインティングデバイスに対して所定
の操作を行うことで、表示されたボタンに割り当てられ
た機能を実行させることができる。以下、このポインテ
ィングデバイスを用いたボタン表示に対する一連の処理
を、「ボタンを操作する」、「ボタンを押す」などと表
現する。勿論、ポインティングデバイスだけでなく、例
えばキーボードなどの他の入力手段を用いて所定の機能
を実行させるようにもできる。さらに、遠隔検索/編集
端末1は、ディジタル音声データをアナログ音声データ
に変換して音声出力する、音声再生手段を備える。
The remote search / editing terminal 1 may be a general computer device connectable to the Internet 4, such as a personal computer. This remote search / edit terminal 1 is a GUI (Graphical User Interface).
rface) is applied, and intuitive operation by a user using a pointing device such as a mouse is possible. For example, by indicating a button or the like that is arranged and displayed on the screen on the basis of the coordinate information output from the pointing device and performing a predetermined operation on the pointing device, the function assigned to the displayed button Can be executed. Hereinafter, a series of processes for displaying a button using this pointing device will be referred to as “operating a button”, “pressing a button”, and the like. Of course, not only the pointing device but also other input means such as a keyboard can be used to execute a predetermined function. Further, the remote search / editing terminal 1 includes a voice reproduction means for converting digital voice data into analog voice data and outputting the voice.

【0050】このような構成において、大容量映像アー
カイブ2に蓄積された映像素材を用いた、遠隔検索/編
集端末1による遠隔からの編集は、概略的には、次のよ
うに行われる。先ず、映像素材が大容量映像アーカイブ
2に蓄積および登録される。このとき、当該映像素材の
検索および編集に必要な当該映像素材の属性情報が所定
の書式により記述されたファイルが生成される。このフ
ァイルは、当該映像素材に関連付けられて、大容量映像
アーカイブ2のデータベースに登録される。
In such a configuration, the remote editing / editing by the remote search / editing terminal 1 using the video material stored in the large-capacity video archive 2 is roughly performed as follows. First, video material is stored and registered in the large-capacity video archive 2. At this time, a file in which attribute information of the video material necessary for searching and editing the video material is described in a predetermined format is generated. This file is registered in the database of the large-capacity video archive 2 in association with the video material.

【0051】また、当該映像素材の登録に際して、所定
のジャンル辞書に基づき当該映像素材に対してジャンル
が設定される。
When registering the video material, a genre is set for the video material based on a predetermined genre dictionary.

【0052】遠隔検索/編集端末1から大容量映像アー
カイブ2に対して、インターネット4を介してコンテン
ツに必要な素材の検索が行われる。検索のキーワードと
して、ジャンルを用いることができる。検索結果は、上
述の所定の書式で記述されたファイルとして、大容量映
像アーカイブ2から遠隔検索/編集端末1にネットワー
ク4を介して送信される。
The remote search / edit terminal 1 searches the large-capacity video archive 2 through the Internet 4 for the material required for the content. A genre can be used as a search keyword. The search result is transmitted from the large-capacity video archive 2 to the remote search / editing terminal 1 via the network 4 as a file described in the above-mentioned predetermined format.

【0053】遠隔検索/編集端末1において、受信され
たファイルの中から、編集に必要な属性情報を得て、そ
の属性情報に基づき映像素材の編集が行われる。編集が
確定したら、編集内容に基づき編集結果データが生成さ
れる。編集結果データは、EDL(Edit Decision List)
データと称される、再生側および記録側のIN点および
OUT点、エフェクト情報などからなる編集リストデー
タとして記述される。このEDLデータは、遠隔検索/
編集端末1から映像編集装置3に対してインターネット
4を介して送信される。
The remote retrieval / editing terminal 1 obtains attribute information required for editing from the received file, and edits the video material based on the attribute information. When the edit is confirmed, edit result data is generated based on the edit content. Edit result data is EDL (Edit Decision List)
It is described as edit list data called IN and OUT points on the reproducing side and the recording side, effect information, etc., which is called data. This EDL data can be searched remotely
It is transmitted from the editing terminal 1 to the video editing apparatus 3 via the Internet 4.

【0054】映像編集装置3では、送信されたEDLデ
ータに基づき必要な映像素材を大容量映像アーカイブ2
から入手し、EDLデータの記述に従って編集作業が行
われる。映像素材は、例えばMPEG(Moving Pictures
Experts Group)−1、MPEG−2あるいはMPEG
−4といった圧縮符号化方式で圧縮符号化されて、大容
量映像アーカイブ2から映像編集装置3に送信される。
In the video editing device 3, necessary video materials are stored in the large-capacity video archive 2 based on the transmitted EDL data.
And the editing work is performed according to the description of the EDL data. The video material is, for example, MPEG (Moving Pictures).
Experts Group) -1, MPEG-2 or MPEG
It is compressed and encoded by a compression encoding method such as -4 and transmitted from the large-capacity video archive 2 to the video editing device 3.

【0055】上述において、映像素材を大容量映像アー
カイブ2に蓄積および登録する際に、適宜分割位置を指
定することができる。また、映像素材に対して、その映
像素材を代表する画像が代表静止画として指定される。
代表画像と共に、さらに音声を代表音声として指定する
こともできる。これら映像素材の分割と、代表静止画お
よび音声の指定は、例えば撮影者など当該映像素材の提
供者により行われる。
In the above, when the video material is stored and registered in the large-capacity video archive 2, the division position can be designated appropriately. Further, for a video material, an image representative of the video material is designated as a representative still image.
It is also possible to specify a voice as the representative voice together with the representative image. The division of the video material and the designation of the representative still image and the sound are performed by the provider of the video material such as a photographer.

【0056】図2は、映像素材の分割と、代表静止画お
よび音声の指定の例を示す。図2Aに一例が示されるよ
うに、素材番号Aで示される映像素材は、その内容に基
づき3の部分に分割されるように、分割位置が指定され
る。指定された分割位置で分割されたそれぞれを部分素
材と称する。また、以下では、分割位置を指定すること
を、単に、分割と称する。例えば、素材番号Aが「野鳥
の生態」を収録した映像素材である場合、映像の内容に
基づき、先頭の部分素材−1が野鳥の群を遠景で撮影し
た映像、中間の部分素材−2が野鳥一羽毎のクローズア
ップで撮影した映像、最後の部分素材−3が周囲の風景
を撮影した映像というように、この映像素材が3の部分
素材に分割される。分割位置は、例えばこの映像素材の
提供者により指定される。
FIG. 2 shows an example of division of video material and designation of a representative still image and audio. As shown in FIG. 2A, the division position is designated so that the video material indicated by the material number A is divided into 3 parts based on the contents. Each of the pieces divided at the specified division position is called a partial material. Further, in the following, specifying the division position is simply referred to as division. For example, when the material number A is a video material containing "ecology of wild birds", based on the content of the video, the first partial material-1 is a video of a group of wild birds taken in the distant view, and the intermediate partial material-2 is This image material is divided into 3 partial materials, such as a close-up image of each wild bird and a final partial image 3 of the surrounding landscape. The division position is designated by the provider of this video material, for example.

【0057】分割された各部分素材には、それぞれを識
別するための分類番号が付与され、例えば、素材番号A
の素材の各部分素材−1、2および3がそれぞれ素材番
号A−1、A−2、A−3のように表される。
A classification number for identifying each is given to each divided partial material. For example, material number A
Each of the partial materials-1, 2 and 3 of the above material is represented as material numbers A-1, A-2 and A-3, respectively.

【0058】図2Bに一例が示されるように、分割され
た映像素材の各部分素材をさらに分割することもでき
る。図2Bの例では、部分素材−2がさらに3の部分素
材−a、部分素材−bおよび部分素材−cに分割され
る。この場合も、分割された各部分素材に対してより詳
細な分類番号が付与され、部分2の各部分a、bおよび
cは、例えば素材番号A−2−a、A−2−b、A−2
−cのように表される。
As shown in an example in FIG. 2B, each partial material of the divided video material can be further divided. In the example of FIG. 2B, the partial material-2 is further divided into three partial materials-a, partial materials-b and partial materials-c. In this case as well, a more detailed classification number is given to each of the divided partial materials, and the respective parts a, b and c of the part 2 are, for example, material numbers A-2-a, A-2-b, A. -2
It is expressed as -c.

【0059】さらに、各部分素材に対して、代表静止画
および代表音声を指定することができる。図2Cに一例
が示されるように、部分素材の任意の位置が指定され
る。部分素材から、指定された位置に対応する静止画像
データが抽出されると共に、指定された位置から所定時
間長の音声データが抽出される。位置は、この映像素材
の提供者が自身の主観に基づき、例えば「お勧めシー
ン」のように指定することができる。また、位置は、1
の映像素材に対して複数、例えば、部分素材のそれぞれ
に対して指定することができる。
Further, a representative still image and a representative voice can be designated for each partial material. As shown in FIG. 2C, an arbitrary position of the partial material is designated. The still image data corresponding to the designated position is extracted from the partial material, and the audio data of a predetermined time length is extracted from the designated position. The position can be designated by the provider of this video material based on his / her subjectivity, for example, “recommended scene”. The position is 1
It is possible to specify a plurality of video materials, for example, for each of the partial materials.

【0060】なお、素材番号Aは、例えば世界的な規模
においてユニークな番号であり、後述するコンテンツI
Dを用いることができる。
The material number A is, for example, a unique number on a global scale, and is the content I described later.
D can be used.

【0061】このようにして映像素材毎に指定された代
表静止画および代表音声は、遠隔検索/編集端末1から
の指示に基づく大容量映像アーカイブ2における映像素
材の検索結果を示すファイルに埋め込まれて、ネットワ
ーク4を介して遠隔検索/編集端末1に送信される。こ
のファイルを受信した遠隔検索/編集端末1では、ファ
イルに埋め込まれた代表静止画および代表音声を抽出し
て表示や再生を行う。遠隔検索/編集端末1のオペレー
タは、この代表静止画や代表音声を参照することで、必
要な映像素材を的確に選択することができる。
In this way, the representative still image and the representative audio designated for each video material are embedded in the file showing the search result of the video material in the large-capacity video archive 2 based on the instruction from the remote search / edit terminal 1. Then, it is transmitted to the remote search / edit terminal 1 via the network 4. The remote search / edit terminal 1 that has received this file extracts the representative still image and the representative audio embedded in the file and displays and reproduces the extracted still image and representative audio. The operator of the remote search / editing terminal 1 can select the necessary video material appropriately by referring to the representative still image and the representative audio.

【0062】この発明では、上述した大容量映像アーカ
イブ2における検索結果を送信するためのファイルを、
現在MPEG(Moving Pictures Experts Group)で策定
中の規格である、MPEG−7に基づき記述する。MP
EG−7は、正式名称が「Multimedia Content Descrip
tion Interface」(ISO/IEC 15938によ
る)とされ、マルチメディアコンテンツの検索を目的と
した規格である。MPEG−7によれば、マルチメディ
アコンテンツのデータベースを世界共通に利用するため
に、マルチメディアコンテンツに対する検索用語が共通
化される。MPEG−7は、従来のMPEG−1、MP
EG−2およびMPEG−4といった映像および音声デ
ータの圧縮符号化および伝送方式に置き換わるものでは
なく、これらのディジタル映像の付帯情報として用いら
れるものである。
In the present invention, the file for transmitting the search result in the large-capacity video archive 2 described above is
The description is based on MPEG-7, which is a standard currently being developed by the Moving Pictures Experts Group (MPEG). MP
The official name of EG-7 is "Multimedia Content Descrip
tion Interface "(according to ISO / IEC 15938), which is a standard for searching multimedia contents. According to MPEG-7, a search term for multimedia contents is standardized so that a database of multimedia contents can be used universally. MPEG-7 is a conventional MPEG-1, MP
It is not a substitute for the compression encoding and transmission method of video and audio data such as EG-2 and MPEG-4, but is used as incidental information of these digital videos.

【0063】以下、このMPEG−7について概略的に
説明し、続けて、この発明による遠隔編集システムに対
するMPEG−7の具体的な適用例について説明する。
The MPEG-7 will be briefly described below, and then a concrete application example of the MPEG-7 to the remote editing system according to the present invention will be described.

【0064】MPEG−7の概要について説明する。M
PEG−7が扱うメディアは、ビデオ・オーディオのみ
ならず、静止画やグラフィックスなどが含まれる。ま
た、MPEG−7では、映像のタイムコードに基づく開
始時間と長さによって内容を記述する部分を特定するた
め、タイムコード若しくはそれに代わる位置情報さえあ
れば、アナログ映像を記述することが可能とされる。
An outline of MPEG-7 will be described. M
Media handled by PEG-7 include not only video and audio, but also still images and graphics. Also, in MPEG-7, since the portion to describe the content is specified by the start time and the length based on the time code of the video, it is possible to describe the analog video only with the time code or position information in place of it. It

【0065】図3は、MPEG−7のスキームを概略的
に示す。MPEG−7では、主な標準化対象として、内
容記述ツールを定義するための言語(DDL:Descript
ionDefinition Language)、記述スキーム(DS:Desc
ription Scheme)および記述子(D:Descriptor)が定
められる。また、テキストとして表現される内容記述デ
ータをバイナリデータとして圧縮する仕組みおよびバイ
ナリデータからテキストデータへ伸長する仕組みも標準
化対象とされる。このMPEG−7におけるバイナリデ
ータおよびテキストデータの圧縮伸長方式は、BiM(B
inary format for MPEG-7)と称される。
FIG. 3 schematically illustrates the MPEG-7 scheme. In MPEG-7, as a main standardization target, a language for defining a content description tool (DDL: Descript
ionDefinition Language), description scheme (DS: Desc)
A ription scheme) and a descriptor (D: Descriptor) are defined. Further, a mechanism for compressing the content description data expressed as text as binary data and a mechanism for decompressing the binary data into text data are also standardization targets. The compression / decompression method of binary data and text data in MPEG-7 is BiM (B
It is called inary format for MPEG-7).

【0066】MPEG−7の規格である内容記述は、メ
タデータと称される。これは、内容を記述する対象とな
る映像データに対して、内容記述データは、記述対象の
映像データから派生したデータとみられるからである。
図4は、メタデータの利用の一例を示す。メタデータ5
2により、例えばコンピュータ装置のGUI(Graphical
User Interface)50を介して映像データ53が間接的
に扱われる。メタデータ52は、コンピュータ装置など
のプロセッサ51から直接的に操作されることで、映像
データ53を扱うこともできる。
The content description, which is an MPEG-7 standard, is called metadata. This is because the content description data is considered to be data derived from the video data of the description target, with respect to the video data of which the content is described.
FIG. 4 shows an example of using metadata. Metadata 5
2 allows, for example, a GUI (Graphical
The video data 53 is indirectly handled via the User Interface) 50. The metadata 52 can also handle the video data 53 by being directly operated by the processor 51 such as a computer device.

【0067】一例として、GUI50からの入力に応じ
てプロセッサ51によりメタデータ52が検索され、検
索結果に基づき映像データ53が参照される。例えば映
像データ53の部分データが参照された場合、当該部分
データがプロセッサ51に渡され、再生されてGUI5
0により表示などされる。
As an example, the processor 51 searches the metadata 52 according to the input from the GUI 50, and the video data 53 is referred to based on the search result. For example, when the partial data of the video data 53 is referred to, the partial data is passed to the processor 51 and reproduced and the GUI 5
Displayed by 0.

【0068】MPEG−7において、映像内容を記述す
る記述方法を定義するための言語は、DDL(Descripti
on Definition Language)と称される。DDLは、ベー
ス言語としてXML(Extensible Markup Language)スキ
ーマが用いられる。さらに、マルチメディア内容記述で
必要となる、MPEG−7特有の拡張がMPEG−7の
規格に含まれる。MPEG−7では、内容記述をXML
を用いて行うことによりインターネットとの親和性が高
まると共に、XML関連の多くの有用なツールが利用可
能となる。
In MPEG-7, the language for defining the description method for describing the video contents is DDL (Descripti).
on Definition Language). The DDL uses an XML (Extensible Markup Language) schema as a base language. Furthermore, the MPEG-7 standard includes extensions specific to MPEG-7, which are required for multimedia content description. In MPEG-7, the content description is XML.
By doing so, the affinity with the Internet is enhanced and many useful XML-related tools are available.

【0069】XMLは、テキストデータで記述されるた
め、データ量が膨大になりデータ伝送時や蓄積時に問題
となる可能性がある。そのため、MPEG−7では、上
述した独自の圧縮ツールBiMが標準化されている。B
iMは、MPEG−7のデータを、部分的な更新・削除
・追加・アクセスが可能なように構造化されたバイナリ
データへと圧縮する。但し、ビジュアル関連の記述スキ
ーマ(DS)および記述子(D)においては、独自にバ
イナリシンタックスを決めることでバイナリデータを操
作できる規格とされる。
Since XML is described by text data, the amount of data becomes enormous, which may cause a problem during data transmission or storage. Therefore, in MPEG-7, the original compression tool BiM described above is standardized. B
The iM compresses MPEG-7 data into binary data structured so that partial update, deletion, addition, and access are possible. However, the visual-related description schema (DS) and descriptor (D) are standards that allow binary data to be manipulated by uniquely determining the binary syntax.

【0070】MPEG−7の内容記述データ(メタデー
タ)には、ローレベルな記述データとハイレベルな記述
データの2種類がある。
There are two types of content description data (metadata) of MPEG-7: low-level description data and high-level description data.

【0071】ローレベルな記述データは、映像の画像信
号や音響・音声信号の特徴量であり、その多くは計算機
によって自動計算される。したがって、ローレベルな記
述データに基づく検索は、先ず、与えられた参照映像に
対して特徴量が計算され、次に、計算された特徴量と検
索対象の映像の特徴量との類似度が計算され、類似度の
高い映像が検索される。これらローレベルな記述データ
としては、画像信号については、フレーム全体または被
写体を対象とした色、テクスチャ、形、動き、領域など
の特徴点が規格化される。また、音響・音声信号につい
ては、無音、音声、音色、効果音、メロディなどの特徴
点が規格化される。
The low-level description data is a feature amount of a video image signal and a sound / voice signal, and most of them are automatically calculated by a computer. Therefore, in the search based on the low-level description data, first, the feature amount is calculated for the given reference video, and then the similarity between the calculated feature amount and the feature amount of the search target video is calculated. Then, a video with a high degree of similarity is searched. As the low-level descriptive data, with respect to the image signal, characteristic points such as color, texture, shape, motion, and area for the entire frame or the subject are standardized. Further, with respect to the sound / voice signal, characteristic points such as silence, voice, tone color, sound effect, and melody are standardized.

【0072】ハイレベルな記述データは、映像の内容を
テキストで記述するもので、その多くは人手によって入
力される。ハイレベルな内容記述のフレームワークは、
書籍のメタファを用いて設計される。すなわち、例えば
目次と索引があり、目次では章・節が入れ子の階層構造
をとることができ、キーワードが分かっている場合は、
索引を用いて該当部分を見つけ出すこともできるような
構造となっている。なお、映像コンテンツにおいては、
例えば、チャプタおよびハイライトシーンをそれぞれ目
次および索引に対応させることができる。このような階
層構造をとることで、データ全体を見なくても、必要な
部分を容易に検索することができる。
The high-level description data describes the contents of video in text, and most of them are manually input. A high-level content description framework
Designed using the book metaphor. That is, for example, if there is a table of contents and an index, and chapters and sections can have a nested hierarchical structure in the table of contents, and the keyword is known,
It has a structure that can be used to find the corresponding part using the index. For video content,
For example, chapters and highlight scenes can correspond to a table of contents and index, respectively. By taking such a hierarchical structure, it is possible to easily search for a necessary portion without looking at the entire data.

【0073】なお、このハイレベルな記述は、MPEG
−7においてMDS(Multimedia Description Scheme)
として規定される。MDSの詳細については後述する。
Note that this high-level description is MPEG
-7: MDS (Multimedia Description Scheme)
Is defined as Details of the MDS will be described later.

【0074】次に、上述したDDLおよびテキストベー
スのMPEG−7メタデータについて、より詳細に説明
する。DDLは、MPEG−7規格パート2として規定
される、MPEG−7メタデータ用のスキーマ定義言語
である。上述したように、DDLは、W3C(World Wid
e Web Consortium)で標準化策定されたスキーマ言語で
あるXMLスキーマをベースに、マルチメディアコンテ
ンツの特徴記述に必要な各種データ型等を追加すること
により規定されている。すなわち、MPEG−7のメタ
データはXML(eXtensible Markup Language)を用いて
表現されることとなる。
Next, the above-mentioned DDL and text-based MPEG-7 metadata will be described in more detail. DDL is a schema definition language for MPEG-7 metadata defined as MPEG-2 standard part 2. As described above, the DDL is the W3C (World Wid
It is defined by adding various data types and the like necessary for describing the characteristics of multimedia contents, based on the XML schema, which is a schema language standardized by the e Web Consortium). That is, the metadata of MPEG-7 is expressed using XML (eXtensible Markup Language).

【0075】DDLにより実際に定義されるのは、MP
EG−7標準となる、MPEG−7メタデータを形成す
るためのスキーマ(schema)定義である。スキーマ定義
(または単に「スキーマ」)とは、個々のメタデータの
構文法(Syntax;内包される要素とその構造)を規定する
ものである。スキーマが定義され、その定義に則ってメ
タデータが生成される。MPEG−7規格中の各メタデ
ータに対応するスキーマ定義は、対応する他のそれぞれ
の規格パート(パート3(ビジュアル)、パート4(オ
ーディオ)およびパート5(MDS))において規定さ
れている。
What is actually defined by DDL is MP
The EG-7 standard is a schema definition for forming MPEG-7 metadata. A schema definition (or simply “schema”) defines the syntax of individual metadata (elements included and their structure). A schema is defined and metadata is generated according to the definition. The schema definition corresponding to each metadata in the MPEG-7 standard is defined in other corresponding standard parts (part 3 (visual), part 4 (audio) and part 5 (MDS)).

【0076】図5は、スキーマと、そのスキーマ定義を
用いて与えられるメタデータの一例を示す。図5Aに例
示されるスキーマ定義によって、メタデータの各要素が
定義される。図5Aのスキーマ定義によって与えられる
メタデータは、図5Bに見られるように、開始タグと終
了タグとで挟まれた要素内にさらに開始タグおよび終了
タグで挟まれた要素が含まれるネスト構造を持つ。この
構造は、包含する要素を包含される要素より上位のノー
ドに対応付けた木構造によって表される。図6は、図5
Bに示されるメタデータを木構造で表したメタデータ木
を示す。
FIG. 5 shows an example of a schema and metadata given using the schema definition. The schema definition illustrated in FIG. 5A defines each element of metadata. The metadata provided by the schema definition of FIG. 5A has a nested structure in which, as seen in FIG. 5B, an element sandwiched between a start tag and an end tag further contains an element sandwiched between a start tag and an end tag. To have. This structure is represented by a tree structure in which a containing element is associated with a node higher than the included element. 6 is shown in FIG.
The metadata tree which represented the metadata shown by B by the tree structure is shown.

【0077】以上から、スキーマ定義によりメタデータ
の構造が決定され、スキーマ定義を知れば、対応するメ
タデータ木の形状が決定され、その木の各々のノードに
対応するメタデータ要素の種別を一意に特定することが
可能となる。すなわち、スキーマ定義を与えることによ
って、MPEG−7メタデータの符号化/復号化を、純
粋なツリーデータの符号化/復号化に置き換えて処理す
ることができる。
From the above, the structure of the metadata is determined by the schema definition, the shape of the corresponding metadata tree is determined by knowing the schema definition, and the type of the metadata element corresponding to each node of the tree is uniquely determined. Can be specified. That is, by providing the schema definition, the encoding / decoding of MPEG-7 metadata can be replaced with the encoding / decoding of pure tree data to be processed.

【0078】図7は、MPEG−7のデータフォーマッ
トを示す。図7に示されるように、MPEG−7のデー
タフォーマットは、デコーダ規程(Decoder Configurati
on)、アクセスユニット(Access Unit:AU)、フラグメ
ント更新ユニット(FragmentUpdate Unit:FUU)およ
びフラグメントペイロード(Fragment Payload)の各構成
要素からなる多層構造を有する。
FIG. 7 shows a data format of MPEG-7. As shown in FIG. 7, the MPEG-7 data format has a decoder standard (Decoder Configurati
on), an access unit (Access Unit: AU), a fragment update unit (FUU), and a fragment payload (Fragment Payload).

【0079】MPEG−7のデータフォーマットは、M
PEG−7のメタデータ木と対応付けられる。図8は、
MPEG−7のデータフォーマットとメタデータ木との
対応関係の例を示す。図8に示されるように、メタデー
タ木のツリーデータが細かなサブツリーに分解され、分
解された各サブツリー毎にデータ化されてフラグメント
ペイロードに格納される。MPEG−7においては、ツ
リーデータは、アクセスユニットおよびフラグメント更
新ユニットを用いて分割され、小運用単位として扱われ
る。
The data format of MPEG-7 is M
It is associated with the PEG-7 metadata tree. Figure 8
An example of a correspondence relationship between an MPEG-7 data format and a metadata tree will be shown. As shown in FIG. 8, the tree data of the metadata tree is decomposed into fine subtrees, each decomposed subtree is converted into data, and stored in the fragment payload. In MPEG-7, tree data is divided using an access unit and a fragment update unit, and is treated as a small operation unit.

【0080】図7に示されるMPEG−7のデータフォ
ーマットの各構成要素について説明する。デコーダ規程
は、MPEG−7データフォーマットの先頭に配置さ
れ、続くデータをデコードするための情報が記録され
る。ここには、定義スキーマへの参照ポインタ(URN
(Uniform Resource Name)による指定)が登録されてお
り、続くメタデータがどのスキーマ定義により生成され
たものであるかを与える。
Each component of the MPEG-7 data format shown in FIG. 7 will be described. The decoder rule is placed at the beginning of the MPEG-7 data format, and information for decoding the subsequent data is recorded. This is a reference pointer (URN) to the definition schema.
(Specification by (Uniform Resource Name)) is registered, and the schema definition that gives the following metadata is given.

【0081】MPEG−7データストリームは、上述の
デコーダ規程に続く、1または複数のアクセスユニット
からなる。アクセスユニット(AU)は、MPEG−7
メタデータをシステム上で扱うための基本概念であり、
その定義はある単一時間に扱うメタデータ(サブツリー
データ)のセットとされる。すなわち、アクセスユニッ
トは、時間情報と関連付けられる最小構成単位である。
アクセスユニットは、ヘッダと1または複数のフラグメ
ント更新ユニットとからなる。
The MPEG-7 data stream consists of one or more access units following the decoder rules described above. The access unit (AU) is MPEG-7
It is a basic concept for handling metadata on the system,
The definition is a set of metadata (subtree data) handled at a certain single time. That is, the access unit is the minimum structural unit associated with the time information.
The access unit consists of a header and one or more fragment update units.

【0082】フラグメント更新ユニットは、ヘッダ、コ
マンド情報、パス情報およびフラグメントペイロードか
らなる。後述するバイナリフォーマットでは、複数のフ
ラグメントペイロードがサポートされる。テキストフォ
ーマットにおけるフラグメント更新ユニットでは、フラ
グメントペイロード数が1に限定される。
The fragment update unit consists of a header, command information, path information and a fragment payload. The binary format described below supports multiple fragment payloads. In the fragment update unit in the text format, the number of fragment payloads is limited to 1.

【0083】フラグメント更新ユニットは、当該フラグ
メント更新ユニットに含まれるフラグメントペイロー
ド、すなわちサブツリーデータをハンドリングする。ツ
リーデータの再構成やメタデータ要素の更新を行うため
の情報となるコマンド情報、パス情報がフラグメントペ
イロードに付加されて、ハンドリングの単位とされる。
コマンド情報は、サブツリーデータの処理方法を示す。
パス情報は、処理を実行するツリー上のノード位置情報
を示す。また、各フラグメントペイロードには、上述し
た図8に示されるように、分解された各サブツリーがデ
ータ化されて格納される。
The fragment update unit handles the fragment payload included in the fragment update unit, that is, subtree data. Command information and path information, which are information for reconstructing tree data and updating metadata elements, are added to the fragment payload to form a unit of handling.
The command information indicates how to process the subtree data.
The path information indicates the node position information on the tree that executes the process. Further, in each fragment payload, as shown in FIG. 8 described above, each decomposed subtree is converted into data and stored.

【0084】MPEG−7では、データフォーマットと
して、XMLテキスト形式をベースとしたテキストフォ
ーマットであるTeM(Textual format for MPEG-7)
と、2値表現であるバイナリフォーマットであるBiM
(Binary format for MPEG-7)の2種類が定義される。
In MPEG-7, the data format is TeM (Textual format for MPEG-7) which is a text format based on the XML text format.
And BinM that is a binary format that is a binary representation
Two types (Binary format for MPEG-7) are defined.

【0085】これら2種類のフォーマットは、基本的に
1対1の対応を持った仕様であり、上述の、デコーダ規
程、アクセスユニット、フラグメント更新ユニット、フ
ラグメントペイロードといった共通の構造要素を持つ。
ただし、TeMは、可読性を持ち、テキストベースであ
るから任意位置でのデータハンドリングやデータの拡張
などが容易であるのに対し、ビットデータ化されたBi
Mでは、それらは容易でない。このため、BiMでは、
アクセスマーカによる独自のランダムアクセス機能や独
自の拡張機能、データ長情報の埋め込みによる未定義デ
ータのスキップ機能などを用意することで、それらの機
能要求を満たしている。
These two types of formats are basically specifications having a one-to-one correspondence, and have common structural elements such as the above-mentioned decoder rule, access unit, fragment update unit, and fragment payload.
However, TeM is readable, and because it is text-based, it is easy to handle data at any position and expand data, while Bi is converted into bit data.
In M, they are not easy. Therefore, in BiM,
By providing the original random access function with the access marker, the original extension function, and the skip function for undefined data by embedding the data length information, these functional requirements are satisfied.

【0086】MPEG−7バイナリフォーマットである
BiMについて説明する。既に述べているように、MP
EG−7メタデータは、木構造を有した所謂ツリーデー
タであり、上述したDDLすなわちスキーマ言語によっ
て与えられたスキーマ定義に基づいて生成される。Bi
Mは、このようなスキーマ定義によって与えられる木構
造を持ったメタデータを統一的に符号化・復号化するも
のである。すなわち、BiMは、MPEG−7メタデー
タのみならず、既存の言語系のメタデータ、XMLデー
タなどにも原理的に適用可能である。
BiM, which is an MPEG-7 binary format, will be described. As already mentioned, MP
The EG-7 metadata is so-called tree data having a tree structure, and is generated based on the above-mentioned DDL, that is, the schema definition given by the schema language. Bi
M is for uniformly encoding / decoding metadata having a tree structure given by such a schema definition. That is, BiM can be applied to not only MPEG-7 metadata but also existing language metadata, XML data, and the like in principle.

【0087】BiMは、概略的には、ナビゲーション符
号化/複合化およびサブツリー符号化/複合化の2つの
技術要素から構成される。図9は、これら2つの技術要
素を概念的に示す。ナビゲーション符号は、上述したフ
ラグメント更新ユニットにおけるコマンド情報およびパ
ス情報符号に相当する。サブツリー符号は、上述したフ
ラグメントペイロードに格納されるサブツリーが効率的
にバイナリデータ化されたものである。
BiM is roughly composed of two technical elements: navigation coding / decoding and subtree coding / decoding. FIG. 9 conceptually shows these two technical elements. The navigation code corresponds to the command information and path information code in the fragment update unit described above. The subtree code is an efficient binary data conversion of the subtree stored in the fragment payload.

【0088】BiMでは、フラグメント更新ユニットを
単位として、ツリーデータの任意のノード位置における
サブツリーデータの追加、削除、置換といった機能を実
現している。この機能を用いることで、ツリーデータを
分割した各サブツリーデータについて、特に順序関係等
の制約を持たせず、任意の順序でサブツリーデータの授
受が可能な、ツリーデータ(メタデータ)の動的なデー
タ更新が可能とされる。この機能を実現するため、ナビ
ゲーション符号では、コマンド情報とパス情報とが符号
化されて与えられる。
In BiM, a function such as addition, deletion, or replacement of subtree data at an arbitrary node position of tree data is realized with a fragment update unit as a unit. By using this function, it is possible to send and receive subtree data in any order without any particular restrictions such as the order relation for each subtree data obtained by dividing the tree data. Data can be updated. In order to realize this function, command information and path information are coded and given in the navigation code.

【0089】コマンド情報は、フラグメントペイロード
を更新するフラグメント更新コマンド(Fragment Update
Command)であって、実行される処理に応じて与えられ
る。フラグメント更新コマンドには、「追加(add)」、
「置換(replace)」「削除(delete)」および「リセット
(reset)」の4種がある。
The command information is a fragment update command (Fragment Update) for updating the fragment payload.
Command), which is given according to the processing to be executed. The fragment update command has "add",
"Replace""delete" and "reset"
There are four types of "(reset)".

【0090】「追加」は、図10Aに一例が示されるよ
うに、後述するパス情報により与えられるツリーのノー
ド位置に、同フラグメント更新ユニット中のフラグメン
トペイロードに格納されたサブツリーを追加する。「置
換」は、図10Bに一例が示されるように、パス情報で
示されたノード位置のサブツリーをフラグメントペイロ
ード中のサブツリーと置き換える。「削除」は、図10
Cに一例が示されるように、パス情報で示されたノード
位置以下のサブツリーを削除する。したがって、「削
除」コマンドでは、フラグメント更新ユニット中にフラ
グメントペイロードが含まれない。「リセット」は、ツ
リーを初期状態に戻す。リセットコマンドでは、フラグ
メント更新ユニット中にパス情報およびフラグメントペ
イロードが含まれない。
"Add", as an example is shown in FIG. 10A, adds the subtree stored in the fragment payload in the same fragment update unit to the node position of the tree given by the path information described later. The “replacement” replaces the subtree at the node position indicated by the path information with the subtree in the fragment payload, as shown in FIG. 10B. “Delete” is shown in FIG.
As shown in C as an example, the subtree below the node position indicated by the path information is deleted. Therefore, the "delete" command does not include the fragment payload in the fragment update unit. "Reset" returns the tree to the initial state. The reset command does not include path information and fragment payload in the fragment update unit.

【0091】パス情報は、上述のフラグメント更新コマ
ンドを実行するツリーデータの中のノード位置を表す。
BiMでは、ナビゲーションモードおよびナビゲーショ
ンパスにより表される。
The path information represents the node position in the tree data that executes the above fragment update command.
In BiM, it is represented by a navigation mode and a navigation path.

【0092】ナビゲーションモードでは、フラグビット
により、ナビゲーションパスに関して以下のモードが指
定される。 (1)ナビゲーションパスが絶対パスおよび相対パスの
何れであるか (2)ランダムアクセスマーカーの有無 (3)フラグメントペイロードが単一および複数の何れ
であるか
In the navigation mode, flag bits specify the following modes for the navigation path. (1) Whether the navigation path is an absolute path or a relative path (2) Presence or absence of a random access marker (3) Whether the fragment payload is single or plural

【0093】ナビゲーションパスは、上述のナビゲーシ
ョンモードによって、絶対パスおよび相対パスの何れで
あるかが指定される。図11は、絶対パスおよび相対パ
スを概略的に示す。絶対パスモードでは、図11Aに一
例が示されるように、ツリーのルートノードから指定す
るノード位置までに辿るパスの全ての枝符号(総枝符
号)が記録される。相対パスモードでは、図11Bに一
例が示されるように、前段の処理終了時における現在ノ
ードから指定するノード位置までの総枝符号が記録され
る。
Whether the navigation path is an absolute path or a relative path is specified by the navigation mode described above. FIG. 11 schematically shows absolute paths and relative paths. In the absolute path mode, as shown in FIG. 11A, all the branch codes (total branch codes) of the path traced from the root node of the tree to the designated node position are recorded. In the relative path mode, as shown in FIG. 11B, the total branch code from the current node to the designated node position at the end of the processing of the previous stage is recorded.

【0094】枝符号(Tree Branch Code)は、パスを順に
辿る時点で通過する各枝で、繋がれたノード間の関係を
与える符号である。枝符号により、あるノードから見た
次のノードが何番目の子ノードであるか、何番目の子ノ
ードの何番目の実現値であるか、または、親ノードに当
たるかが示される。
A tree branch code is a code that gives a relationship between connected nodes at each branch that passes through when a path is sequentially traced. The branch code indicates what number child node the next node viewed from a certain node is, what number realization value of which child node, or the parent node.

【0095】各子ノードは、その親ノードに対応するメ
タデータが持つ各種要素に対応している。また、メタデ
ータが同種の要素を複数持つ場合、それらは区別される
必要がある。このため、枝符号には、スキーマ枝符号(S
chema Branch Code)と位置符号(Position Code)とが含
まれる。スキーマ枝符号により、要素種別、すなわち何
番目の子ノードであるかが示される。位置符号により、
複数同種要素の区別、すなわちその子ノードの何番目の
実現値であるかが示される。
Each child node corresponds to various elements included in the metadata corresponding to the parent node. Also, if the metadata has multiple elements of the same type, they need to be distinguished. For this reason, the schema branch code (S
A chema branch code) and a position code (position code) are included. The schema branch code indicates the element type, that is, the number of the child node. Depending on the position code,
The distinction among a plurality of same-type elements, that is, the order of the realized value of the child node is indicated.

【0096】あるノードに付加されている子ノードの
数、すなわちそのメタデータが持つ要素の種別数、およ
び、各子ノードの実現値の数、すなわちそのメタデータ
がとり得る同種要素の数は、スキーマ定義によって規定
され、その数に応じた最小のビット数によって枝符号が
与えられる。このことから、BiMでは、スキーマ定義
に対して最適な符号量でナビゲーション符号化が行われ
る。
The number of child nodes added to a certain node, that is, the number of types of elements that the metadata has, and the number of realized values of each child node, that is, the number of similar elements that the metadata can have are The branch code is given by the minimum number of bits defined by the schema definition. From this, in BiM, navigation coding is performed with an optimal code amount for the schema definition.

【0097】BiMのフラグメントペイロードにおける
サブツリーのバイナリデータ(符号)は、スキーマ定義
が与えられることで適応的に生成される。図12は、M
PEG−7システムのBiMにおいて、サブツリー符号
に対して規定されるデコードプロセスを示す。
The binary data (code) of the subtree in the fragment payload of BiM is adaptively generated by being given the schema definition. FIG. 12 shows M
7 shows the decoding process defined for subtree codes in BiM of the PEG-7 system.

【0098】与えられたスキーマ101から、デコード
過程を示す有限状態オートマトン102が生成される。
入力されたサブツリー符号103から逐次読み込まれる
ビットによって、有限状態オートマトン102内の遷移
状態が決定されることにより、サブツリー符号のデコー
ドが実行され、サブツリーデータ104が得られる。
A finite state automaton 102 showing the decoding process is generated from the given schema 101.
The transition state in the finite state automaton 102 is determined by the bits sequentially read from the input subtree code 103, whereby the subtree code is decoded and the subtree data 104 is obtained.

【0099】有限状態オートマトン102が生成される
前段において、スキーマ最適化処理101によりスキー
マ100が最適化される。この最適化により、バイナリ
表現時に効率が最大(符号量が最小)となるようにスキ
ーマから定義されるサブツリーのデータ構文ツリー(Syn
tax Tree)が、変形可能な最もシンプルな形状のツリー
へと変換される。分割された各々のサブツリーは、木構
造として閉じているため、このような最適化処理が可能
である。この最適化処理によって、BiMのサブツリー
符号は、スキーマ定義に対して最適な符号量で与えられ
る。
Before the finite state automaton 102 is generated, the schema optimization process 101 optimizes the schema 100. With this optimization, the data syntax tree (Syn
tax tree) is transformed into the simplest transformable tree. Since each of the divided sub-trees is closed as a tree structure, such optimization processing is possible. By this optimization processing, the BiM subtree code is given with an optimal code amount for the schema definition.

【0100】図13および図14は、上述の図5で示さ
れるスキーマ定義に基づき生成されるデータ構文ツリー
およびデコーダオートマトン(有限状態オートマトン1
02)の例をそれぞれ示す。図5Bのメタデータサブツ
リーに対するバイナリデータ(サブツリー符号103)
は、メタデータ中の各インスタンス”Watanab
e”、”Shuichi”、”28”のバイナリデータ
が直列的に並んだデータとして与えられる。このデータ
は、図14に一例が示されるように、デコーダオートマ
トンにより一語ずつ読み込まれ、その都度、状態が更新
されながら(q0、q1、q2、・・・)、サブツリー
符号がデコードされる。
13 and 14 show a data syntax tree and a decoder automaton (finite state automaton 1 generated based on the schema definition shown in FIG. 5 described above.
02) are shown respectively. Binary data (subtree code 103) for the metadata subtree of FIG. 5B
Is each instance "Watanab" in the metadata
The binary data of "e", "Shuichi", and "28" are given as serially arranged data. This data is read word by word by the decoder automaton as shown in FIG. The subtree code is decoded while the state is updated (q0, q1, q2, ...).

【0101】なお、”Watanabe”、”Shui
chi”のようなstring(文字列)データは、UTF(U
niversal multiple-octet coded character set transf
ormation format)−8で、”28”のようなinteger
(整数)データは、BiMの独自形式で、それぞれバイ
ナリ化される。
Incidentally, "Watanabe", "Shui"
string data such as "chi" is UTF (U
niversal multiple-octet coded character set transf
ormation format) -8, an integer like "28"
The (integer) data is binarized in the BiM unique format.

【0102】次に、上述したMDSについて説明する。
図15は、MDSにより規定された各種ツール群の分類
に基づくMDSの概観図を示す。図15に示されるよう
に、MDSを構成するツールは、大別して以下の6種類
に分類される。 (1)基本要素(Basic elements) (2)コンテンツ管理ツール(Content management) (3)コンテンツ記述ツール(Content description) (4)コンテンツ・ナビゲーションおよびアクセス・ツ
ール(Navigation & Access) (5)コンテンツ組織化ツール(Content organization) (6)ユーザ関連ツール(User interaction) 以下、各カテゴリにおける代表的なツールについて順次
説明する。
Next, the above MDS will be described.
FIG. 15 shows an overview of MDS based on the classification of various tool groups defined by MDS. As shown in FIG. 15, the tools constituting the MDS are roughly classified into the following six types. (1) Basic elements (2) Content management tool (Content management) (3) Content description tool (4) Content navigation and access tool (Navigation & Access) (5) Content organization Tool (Content organization) (6) User-related tool (User interaction) Hereinafter, representative tools in each category will be sequentially described.

【0103】(1)の基本要素カテゴリでは、MPEG
−7スキーマアーキテクチャを定義するMPEG−7ス
キーマ定義ツール(Schema Tools)、マルチメディア・コ
ンテンツを記述する上で必要となる基本データ型(Basic
datatypes)、記述対象コンテンツへの参照を目的とし
たメディア参照ツール(Links & media localization)お
よび他のツールの構成要素として使用される基本ツール
(Basic Tools)が規定されている。
In the basic element category of (1), MPEG
-7 Schema The MPEG-7 Schema Definition Tool (Schema Tools) that defines the architecture, and the basic data type (Basic) required to describe multimedia contents.
datatypes), media reference tools (Links & media localization) for the purpose of referring to the content to be described, and basic tools used as components of other tools
(Basic Tools) is specified.

【0104】MPEG−7スキーマ定義ツールにおい
て、MPEG−7で規定された各ツールの継承関係を定
義するアーキテクチャ定義ツール、MPEG−7メタデ
ータの開始タグ(Root element)である<Mpeg7>、コンテ
ンツ記述作業に応じて後述する完全記述版MPEG−7
メタデータを生成する上での導入部となる各種上位要素
(Top level element)が規定されている。
In the MPEG-7 schema definition tool, an architecture definition tool that defines the inheritance relation of each tool defined by MPEG-7, a start tag (Root element) <Mpeg7> of MPEG-7 metadata, and a content description. Complete description version MPEG-7, which will be described later according to the work
Various higher-level elements that serve as an introductory part in generating metadata
(Top level element) is specified.

【0105】MPEG−7スキーマデザインにおいて
は、ツール間の継承関係を、一般的に用いられるプログ
ラム言語であるC++やJava(登録商標)における
クラス継承関係へのマッピングが可能となるよう、型中
心主義(Type centric approach)が採用される。これに
より、MPEG−7メタデータの開始タグ<Mpeg7>は、
MPEG−7スキーマで定義されたツール群の中で唯一
の大域要素(Global element)である。すなわち、MPE
G−7スキーマ検証済みメタデータは、必ずタグ<Mpeg7
>から開始される。
In the MPEG-7 schema design, it is possible to map the inheritance relationship between tools to the class inheritance relationship in C ++ and Java (registered trademark), which are commonly used programming languages, in order to be type-centric. (Type centric approach) is adopted. As a result, the start tag <Mpeg7> of MPEG-7 metadata becomes
It is the only global element in the tools defined by the MPEG-7 schema. That is, MPE
G-7 schema validated metadata must always have tag <Mpeg7
> Is started.

【0106】基本データ型において、XMLスキーマで
定義された各種基本データ型に加え、MPEG−7では
マルチメディアコンテンツを記述する上で必要となる基
本データ型が追加的に規定される。例えば、バイナリデ
ータにおける割当ビット数に対応した整数データ型、ベ
クトルや行列を表すデータ型、MIME(Multipurpose
Internet Mail Extensions)に則ったメディア型、IS
O標準に則り国、地域、貨幣を表すデータ型などが規定
される。
In the basic data type, in addition to the various basic data types defined by the XML schema, the basic data types required for describing multimedia contents are additionally specified in MPEG-7. For example, an integer data type corresponding to the number of allocated bits in binary data, a data type representing a vector or matrix, and a MIME (Multipurpose
Media type based on Internet Mail Extensions), IS
According to the O standard, data types representing countries, regions, and money are defined.

【0107】メディア参照ツールにおいて、記述対象と
なるコンテンツへの参照ツールとして、識別子(UniqueI
D)、ビデオ等コンテンツの特定の一部分をそのコンテン
ツが持つ時間軸に基づいて参照するMediaTime、これら
を統合した形での一般的なメディア参照ツールであるMe
diaLocatorなどが規定される。なお、識別子で規定され
るのは、各種識別子を格納するための場所(placeholde
r)であり、データ型UniqueIDにおいては、任意のスキー
ムに基づく識別子を格納することができる。
In the media reference tool, an identifier (Unique I
D), MediaTime that refers to a specific part of content such as video based on the time axis of the content, and Me, which is a general media reference tool that integrates these
diaLocator etc. are specified. It should be noted that the identifier is defined as a place (placeholder) for storing various identifiers.
r), and in the data type UniqueID, an identifier based on an arbitrary scheme can be stored.

【0108】基本要素の中で、上述のスキーマ定義ツー
ル、基本データ型およびメディア参照ツール以外のツー
ル中、特に他の様々なツールの構成要素として共通して
使用されるツールは、基本ツール(Basic Tools)と称さ
れる。例えば、まとまった制限語彙(Controlled terms)
を外部参照スキーマとして定義するためのClassi
ficationScheme DS(Description Sch
eme)、ClassificationScheme D
Sを参照するためのControlledTermUs
e、人、グループ、組織を記述するAgent DS、
場所を記述するPlace DS、グラフ構成を記述す
るGraph DS、メタデータ間の関連を記述するR
elation DS、メタデータ要素間の順序を記述
するOrderingKey DS、コンテンツに対す
る視聴者の感性情報を記述するAffective D
Sなどが基本ツールとして定義される。
Among the basic elements, among the tools other than the schema definition tool, the basic data type and the media reference tool described above, the tools commonly used as components of various other tools are the basic tools (Basic Tool). Tools). For example, a set of controlled terms
Classi to define an external reference schema
ficationScheme DS (Description Sch
eme), Classification Scheme D
ControlledTermUs for referencing S
e, Agent DS that describes people, groups, and organizations,
Place DS that describes the location, Graph DS that describes the graph structure, R that describes the relationship between the metadata
relation DS, Ordering Key DS that describes the order between the metadata elements, and Affective D that describes the viewer's sensitivity information for the content.
S and the like are defined as basic tools.

【0109】さらにMPEG−7においては、テキスト
注釈記述ツールとして、自由書式に基づくテキスト注釈
を可能とするFreeTextAnnotationの
他、6W1Hに基づくテキスト注釈を可能とするStr
ucturedAnnotation、単語間の関連も
含めた構造化文書としてのテキスト注釈を可能とするD
ependancyStructureなどが規定され
る。
Furthermore, in MPEG-7, as a text annotation description tool, FreeTextAnnotation that enables text annotation based on free format, and Str that enables text annotation based on 6W1H are used.
structuredAnnotation, which enables text annotation as a structured document including the relation between words D
The "ependancyStructure" and the like are specified.

【0110】(2)のコンテンツ管理ツールカテゴリで
は、記述対象コンテンツのメディアに関する記述を行う
メディア関連記述ツール(Media)、コンテンツの制作に
関する記述を行う制作関連記述ツール(Creation & Prod
uction)、コンテンツの使用に関する記述を行うコンテ
ンツ使用形態記述ツール(Usage)が規定される。
In the content management tool category (2), a media-related description tool (Media) that makes a description about the medium of the content to be described, and a production-related description tool (Creation & Prod) that makes a description about the production of the content.
uction), and a content usage description tool (Usage) that describes the usage of the content.

【0111】メディア関連記述ツールとして、Medi
aInformation DSが提供される。このM
ediaInformation DSにおいては、各
種のメディア形式記述ツール(MediaFormatD)が定義され
る。さらに、MediaInformation DS
では、メディア形式の変換に関するMediaTran
scodingHints D(Descriptor)、メディア
の質を記述するMediaQuality D、これら
の記述内容と記述対象となる複数のマルチメディアコン
テンツとの関連を記述するMediaInstance
DSが定義される。
As a media-related description tool, Medi
aInformation DS is provided. This M
In the mediaInformation DS, various media format description tools (MediaFormatD) are defined. In addition, Media Information DS
Now, MediaTran for media format conversion
scodingHints D (Descriptor), MediaQuality D that describes the quality of media, MediaInstance that describes the relationship between these description contents and multiple multimedia contents to be described.
The DS is defined.

【0112】制作関連記述ツールとして、Creati
onInformation DSが提供される。Cr
eationInformation DSにおいて
は、制作情報(タイトル、制作者、制作場所、制作日
等)を記述するCreationDSが定義される。さ
らに、CreationInformation DS
においては、様々な側面からのマルチメディア・コンテ
ンツの分類を記述するClassification
DS、関連コンテンツの記述を可能とするRelate
dMaterial DSが定義される。
As a production-related description tool, Creator
onInformation DS is provided. Cr
In the formationInformation DS, CreationDS that describes production information (title, producer, production place, production date, etc.) is defined. In addition, Creation Information DS
, Describes classification of multimedia content from various aspects.
Relate that enables description of DS and related contents
dMaterial DS is defined.

【0113】コンテンツ使用形態記述ツールとしては、
UsageInformationDSが提供される。
UsageInformation DSにおいては、
権利情報を記述するRights Dが定義される。さ
らに、UsageInformation DSにおい
て、コンテンツの使用条件を記述するAvailabi
lity DS、コンテンツの使用記録を記述するUs
ageRecordDSが定義される。
As a content usage pattern description tool,
UsageInformationDS is provided.
In Usage Information DS,
Rights D that describes the rights information is defined. Furthermore, in UsageInformation DS, Availability that describes the usage conditions of the content
Us in describing usage record of content DS, content
The ageRecordDS is defined.

【0114】(3)のコンテンツ記述ツールカテゴリで
は、コンテンツの構造を記述するコンテンツ構造記述ツ
ール(Structural aspects)、コンテンツの意味内容を記
述するコンテンツ意味内容記述ツール(Semantic aspect
s)が規定される。
In the content description tool category (3), a content structure description tool (Structural aspects) for describing the structure of the content and a content semantic content description tool (Semantic aspect) for describing the meaning of the content.
s) is specified.

【0115】コンテンツ構造記述ツールにより、マルチ
メディアコンテンツの構造の記述に関するツールが提供
される。一般的な映像音声コンテンツの構造を記述する
ツールとしては、静止画を記述するためのStillR
egion DS、動画像を記述するためのVideo
Segment DSが提供される。さらに、コンテン
ツ構造記述ツールにより、動画像内で時空間的に変化す
る視覚オブジェクトを記述するMovingRegio
n DS、音声コンテンツを記述するAudioSeg
ment DSが提供される。
The Content Structure Description Tool provides tools for describing the structure of multimedia content. As a tool for describing the structure of general audiovisual content, StillR for describing a still image is used.
section DS, Video for describing moving images
Segment DS is provided. Furthermore, a moving structure that describes a temporally and temporally changing visual object in a moving image is described by a content structure description tool.
nDS, AudioSeg that describes audio content
ment DS is provided.

【0116】さらにまた、コンテンツ構造記述ツールに
より、映像音声情報をまとめて記述するためのAudi
oVisualSegment DS、AudioVi
sualRegion DSが提供される。Audio
VisualSegmentDSは、上述のVideo
Segment DSとAudioSegmentDS
とが足し合わされたツールに相当する。同様に、Aud
ioVisualRegion DSは、上述のMov
ingRegion DSとAudioSegment
DSとが足し合わされたツールに相当する。また、一
般のマルチメディア・コンテンツを記述するためのMu
ltimediaSegmentDSが提供される。
Furthermore, the audio for collectively describing the audiovisual information by the content structure description tool
oVisualSegment DS, AudioVi
A dualRegion DS is provided. Audio
VisualSegmentDS is the above-mentioned Video
Segment DS and AudioSegmentDS
It is equivalent to the added tool. Similarly, Aud
ioVisualRegion DS is based on Mov mentioned above.
ingRegion DS and AudioSegment
It corresponds to a tool in which DS and DS are added together. In addition, Mu for describing general multimedia contents
ltmediadiaSegmentDS is provided.

【0117】コンテンツ構造記述ツールにより提供され
るそれぞれのツールは、何れも、他のツールが対象とす
るコンテンツ形態の記述へと再帰的に分割(Decompositi
on)可能とされている。これにより、例えば、最初にA
udioVisualSegment DSを用いて記
述されたあるビデオ・コンテンツは、視覚的および聴覚
的特徴を独立して記述できるようVideoSegme
nt DSおよびAudioSegment DSを用
いた記述に分割される。また例えば、あるキーフレーム
を静止画として記述すべくVideoSegment
DSを用いた記述は、さらにStillRegion
DSに基づく記述へと分割される。このことは、これら
のツールによってコンテンツの構造が階層的に表現でき
ることを示している。
Each of the tools provided by the content structure description tool recursively divides into a description of the content form targeted by another tool (Decompositi
on) It is possible. This gives, for example, first A
Some video content described using audioVisualSegmentDS allows video and audio features to be described independently of the VideoSegme.
It is divided into descriptions using nt DS and AudioSegment DS. Also, for example, VideoSegment to describe a certain key frame as a still image.
The description using DS is as follows: Still Region
It is divided into DS-based descriptions. This means that these tools can express the structure of contents hierarchically.

【0118】なお、コンテンツ構造記述ツールにより、
字幕など動画および静止画上のテキストを記述するVi
deoText DSおよびImageText D
S、動画の背景を一つの静止画として表現するためのM
osaic DSなどが映像音声コンテンツ構造記述ツ
ールから派生したものとして定義される。さらに、手書
き文字における時空間情報を記述するためのInkSe
gment DS、ビデオ・プログラムを解析すること
で抽出される編集工程を記述するVideoEditi
ng DS、これら記述されたコンテンツの論理構造要
素間の関連を記述するための各種Relation D
Sがコンテンツ構造記述ツールにより準備される。
By the content structure description tool,
Vi that describes the text on moving images and still images such as subtitles
deoText DS and ImageText D
S, M for expressing the background of the moving image as one still image
osaic DS and the like are defined as derived from the audiovisual content structure description tool. InkSe for describing spatiotemporal information in handwritten characters
videoEdit that describes the editing process extracted by analyzing gment DS, a video program
ng DS, various Relation Ds for describing the relationship between the logical structural elements of these described contents
S is prepared by the content structure description tool.

【0119】コンテンツ意味内容記述ツールにより、S
emantic DSなどの、コンテンツの意味内容を
記述するためのツールが提供される。また、コンテンツ
意味内容記述ツールにより、コンテンツが捉えた世界(N
arrative World)を構成する意味的実体(Object)を記述
するためのObject DS、この世界で生起するイ
ベントの記述を可能としたEvent DS、それらを
包括する概念を記述するためのConcept DSが
提供される。
Content Meaning By the content description tool, S
Tools are provided to describe the semantic content of the content, such as the electronic DS. In addition, by using the content semantic content description tool, the world (N
Object DS for describing the semantic entities (Objects) that make up the arrative world), Event DS for which it is possible to describe the events that occur in this world, and Concept DS for describing the concepts that include them are provided. It

【0120】さらに、これらコンテンツ意味内容記述ツ
ールの構成要素として、エージェント、時間、場所を記
述するための基本ツールがそれぞれAgentObje
ctDS、SemanticTime DS、Sema
nticPlace DSとして規定されている。加え
て、コンテンツの意味内容記述間の関連を記述するため
の各種Relation DSが提供される。
Further, as the constituent elements of these content meaning description tools, basic tools for describing agents, times, and places are respectively AgentObject.
ctDS, SemanticTime DS, Sema
NicPlace DS. In addition, various Relation DSs are provided to describe the relationships between the semantic content descriptions of the content.

【0121】(4)のコンテンツナビゲーションおよび
アクセスツールカテゴリでは、コンテンツの要約を記述
するコンテンツ要約記述ツール(Summaries)、信号処理
に基づいたコンテンツの様々な見え方を記述するコンテ
ンツビュー記述ツール(View)、あるコンテンツから得ら
れる様々な派生コンテンツを記述する派生コンテンツ記
述ツール(Variations)が規定される。
In the content navigation and access tool category of (4), a content summary description tool (Summaries) for describing the summary of the content and a content view description tool (View) for describing various views of the content based on signal processing. , Derived content description tools (Variations) that describe various derived contents obtained from a certain content are specified.

【0122】コンテンツ要約記述ツールにより、マルチ
メディアコンテンツの要約を記述するツールとして、要
約自体に階層的な構造を持たせることにより様々な再生
時間および精度の要約をまとめて記述することを可能と
したHierachicalSummary DS、要
約構成要素の重要度に応じて再生時間を動的に変化させ
る等の柔軟な再生方法の記述も含んだ要約の記述を提供
するSequentialSummary DSが提供
される。なお、これら要約の構成要素としてはビデオ・
クリップの他、キーフレームなどの静止画やオーディオ
・クリップ等もその対象に含まれる。
The content summary description tool, as a tool for describing the summary of multimedia contents, makes it possible to collectively describe various reproduction times and accuracy summaries by giving the summary itself a hierarchical structure. A hierarchical summary DS that provides a description of a summary including a description of a flexible playback method such as dynamically changing a playback time according to the importance of a summary component is provided. The components of these summaries are video
In addition to clips, still images such as keyframes, audio clips, etc. are included in the target.

【0123】コンテンツビュー記述ツールは、マルチメ
ディアコンテンツに対して時空間および周波数空間にお
ける様々な信号処理を施した場合の見え方を記述するた
めのツールセットである。コンテンツビュー記述ツール
により、マルチメディアコンテンツの空間における部分
領域を指定するPartition、各種フィルタリン
グを記述するFilteringを構成要素として、信
号処理後の様々な見え方を記述するView DS、そ
れら各種見え方の関連を階層的に記述するためのVie
wDecomposition DSなどが提供され
る。
The content view description tool is a set of tools for describing the appearance when multimedia signals are subjected to various signal processings in space-time and frequency space. View DS that describes various appearances after signal processing with Partition that specifies a partial area in the space of multimedia content and Filtering that describes various filtering by the content view description tool, and the relationship of those various appearances. Vie for describing hierarchically
wDecomposition DS and the like are provided.

【0124】一つのマルチメディアコンテンツから、各
種信号処理その他により様々な派生コンテンツを生成す
ることができる。上述したコンテンツ要約は、派生コン
テンツの一例である。派生コンテンツは、この他にも、
データサイズ圧縮のためのフレームレートや標本化数な
ど各種パラメータの変更によるもの、メディア形式その
ものの変換によるもの、音声のテキスト変換など、コン
テンツの形態そのものを変更したものなどがある。これ
らマルチメディアコンテンツの様々な派生コンテンツ生
成に関して、その生成履歴、元コンテンツの再現性、優
先度、派生コンテンツ間の各種関連等を記述するための
ツールとして、派生コンテンツ記述ツールによりVar
iation DSが提供される。
Various derived contents can be generated from one multimedia content by various signal processing and the like. The content summary described above is an example of the derived content. In addition to this, the derived content is
There are various parameters such as the frame rate and the number of samples for data size compression, conversion of the media format itself, conversion of the audio text, and other changes in the content format itself. As a tool for describing the generation history, reproducibility of the original content, priority, various relations between the derived contents, etc. with respect to the generation of various derived contents of these multimedia contents, the derivative contents description tool is used to implement Var.
iation DS is provided.

【0125】(5)のコンテンツ組織化ツールカテゴリ
では、複数のコンテンツおよびそれらの記述データの集
合体を直接記述するコンテンツ集合体記述ツール(Colle
ction)、マルチメディアコンテンツや記述の集合として
の特徴を様々なモデルに基づいて記述するためのモデル
記述ツール(Models)が規定される。
In the content organization tool category (5), a content aggregate description tool (Colle) that directly describes an aggregate of a plurality of contents and their descriptive data.
ction), model description tools (Models) for describing features as a set of multimedia contents and descriptions based on various models.

【0126】コンテンツ組織化ツールにより、複数のマ
ルチメディアコンテンツやコンテンツ記述そのものの集
合体を記述するためのツールが提供される。この中で、
特にこれらの集合体を直接記述するツールとしてCol
lection DSが提供される。Collecti
on DSは、さらに、コンテンツの集合体を記述する
ためのContentCollection DS、コ
ンテンツの構造記述の集合体を記述するためのSegm
entCollection DS、映像あるいは音声
などの特徴記述の集合体を記述するためのDescri
ptorCollection DS、意味内容記述に
おける概念記述の集合体を記述するためのConcep
tCollection DSなどに分類される。また
これら集合体記述間の関係を記述するツールとしてSt
ructuredCollection DSが規定さ
れる。
The content organization tool provides a tool for describing a collection of a plurality of multimedia contents and content descriptions themselves. In this,
Especially as a tool to directly describe these aggregates, Col
collection DS is provided. Collecti
on DS is Content Collection DS for describing a collection of contents, Segm for describing a collection of structure description of contents.
Description for describing a collection of feature descriptions such as entCollection DS, video or audio.
ptorCollection DS, a Concept for describing a collection of concept descriptions in the semantic content description
It is classified into tCollection DS and the like. In addition, St is used as a tool to describe the relationship between these aggregate descriptions.
The ruledCollection DS is specified.

【0127】上述のCollection DSがコン
テンツあるいはコンテンツ記述の集合体そのものを直接
記述するのに対し、これら集合体から抽出される特徴を
モデルに基づいて記述するためのツールとしてMode
l DSが規定される。具体的には、確率統計モデルを
用いるProbabilityModel DS、隠れ
マルコフモデル(HMM)など有限状態モデルを用いる
FiniteStateModel DS、これらのモ
デリング結果と意味的内容記述とを関連づけるAnal
yticModel DS、コンテンツの集合と意味的
内容記述を関連付けるClassificationM
odel DSなどが規定される。
While the above-mentioned Collection DS directly describes the collection itself of contents or content description, Mode is used as a tool for describing the features extracted from these collections based on the model.
l DS is defined. Specifically, a ProbabilityModel DS using a probability statistical model, a FiniteStateModel DS using a finite state model such as a Hidden Markov Model (HMM), and an Anal that associates these modeling results with the semantic content description.
yticModel DS, a ClassificationM that associates a set of content with a semantic content description
ode DS and the like are specified.

【0128】(6)のユーザ関連ツールカテゴリでは、
ユーザ嗜好を記述するユーザ嗜好記述ツール(User Pref
erences)およびユーザの動作履歴を記述するユーザ動作
履歴記述ツール(User History)が規定される。
In the user-related tool category (6),
User preference description tool (User Pref
erences) and a user operation history description tool (User History) that describes the operation history of the user.

【0129】ユーザ嗜好記述ツールとしてUserPr
eferences DSが提供される。UserPr
eferences DSにおいては、タイトル、制作
者など各種制作情報に関する嗜好を記述するCreat
ionPreferences DS、ジャンル、使用
言語、リリース時期など各種分類情報に関する嗜好を記
述するClassificationPreferen
ces DS、メディア種、供給元、供給時期など各種
供給元情報に関する嗜好を記述するSourcePre
ferences DS、要約方法、要約条件など各種
ブラウジング方法に関する嗜好を記述するBrowsi
ngPreferences DSなどが提供される。
また、これらの組み合わせを階層的に記述するツールと
して、FilteringAndSearchPref
erences DSが規定される。
UserPr as a user preference description tool
efferences DS is provided. UserPr
In the Efences DS, Create that describes the taste regarding various production information such as title and creator.
IonPreferences ClassificationPreferences describing preferences regarding various classification information such as DS, genre, language used, release time, etc.
cesPre, which describes preferences regarding various supplier information such as DS, media type, supplier, supply time, etc.
Browsi that describes the preferences for various browsing methods such as ferences DS, summarization methods, summarization conditions, etc.
ngPreferences DS and the like are provided.
In addition, as a tool for describing these combinations in a hierarchical manner, FilteringAndSearchPref
erences DS is defined.

【0130】ユーザ動作履歴記述ツールとして、Usa
geHistory DSが提供される。UsageH
istory DSにおいては、UserAction
History DSによって、過去のマルチメディア
・コンテンツ視聴の際のユーザの動作履歴および視聴し
たコンテンツとの関連が記述できる。
As a user operation history description tool,
geHistory DS is provided. UsageH
In the action DS, UserAction
History DS can describe the operation history of the user when viewing multimedia contents in the past and the relationship with the viewed content.

【0131】次に、MPEG−7におけるメタデータの
記述について、より具体的に説明する。上述したよう
に、MPEG−7スキーマ検証済み記述データは、テキ
ストデータとしては、<mpeg7>タグで始まるXML文書
として与えられる。ここで、MPEG−7においては、
記述データは、次のいずれかの形態をとる。 (1)記述単位版MPEG−7メタデータ(Description
Unit) (2)完全記述版MPEG−7メタデータ(Complete De
scription)
Next, the description of the metadata in MPEG-7 will be described more specifically. As described above, the MPEG-7 schema verified description data is provided as text data as an XML document starting with the <mpeg7> tag. Here, in MPEG-7,
The description data takes one of the following forms. (1) Description unit version MPEG-7 metadata
Unit) (2) Complete description version MPEG-7 metadata
scription)

【0132】(1)の記述単位版MPEG−7メタデー
タについて説明する。MPEG−7において、Dあるい
はDSとして定義されたツールは、全てそれ自身の記述
データを単独で生成(instantiate)することができる。
このようにして生成された記述データが記述単位版MP
EG−7メタデータと称される。図16は、記述単位版
MPEG−7メタデータの一例の記述を示す。この図1
6に示される記述は、とある住所をPlace DSを
用いて記述した例である。
The description unit version MPEG-7 metadata of (1) will be described. In MPEG-7, all tools defined as D or DS can independently generate their own descriptive data.
The description data generated in this way is the description unit version MP
It is called EG-7 metadata. FIG. 16 shows a description of an example of the description unit version MPEG-7 metadata. This Figure 1
The description shown in 6 is an example in which a certain address is described using Place DS.

【0133】図16に示されるように、記述単位版MP
EG−7メタデータでは、開始タグ<Mpeg7>におけるt
ype属性の値として「descriptionUni
t」を与えることにより、この記述データが記述単位版
MPEG−7メタデータであることが示される。この場
合、開始タグに続く要素は、要素<DescriptionUnit>と
なり、それが持つxsi:type属性の値により、実
際に要素<DescriptionUnit>内に生成される記述データ
の文書モデル(Content model)が与えられる。つまり、
図16においては、Place DSで定義された文書
モデルに従って要素<Name>、要素<GeographicPosition>
などの要素が生成されることとなる。なお、この図16
の例におけるMPEG−7スキーマ内の定義名は、「P
laceType」とされる。
As shown in FIG. 16, the description unit version MP
In the EG-7 metadata, t in the start tag <Mpeg7>
As the value of the ype attribute, "descriptionUni
By giving "t", it is indicated that this description data is description unit version MPEG-7 metadata. In this case, the element following the start tag becomes the element <DescriptionUnit>, and the document model (Content model) of the description data actually generated in the element <DescriptionUnit> is given by the value of the xsi: type attribute of the element. . That is,
In FIG. 16, an element <Name> and an element <GeographicPosition> according to the document model defined by Place DS.
Will be generated. Note that this FIG.
The definition name in the MPEG-7 schema in the above example is "P
raceType ”.

【0134】VideoSegment DSなど複雑
なツールも、この様な形態の記述データを生成すること
ができる。また、MPEG−7の規格書のパート3、パ
ート4で規定されたツールの多くは視覚的あるいは聴覚
的な特徴を記述するためのD(Descriptor)として定義さ
れていることから、例えばPart3で定義されたツー
ルのひとつであるDominantColor Dに基
づく視覚特徴記述データも、このような形態で生成する
ことができる。
A complicated tool such as VideoSegment DS can also generate the description data in such a form. Also, since most of the tools defined in Part 3 and Part 4 of the MPEG-7 standard are defined as D (Descriptor) for describing visual or auditory characteristics, they are defined in Part 3, for example. Visual feature description data based on DominantColor D, which is one of the created tools, can also be generated in such a form.

【0135】一方、特に基本ツールに含まれるツール
は、その多くがデータ型として定義されている。これら
のツールにおいては、単独で記述データを生成すること
ができない。これは、データ型として定義される多くの
ツールが他のDあるいはDSを構成する要素の一部とし
て使用されることを前提として定義されているためであ
る。例えば、上述のMediaTimeは、データ型と
して定義された結果、それ単独の記述データを記述単位
版MPEG−7メタデータとして生成することができな
い。
On the other hand, most of the tools included in the basic tools are defined as data types. These tools cannot generate descriptive data by themselves. This is because many tools defined as data types are defined on the assumption that they are used as a part of other D or DS constituent elements. For example, as a result of the above-mentioned MediaTime being defined as a data type, the description data alone cannot be generated as description unit version MPEG-7 metadata.

【0136】記述単位版MPEG−7メタデータでは、
任意のDおよびDSに基づく記述データを生成すること
ができる。しかしながら、例えば図16のPlace
DSに基く場所の記述例では、この記述データが単独で
存在しても、それがあるマルチメディア・コンテンツ記
述の中でどの様な位置付けあるいは役割を果たしている
のかは自明ではない。つまり記述単位版MPEG−7メ
タデータは、それが使用されるコンテキスト(context)
とは無関係に生成することができるため、相互運用性(I
nteroperability)を図るためには、予め当該アプリケー
ション間でそのコンテキストを取り決めておく必要があ
る。
In the description unit version MPEG-7 metadata,
Descriptive data based on any D and DS can be generated. However, for example, Place in FIG.
In the description example of the place based on the DS, even if this description data exists alone, it is not obvious what role or role it plays in the multimedia content description. That is, the description unit version MPEG-7 metadata is a context in which it is used.
It can be generated independently of interoperability (I
In order to achieve (nteroperability), it is necessary to determine the context between the applications in advance.

【0137】(2)の完全版MPEG−7メタデータに
ついて説明する。MPEG−7メタデータにおいて、開
始タグ<Mpeg7>におけるtype属性値として「com
plete」を与えた場合、そのメタデータは、完全記
述版MPEG−7メタデータと称される。これは、与え
られた記述データが特定のコンテンツ記述作業という観
点から見た場合に、それ自身で自己完結した記述データ
であることを示している。図17は、完全記述版MPE
G−7メタデータの一例の記述を示す。図17は、静止
画に対するコンテンツ記述作業で得られるであろう記述
データの例である。
The complete MPEG-7 metadata of (2) will be described. In MPEG-7 metadata, "com" is set as the type attribute value in the start tag <Mpeg7>.
If "plete" is given, the metadata is referred to as full description version MPEG-7 metadata. This indicates that the given description data is self-sufficient description data from the viewpoint of specific content description work. Figure 17 shows the full description version of MPE
A description of an example of G-7 metadata is shown. FIG. 17 is an example of description data that will be obtained by content description work for a still image.

【0138】図17において、開始タグ<Mpeg7>に続く
要素<ContentDescription>により、これがコンテンツ記
述データであることが示される。ここで、特にxsi:
type属性が「ContentEntityTyp
e」という値とされていることから、このメタデータが
静止画、動画等のマルチメディアコンテンツそのものに
対する記述データであることが示される。続く要素<Mul
timediaContent>により、その要素のxsi:type
属性値の「ImageType」と共に、対象となるコ
ンテンツが静止画であることが示される。また、要素<I
mage>によって、StillRegion DSに従っ
た静止画の具体的な記述が示される。
In FIG. 17, the element <ContentDescription> following the start tag <Mpeg7> indicates that this is content description data. Here, in particular, xsi:
The type attribute is "ContentEntityType.
The value “e” indicates that this metadata is description data for multimedia contents themselves such as still images and moving images. Following element <Mul
timediaContent> allows xsi: type of the element
Along with the attribute value “ImageType”, it is indicated that the target content is a still image. Also, the element <I
mage> indicates a specific description of a still image according to StillRegion DS.

【0139】ここで、要素<MediaLocator>により、この
記述データが対象とする静止画への参照が示され、要素
<TextAnnotation>により、自由書式に基づテキスト注釈
が記述される。また、要素<VisualDescriptor>により、
この静止画の映像特徴が記述される。この要素のxs
i:type属性の値として「DominantCol
orType」が与えられていることから、その内部に
はPart3で規定されているDominantCol
or Dに従った映像特徴が記述される。
Here, the element <MediaLocator> indicates a reference to the still image targeted by this description data.
<TextAnnotation> describes a text annotation based on free format. Also, with the element <VisualDescriptor>,
The video characteristics of this still image are described. Xs of this element
As the value of the i: type attribute, "DominantCol"
"orType" is given, so the DominantCol specified in Part3
The video feature according to or D is described.

【0140】図17に示されるように、完全記述版MP
EG−7メタデータにおいては、開始タグ<Mpeg7>に続
く上位要素(Top level element)によって、あるマルチ
メディアコンテンツの記述作業という観点から見た場合
に記述データが従うべきスキーマが選択的に取り込まれ
る。
As shown in FIG. 17, the full description version MP
In the EG-7 metadata, a top level element following the start tag <Mpeg7> selectively captures the schema that the description data should follow from the viewpoint of the description work of a certain multimedia content. .

【0141】図18は、これら上位要素の取り得るべき
値および上位要素の関係を示す。図18に示されるよう
に、完全記述版MPEG−7メタデータにおいては、先
ず、それがあるマルチメディアコンテンツの内容の記述
(Content Description)かコンテンツ管理に関する記述
(Content Management)かに分類される。分類結果は、最
上位要素としてタグ<ContentDescription>あるいはタグ
<ContentManagement>で開始することで、それぞれ示さ
れる。
FIG. 18 shows the relationship between the possible values of these upper elements and the upper elements. As shown in FIG. 18, in the complete description version MPEG-7 metadata, first, there is a description of the contents of the multimedia content having it.
(Content Description) or description about content management
(Content Management) The classification result is the tag <ContentDescription> or the tag as the top element.
It is indicated by starting with <ContentManagement>.

【0142】コンテンツ内容の記述であると分類された
場合には、さらに、マルチメディアコンテンツそのもの
を対象とした記述(Content Entity)かあるいはコンテン
ツの派生物他を対象とした記述(Content Abstraction)
かに分類される。コンテンツそのものを対象とした記述
であれば、タグ<ContentDescription>に続いてタグ<Mul
timediaContent>が生成され、これに含まれるxsi:
type属性値で静止画(ImageType)、動画(VideoType)
などのコンテンツ種が具体的に指定される。
If the content is classified as a description of the content, a description of the multimedia content itself (Content Entity) or a description of the derivative of the content or the like (Content Abstraction)
Are classified as If the description is for the content itself, follow the tag <ContentDescription> with the tag <Mul.
timediaContent> is generated and included in this xsi:
Still image (ImageType), video (VideoType) with type attribute value
The content type such as is specifically specified.

【0143】一方、コンテンツ管理に関する記述である
と分類された場合には、要素<ContentDescription>が持
つxsi:type属性に設定される値によって、それ
が含む記述データが意味内容記述(WorldDescription)、
モデル記述(Model Description)あるいは要約記述(Summ
ary Description)などであることが示される。
On the other hand, when it is classified as a description related to content management, the description data included in it is defined as the semantic content description (WorldDescription) according to the value set in the xsi: type attribute of the element <ContentDescription>.
Model Description or Summary Description (Summ
ary Description).

【0144】次に、図1および図2を用いて上述した、
この発明の実施の一形態による遠隔編集システムについ
て、より詳細に説明する。先ず、図19を用いて、この
実施の一形態による映像素材の大容量映像アーカイブ2
への登録と、登録された映像素材の遠隔検索/編集装置
1による検索について説明する。なお、図19におい
て、上述した図1と共通する部分には同一の符号を付
し、詳細な説明を省略する。
Next, referring to FIG. 1 and FIG.
The remote editing system according to the embodiment of the present invention will be described in more detail. First, with reference to FIG. 19, a large-capacity video archive 2 of video material according to this embodiment will be described.
The registration by the remote search / editing device 1 of the registered video material will be described. In FIG. 19, the same parts as those in FIG. 1 described above are designated by the same reference numerals, and detailed description thereof will be omitted.

【0145】例えば図示されない撮影者によりビデオカ
メラ10で撮影された映像が映像素材11として出力さ
れる。映像素材11は、大容量映像アーカイブ2の映像
素材蓄積部であるアーカイブ12に蓄積される。
For example, an image captured by the video camera 10 by a photographer (not shown) is output as the image material 11. The video material 11 is stored in the archive 12, which is a video material storage unit of the large capacity video archive 2.

【0146】図2を用いて上述した、映像素材11の分
割は、例えば映像素材11をアーカイブ12に蓄積する
際に行うことができる。映像素材11の提供者(例えば
当該映像素材11の撮影者)などにより、映像素材11
上の分割位置が例えば当該映像素材11のオリジナルタ
イムコードに基づき指定される。分割位置は、当該映像
素材11の提供者など、位置指定を行う者により任意に
指定することができる。
The division of the video material 11 described above with reference to FIG. 2 can be performed when the video material 11 is stored in the archive 12, for example. The video material 11 is provided by the provider of the video material 11 (for example, the photographer of the video material 11).
The upper division position is designated based on the original time code of the video material 11, for example. The division position can be arbitrarily designated by a person who designates the position, such as a provider of the video material 11.

【0147】次に、映像素材11が分割された各部分素
材から、例えば撮影者が気に入っている部分素材やお勧
めの部分素材(以下、お勧め部分素材)などが当該映像
素材11の提供者により選択される。そして、選択され
たお勧め部分素材を代表するような場面が選択され、静
止画として保持される。この代表場面の静止画を、代表
静止画と称する。さらに、代表静止画に対応した音声
(代表音声と称する)を所定時間分(例えば5秒間分)
だけ保持することができる。
Next, from each of the divided partial materials of the video material 11, for example, a partial material that the photographer likes or a recommended partial material (hereinafter, recommended partial material) is provided by the provider of the video material 11. Selected by. Then, a scene that represents the selected recommended partial material is selected and held as a still image. The still image of this representative scene is called a representative still image. Furthermore, a voice corresponding to the representative still image (referred to as a representative voice) is given for a predetermined time (for example, 5 seconds).
Can only hold.

【0148】なお、代表静止画および代表音声は、一つ
の映像素材11に対して複数を指定することができる。
例えば、映像素材11が分割された各部分素材に対し
て、それぞれ代表静止画および代表音声を指定すること
ができる。また、映像素材11の分割や、代表静止画お
よび代表音声の指定などは、例えば後述する登録端末1
3から行うようにできる。これに限らず、アーカイブ1
2に対して、これらの処理を行うようにされた専用のイ
ンターフェイスを設けてもよい。
A plurality of representative still images and representative audio can be designated for one image material 11.
For example, a representative still image and a representative audio can be designated for each partial material obtained by dividing the video material 11. Further, the division of the video material 11 and the designation of the representative still image and the representative audio are performed, for example, by the registration terminal 1 described later.
You can start from step 3. Not limited to this, archive 1
2 may be provided with a dedicated interface adapted to perform these processes.

【0149】映像素材11のアーカイブ12への蓄積の
際に、登録端末13により、映像素材11の属性情報が
入力される。1本の映像素材11に対して、例えば「素
材番号」、「ジャンル分類」、「タイトル名」、「素材
の長さ」、「撮影場所」、「撮影年月日」および「オリ
ジナルタイムコードとの差」が属性情報として入力され
る。さらに、映像素材11が分割された部分素材に対し
て、より詳細な属性情報が記述される。例えば、「部分
タイトル名」、「開始タイムコード」、「部分素材の長
さ」、「代表静止画」および「代表音声」などが部分素
材の属性情報として記述される。
When the video material 11 is stored in the archive 12, the registration terminal 13 inputs the attribute information of the video material 11. For one video material 11, for example, "material number", "genre classification", "title name", "material length", "shooting location", "shooting date" and "original time code" Difference ”is input as the attribute information. Further, more detailed attribute information is described for the partial material obtained by dividing the video material 11. For example, "partial title name", "start time code", "length of partial material", "representative still image", "representative audio", etc. are described as attribute information of the partial material.

【0150】なお、オリジナルタイムコードは、映像素
材11が持つ固有のタイムコードで、撮影時のタイムコ
ードまたはアーカイブ12に登録時のタイムコードであ
る。オリジナルタイムコードを用いることにより、一度
編集されたEDLデータは、何処に持っていっても通用
する汎用EDLとすることができる。
The original time code is a time code unique to the video material 11 and is the time code at the time of shooting or the time code at the time of registration in the archive 12. By using the original time code, the EDL data once edited can be used as a general-purpose EDL that can be used anywhere.

【0151】映像素材11および映像素材11の部分素
材の属性情報は、上述したMPEG−7のフォーマット
で以て記述され、MPEG−7ファイルとされてデータ
ベース15に登録される。また、映像素材11に関して
保持された上述の代表静止画および代表音声は、所定の
データ形式に変換されてMPEG−7ファイルに埋め込
まれる。このMPEG−7のフォーマットによる映像素
材11の属性情報の記述については、より具体的な例を
用いて後述する。
The attribute information of the video material 11 and the partial material of the video material 11 is described in the above-mentioned MPEG-7 format and registered in the database 15 as an MPEG-7 file. Further, the representative still image and the representative audio held for the video material 11 are converted into a predetermined data format and embedded in the MPEG-7 file. The description of the attribute information of the video material 11 in the MPEG-7 format will be described later using a more specific example.

【0152】上述した映像素材11の属性情報のうち、
項目「ジャンル分類」は、ジャンル辞書14と称される
テーブルを参照して入力すると、後の映像素材11の検
索が容易になり、好ましい。ジャンル辞書14は、マル
チメディアコンテンツに対して考えられるジャンルを階
層的に表現したテーブルである。ジャンル辞書14は、
大容量映像アーカイブ2、例えばデータベース15内に
持たせてもよいし、インターネット4を介してアクセス
可能な別の場所に設けてもよい。
Of the attribute information of the video material 11 described above,
The item "genre classification" is preferably entered by referring to a table called the genre dictionary 14, which facilitates later retrieval of the video material 11. The genre dictionary 14 is a table that hierarchically represents possible genres for multimedia contents. The genre dictionary 14 is
It may be stored in the large-capacity video archive 2, for example, the database 15, or may be provided in another place accessible via the Internet 4.

【0153】図20は、このジャンル辞書の一例を示
す。この例では、「イベント」、「情報」、「文化」、
「風景」および「その他」といった、大分類されたジャ
ンルの下にそれぞれ中分類されたジャンルが設定され、
さらに中分類されたジャンルのそれぞれに対して、より
具体的な項目に小分類されたジャンルが設けられる。
FIG. 20 shows an example of this genre dictionary. In this example, "event", "information", "culture",
Genres that are medium-classified are set under the major categories, such as "Landscape" and "Other",
Further, for each of the genres that are further classified, genres that are sub-classified into more specific items are provided.

【0154】図20の例では、大分類「文化」に対して
中分類「伝統」、「特技」および「生活」が設けられ
る。さらに、例えば中分類「伝統」に対して、小分類
「黒川能」、「高松和紙」、「科織り」および「天童焼
き」が設けられる。なお、大分類「文化」に対する中分
類「生活」のように、中分類に対する小分類が設けられ
ない場合も有り得る。
In the example of FIG. 20, the middle category “traditional”, “special skill” and “life” are provided for the large category “culture”. Further, for example, for the middle category "traditional", the minor categories "Kurokawa Noh", "Takamatsu Washi", "Kaisha" and "Tendo Yaki" are provided. There may be a case where a small classification for the middle classification is not provided like the middle classification "life" for the large classification "culture".

【0155】なお、図19では、ジャンル辞書14が唯
一存在するように示されているが、実際には、インター
ネット4(図19では省略されている)上に複数を設け
ることができる。このように、それぞれ異なる分類が行
われたジャンル辞書14をインターネット4上に複数、
設けることによって、ユーザは、目的に応じたジャンル
辞書14を適宜、選択して参照することができる。
Although FIG. 19 shows that only one genre dictionary 14 exists, a plurality of genre dictionaries 14 can actually be provided on the Internet 4 (not shown in FIG. 19). In this way, a plurality of genre dictionaries 14 each having a different classification are provided on the Internet 4.
With the provision, the user can appropriately select and refer to the genre dictionary 14 according to the purpose.

【0156】すなわち、ジャンル辞書14の構成は、映
像素材の利用方法に応じて異なってくると考えられる。
例えば、図20に示されるジャンル辞書14は、地方か
らの情報発信に用いられることが想定されているため、
ジャンルの大分類、中分類および小分類が上述したよう
に、その地域に特化した項目とされている。別の目的の
ためのジャンル辞書14’においては、異なる分類を行
った方がユーザにとって使い易いことが考えられる。
That is, the structure of the genre dictionary 14 is considered to differ depending on the method of using the video material.
For example, since the genre dictionary 14 shown in FIG. 20 is supposed to be used for transmitting information from rural areas,
As described above, the major categories, middle categories, and minor categories of genres are items specialized for the region. In the genre dictionary 14 'for another purpose, it may be easier for the user to perform different classification.

【0157】大容量映像アーカイブ2に登録された映像
素材の、遠隔検索/編集装置1による検索は、例えば次
のようにして行われる。先ず、ユーザにより、遠隔検索
/編集装置1からジャンル辞書14にアクセスされ、ユ
ーザによりジャンル辞書14に対してキーワードが入力
される。このキーワードに応じてジャンル辞書14が検
索され、検索結果が遠隔検索/編集装置1に送信され
る。遠隔検索/編集装置1では、この検索結果に基づき
ユーザが必要としている映像素材11に関するジャンル
の絞り込みが行われる。
The search of the video material registered in the large-capacity video archive 2 by the remote search / editing apparatus 1 is performed as follows, for example. First, the user accesses the genre dictionary 14 from the remote search / editing device 1, and the user inputs a keyword into the genre dictionary 14. The genre dictionary 14 is searched according to this keyword, and the search result is transmitted to the remote search / editing device 1. The remote search / editing apparatus 1 narrows down the genre of the video material 11 required by the user based on the search result.

【0158】例えば、遠隔検索/編集装置1からジャン
ル辞書14にアクセスすると、アクセスされたジャンル
辞書14の大分類の項目が一覧で遠隔検索/編集装置1
の画面に表示される。ユーザにより、表示された大分類
の一覧から一つのジャンルが選択されると、選択情報が
遠隔検索/編集装置1からジャンル辞書14に対して送
信される。送信された選択情報に基づき、選択された大
分類のジャンルの下に設けられた中分類の各項目が遠隔
検索/編集装置1に送信され、遠隔検索/編集装置1の
画面に一覧表示される。以下同様にして、中分類の一覧
から一つジャンルが選択され、選択された中分類のジャ
ンルの下に設けられた小分類の項目が表示され、小分類
の項目から所望のジャンルが選択される。
For example, when the genre dictionary 14 is accessed from the remote search / editing device 1, the items of the major categories of the accessed genre dictionary 14 are listed in the remote search / editing device 1.
Is displayed on the screen. When the user selects one genre from the displayed list of large categories, the selection information is transmitted from the remote search / editing device 1 to the genre dictionary 14. Based on the transmitted selection information, each item of the middle category provided under the selected major category genre is transmitted to the remote search / editing apparatus 1 and displayed as a list on the screen of the remote search / editing apparatus 1. . In the same manner, one genre is selected from the list of middle categories, the items of the minor category provided below the selected category of the minor category are displayed, and the desired genre is selected from the items of the minor category. .

【0159】こうして絞り込まれたジャンルに基づきデ
ータベース15が検索され、「ジャンル分類」として対
応するジャンルの記述がなされたMPEG−7ファイル
が検索結果として出力される。この検索結果のMPEG
−7ファイルが遠隔検索/編集端末1に送信される。遠
隔検索/編集端末1では、送られてきたMPEG−7フ
ァイルに埋め込まれた代表静止画および代表音声が抜き
出される。
The database 15 is searched based on the genre narrowed down in this way, and the MPEG-7 file in which the corresponding genre is described as "genre classification" is output as the search result. MPEG of this search result
-7 file is transmitted to the remote retrieval / editing terminal 1. The remote search / edit terminal 1 extracts the representative still image and the representative audio embedded in the sent MPEG-7 file.

【0160】MPEG−7ファイルから抜き出された代
表静止画は、遠隔検索/編集端末1において表示され
る。代表音声を再生することもできる。遠隔検索/編集
端末1における編集作業は、この代表画像や代表音声を
用いて判断され、必要な部分素材が幾つか組み合わされ
て映像が制作される。この編集作業の結果として、ED
Lデータが生成される。
The representative still image extracted from the MPEG-7 file is displayed on the remote retrieval / editing terminal 1. The representative voice can also be reproduced. The editing work in the remote search / editing terminal 1 is judged using the representative image and the representative sound, and a video is produced by combining some necessary partial materials. As a result of this editing work, ED
L data is generated.

【0161】すなわち、編集に用いた部分素材に対応す
るMPEG−7ファイルに記述されたオリジナルタイム
コード(部分素材のオリジナル開始タイムコード)およ
び部分素材の長さに基づき、部分素材のオリジナル開始
タイムコードおよびオリジナル終了タイムコードが得ら
れる。これらオチ時なる開始および終了タイムコード
と、編集に用いた部分素材に対応するMPEG−7ファ
イルに記述された素材番号とに基づき、編集結果のED
Lデータが生成される。
That is, based on the original time code (original start time code of the partial material) and the length of the partial material described in the MPEG-7 file corresponding to the partial material used for editing, the original start time code of the partial material. And the original end time code is obtained. Based on these start and end time codes and the material number described in the MPEG-7 file corresponding to the partial material used for editing, the ED of the edited result is obtained.
L data is generated.

【0162】図21は、代表静止画および代表音声に基
づき映像素材の選択および編集を行うための画面表示の
例を示す。図21Aは、代表静止画および代表音声を用
いて所望の映像素材11を選択する、映像素材選択画面
150の例を示す。タイトルバー151には、例えば検
索により絞り込まれたジャンルがその過程と共に表示さ
れる。表示部152、152、・・・に、検索結果のM
PEG−7ファイルから抜き出された代表静止画が表示
される。この例では、検索により絞り込まれた小分類に
おいて、複数の映像素材11が検索結果として得られ、
それら複数の映像素材11の代表静止画が152、15
2、・・・にそれぞれ表示される。
FIG. 21 shows an example of a screen display for selecting and editing video material based on the representative still image and the representative audio. FIG. 21A shows an example of a video material selection screen 150 for selecting a desired video material 11 using the representative still image and the representative audio. In the title bar 151, for example, the genres narrowed down by the search are displayed along with the process. M of the search result is displayed on the display units 152, 152, ...
The representative still image extracted from the PEG-7 file is displayed. In this example, a plurality of video materials 11 are obtained as search results in the small classification narrowed down by the search,
The representative still images of the plurality of video materials 11 are 152, 15
2, ... are displayed respectively.

【0163】表示部152の下部に設けられるボタン1
53および154は、それぞれ音声再生およびテキスト
表示を指示する。例えば、マウスなどのポインティング
デバイスによりボタン153を所定に操作することで、
遠隔検索/編集端末1の音声再生手段により、直上の表
示部152に表示された代表静止画に対応した映像素材
11の代表音声が再生される。
Button 1 provided at the bottom of display unit 152
Reference numerals 53 and 154 indicate voice reproduction and text display, respectively. For example, by operating the button 153 in a predetermined manner with a pointing device such as a mouse,
The audio reproduction means of the remote search / edit terminal 1 reproduces the representative audio of the video material 11 corresponding to the representative still image displayed on the display unit 152 immediately above.

【0164】また、ボタン154を所定に操作すること
で、直上の表示部152に表示された代表静止画に対応
した映像素材11の属性情報がテキストベースで表示さ
れる。例えば、ボタン154を操作することにより、当
該映像素材11の撮影者、撮影年月日、撮影場所、コン
テンツID、オリジナルタイムコード、長さなどの情報
が表示される。このテキストベースの表示は、図示され
ない別の表示画面上に表示するようにできる。
By operating the button 154 in a predetermined manner, the attribute information of the video material 11 corresponding to the representative still image displayed on the display section 152 immediately above is displayed on a text basis. For example, by operating the button 154, information such as the photographer of the video material 11, the shooting date, the shooting location, the content ID, the original time code, and the length is displayed. This text-based display can be displayed on another display screen (not shown).

【0165】このように、映像素材11について代表静
止画および代表音声を表示および再生できるようにされ
ているため、ユーザは、必要な素材を容易に選択するこ
とができる。また、映像素材11において、単なるシー
ンチェンジ点などの静止画ではなく、映像素材11の提
供者などによるお勧め場面が代表静止画として用いられ
ているため、ユーザは、その映像素材11の特徴を容易
に把握することができる。
As described above, since the representative still image and the representative audio of the video material 11 can be displayed and reproduced, the user can easily select the necessary material. In addition, since the video material 11 is not a still image such as a scene change point, but a scene recommended by the provider of the video material 11 is used as a representative still image, the user can identify the characteristics of the video material 11. It can be easily grasped.

【0166】さらに、映像素材11から抽出された動画
ではなく、静止画を用いて映像素材11を選択するよう
にしているため、この検索結果をインターネット4を介
して伝送する際のトラフィックを節約することができ
る。
Furthermore, since the video material 11 is selected using a still image instead of the moving picture extracted from the video material 11, the traffic when transmitting the search result via the Internet 4 is saved. be able to.

【0167】すなわち、表示部152に表示させるだけ
の代表静止画は、例えば320画素×200画素程度の
サイズであって、これをJPEGなどの圧縮符号化方式
を用いて圧縮すれば、そのファイルサイズは、高々10
数kB(キロバイト)程度となる。同様に、代表音声に
ついても、数秒間の音声データを、ビットレートを落と
し、さらに、MP3などの圧縮符号化方式で圧縮すれ
ば、そのファイルサイズは、高々10数kBとすること
ができる。また、代表静止画や代表音声が埋め込まれて
いない、MPEG−7ファイルそのもののサイズを10
kB程度としても、これらの合計サイズは、30kB〜
50kB程度となる。
That is, the representative still image to be displayed on the display unit 152 has a size of, for example, about 320 pixels × 200 pixels, and if this is compressed using a compression encoding method such as JPEG, its file size is reduced. Is at most 10
It is about several kB (kilobytes). Similarly, with respect to the representative voice, if the voice data for several seconds is reduced in bit rate and further compressed by a compression encoding method such as MP3, the file size can be at most 10 and several kB. In addition, the size of the MPEG-7 file itself, in which the representative still image and the representative audio are not embedded, is set to 10
Even if it is about kB, the total size of these is 30 kB-
It will be about 50 kB.

【0168】したがって、候補の映像素材を例えば10
0件、収集しても、全体のデータ量は、数MB(メガバ
イト)程度である。伝送路の高速化が進んだ現在におい
ては、100件程度の映像素材の収集は、十分実用的で
あるといえる。
Therefore, the candidate video material is, for example, 10
Even if 0 items are collected, the total data amount is about several MB (megabytes). It can be said that the collection of about 100 video materials is sufficiently practical at the present when the speed of the transmission line has been increased.

【0169】図21Aの映像素材選択画面150の表示
部152、152、・・・に代表静止画が表示された映
像素材11、11、・・・を用いた編集は、例えば次の
ようにしてなされる。図21Bは、この編集を行う一例
の編集画面160を示す。ここで、コンピュータ装置、
特にパーソナルコンピュータのOS(Operating System)
として流通しているものの多くは、GUIの機能の一つ
として、ファイルやオブジェクトの移動などの操作を直
感的に行うようにされた、ドラッグ&ドロップと称され
る機能をサポートしている。この例では、ドラッグ&ド
ロップを用いて、編集作業を直感的に行うことが可能な
ようにされている。
.. of the video material selection screen 150 of FIG. 21A in which representative still images are displayed on the display portions 152, 152 ,. Done. FIG. 21B shows an example of the editing screen 160 for performing this editing. Where computer equipment,
OS (Operating System) of personal computer
Most of those distributed as a GUI support, as one of the GUI functions, a function called drag and drop, which allows intuitive operations such as moving files and objects. In this example, the editing work can be intuitively performed by using drag and drop.

【0170】このドラッグ&ドロップは、コンピュータ
装置の画面上で、ポインティングデバイスの動作に対応
した位置を示すカーソルが所望のオブジェクト(アイコ
ンなど)上にあるときに、ポインティングデバイスに対
して所定の操作を行う当該オブジェクトを選択状態に
し、選択状態を保持したままポインティングデバイスを
操作し、保持された当該オブジェクトを画面上の所望の
位置に移動させる(ドラッグ)。ここで、ポインティン
グデバイスによる選択状態を解除することで、当該オブ
ジェクトを当該位置に置く(ドロップ)。これらの操作
をまとめて、ドラッグ&ドロップと称する。ドロップさ
れた位置がプログラムにより所定の指定がなされた位置
であれば、当該位置にドロップされたオブジェクトに応
じた処理が行われるようにできる。
This drag and drop is a predetermined operation for the pointing device when the cursor indicating the position corresponding to the operation of the pointing device is on the desired object (icon or the like) on the screen of the computer device. The object to be performed is brought into a selected state, and the pointing device is operated while keeping the selected state to move (drag) the held object to a desired position on the screen. Here, by releasing the selection state by the pointing device, the object is placed (dropped) at the position. These operations are collectively referred to as drag and drop. If the dropped position is a position designated by the program in a predetermined manner, it is possible to perform processing according to the object dropped at the position.

【0171】遠隔検索/編集端末1上で編集画面160
を映像素材選択画面150と並列的あるいは同時に起動
させる。編集画面160および映像素材選択画面150
を同一のアプリケーションで実現させることも容易であ
る。映像素材編集画面150の表示部152、152、
・・・に表示された代表静止画や対応する代表音声、テ
キスト情報などに基づき必要な映像素材11を選択し、
選択された映像素材11に対応した代表静止画(表示部
152)を上述のドラッグ&ドロップにより編集画面1
60のトラック画面161へ移動させる。その結果、ト
ラック画面161上に、移動された代表静止画が表示1
62のように表示される。この処理を繰り返すと、トラ
ック画面161に対して、編集結果の時間軸すなわち再
生順に対応して代表静止画162、162、・・・が並
べられて表示される。なお、代表静止画162、16
2、・・・は、必要に応じて、例えば上述したドラッグ
&ドロップの手法を用いて並べ替えることができる。
Edit screen 160 on remote search / edit terminal 1
In parallel with or simultaneously with the video material selection screen 150. Editing screen 160 and video material selection screen 150
It is easy to realize the same application. The display parts 152, 152 of the video material editing screen 150,
Select the required video material 11 based on the representative still image displayed, the corresponding representative voice, text information, etc.,
The representative still image (display unit 152) corresponding to the selected video material 11 is edited by the drag & drop operation described above.
It moves to the track screen 161 of 60. As a result, the moved representative still image is displayed on the track screen 161.
It is displayed as 62. When this process is repeated, the representative still images 162, 162, ... Are displayed side by side on the track screen 161 in correspondence with the time axis of the edited result, that is, the reproduction order. The representative still images 162, 16
2, ... Can be rearranged as necessary using, for example, the above-described drag-and-drop method.

【0172】なお、編集作業は、上述のドラッグ&ドロ
ップに限らず、例えばキーボードから必要な情報を入力
することで行うようにしてもよい。
The editing work is not limited to the above drag & drop, and may be performed by inputting necessary information from the keyboard, for example.

【0173】必要な映像素材が揃い、再生順が決まった
ら、例えば決定ボタン164を押すことで編集の決定が
指示され、トラック画面161に表示された代表静止画
162、162、・・・に対応する映像素材11の属性
情報に基づき、編集結果を示すEDL(Edit Decision L
ist)データが生成される。このEDLデータは、図示さ
れない映像編集装置3に送信される。映像編集装置3で
は、このEDLデータに基づき、大容量映像アーカイブ
2から映像素材11を取り出し、取り出した映像素材1
1を用いて編集が行われる。この編集は、EDLデータ
に基づき自動的に行うことが可能である。
When the necessary video materials are prepared and the reproduction order is decided, the decision of editing is instructed by pressing the decision button 164, for example, and the representative still images 162, 162, ... Displayed on the track screen 161 are dealt with. Based on the attribute information of the video material 11 to be edited, EDL (Edit Decision L
ist) data is generated. This EDL data is transmitted to the video editing device 3 (not shown). In the video editing device 3, the video material 11 is extracted from the large-capacity video archive 2 based on this EDL data, and the extracted video material 1
Editing is performed using 1. This editing can be automatically performed based on the EDL data.

【0174】次に、上述したMPEG−7ファイルの記
述について、図22〜図27を用いて、より具体的に説
明する。これら図22〜図27は、ある一つの映像素材
11に関する同一のMPEG−7ファイルからの抜粋で
ある。
Next, the description of the above-described MPEG-7 file will be described more specifically with reference to FIGS. 22 to 27 are excerpts from the same MPEG-7 file regarding a certain video material 11.

【0175】図22は、映像素材11に対してこのよう
な記述がなされる、MPEG−7ファイルの冒頭部分の
一例の抜粋を示す。この冒頭部分により、このMPEG
−7ファイルそのものの情報が示される。最初のタグに
より、このファイルがXMLで記述されている旨と、こ
のファイルの文字コードのエンコード方式がシフトJI
S(Japan Industrial Standard)方式であること旨とが
示される。また、このMPEG−7ファイルの作成など
に用いられたソフトウェアの情報などが示される。
FIG. 22 shows an excerpt of an example of the beginning part of an MPEG-7 file in which such a description is made for the video material 11. This beginning part makes this MPEG
-7 The information of the file itself is shown. The first tag indicates that this file is described in XML, and the encoding method of the character code of this file is Shift JI.
It is indicated that the S (Japan Industrial Standard) method is used. In addition, information of software used for creating this MPEG-7 file and the like are shown.

【0176】図23は、このMPEG−7ファイルによ
り記述される映像素材11そのものの情報が記述される
部分の一例の抜粋を示す。この図23に示される部分に
おいて、映像素材11を特定する情報や、映像素材11
が存在する場所の情報が記述される。この図23の例で
は、映像素材11を特定するために、コンテンツIDが
用いられている。タグ「<InstanceIdentifier ....>」
およびタグ「</InstanceIdentifier>」で挟まれた部分
に、当該MPEG−7ファイルにより示される映像素材
11のコンテンツIDが例えば「0027/20010
805」のように記述される。なお、ここで記述される
コンテンツIDは一例であって、正式なものとは異な
る。
FIG. 23 shows an excerpt of an example of a portion in which information of the video material 11 itself described by the MPEG-7 file is described. In the portion shown in FIG. 23, information for identifying the video material 11 and the video material 11
The information of the place where is present is described. In the example of FIG. 23, the content ID is used to identify the video material 11. Tag "<InstanceIdentifier ....>"
The content ID of the video material 11 indicated by the MPEG-7 file is, for example, “0027/20010” in the part sandwiched between the tag and the tag “</ InstanceIdentifier>”.
805 ”. The content ID described here is an example, and is different from the formal one.

【0177】タグ「<MediaLocator ...>」以下に、この
MPEG−7ファイルで示される映像素材11の場所を
特定する情報が記述される。タグ「<MediaUti>」および
タグ「</MediaUri>」で挟まれた部分に、当該映像素材
11のデータベース上の場所情報がURI(Universal R
esource Identifier)で記述される。場所情報がURI
で記述されているため、当該映像素材11がインターネ
ット4上の何処にあっても、その場所を示すことができ
る。
Below the tag "<MediaLocator ...>", information for specifying the location of the video material 11 shown in this MPEG-7 file is described. The location information in the database of the video material 11 is stored in the URI (Universal R) in the part between the tag "<MediaUti>" and the tag "</ MediaUri>".
esource Identifier). Location information is URI
Since it is described in, the location of the video material 11 can be shown anywhere on the Internet 4.

【0178】また、タグ「<MediaRelTimePoint ...>」
および「タグ</MediaRelTimePoint>」により当該映像素
材11の開始ポイントが記述される。これは、例えば上
述のURIで示される動画ファイル中の、当該映像素材
11の開始位置である。この例では、開始ポイントが
「P0DT0H0M0S0N30F」であるとされる。
このうち、「P」がポイントであることを示し、「D
T」が日、「H」が時刻、「M」が分、「S」が秒、
「N」がフレームをそれぞれ示す。最後の「30F」
は、1秒間のフレーム表示が30フレームであることを
示す。この例では、上述のURIで示される動画ファイ
ルの先頭が当該映像素材11の開始フレームであること
が示される。
The tag "<MediaRelTimePoint ...>" is also used.
And the start point of the video material 11 is described by "tag </ MediaRelTimePoint>". This is, for example, the start position of the video material 11 in the moving image file indicated by the above-mentioned URI. In this example, the start point is “P0DT0H0M0S0N30F”.
Of these, "P" is the point, and "D"
"T" is day, "H" is time, "M" is minute, "S" is second,
“N” indicates each frame. The last "30F"
Indicates that the frame display for one second is 30 frames. In this example, it is shown that the beginning of the moving image file indicated by the above-mentioned URI is the start frame of the video material 11.

【0179】また、タグ「<MediaIncrDuration ...>」
およびタグ「</MediaIncrDuration ...>」により、当該
映像素材11の長さ(Duration)がフレーム単
位で記述される。この例では、当該映像素材11が39
03フレーム分の長さ(130秒+3フレーム)を有す
ることが示される。なお、長さの単位情報は、タグ「<M
ediaIncrDuration ...>」中の記述「timeUnit=" ...
"」の部分で指定される。
Also, the tag "<MediaIncrDuration ...>"
And the tag "</ MediaIncrDuration ...>" describes the length (Duration) of the video material 11 in frame units. In this example, the video material 11 is 39
It is shown to have a length of 03 frames (130 seconds + 3 frames). Note that the unit information of length is the tag "<M
ediaIncrDuration ...>"description" timeUnit = "...
Specified by "".

【0180】図24は、当該映像素材11に付されたタ
イトルが記述される部分の例を示す。タグ「<Name ...
>」およびタグ「</Name>」で挟まれた部分に、当該映像
素材11のタイトル「Hanagasa 2001」が
記述される。
FIG. 24 shows an example of a portion in which the title attached to the video material 11 is described. The tag `` <Name ...
A title “Hanagasa 2001” of the video material 11 is described in a portion sandwiched between “>” and a tag “</ Name>”.

【0181】図25は、当該映像素材11のオリジナル
タイムコードと上述の図23に示される開始ポイントと
の差分が記述される部分の例を示す。コメントタグ「<!
-- OrigTC ... -->」中に、「+00T0H30M20
S10N30F」として、差分すなわちオリジナルタイ
ムコードに対する映像素材11の開始ポイントのオフセ
ットが記述される。このように、オリジナルタイムコー
ドとの差分を記述しておくことで、当該映像素材11の
オリジナルタイムコードを再生することができる。
FIG. 25 shows an example of a portion in which the difference between the original time code of the video material 11 and the start point shown in FIG. 23 is described. Comment tag `` <!
--OrigTC ...->"," + 00T0H30M20
"S10N30F" describes the difference, that is, the offset of the start point of the video material 11 with respect to the original time code. By thus describing the difference from the original time code, the original time code of the video material 11 can be reproduced.

【0182】図26は、当該映像素材11が分割された
部分素材に関する属性情報が記述される部分の例を示
す。この例では、タグ「<FreeTextAnnotation ...>」お
よびタグ「</FreeTextAnnotation>」により挟まれた部
分に、当該部分素材のタイトルが記述される。タグ「<M
ediaRelTimePoint ...>」およびタグ「</MediaRelTimeP
oint>」で挟まれた部分に、当該部分素材の当該映像素
材11内における開始位置「P0DT0H0M0S0N
30F」が記述される。これにより、当該部分素材が当
該映像素材11の先頭から開始されることが示される。
また、タグ「<MediaIncrDuration ...>」およびタグ「<
MediaIncrDuration>」で挟まれた部分に、当該部分素材
の長さが記述される。
FIG. 26 shows an example of a portion in which the attribute information about the partial material into which the video material 11 is divided is described. In this example, the title of the partial material is described in the portion sandwiched between the tag "<FreeTextAnnotation ...>" and the tag "</ FreeTextAnnotation>". Tag "<M
ediaRelTimePoint ...>"and the tag"</ MediaRelTimeP
The start position “P0DT0H0M0S0N in the video material 11 of the relevant partial material is placed in the portion sandwiched by“ oint> ”.
30F "is described. This indicates that the partial material starts from the beginning of the video material 11.
Also, the tag "<MediaIncrDuration ...>" and the tag "<
The length of the partial material is described in the part sandwiched between “MediaIncrDuration>”.

【0183】この図26に示される記述によれば、当該
部分素材のタイトルが「Yamagata Holid
ay Tourists」であって、0日0時0分0秒
0フレーム目から開始され、この部分素材の長さが24
98フレーム、すなわち、1分23秒8フレーム分ある
ことが示される。
According to the description shown in FIG. 26, the title of the partial material is "Yamagata Solid".
“Ay Tourists”, starting from the 0th day, 0th hour, 0th minute, 0th frame, and the length of this partial material is 24
It is shown that there are 98 frames, that is, 1 minute 23 seconds and 8 frames.

【0184】図27は、映像素材11における他の部分
素材に関する属性情報の記述の例を示す。この図27に
示される記述は、上述の図26に示した記述と同一のフ
ォーマットであるため、詳細な説明を省略する。この図
27に示される記述によれば、当該部分素材のタイトル
が「Sembatsu Team」であって、開始位置
が0日0時1分23分8フレーム目で、長さが1405
フレーム、すなわち46秒あることが示される。また、
この図27に示される記述の部分素材が上述の図26に
示した部分素材の直後から開始されることが分かる。
FIG. 27 shows an example of a description of attribute information regarding other partial materials in the video material 11. Since the description shown in FIG. 27 has the same format as the description shown in FIG. 26, detailed description thereof will be omitted. According to the description shown in FIG. 27, the title of the partial material is “Sembatsu Team”, the start position is 0: 01: 23: 8 frame, and the length is 1405.
It is shown that there are frames, ie 46 seconds. Also,
It can be seen that the partial material of the description shown in FIG. 27 starts immediately after the partial material shown in FIG.

【0185】なお、一つのMPEG−7ファイルの中
に、映像素材11から分割された複数の部分素材の属性
情報を記述することができる。例えば、上述の図26お
よび図27に示される部分素材の記述は、同一のMPE
G−7ファイル内に記述される。
The attribute information of a plurality of partial materials divided from the video material 11 can be described in one MPEG-7 file. For example, the description of the partial material shown in FIG. 26 and FIG.
It is described in the G-7 file.

【0186】上述したように、この実施の一形態では、
MPEG−7ファイルに対して代表静止画および代表音
声を埋め込むようにしている。図28は、代表静止画お
よび代表音声が埋め込まれたMPEG−7ファイルの一
例の記述を示す。代表静止画および代表音声のMPEG
−7ファイルへの埋め込みは、例えば次のようにしてな
される。
As described above, in this embodiment,
The representative still image and the representative audio are embedded in the MPEG-7 file. FIG. 28 shows a description of an example of an MPEG-7 file in which a representative still image and a representative audio are embedded. Representative still image and representative audio MPEG
The embedding in the -7 file is performed as follows, for example.

【0187】代表静止画は、映像素材11から抽出さ
れ、例えばJPEG(Joint Photographic Experts Grou
p)方式で圧縮符号化されてJPEGファイルとされて保
持される。JPEGファイルそのものは、バイナリデー
タで表現されているため、テキストフォーマットである
上述のTeMで表現されるMPEG−7ファイルにその
ままでは埋め込むことができない。そこで、バイナリデ
ータのJPEGファイルを、ASCIIコードによるテ
キストデータにエンコードする。
The representative still image is extracted from the image material 11 and is, for example, JPEG (Joint Photographic Experts Grou
It is compression-encoded by the p) method and stored as a JPEG file. Since the JPEG file itself is represented by binary data, it cannot be embedded as it is in the MPEG-7 file represented by TeM, which is a text format. Therefore, the JPEG file of binary data is encoded into text data in ASCII code.

【0188】このエンコードには、例えばBase64
と称されるエンコード方式を用いることができる。この
Base64では、バイナリデータを6ビットごとに分
割し、分割されたそれぞれに対して先頭に2ビットのデ
ータ「00」を付加する。こうして生成された8ビット
のコードをASCIIコードに対応付けることで、バイ
ナリデータをASCIIコードにエンコードする。この
Base64によれば、全てのバイナリデータをASC
IIコードからなるテキストデータに変換することがで
きる。
For this encoding, for example, Base64
It is possible to use an encoding method called as. In this Base64, the binary data is divided into 6 bits, and 2-bit data "00" is added to the beginning of each divided data. By associating the 8-bit code thus generated with the ASCII code, binary data is encoded into the ASCII code. According to this Base64, all binary data are ASC
It can be converted into text data composed of II code.

【0189】このようにしてASCIIコードにエンコ
ードされたJPEGファイルは、すなわちテキストデー
タであるので、MPEG−7ファイルに埋め込むことが
できる。また、埋め込まれたデータは、テキストデータ
を構成するASCIIコードのそれぞれについて、8ビ
ットからなるASCIIコードの先頭2ビットを削除す
ることで、元のバイナリデータにデコードされる。
Since the JPEG file encoded in the ASCII code in this way is the text data, it can be embedded in the MPEG-7 file. Further, the embedded data is decoded into the original binary data by deleting the leading 2 bits of the ASCII code of 8 bits for each of the ASCII codes forming the text data.

【0190】バイナリデータで表現される代表音声も、
同様にしてASCIIコードにエンコードすることで、
MPEG−7ファイルに埋め込むことができる。デコー
ド方法も、上述と同様である。
The representative voice represented by binary data is also
By similarly encoding to ASCII code,
It can be embedded in an MPEG-7 file. The decoding method is also the same as described above.

【0191】図28の例では、タグ「<Name ...>」およ
びタグ「<Name>」で挟まれた部分に、以下にJPEGフ
ァイルが埋め込まれることが記述され、タグ「</Classi
ficationScheme>」の次に、テキストデータにエンコー
ドされた代表静止画200が埋め込まれる。代表音声に
ついても同様に、タグ「<Name ...>」およびタグ「</Na
me>」で挟まれた部分に、以下に音声ファイル(この場
合は、MP3(Moving Pictures Experts Group 1 Audio
Layer 3)形式に圧縮符号化された音声ファイル)が埋
め込まれることが記述され、タグ「</ClassificationSc
heme>」の次に、テキストデータにエンコードされた代
表音声201が埋め込まれる。
In the example of FIG. 28, it is described that a JPEG file is embedded below in the portion sandwiched by the tag "<Name ...>" and the tag "<Name>", and the tag "</ Classi
ficationScheme> ”, the representative still image 200 encoded in the text data is embedded. Similarly for the representative voice, the tags "<Name ...>" and "</ Na
The audio file (MP3 (Moving Pictures Experts Group 1 Audio in this case)
It is described that a sound file compressed in Layer 3) format is embedded, and the tag "</ ClassificationSc
Next to “heme>”, the representative voice 201 encoded in the text data is embedded.

【0192】このように、この発明の実施の一形態にお
いては、元々バイナリデータで表現される代表静止画と
代表音声とがテキストデータに変換されて、TeM形式
のMPEG−7ファイルに記述される。そのため、この
ファイルは、全体としてテキストデータで記述されるこ
とになり、MPEG−7により規定される上述したBi
Mによりバイナリ表現に変換することができるようにな
る。
As described above, in the embodiment of the present invention, the representative still image and the representative voice originally represented by binary data are converted into text data and described in the TeM format MPEG-7 file. . Therefore, this file is described as text data as a whole, and the above-mentioned Bi defined by MPEG-7 is specified.
M makes it possible to convert to a binary representation.

【0193】図29は、遠隔検索/編集端末1による編
集結果であるEDLデータの一例を模式的に示す。ED
Lデータは、上述したMPEG−7ファイルの記述か
ら、主にタイムコードに関する情報を抜き出して演算し
たものである。このEDLデータを編集装置3にかける
ことで、編集を実行できる。
FIG. 29 schematically shows an example of EDL data which is the editing result by the remote search / editing terminal 1. ED
The L data is obtained by extracting information mainly relating to the time code from the description of the MPEG-7 file described above and calculating it. Editing can be executed by applying the EDL data to the editing device 3.

【0194】先頭行には、編集の結果生成される編集映
像に付されるタイトルが記述される。タイトルは、例え
ば、上述した図21Bの編集画面160による編集を行
うタイミングで入力することができる。カットは、この
図29の例では、「0001」、「0002」、・・・
のように番号が付され、タイトルで示される編集映像が
4つのカットから成ることが示される。カットは、例え
ば、上述した、映像素材11が分割された部分素材に対
応する。
In the first line, a title attached to the edited video generated as a result of editing is described. The title can be input, for example, at the timing of editing with the editing screen 160 of FIG. 21B described above. In the example of FIG. 29, the cuts are “0001”, “0002”, ...
It is indicated that the edited video indicated by the title is composed of four cuts. The cut corresponds to, for example, the partial material into which the video material 11 is divided as described above.

【0195】データの項目を示す行以下に、編集に用い
るカット(部分素材)それぞれの情報が記述される。部
分素材の情報は、それぞれの部分素材の元である映像素
材11のMPEG−7ファイルの内容に基づき記述され
る。例えば、番号「0001」のカットは、図26示さ
れるMPEG−7ファイルの記述に対応するもので、当
該部分素材の元である映像素材11を示すコンテンツI
D(「0027/20010805」)が記述され、当
該部分素材に対して付されたタイトル(「Yamaga
ta Holiday Tourist」)が記述され
る。
Below the line indicating the data item, information of each cut (partial material) used for editing is described. The partial material information is described based on the contents of the MPEG-7 file of the video material 11 that is the source of each partial material. For example, the cut with the number “0001” corresponds to the description of the MPEG-7 file shown in FIG. 26, and the content I indicating the video material 11 which is the source of the partial material.
D (“0027/20010805”) is described, and a title (“Yamaga”) attached to the partial material is described.
ta Holistic Tour ”) is described.

【0196】項目「P−VTR IN」および「P−V
TR OUT」により、当該部分素材の映像素材11上
の位置が記述される。この位置は、図26に示される開
始位置の記述に、図25に示される映像素材11全体の
オフセットが加味されたものである。項目「P−VTR
IN」が開始点、項目「P−VTR OUT」が終了
点を示す。この例では、映像素材11における当該部分
素材の開始位置「0日0時0分0秒0フレーム」にオフ
セット「0日0時30分20秒10フレーム」が加味さ
れ、開始点が「0日0時30分20秒10フレーム」と
される。終了点は、当該映像素材11のMPEG−7フ
ァイルに記述された当該部分素材の「長さ(Durat
ion)」に基づき求めることができる。
Items "P-VTR IN" and "P-V"
The position of the partial material on the video material 11 is described by “TR OUT”. This position is obtained by adding the offset of the entire video material 11 shown in FIG. 25 to the description of the start position shown in FIG. Item "P-VTR
“IN” indicates the starting point, and the item “P-VTR OUT” indicates the ending point. In this example, the start point “0 day 0: 30: 20: 10 frame” is added to the start position “0 day 0: 00: 00: 0 frame” of the partial material in the video material 11 so that the start point is “0 day”. 0: 30: 20: 10 frames ”. The end point is the “length (Durat) of the partial material described in the MPEG-7 file of the relevant video material 11.
Ion) ”.

【0197】項目「R−VTR IN」および「R−V
TR OUT」により、当該部分素材が編集先の記録媒
体(例えばビデオテープ)に記録されるときの位置が記
述される。項目「R−VTR IN」が開始点、項目
「R−VTR OUT」が終了点を示す。この例では、
開始点が「0日0時0分0秒0フレーム」とされている
が、実際には、編集先の記録媒体における任意の点を開
始点として指定することができる。
Items "R-VTR IN" and "R-V
“TR OUT” describes the position when the partial material is recorded on the recording medium (for example, video tape) of the editing destination. The item "R-VTR IN" indicates the starting point, and the item "R-VTR OUT" indicates the ending point. In this example,
Although the starting point is “0 day, 0 hour, 0 minute, 0 second, 0 frame”, in practice, an arbitrary point on the recording medium of the editing destination can be designated as the starting point.

【0198】このようにして、編集に用いられる映像素
材(部分素材)を特定する情報と、映像素材中の位置情
報とがMPEG−7ファイルから抽出されて記述される
と共に、編集先の位置情報が記述され、EDLデータが
生成される。映像素材(部分素材)の情報は、図21B
で上述した編集画面160において、複数の映像素材
(部分素材)が選択されていれば、選択された映像素材
(部分素材)の情報が全て記述される。この図28の例
では、図21Bの編集画面160において例えば4つ映
像素材(部分素材)が選択され、選択された素材が番号
「0001」、「0002」、「0003」および「0
004」でそれぞれ示される情報として、記述される。
記述の順番、すなわち、編集先の映像における再生順
は、上述したように、編集画面160のトラック画面1
61上の代表静止画162、162、・・・の順番に対
応する。
In this way, the information specifying the video material (partial material) used for editing and the position information in the video material are extracted from the MPEG-7 file and described, and the position information of the editing destination is also described. Is described and EDL data is generated. 21B for information on video material (partial material)
If a plurality of video materials (partial materials) are selected on the editing screen 160 described above, all information on the selected video materials (partial materials) is described. In the example of FIG. 28, for example, four video materials (partial materials) are selected on the editing screen 160 of FIG. 21B, and the selected materials are numbered “0001”, “0002”, “0003” and “0”.
004 ”, respectively.
As described above, the order of description, that is, the reproduction order in the video of the editing destination is the track screen 1 of the editing screen 160.
This corresponds to the order of the representative still images 162, 162, ...

【0199】生成されたEDLデータは、図示されない
ネットワーク4を介して編集装置3に送信される。編集
装置3では、このEDLデータに記述されたコンテンツ
IDに基づき、編集に必要な映像素材11が検索され
る。上述したように、コンテンツIDは、世界唯一とさ
れているので、EDLデータに記述されている映像素材
11がインターネット4上の何処にあっても、当該映像
素材11の場所を特定でき、当該映像素材11を編集装
置3に供給することができる。
The generated EDL data is transmitted to the editing device 3 via the network 4 (not shown). The editing device 3 searches for the video material 11 required for editing based on the content ID described in the EDL data. As described above, since the content ID is the only one in the world, no matter where the video material 11 described in the EDL data is on the Internet 4, the location of the video material 11 can be specified. The material 11 can be supplied to the editing device 3.

【0200】編集装置3では、必要な映像素材11が供
給されると、EDLデータに記述された開始および終了
位置情報や編集先での記録開始および終了位置情報など
に基づき、映像素材11を用いて編集作業が行われる。
編集作業は、EDLデータにより、自動的に実行するこ
とができる。編集された映像は、例えばビデオテープに
収録される。勿論、インターネット4を介して遠隔検索
/編集端末1に送信してもよい。
When the necessary video material 11 is supplied, the editing device 3 uses the video material 11 based on the start and end position information described in the EDL data and the recording start and end position information at the editing destination. Editing work is performed.
The editing work can be automatically executed by the EDL data. The edited image is recorded on, for example, a video tape. Of course, it may be transmitted to the remote search / edit terminal 1 via the Internet 4.

【0201】次に、コンテンツIDについて、概略的に
説明する。コンテンツIDは、コンテンツIDフォーラ
ム(MPEG−21)により提案されている、マルチメ
ディアコンテンツに対する世界唯一の識別コードの規格
である。映像素材に対してコンテンツIDを適用するこ
とで、映像素材の検索を容易に行うことができると共
に、著作権の保護を行うことができる。
Next, the content ID will be briefly described. Content ID is the world's only identification code standard for multimedia content proposed by the Content ID Forum (MPEG-21). By applying the content ID to the video material, the video material can be easily searched and the copyright can be protected.

【0202】図30は、コンテンツIDの全体構成を示
す。コンテンツIDの構成には、図30Aに示されるよ
うに、コンテンツを識別するためのIDセンタ管理番号
(ユニークコードと称される)、コンテンツ制作時に決
まるコンテンツ属性および権利属性、ならびに、流通時
に決まる権利運用属性、流通属性および分配属性が用意
される。さらに、コンテンツIDには、今後の属性拡張
を可能にする自由領域とコンテンツIDのバリデーショ
ン用のシステム管理情報が用意される。
FIG. 30 shows the overall structure of the content ID. As shown in FIG. 30A, the content ID has an ID center management number (called a unique code) for identifying the content, a content attribute and a right attribute determined when the content is created, and a right determined when the content is distributed. Operational attributes, distribution attributes, and distribution attributes are prepared. Further, in the content ID, a free area that enables future attribute expansion and system management information for validation of the content ID are prepared.

【0203】コンテンツIDは、図30Aに示されるよ
うに、3段階の管理方法を有する。第一段階(#1)
は、ユニークコードによる管理である。ユニークコード
は、データベースアクセスのキーとなる。このため、こ
のユニークコードは、電子透かしの対象とされる。図3
0Bは、ユニークコードの構成をより詳細に示す。最初
の16ビットは、予め決められた識別情報であり、バー
ジョン番号、地域コードおよびID管理センタ番号が割
り当てられる。ID管理センタ番号に続けて、このコン
テンツIDにより管理されるコンテンツの著作物を示す
著作物IDや、このコンテンツの発行に関するIDであ
る発行IDが格納される。この著作物ID/発行ID
は、任意長とされ、コンテンツID管理センタにより割
り付け可能なユニークなIDである。
The content ID has a three-step management method as shown in FIG. 30A. First stage (# 1)
Is managed by a unique code. The unique code is the key for database access. Therefore, this unique code is targeted for digital watermarking. Figure 3
0B shows the structure of the unique code in more detail. The first 16 bits are predetermined identification information, to which a version number, area code and ID management center number are assigned. Subsequent to the ID management center number, a copyrighted work ID that indicates the copyrighted work of the content managed by this content ID and an issue ID that is an ID related to the issue of this content are stored. This work ID / issue ID
Is a unique ID that has an arbitrary length and can be assigned by the content ID management center.

【0204】第二段階(#2)は、DCD(Distributed
Content Descriptor)による管理である。このDCD
は、ユニークコードに対してコンテンツIDを構成する
一部の属性が加えられたものである。電子透かしを行わ
ない場合には、このDCDがデータベースへのアクセス
のキーとなる。第三段階(#3)は、コンテンツIDの
全てによる管理である。すなわち、第三段階では、ユニ
ークコードに対してコンテンツIDを構成する全ての属
性が加えられたものでコンテンツIDが管理される。第
三段階では、コンテンツIDがコンテンツID管理セン
ターにある知的財産権管理データベースで集中管理され
る。このような管理方式を用いることにより、映像デー
タそのものに電子透かしとして重畳するデータを、最小
限(例えばユニークコードのみ)にすることができる。
The second stage (# 2) is DCD (Distributed
Management by Content Descriptor). This DCD
Is a part of the attributes that make up the content ID added to the unique code. When the digital watermark is not performed, this DCD is a key for accessing the database. The third stage (# 3) is management by all content IDs. That is, in the third stage, the content ID is managed by adding all the attributes forming the content ID to the unique code. In the third stage, the content ID is centrally managed by the intellectual property management database in the content ID management center. By using such a management system, the data to be superimposed on the video data itself as a digital watermark can be minimized (for example, only the unique code).

【0205】上述したコンテンツIDの全体構成におけ
る著作物ID/発行IDの領域に、当該コンテンツID
により管理される映像素材のオリジナルタイムコードを
埋め込むことが提案されている。ここで、埋め込まれる
オリジナルタイムコードは、例えば当該映像素材の開始
点のオリジナルタイムコードとする。
[0205] In the entire copyrighted content ID / issue ID area, the content ID
It has been proposed to embed the original time code of the video material managed by. Here, the embedded original time code is, for example, the original time code of the starting point of the video material.

【0206】図31は、コンテンツIDにオリジナルタ
イムコードを埋め込む際の、コンテンツID内のユニー
クコードの一例の構成を示す。この図31の例では、図
31Aに示されるように、ユニークコードに100ビッ
トが割り当てられる。100ビットのうち、予め決めら
れた識別情報が格納される先頭側の16ビットを除く、
コンテンツID管理センタにより割り付け可能な84ビ
ット(以下、センタ内番号と称する)を2つに分け、セ
ンタ内番号のうち前半の20ビットを素材IDまたは完
成品IDとし、後半の64ビットがオリジナルタイムコ
ードとされる。
FIG. 31 shows an example of the unique code in the content ID when the original time code is embedded in the content ID. In the example of FIG. 31, 100 bits are assigned to the unique code as shown in FIG. 31A. Of the 100 bits, excluding the 16 bits on the head side in which predetermined identification information is stored,
The 84 bits that can be assigned by the content ID management center (hereinafter referred to as center number) are divided into two, and the first 20 bits of the center number are the material ID or finished product ID, and the latter 64 bits are the original time. It is regarded as a code.

【0207】センタ内番号のうち前半の20ビットの先
頭のビットがこのコンテンツIDで管理される映像が素
材であるか、完成品であるかを示すフラグとされる。図
31Bおよび図31Cは、それぞれ素材および完成品に
対するユニークコードの一例の構成を示す。完成品に対
するユニークコードでは、図31Cに示されるように、
オリジナルタイムコードが埋め込まれない。
The first 20 bits of the first half of the in-center number serve as a flag indicating whether the video managed by this content ID is a material or a finished product. FIG. 31B and FIG. 31C show an example of a unique code structure for a material and a finished product, respectively. In the unique code for the finished product, as shown in FIG. 31C,
Original timecode is not embedded.

【0208】図32は、オリジナルタイムコードが埋め
込まれたコンテンツIDを用いた編集システムの一例の
構成を示す。なお、この図32において、上述した図1
および図19に対応する部分には同一の符号を付し、詳
細な説明を省略する。
FIG. 32 shows an example of the configuration of an editing system using the content ID in which the original time code is embedded. In addition, in FIG. 32, in FIG.
19 and the portions corresponding to those in FIG. 19 are denoted by the same reference numerals, and detailed description thereof will be omitted.

【0209】例えばビデオカメラ10で撮像されたオリ
ジナルの映像素材11が大容量映像アーカイブ2に供給
される。VTR21により、この映像素材11からオリ
ジナルタイムコードおよび映像素材11に関する属性情
報が抽出される。属性情報は、人手によって入力するこ
ともできる。オリジナルタイムコードは、コンテンツI
D生成部22に供給される。また、属性情報は、MPE
G−7エンコーダ23に供給される。
[0209] For example, the original image material 11 imaged by the video camera 10 is supplied to the large capacity image archive 2. The VTR 21 extracts the original time code and the attribute information about the video material 11 from the video material 11. The attribute information can also be manually input. The original time code is Content I
It is supplied to the D generation unit 22. The attribute information is MPE.
It is supplied to the G-7 encoder 23.

【0210】一方、VTR21により記録媒体から再生
された映像素材11は、アーカイブ12に供給され、登
録および蓄積される。このとき、アーカイブ2に登録さ
れた映像素材11に対して、データベース管理部24に
よりこのアーカイブ2においてユニークな素材IDが生
成される。素材IDは、データベース15に当該素材1
1の管理情報として登録されると共に、コンテンツID
生成部22に供給される。
On the other hand, the video material 11 reproduced from the recording medium by the VTR 21 is supplied to the archive 12 and registered and accumulated. At this time, the database management unit 24 generates a unique material ID in the archive 2 for the video material 11 registered in the archive 2. The material ID is the material 1 in the database 15.
It is registered as the management information of No. 1 and the content ID
It is supplied to the generation unit 22.

【0211】なお、映像素材11がアーカイブ12に登
録される際には、上述したように、映像素材11の分割
や、代表静止画および代表音声の指定などが行われる。
When the video material 11 is registered in the archive 12, the video material 11 is divided, the representative still image and the representative audio are designated, as described above.

【0212】コンテンツID生成部22では、供給され
たオリジナルタイムコードおよび素材IDを用いて、当
該映像素材11に世界的にユニークなコンテンツIDが
生成される。すなわち、上述した図31Bに示されるよ
うにして、ユニークコード内のセンタ内番号84ビット
のうち後半64ビットにオリジナルタイムコードが埋め
込まれ、前半20ビットの先頭1ビットを除く19ビッ
トを用いて素材IDが格納される。このコンテンツID
は、MPEG−7エンコーダ23に供給される。
[0212] The content ID generation unit 22 generates a globally unique content ID for the video material 11 using the supplied original time code and material ID. That is, as shown in FIG. 31B described above, the original time code is embedded in the latter 64 bits of the 84-in-center number in the unique code, and 19 bits excluding the first 1 bit of the first 20 bits are used as the material. The ID is stored. This content ID
Is supplied to the MPEG-7 encoder 23.

【0213】MPEG−7エンコーダ23では、VTR
21から供給された当該映像素材11の属性情報と、コ
ンテンツID生成部22から供給されたコンテンツID
とを用いて、当該映像素材11に対するMPEG−7フ
ァイルが生成される。生成されたMPEG−7ファイル
は、当該映像素材11と関連付けられて、データベース
15に登録される。
In the MPEG-7 encoder 23, the VTR
21 and the attribute information of the video material 11 supplied from 21 and the content ID supplied from the content ID generation unit 22.
And are used to generate an MPEG-7 file for the video material 11. The generated MPEG-7 file is associated with the video material 11 and registered in the database 15.

【0214】なお、当該映像素材11に対して、コンテ
ンツIDを電子透かし技術を用いて埋め込むことができ
る。例えば、特開平11−164129号に記載される
技術を用いて、映像信号をDCT(Discrete Cosine Tra
nsform)した際の低周波領域に、コンテンツIDを埋め
込むことができる。VTR21で再生された映像素材1
1の映像信号に対して、重畳化部25によりコンテンツ
IDが電子透かしにより埋め込まれる。コンテンツID
が埋め込まれた映像素材11がアーカイブ12に登録お
よび蓄積される。
A content ID can be embedded in the video material 11 by using a digital watermark technique. For example, a video signal is converted into a DCT (Discrete Cosine Tra) using the technique described in Japanese Patent Laid-Open No. 11-164129.
It is possible to embed the content ID in the low frequency region when the content has been formed. Video material 1 played on VTR21
The content ID is embedded in the 1 video signal by the digital watermark by the superimposing unit 25. Content ID
The video material 11 in which is embedded is registered and accumulated in the archive 12.

【0215】ユーザにより、遠隔検索/編集端末1から
データベース管理部24にキーワードが送信され、この
キーワードに基づき図示されないジャンル辞書14にお
ける絞り込み処理などが行われ、データベース15が検
索される。検索の結果得られた映像素材11の情報がM
PEG−7ファイルとして遠隔検索/編集端末1に返さ
れる。遠隔検索/編集端末1では、このMPEG−7フ
ァイルに埋め込まれた代表静止画や代表音声、属性情報
などに基づき、必要な映像素材や部分素材がユーザによ
り選択され、映像素材11の編集作業が行われる。編集
が決定されると、編集結果が記述された、上述したよう
なEDLデータが遠隔検索/編集端末1から編集装置3
に送信される。
The user transmits a keyword from the remote search / editing terminal 1 to the database management unit 24, and based on the keyword, the genre dictionary 14 (not shown) is narrowed down and the database 15 is searched. The information of the video material 11 obtained as a result of the search is M
It is returned to the remote search / edit terminal 1 as a PEG-7 file. In the remote search / editing terminal 1, the user selects the necessary video material or partial material based on the representative still image, representative audio, attribute information, etc. embedded in this MPEG-7 file, and the editing work of the video material 11 is performed. Done. When the editing is decided, the above-mentioned EDL data in which the editing result is described is written from the remote search / editing terminal 1 to the editing device 3
Sent to.

【0216】編集装置3では、送信されたEDLデータ
に記述されているコンテンツIDに基づき、編集に用い
られる映像素材11が検索される。例えば、図示しない
が、コンテンツIDに基づきコンテンツID管理センタ
に対して、当該コンテンツIDが示す映像素材11の場
所が問い合わされる。問い合わせの結果得られた場所情
報に基づき例えばアーカイブ12から当該映像素材11
が入手される。
The editing device 3 searches for the video material 11 used for editing, based on the content ID described in the transmitted EDL data. For example, although not shown, the location of the video material 11 indicated by the content ID is inquired to the content ID management center based on the content ID. Based on the location information obtained as a result of the inquiry, for example, the video material 11 from the archive 12
Is obtained.

【0217】入手された映像素材11は、編集装置3に
おいて一旦、ローカルサーバ30に格納される。そし
て、遠隔検索/編集端末1から送られたEDLデータに
基づくタイムコード変換/コントロール部33の制御に
基づき、ローカルサーバ30で映像素材11が再生され
る。例えば、EDLデータに記述された映像素材11の
開始および終了位置情報に基づき、映像素材11の再生
が制御される。
The obtained video material 11 is temporarily stored in the local server 30 in the editing device 3. Then, the video material 11 is reproduced on the local server 30 under the control of the time code conversion / control unit 33 based on the EDL data sent from the remote search / edit terminal 1. For example, the reproduction of the video material 11 is controlled based on the start and end position information of the video material 11 described in the EDL data.

【0218】ここで、映像素材11に電子透かしにより
コンテンツIDが重畳されている場合には、重畳化復号
部34により映像素材11に重畳されているコンテンツ
IDが抽出され、タイムコード変換/コントロール部3
3に供給される。タイムコード変換/コントロール部3
3では、このコンテンツIDに含まれるオリジナルタイ
ムコードに基づき、映像素材11のタイムコードのオフ
セット処理などを行うことができる。
Here, when the content ID is superimposed on the video material 11 by a digital watermark, the superposition decoding unit 34 extracts the content ID superimposed on the video material 11, and the time code conversion / control unit is used. Three
3 is supplied. Time code conversion / control section 3
3, the time code offset process of the video material 11 can be performed based on the original time code included in the content ID.

【0219】ローカルサーバ30で再生された映像素材
11がスイッチャやミキサなどからなる編集装置である
SW/MIX31に供給され、EDLデータに従い実際
の映像信号に対する編集処理が行われる。編集処理は、
EDLデータに従い自動的に行うことができる。編集さ
れた完成品は、VTR32に供給され、例えばビデオテ
ープ40に記録される。
The video material 11 reproduced by the local server 30 is supplied to the SW / MIX 31, which is an editing device including a switcher and a mixer, and the actual video signal is edited according to the EDL data. The editing process is
It can be done automatically according to EDL data. The edited finished product is supplied to the VTR 32 and recorded on, for example, the video tape 40.

【0220】[0220]

【発明の効果】以上説明したように、この発明では、映
像アーカイブに登録される映像素材に対する属性情報
が、共通化された検索用語に基づきテキストベースのデ
ータでデータベースに登録される。そのため、映像アー
カイブに登録された映像素材を、遠隔からでも素早く検
索できる効果がある。
As described above, according to the present invention, the attribute information for the video material registered in the video archive is registered in the database as text-based data based on the common search term. Therefore, there is an effect that the video material registered in the video archive can be quickly searched from a remote location.

【0221】また、映像素材を代表する静止画像や音声
が属性情報に埋め込まれているので、映像素材の検索を
より正確に行うことができる効果がある。
Further, since a still image or sound representing a video material is embedded in the attribute information, there is an effect that the video material can be searched more accurately.

【0222】さらに、この発明によれば、映像素材の検
索に際して、映像素材そのものを集めることなく、映像
素材の属性情報のみを集めるようにしているため、イン
ターネットなどのネットワーク経由での検索情報の入手
を高速に行うことができる効果がある。
Further, according to the present invention, when the video material is searched, only the attribute information of the video material is collected without collecting the video material itself. Therefore, the search information can be obtained via the network such as the Internet. There is an effect that can be done at high speed.

【0223】さらにまた、データベースに登録される映
像素材の属性情報には、映像素材の所在を示す場所情報
や、映像素材のオリジナルタイムコードなどの編集に必
要な情報が記述されている。このため、映像素材の属性
情報のみを入手することで、当該映像素材に対する編集
操作が可能となり、編集結果をEDLデータとして出力
することが可能となる効果がある。
Furthermore, the attribute information of the video material registered in the database describes the location information indicating the whereabouts of the video material and the information necessary for editing such as the original time code of the video material. Therefore, by obtaining only the attribute information of the video material, it is possible to edit the video material and output the editing result as EDL data.

【0224】また、属性情報からEDLデータが生成で
きるため、映像素材の遠隔からの自動編集を実現できる
効果がある。
Also, since EDL data can be generated from the attribute information, there is an effect that remote automatic editing of video material can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明に適用可能な遠隔編集システムの一例
の構成を概略的に示す略線図である。
FIG. 1 is a schematic diagram schematically showing a configuration of an example of a remote editing system applicable to the present invention.

【図2】映像素材の分割と代表静止画および音声の指定
の例を示す略線図である。
FIG. 2 is a schematic diagram showing an example of division of video material and designation of a representative still image and audio.

【図3】MPEG−7のスキームを概略的に示す略線図
である。
FIG. 3 is a schematic diagram schematically showing an MPEG-7 scheme.

【図4】メタデータの利用の一例を示す略線図である。FIG. 4 is a schematic diagram illustrating an example of using metadata.

【図5】スキーマとそのスキーマ定義を用いて与えられ
るメタデータの一例を示す略線図である。
FIG. 5 is a schematic diagram showing an example of a schema and metadata given using the schema definition.

【図6】メタデータを木構造で表した一例のメタデータ
木を示す略線図である。
FIG. 6 is a schematic diagram showing an example of a metadata tree in which metadata is represented by a tree structure.

【図7】MPEG−7のデータフォーマットを示す略線
図である。
FIG. 7 is a schematic diagram showing a data format of MPEG-7.

【図8】MPEG−7のデータフォーマットとメタデー
タ木との対応関係の例を示す略線図である。
FIG. 8 is a schematic diagram showing an example of a correspondence relationship between an MPEG-7 data format and a metadata tree.

【図9】ナビゲーション符号化/複合化およびサブツリ
ー符号化/複合化の2つの技術要素を概念的に示す略線
図である。
FIG. 9 is a schematic diagram conceptually showing two technical elements of navigation coding / decoding and subtree coding / decoding.

【図10】フラグメント更新コマンドによる処理を概略
的に示す略線図である。
FIG. 10 is a schematic diagram schematically showing processing by a fragment update command.

【図11】絶対パスおよび相対パスを概略的に示す略線
図である。
FIG. 11 is a schematic diagram schematically showing an absolute path and a relative path.

【図12】MPEG−7システムのBiMにおける、サ
ブツリー符号に対して規定されるデコードプロセスを示
す略線図である。
FIG. 12 is a schematic diagram showing a decoding process defined for a subtree code in BiM of the MPEG-7 system.

【図13】スキーマ定義に基づき生成されるデータ構文
ツリーの一例を示す略線図である。
FIG. 13 is a schematic diagram showing an example of a data syntax tree generated based on a schema definition.

【図14】スキーマ定義に基づき生成されるデコーダオ
ートマトンの一例を示す略線図である。
FIG. 14 is a schematic diagram showing an example of a decoder automaton generated based on a schema definition.

【図15】MDSにより規定された各種ツール群の分類
に基づくMDSの概観図である。
FIG. 15 is a general view of MDS based on the classification of various tool groups defined by MDS.

【図16】記述単位版MPEG−7メタデータの一例の
記述を示す略線図である。
FIG. 16 is a schematic diagram showing a description of an example of the description unit version MPEG-7 metadata.

【図17】完全記述版MPEG−7メタデータの一例の
記述を示す略線図である。
FIG. 17 is a schematic diagram showing a description of an example of complete description version MPEG-7 metadata.

【図18】完全記述版MPEG−7メタデータにおいて
上位要素の取り得るべき値および上位要素の関係を示す
略線図である。
FIG. 18 is a schematic diagram showing the relationship between possible values of upper elements and upper elements in the complete description version MPEG-7 metadata.

【図19】この発明の実施の一形態による映像素材の大
容量映像アーカイブへの登録と、登録された映像素材の
遠隔検索/編集装置による検索について説明するための
略線図である。
FIG. 19 is a schematic diagram for explaining registration of a video material in a large-capacity video archive and search of a registered video material by a remote search / editing device according to an embodiment of the present invention.

【図20】ジャンル辞書の一例を示す略線図である。FIG. 20 is a schematic diagram showing an example of a genre dictionary.

【図21】代表静止画および代表音声に基づき映像素材
の選択および編集を行うための画面表示の例を示す略線
図である。
FIG. 21 is a schematic diagram showing an example of a screen display for selecting and editing video material based on a representative still image and a representative audio.

【図22】MPEG−7ファイルの記述の例を示す略線
図である。
FIG. 22 is a schematic diagram showing an example of description of an MPEG-7 file.

【図23】MPEG−7ファイルの記述の例を示す略線
図である。
FIG. 23 is a schematic diagram illustrating an example of description of an MPEG-7 file.

【図24】MPEG−7ファイルの記述の例を示す略線
図である。
FIG. 24 is a schematic diagram illustrating an example of description of an MPEG-7 file.

【図25】MPEG−7ファイルの記述の例を示す略線
図である。
FIG. 25 is a schematic diagram illustrating an example of description of an MPEG-7 file.

【図26】MPEG−7ファイルの記述の例を示す略線
図である。
FIG. 26 is a schematic diagram illustrating an example of description of an MPEG-7 file.

【図27】MPEG−7ファイルの記述の例を示す略線
図である。
FIG. 27 is a schematic diagram illustrating an example of a description of an MPEG-7 file.

【図28】代表静止画および代表音声が埋め込まれたM
PEG−7ファイルの一例の記述を示す略線図である。
FIG. 28 is an M in which a representative still image and a representative audio are embedded.
It is an approximate line figure showing description of an example of a PEG-7 file.

【図29】EDLデータの一例を模式的に示す略線図で
ある。
FIG. 29 is a schematic diagram schematically showing an example of EDL data.

【図30】コンテンツIDの全体構成を示す略線図であ
る。
FIG. 30 is a schematic diagram showing an overall structure of a content ID.

【図31】コンテンツIDにオリジナルタイムコードを
埋め込む際のコンテンツID内のユニークコードの一例
の構成を示す略線図である。
FIG. 31 is a schematic diagram showing a configuration of an example of a unique code in a content ID when embedding an original time code in the content ID.

【図32】オリジナルタイムコードが埋め込まれたコン
テンツIDを用いた遠隔編集システムの一例の構成を示
す略線図である。
FIG. 32 is a schematic diagram showing a configuration of an example of a remote editing system using a content ID in which an original time code is embedded.

【図33】従来技術による遠隔編集システムの一例の構
成を概略的に示す略線図である。
FIG. 33 is a schematic diagram schematically showing a configuration of an example of a remote editing system according to a conventional technique.

【符号の説明】[Explanation of symbols]

1・・・遠隔検索/編集端末、2・・・大容量映像アー
カイブ、3・・・映像編集装置、4・・・ネットワー
ク、11・・・映像素材、12・・・アーカイブ、13
・・・登録端末、14・・・ジャンル辞書、15・・・
データベース、22・・・コンテンツID生成部、23
・・・MPEG−7エンコーダ、24・・・データベー
ス管理部、30・・・ローカルサーバ、31・・・SW
/MIX、33・・・タイムコード変換/コントロール
部、150・・・映像素材選択画面、160・・・編集
画面
1 ... Remote search / editing terminal, 2 ... Large-capacity video archive, 3 ... Video editing device, 4 ... Network, 11 ... Video material, 12 ... Archive, 13
... Registration terminal, 14 ... Genre dictionary, 15 ...
Database, 22 ... Content ID generation unit, 23
... MPEG-7 encoder, 24 ... Database management unit, 30 ... Local server, 31 ... SW
/ MIX, 33 ... Time code conversion / control section, 150 ... Video material selection screen, 160 ... Editing screen

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B075 ND12 NK10 NK24 5C052 AA01 AB02 AB03 AB04 AB05 AC08 CC11 DD04 5C053 FA14 FA21 FA23 FA28 GB06 GB21 GB37 HA29 JA21 KA24 LA11 LA14 (54)【発明の名称】 映像素材情報記述方法、遠隔検索システム、遠隔検索方法、編集装置および遠隔検索端末、遠隔 編集システム、遠隔編集方法、編集装置および遠隔編集端末、ならびに、映像素材情報記憶装置 および方法   ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5B075 ND12 NK10 NK24                 5C052 AA01 AB02 AB03 AB04 AB05                       AC08 CC11 DD04                 5C053 FA14 FA21 FA23 FA28 GB06                       GB21 GB37 HA29 JA21 KA24                       LA11 LA14    (54) [Title of Invention] Video material information description method, remote search system, remote search method, editing device and remote search terminal, remote                     Editing system, remote editing method, editing device and remote editing terminal, and video material information storage device                     And method

Claims (50)

【特許請求の範囲】[Claims] 【請求項1】 映像データベースを世界共通に利用する
ために検索用語を共通化したデータベースに用いられる
映像素材情報記述方法において、 映像素材の属性情報を、該映像素材を全体および部分に
分けて記述し、該映像素材の該全体および該部分のそれ
ぞれの上記属性情報の記述に対し、映像データベースを
世界共通に利用するために共通化された検索用語を用い
て、検索に必要なデータを記述すると共に、上記映像素
材に対応する静止画および音声を埋め込むようにしたこ
とを特徴とする映像素材情報記述方法。
1. A video material information description method used for a database in which search terms are shared for universal use of a video database, wherein attribute information of a video material is described in whole and part of the video material. Then, with respect to the description of the attribute information of each of the whole and the part of the video material, the data necessary for the search is described by using the search terms that are made common for the worldwide use of the video database. At the same time, a still image and audio corresponding to the above-mentioned image material are embedded, and a method of describing image material information.
【請求項2】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材を識別可能な
識別情報であることを特徴とする映像素材情報記述方
法。
2. The video material information description method according to claim 1, wherein the data necessary for the search is identification information capable of identifying the video material.
【請求項3】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材の内容に対応
したジャンル情報であることを特徴とする映像素材情報
記述方法。
3. The video material information description method according to claim 1, wherein the data required for the search is genre information corresponding to the contents of the video material.
【請求項4】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材に対して付与
されたタイトル名であることを特徴とする映像素材情報
記述方法。
4. The video material information description method according to claim 1, wherein the data necessary for the search is a title name given to the video material.
【請求項5】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材の長さを示す
長さ情報であることを特徴とする映像素材情報記述方
法。
5. The video material information description method according to claim 1, wherein the data required for the search is length information indicating the length of the video material.
【請求項6】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材が撮影された
場所を示す撮影場所情報であることを特徴とする映像素
材情報記述方法。
6. The video material information description method according to claim 1, wherein the data required for the search is shooting location information indicating a shooting location of the video material. Method.
【請求項7】 請求項1に記載の映像素材情報記述方法
において、 上記検索に必要なデータは、上記映像素材が撮影された
日時を示す撮影日時情報であることを特徴とする映像素
材情報記述方法。
7. The video material information description method according to claim 1, wherein the data required for the search is shooting date / time information indicating a shooting date / time of the video material. Method.
【請求項8】 請求項1に記載の映像素材情報記述方法
において、 上記静止画および音声は、上記映像素材の全体および/
または部分の任意の位置に対応する静止画および音声で
あることを特徴とする映像素材情報記述方法。
8. The video material information description method according to claim 1, wherein the still image and audio are the entire video material and / or the video material.
Alternatively, a video material information description method characterized by being a still image and audio corresponding to an arbitrary position of a part.
【請求項9】 請求項1に記載の映像素材情報記述方法
において、 上記属性情報は、MPEG−7の規定に基づき記述され
ることを特徴とする映像素材情報記述方法。
9. The video material information description method according to claim 1, wherein the attribute information is described in accordance with the MPEG-7 standard.
【請求項10】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の検索を行うようにした遠隔検索シス
テムにおいて、 映像素材が蓄積される映像アーカイブと、 上記映像アーカイブに蓄積された上記映像素材の、該映
像素材が全体および部分に分けられたそれぞれに対し、
映像データベースを世界共通に利用するために共通化さ
れた検索用語を用いて検索に必要なデータが上記映像素
材の属性情報として記述されると共に、上記映像素材に
対応する静止画および音声が埋め込まれたデータが格納
されるデータベースと、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にあり、上記映像アーカイブに蓄積された上
記映像素材の検索を行う検索要求を通信ネットワークを
介して上記データベースに送信する遠隔検索端末とを有
し、 上記遠隔検索端末による上記検索要求に対する検索結果
は、上記共通化された検索用語により記述されたファイ
ルとして上記通信ネットワークを介して上記データベー
スから上記遠隔検索端末に送信されるようにしたことを
特徴とする遠隔検索システム。
10. A remote system adapted to search for video material using video material information described by a video material information description method used in a database in which search terms are shared for universal use of the video database. In the search system, for the video archive in which the video material is stored and for each of the video material stored in the video archive, the video material is divided into whole and part,
The data necessary for the search is described as the attribute information of the above-mentioned video material by using the search terms that are standardized for universal use of the video database, and the still image and audio corresponding to the above-mentioned video material are embedded. The database that stores the data that is stored in the video archive and the database that is geographically distant from the video archive and the database, and sends a search request to the video archive stored in the video archive to the database via the communication network. A remote search terminal for transmitting, and a search result for the search request by the remote search terminal is sent from the database to the remote search terminal via the communication network as a file described by the common search term. A remote search system characterized by being transmitted.
【請求項11】 請求項10に記載の遠隔検索システム
において、 上記遠隔検索端末による上記検索は、上記ファイルに基
づき、上記検索に必要なデータによるテキスト検索によ
り行われると共に、上記静止画および音声を参照しなが
らに行うことが可能とされたことを特徴とする遠隔検索
システム。
11. The remote search system according to claim 10, wherein the search by the remote search terminal is performed by a text search based on the file based on the data necessary for the search, and the still image and the voice are recorded. A remote search system characterized by being able to perform while referring.
【請求項12】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の検索を行うようにした遠隔検索方法
において、 映像素材が映像アーカイブに蓄積されるステップと、 上記映像アーカイブに蓄積された上記映像素材の、該映
像素材が全体および部分に分けられたそれぞれに対し、
映像データベースを世界共通に利用するために共通化さ
れた検索用語を用いて検索に必要なデータが上記映像素
材の属性情報として記述されると共に、上記映像素材に
対応する静止画および音声が埋め込まれたデータがデー
タベースに格納されるステップと、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にある遠隔検索端末から、上記映像アーカイ
ブに蓄積された上記映像素材の検索を行う検索要求を通
信ネットワークを介して上記データベースに送信する送
信のステップとを有し、 上記遠隔検索端末による上記検索要求に対する検索結果
が上記共通化された検索用語により記述されたファイル
として上記通信ネットワークを介して上記データベース
から上記遠隔検索端末に送信されるようにしたことを特
徴とする遠隔検索方法。
12. A remote system adapted to search for video material using video material information described by a video material information description method used in a database in which search terms are shared in order to universally use the video database. In the search method, for the step of storing the video material in the video archive and for each of the video material stored in the video archive, the video material being divided into whole and parts,
The data required for the search is described as the attribute information of the above-mentioned video material by using the search terms that are standardized for the worldwide use of the video database, and the still image and audio corresponding to the above-mentioned video material are embedded. Data is stored in a database, and a search request for searching the video material stored in the video archive from a remote search terminal located geographically distant from the video archive and the database. Transmitting to the database via the database via the communication network as a file in which the search result for the search request by the remote search terminal is described by the common search term. A remote feature characterized by being transmitted to the above remote search terminal Search method.
【請求項13】 映像素材を用いた編集を行う編集装置
において、 遠隔検索端末から送信された、該遠隔検索端末により映
像アーカイブに蓄積された映像素材の、該映像素材が全
体および部分に分けられたそれぞれに対し映像データベ
ースを世界共通に利用するために共通化された検索用語
を用いて検索に必要なデータが上記映像素材の属性情報
として記述されると共に、上記映像素材に対応する静止
画および音声が埋め込まれた属性情報が格納されるデー
タベースが検索された結果で得られた上記静止画および
音声に基づき行われた編集の結果を示す編集結果データ
を受信する受信手段と、 上記受信手段により受信された上記編集結果データに基
づき、上記映像アーカイブからの映像素材の入手および
入手された映像素材に対する編集を行う編集手段とを有
し、 上記編集手段による編集は、上記編集結果データに基づ
き自動的に行うことが可能とされたことを特徴とする編
集装置。
13. An editing device for editing using video material, wherein the video material of the video material transmitted from the remote search terminal and accumulated in the video archive by the remote search terminal is divided into whole and parts. In addition, the data necessary for the search is described as the attribute information of the above-mentioned image material by using the search terms that are made common to use the image database globally, and the still image corresponding to the above-mentioned image material and Receiving means for receiving editing result data indicating a result of editing performed based on the still image and the sound obtained as a result of searching the database storing the attribute information in which the sound is embedded, and the receiving means. Based on the received editing result data, the video material from the above video archive is obtained and the obtained video material is edited. And a editing means, edited by the editing means, the editing apparatus characterized by being can be automatically performed on the basis of the editing result data.
【請求項14】 映像素材を用いた編集を行う編集方法
において、 遠隔検索端末から送信された、該遠隔検索端末により映
像アーカイブに蓄積された映像素材の、該映像素材が全
体および部分に分けられたそれぞれに対し映像データベ
ースを世界共通に利用するために共通化された検索用語
を用いて検索に必要なデータが上記映像素材の属性情報
として記述されると共に、上記映像素材に対応する静止
画および音声が埋め込まれた属性情報が格納されるデー
タベースが検索された結果で得られた上記静止画および
音声に基づき行われた編集の結果を示す編集結果データ
を受信する受信のステップと、 上記受信のステップにより受信された上記編集結果デー
タに基づき、上記映像アーカイブからの映像素材の入手
および入手された映像素材に対する編集を行う編集のス
テップとを有し、 上記編集のステップによる編集は、上記編集結果データ
に基づき自動的に行うことが可能とされたことを特徴と
する編集方法。
14. An editing method for performing editing using video material, wherein the video material of the video material transmitted from the remote search terminal and accumulated in the video archive by the remote search terminal is divided into whole and parts. In addition, the data necessary for the search is described as the attribute information of the above-mentioned image material by using the search terms that are made common to use the image database globally, and the still image corresponding to the above-mentioned image material and A receiving step of receiving editing result data indicating a result of editing performed based on the still image and the sound obtained as a result of searching the database storing the attribute information in which the sound is embedded; Acquisition of the video material from the video archive and matching of the acquired video material based on the editing result data received by the step. That editing is carried out and a step of editing, the edited by the step of the editing, the editing method characterized in that it is possible to automatically perform based on the editing result data.
【請求項15】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の検索を行うようにした遠隔検索端末
において、 映像素材が蓄積される映像アーカイブに蓄積された上記
映像素材の検索を行う検索要求を、上記映像アーカイブ
に蓄積された上記映像素材の、該映像素材が全体および
部分に分けられたそれぞれに対し、映像データベースを
世界共通に利用するために共通化された検索用語を用い
て検索に必要なデータが上記映像素材の属性情報として
記述されると共に、上記映像素材に対応する静止画およ
び音声が埋め込まれたデータが格納されるデータベース
に通信ネットワークを介して送信する遠隔検索手段と、 上記遠隔検索手段による上記検索要求に対する検索結果
が上記データベースから送信された上記共通化された検
索用語により記述されたファイルを上記通信ネットワー
クを介して受信し、受信された上記ファイルに埋め込ま
れた上記静止画および音声を取り出す手段とを有し、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にあることを特徴とする遠隔検索端末。
15. A remote adapted to search a video material by using video material information described by a video material information description method used in a database in which search terms are shared so as to use the video database universally. In the search terminal, the search request for searching the above-mentioned video material stored in the video archive in which the video material is stored is divided into the whole and part of the above-mentioned video material stored in the above-mentioned video archive. For each of them, the data necessary for the search is described as the attribute information of the above-mentioned image material by using the search terms that are made common for the worldwide use of the image database, and the still image corresponding to the above-mentioned image material and A remote search means for transmitting via a communication network to a database in which voice-embedded data is stored; The file in which the search result for the search request by the search means is transmitted from the database and described by the common search term is received via the communication network, and the still image embedded in the received file is received. And a means for retrieving audio, the remote search terminal being located geographically distant from the video archive and the database.
【請求項16】 請求項15に記載の遠隔検索端末にお
いて、 上記遠隔検索端末による上記検索は、上記ファイルに基
づき、上記検索に必要なデータによるテキスト検索によ
り行われると共に、上記静止画および音声により行うこ
とが可能とされたことを特徴とする遠隔検索端末。
16. The remote search terminal according to claim 15, wherein the search by the remote search terminal is performed by a text search based on the file based on data necessary for the search, and by the still image and voice. A remote search terminal characterized by being able to perform.
【請求項17】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて遠隔検索端末で映像素材の検索を行うようにし
た遠隔検索方法において、 映像素材が蓄積される映像アーカイブに蓄積された上記
映像素材の検索を行う検索要求を、上記映像アーカイブ
に蓄積された上記映像素材の、該映像素材が全体および
部分に分けられたそれぞれに対し、映像データベースを
世界共通に利用するために共通化された検索用語を用い
て検索に必要なデータが上記映像素材の属性情報として
記述されると共に、上記映像素材に対応する静止画およ
び音声が埋め込まれたデータが格納されるデータベース
に、上記映像アーカイブおよび上記データベースと地理
的に離れた場所にある遠隔検索端末から通信ネットワー
クを介して送信する遠隔検索のステップと、 上記遠隔検索のステップによる上記検索要求に対する検
索結果が上記データベースから送信された上記共通化さ
れた検索用語により記述されたファイルが上記遠隔検索
端末により上記通信ネットワークを介して受信され、受
信された上記ファイルに埋め込まれた上記静止画および
音声を取り出すステップとを有することを特徴とする遠
隔検索方法。
17. A video material is searched by a remote search terminal using video material information described by a video material information description method used in a database in which search terms are shared for universal use of the video database. In the remote search method as described above, a search request for searching for the above-mentioned video material stored in the video archive in which the video material is stored, is issued as a whole or part of the video material stored in the video archive. For each of the above, the data necessary for the search is described as the attribute information of the above-mentioned video material by using the search terms that are standardized so that the video database can be used globally The above-mentioned video archive and the above-mentioned database are stored in the database that stores the data with embedded still images and audio. And a step of remote search which is transmitted from a remote search terminal located at a geographically distant place via a communication network, and a search result for the search request by the remote search step is transmitted from the database A file described by a search term is received by the remote search terminal via the communication network, and the still image and the sound embedded in the received file are taken out. .
【請求項18】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法において、 映像素材の属性情報を、該映像素材を全体および部分に
分けて記述し、該映像素材の該全体および該部分のそれ
ぞれの上記属性情報の記述に対し、映像データベースを
世界共通に利用するために共通化された検索用語を用い
て、上記映像素材を用いた編集に必要なデータを記述す
るようにしたことを特徴とする映像素材情報記述方法。
18. In a video material information description method used for a database in which search terms are shared for universal use of a video database, attribute information of a video material is described by dividing the video material into whole and parts. However, for the description of the attribute information of each of the whole and the part of the video material, the search terms common to the worldwide use of the video database are used to edit using the video material. A video material information description method characterized in that necessary data is described.
【請求項19】 請求項18に記載の映像素材情報記述
方法において、 上記編集に必要なデータは、上記映像素材を識別可能な
識別情報であることを特徴とする映像素材情報記述方
法。
19. The video material information description method according to claim 18, wherein the data necessary for the editing is identification information capable of identifying the video material.
【請求項20】 請求項18に記載の映像素材情報記述
方法において、 上記編集に必要なデータは、上記映像素材の開始位置を
示すタイムコードであることを特徴とする映像素材情報
記述方法。
20. The video material information description method according to claim 18, wherein the data necessary for the editing is a time code indicating a start position of the video material.
【請求項21】 請求項18に記載の映像素材情報記述
方法において、 上記編集に必要なデータは、上記映像素材の長さを示す
長さ情報であることを特徴とする映像素材情報記述方
法。
21. The video material information description method according to claim 18, wherein the data necessary for the editing is length information indicating the length of the video material.
【請求項22】 請求項18に記載の映像素材情報記述
方法において、 上記属性情報は、MPEG−7の規定に基づき記述され
ることを特徴とする映像素材情報記述方法。
22. The video material information description method according to claim 18, wherein the attribute information is described in accordance with the MPEG-7 standard.
【請求項23】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の編集を行うようにした遠隔編集シス
テムにおいて、 映像素材が蓄積される映像アーカイブと、 上記映像アーカイブに蓄積された上記映像素材の、該映
像素材が全体および部分に分けられたそれぞれに対し、
映像データベースを世界共通に利用するために共通化さ
れた検索用語を用いて該映像素材を用いた編集に必要な
データが上記映像素材の属性情報として記述されるデー
タが格納されるデータベースと、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にあり、上記映像アーカイブに蓄積された上
記映像素材の上記属性情報として記述された上記編集に
必要なデータを用いて上記映像素材の編集を行い、該編
集の結果を示す編集結果データを通信ネットワークを介
して送信する遠隔編集端末と、 上記遠隔編集端末から送信された上記編集結果情報に基
づき、上記映像アーカイブから映像素材を入手し、入手
された該映像素材に対して編集を行う編集装置とを有
し、 上記編集に必要なデータは、上記共通化された検索用語
を用いて記述されたファイルで上記遠隔編集装置に供給
され、上記編集装置による上記編集は、上記編集結果情
報に基づき自動的に行うことが可能とされたことを特徴
とする遠隔編集システム。
23. A remote adapted to edit a video material by using video material information described by a video material information description method used in a database in which search terms are shared for universal use of the video database. In the editing system, for the video archive in which the video material is stored and for each of the video material stored in the video archive, the video material is divided into whole and part,
A database that stores data in which data necessary for editing using the video material is described as attribute information of the video material by using a search term that is standardized for universal use of the video database; The video material is located in a geographically distant location from the video archive and the database, and the video material is edited using the data necessary for the editing described as the attribute information of the video material stored in the video archive, A remote editing terminal that sends edit result data indicating the result of the editing via a communication network, and a video material was obtained from the video archive based on the edit result information sent from the remote editing terminal. An editing device for editing the video material is used, and the data necessary for the editing uses the common search terms. Above file written Te is supplied to the remote editing apparatus, the above-mentioned editing by the editing apparatus, remote editing system characterized in that it is possible to automatically perform based on the editing result information.
【請求項24】 請求項23に記載の遠隔編集システム
において、 上記編集に必要なデータは、上記映像素材を識別可能な
識別情報、上記映像素材の開始位置を示すタイムコード
および上記映像素材の長さを示す長さ情報であって、上
記遠隔編集端末は、上記ファイルから上記識別情報、上
記タイムコードおよび上記長さ情報を取り出し、取り出
されたこれらの情報に基づき上記編集を行い上記編集結
果データを生成することを特徴とする遠隔編集システ
ム。
24. The remote editing system according to claim 23, wherein the data necessary for the editing is identification information capable of identifying the video material, a time code indicating a start position of the video material, and a length of the video material. Length information indicating the length, the remote editing terminal extracts the identification information, the time code, and the length information from the file, performs the editing based on the extracted information, and edits the result data. A remote editing system which is characterized by generating.
【請求項25】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の編集を行うようにした遠隔編集方法
において、 映像素材を映像アーカイブに蓄積するステップと、 上記映像アーカイブに蓄積された上記映像素材の、該映
像素材が全体および部分に分けられたそれぞれに対し、
映像データベースを世界共通に利用するために共通化さ
れた検索用語を用いて該映像素材を用いた編集に必要な
データが上記映像素材の属性情報として記述されるデー
タをデータベースに格納するステップと、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にあり、上記映像アーカイブに蓄積された上
記映像素材の上記属性情報として記述された上記編集に
必要なデータを用いて上記映像素材の編集を行い、該編
集の結果を示す編集結果データを通信ネットワークによ
り遠隔編集端末より送信する送信のステップと、 上記送信のステップにより送信された上記編集結果情報
に基づき、上記映像アーカイブから映像素材を入手し、
入手された該映像素材に対して編集装置により編集を行
うステップとを有し、 上記編集に必要なデータは、上記共通化された検索用語
を用いて記述されたファイルで上記遠隔編集装置に供給
され、上記編集装置による上記編集は、上記編集結果情
報に基づき自動的に行うことが可能とされたことを特徴
とする遠隔編集方法。
25. A remote adapted to edit a video material using video material information described by a video material information description method used in a database in which search terms are shared for universal use of the video database. In the editing method, the step of storing the video material in the video archive and the step of storing the video material in the video archive stored in the video archive into the whole and the parts respectively,
Storing in the database data in which data necessary for editing using the video material is described as attribute information of the video material by using a search term that is shared for universal use of the video database, Edit the above-mentioned video material using the data necessary for the above-mentioned editing, which is located in a geographically distant location from the above-mentioned video archive and the above-mentioned database and is stored as the above-mentioned attribute information of the above-mentioned video material stored in the above-mentioned video archive. A step of transmitting edit result data indicating a result of the edit from a remote editing terminal via a communication network, and obtaining video material from the video archive based on the edit result information transmitted by the step of transmitting,
Editing the obtained video material by an editing device, and the data necessary for the editing is supplied to the remote editing device as a file described using the common search term. The remote editing method is characterized in that the editing by the editing device can be automatically performed based on the editing result information.
【請求項26】 映像素材を用いた編集を行う編集装置
において、 映像素材が蓄積される映像アーカイブおよび上記映像ア
ーカイブに蓄積された上記映像素材の、該映像素材が全
体および部分に分けられたそれぞれに対し、映像データ
ベースを世界共通に利用するために共通化された検索用
語を用いて該映像素材を用いた編集に必要なデータが上
記映像素材の属性情報として記述されるデータが格納さ
れるデータベースと地理的に離れた場所にある、上記映
像アーカイブに蓄積された上記映像素材の上記属性情報
として記述された上記編集に必要なデータを用いて上記
映像素材の編集を行う遠隔編集端末から送信された、該
編集の結果を示す編集結果データを通信ネットワークを
介して受信する受信手段と、 上記受信手段により受信された上記編集結果データに基
づき、上記映像アーカイブからの映像素材の入手および
入手された映像素材に対する編集を行う編集手段とを有
し、 上記編集手段による編集は、上記編集結果データに基づ
き自動的に行うことが可能とされたことを特徴とする編
集装置。
26. In an editing device for editing using a video material, the video archive in which the video material is stored and the video material stored in the video archive are divided into whole and part, respectively. On the other hand, a database storing data in which data necessary for editing using the video material is described as attribute information of the video material by using a common search term for universal use of the video database. Sent from a remote editing terminal that edits the video material using data necessary for the editing described as the attribute information of the video material stored in the video archive, which is geographically distant from Also, receiving means for receiving the edited result data indicating the result of the editing via the communication network, and the receiving means received by the receiving means. And editing means for performing acquisition of the video material from the video archive and editing of the acquired video material based on the editing result data, and the editing by the editing means is automatically performed based on the editing result data. An editing device characterized in that it has been made possible.
【請求項27】 請求項26に記載の編集装置におい
て、 上記編集に必要なデータは、上記映像素材を識別可能な
識別情報、上記映像素材の開始位置を示すタイムコード
および上記映像素材の長さを示す長さ情報であることを
特徴とする編集装置。
27. The editing apparatus according to claim 26, wherein the data necessary for the editing includes identification information capable of identifying the video material, a time code indicating a start position of the video material, and a length of the video material. An editing device characterized in that it is length information indicating.
【請求項28】 映像素材を用いた編集を行う編集方法
において、 映像素材が蓄積される映像アーカイブおよび上記映像ア
ーカイブに蓄積された上記映像素材の、該映像素材が全
体および部分に分けられたそれぞれに対し、映像データ
ベースを世界共通に利用するために共通化された検索用
語を用いて該映像素材を用いた編集に必要なデータが上
記映像素材の属性情報として記述されるデータが格納さ
れるデータベースと地理的に離れた場所にある、上記映
像アーカイブに蓄積された上記映像素材の上記属性情報
として記述された上記編集に必要なデータを用いて上記
映像素材の編集を行う遠隔編集端末から送信された、該
編集の結果を示す編集結果データを通信ネットワークを
介して受信する受信のステップと、 上記受信のステップにより受信された上記編集結果デー
タに基づき、上記映像アーカイブからの映像素材の入手
および入手された該映像素材に対する編集を行う編集の
ステップとを有し、 上記編集のステップによる編集は、上記編集結果データ
に基づき自動的に行うことが可能とされたことを特徴と
する編集方法。
28. In an editing method for editing using a video material, the video archive in which the video material is stored and the video material stored in the video archive are divided into whole and part, respectively. On the other hand, a database storing data in which data necessary for editing using the video material is described as attribute information of the video material by using a common search term for universal use of the video database. Sent from a remote editing terminal that edits the above-mentioned video material using the data necessary for the above-mentioned editing described as the above-mentioned attribute information of the above-mentioned video material stored in the above-mentioned video archive, which is geographically separated. The receiving step of receiving the edited result data indicating the editing result via the communication network, and the receiving step And an editing step of performing acquisition of the video material from the video archive and editing of the acquired video material based on the received edit result data, wherein the editing by the editing step is the editing result data. An editing method characterized in that it can be automatically performed based on.
【請求項29】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の編集を行うようにした遠隔編集端末
において、 映像アーカイブに蓄積された映像素材の、該映像素材が
全体および部分に分けられたそれぞれに対し、映像デー
タベースを世界共通に利用するために共通化された検索
用語を用いて該映像素材を用いた編集に必要なデータが
記述される属性情報を用いて映像素材の編集を行う編集
手段と、 上記編集手段による編集の結果を編集装置に対して通信
ネットワークを介して送信する送信手段とを有し、 上記映像アーカイブおよび上記データベースと地理的に
離れた場所にあることを特徴とする遠隔編集端末。
29. A remote adapted to edit a video material by using video material information described by a video material information description method used in a database in which search terms are shared so as to universally use the video database. In the editing terminal, for each of the video materials stored in the video archive, which are divided into the whole and the parts, the video is searched using a common search term in order to universally use the video database. Editing means for editing video material using attribute information that describes data necessary for editing using material, and transmitting means for transmitting the result of editing by the editing means to an editing device via a communication network And a remote editing terminal which is located at a geographically distant location from the video archive and the database.
【請求項30】 請求項29に記載の遠隔編集端末にお
いて、 上記編集に必要なデータは、上記映像素材を識別可能な
識別情報、上記映像素材の開始位置を示すタイムコード
および上記映像素材の長さを示す長さ情報であることを
特徴とする遠隔編集端末。
30. The remote editing terminal according to claim 29, wherein the data required for the editing includes identification information for identifying the video material, a time code indicating a start position of the video material, and a length of the video material. A remote editing terminal characterized by being length information indicating the length.
【請求項31】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記述方法により記述された映像素材情報
を用いて映像素材の編集を遠隔編集端末で行う遠隔編集
方法において、 映像アーカイブに蓄積された映像素材の、該映像素材が
全体および部分に分けられたそれぞれに対し、映像デー
タベースを世界共通に利用するために共通化された検索
用語を用いて該映像素材を用いた編集に必要なデータが
記述される属性情報を用いて、上記映像アーカイブおよ
び上記データベースと地理的に離れた場所にある遠隔編
集端末で上記映像素材の編集を行う編集のステップと、 上記編集のステップによる編集の結果を編集装置に対し
て通信ネットワークを介して送信する送信のステップと
を有することを特徴とする遠隔編集方法。
31. A remote editing terminal edits a video material by using video material information described by a video material information description method used in a database in which search terms are shared for universal use of the video database. In the remote editing method, for each of the video materials stored in the video archive, which are divided into the whole and the parts, by using a common search term for universal use of the video database, Using the attribute information that describes the data necessary for editing using the video material, an editing step of editing the video material at a remote editing terminal that is geographically distant from the video archive and the database, and , A step of transmitting the result of the editing by the above-mentioned editing step to the editing device via the communication network. Remote editing method which is characterized in that.
【請求項32】 映像データベースを世界共通に利用す
るために共通化された検索用語で記述された映像素材の
属性情報を記憶する映像素材情報記憶装置において、 映像アーカイブに蓄積される映像素材の全体および部分
のそれぞれに対し、映像データベースを世界共通に利用
するために共通化された検索用語を用いて検索に必要な
データが上記映像素材の属性情報として記述されると共
に、上記映像素材に対応する静止画および音声が埋め込
まれたデータが記憶されることを特徴とする映像素材情
報記憶装置。
32. In a video material information storage device for storing attribute information of video material described in a common search term for universal use of a video database, the entire video material stored in a video archive. For each of the parts and the parts, the data necessary for the search is described as the attribute information of the video material by using the search terms that are common for the worldwide use of the video database, and the data corresponds to the video material. A video material information storage device characterized in that data in which a still image and audio are embedded is stored.
【請求項33】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材を識別可能な
識別情報であることを特徴とする映像素材情報記憶装
置。
33. The video material information storage device according to claim 32, wherein the data necessary for the search is identification information capable of identifying the video material.
【請求項34】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材の内容に対応
したジャンル情報であることを特徴とする映像素材情報
記憶装置。
34. The video material information storage device according to claim 32, wherein the data required for the search is genre information corresponding to the contents of the video material.
【請求項35】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材に対して付与
されたタイトル名であることを特徴とする映像素材情報
記憶装置。
35. The video material information storage device according to claim 32, wherein the data necessary for the search is a title name given to the video material.
【請求項36】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材の長さを示す
長さ情報であることを特徴とする映像素材情報記憶装
置。
36. The video material information storage device according to claim 32, wherein the data required for the search is length information indicating the length of the video material.
【請求項37】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材が撮影された
場所を示す撮影場所情報であることを特徴とする映像素
材情報記憶装置。
37. The video material information storage device according to claim 32, wherein the data necessary for the search is shooting location information indicating a shooting location of the video material. apparatus.
【請求項38】 請求項32に記載の映像素材情報記憶
装置において、 上記検索に必要なデータは、上記映像素材が撮影された
日時を示す撮影日時情報であることを特徴とする映像素
材情報記憶装置。
38. The video material information storage device according to claim 32, wherein the data required for the search is shooting date and time information indicating a shooting date and time of the video material. apparatus.
【請求項39】 請求項32に記載の映像素材情報記憶
装置において、 上記静止画および音声は、上記映像素材の全体および/
または部分の任意の位置に対応する静止画および音声で
あることを特徴とする映像素材情報記憶装置。
39. The video material information storage device according to claim 32, wherein the still image and audio are the entire video material and / or the video material.
A video material information storage device, which is a still image and audio corresponding to an arbitrary position of a portion.
【請求項40】 請求項32に記載の映像素材情報記憶
装置において、 上記属性情報は、MPEG−7の規定に基づき記述され
ることを特徴とする映像素材情報記憶装置。
40. The video material information storage device according to claim 32, wherein the attribute information is described based on the standard of MPEG-7.
【請求項41】 映像データベースを世界共通に利用す
るために共通化された検索用語で記述された映像素材の
属性情報を記憶する映像素材情報記憶方法において、 映像アーカイブに蓄積される映像素材の全体および部分
のそれぞれに対し、映像データベースを世界共通に利用
するために共通化された検索用語を用いて検索に必要な
データが上記映像素材の属性情報として記述されると共
に、上記映像素材に対応する静止画および音声が埋め込
まれたデータが映像素材情報記憶装置に記憶されること
を特徴とする映像素材情報記憶方法。
41. A video material information storage method for storing attribute information of video material described by a common search term for universal use of a video database, wherein the entire video material stored in a video archive is stored. For each of the parts and the parts, the data necessary for the search is described as the attribute information of the video material by using the search terms that are common for the worldwide use of the video database, and the data corresponds to the video material. A video material information storage method, wherein data in which a still image and audio are embedded is stored in a video material information storage device.
【請求項42】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記憶装置において、 映像アーカイブに蓄積される映像素材の全体および部分
のそれぞれに対し、映像データベースを世界共通に利用
するために共通化された検索用語を用いて上記映像素材
を用いた編集に必要なデータが上記映像素材の属性情報
として記述されたデータが記憶されることを特徴とする
映像素材情報記憶装置。
42. A video material information storage device, which is used for a database in which search terms are standardized for universal use of a video database, in a video archive for each of all or part of video material stored in a video archive. It is characterized in that the data necessary for editing using the above-mentioned video material is stored as the attribute information of the above-mentioned video material is stored by using the search terms that are made common for the worldwide use of the database. Video material information storage device.
【請求項43】 請求項42に記載の映像素材情報記憶
装置において、 上記編集に必要なデータは、上記映像素材を識別可能な
識別情報であることを特徴とする映像素材情報記憶装
置。
43. The video material information storage device according to claim 42, wherein the data necessary for the editing is identification information capable of identifying the video material.
【請求項44】 請求項42に記載の映像素材情報記憶
装置において、 上記編集に必要なデータは、上記映像素材の開始位置を
示すタイムコードであることを特徴とする映像素材情報
記憶装置。
44. The video material information storage device according to claim 42, wherein the data necessary for the editing is a time code indicating a start position of the video material.
【請求項45】 請求項42に記載の映像素材情報記憶
装置において、 上記編集に必要なデータは、上記映像素材の長さを示す
長さ情報であることを特徴とする映像素材情報記憶装
置。
45. The video material information storage device according to claim 42, wherein the data necessary for the editing is length information indicating a length of the video material.
【請求項46】 請求項42に記載の映像素材情報記憶
装置において、 上記属性情報は、MPEG−7の規定に基づき記述され
ることを特徴とする映像素材情報記憶装置。
46. The video material information storage device according to claim 42, wherein the attribute information is described in accordance with the MPEG-7 standard.
【請求項47】 映像データベースを世界共通に利用す
るために検索用語を共通化したデータベースに用いられ
る映像素材情報記憶装置に映像素材情報を記憶する映像
素材情報記憶方法において、 映像アーカイブに蓄積される映像素材の全体および部分
のそれぞれに対し、映像データベースを世界共通に利用
するために共通化された検索用語を用いて上記映像素材
を用いた編集に必要なデータが上記映像素材の属性情報
として記述されたデータが映像素材情報記憶装置に記憶
されることを特徴とする映像素材情報記憶方法。
47. A video material information storage method for storing video material information in a video material information storage device, which is used for a database in which search terms are shared for universal use of a video database, and is stored in a video archive. The data necessary for editing using the above-mentioned video material is described as the attribute information of the above-mentioned video material for each of the whole and part of the video material using a search term that is standardized to use the video database globally. A method for storing image material information, wherein the stored data is stored in an image material information storage device.
【請求項48】 映像素材が蓄積された映像アーカイブ
に対し、映像アーカイブと地理的に離れた場所から映像
素材を検索し、検索された映像素材を用いて編集を行う
遠隔編集システムにおいて、 映像アーカイブに蓄積された映像素材のテキストベース
の属性情報と、該映像素材に対応する静止画および音声
が登録されたデータベースと、 上記映像アーカイブと地理的に離れた場所にあり、上記
映像アーカイブに蓄積された上記映像素材を上記データ
ベースに登録された上記属性情報と上記静止画および音
声とに基づき検索すると共に、該検索による検索結果に
基づき上記映像素材を用いた編集を行い、該編集の結果
を編集結果データとして出力する検索編集端末と、 上記検索編集端末から出力された上記編集結果データに
基づき、上記映像アーカイブから上記映像素材を入手
し、入手された該映像素材を用いて実際の編集を行う編
集装置とを有することを特徴とする遠隔編集システム。
48. A video archive in a remote editing system for searching a video archive in which video materials are accumulated from a location geographically distant from the video archive and performing editing using the searched video material. The text-based attribute information of the video material stored in, the database in which the still images and audio corresponding to the video material are registered, and the location that is geographically distant from the video archive and is stored in the video archive. The video material is searched based on the attribute information registered in the database, the still image and the audio, and the video material is edited based on the search result by the search, and the editing result is edited. Based on the search and edit terminal that outputs as result data and the edit result data output from the search and edit terminal, the video A remote editing system, comprising: an editing device that obtains the above-mentioned video material from an archive and performs actual editing using the obtained video material.
【請求項49】 請求項48に記載の遠隔編集システム
において、 上記データベースに登録される上記属性情報、ならび
に、上記静止画および音声は、映像データベースを世界
共通に利用するために検索用語を共通化したデータベー
スに用いられる映像素材情報記述方法に基づき記述さ
れ、上記検索編集端末による上記データベースの検索結
果は、上記映像素材情報記述方法に基づき上記属性情報
と上記静止画および音声とが記述されたファイルとして
上記データベースから上記検索編集端末に送信されるこ
とを特徴とする遠隔編集システム。
49. The remote editing system according to claim 48, wherein the attribute information registered in the database, and the still image and the sound have a common search term for universal use of the video database. A file that is described based on the video material information description method used in the database described above, and the search result of the database by the search editing terminal is a file in which the attribute information and the still image and audio are described based on the video material information description method. Is transmitted from the database to the search editing terminal as a remote editing system.
【請求項50】 映像素材が蓄積された映像アーカイブ
に対し、映像アーカイブと地理的に離れた場所から映像
素材を検索し、検索された映像素材を用いて編集を行う
遠隔編集方法において、 映像アーカイブに蓄積された映像素材のテキストベース
の属性情報と、該映像素材に対応する静止画および音声
がデータベースに登録されるステップと、 上記映像アーカイブと地理的に離れた場所にある検索編
集端末により、上記映像アーカイブに蓄積された上記映
像素材が上記データベースに登録された上記属性情報と
上記静止画および音声とに基づき検索されると共に、該
検索による検索結果に基づき上記映像素材を用いた編集
が行われ、該編集の結果が編集結果データとして出力さ
れるステップと、 上記検索編集端末から出力された上記編集結果データに
基づき、上記映像アーカイブから上記映像素材を入手
し、入手された該映像素材を用いて編集装置で実際の編
集を行うステップとを有することを特徴とする遠隔編集
方法。
50. A remote editing method for searching for a video material from a location geographically distant from the video archive in a video archive in which the video material is stored, and performing editing using the searched video material. By the text-based attribute information of the video material stored in, the step of registering still images and audio corresponding to the video material in the database, and the search and edit terminal geographically distant from the video archive, The video material stored in the video archive is searched based on the attribute information registered in the database and the still image and audio, and editing using the video material is performed based on the search result by the search. And the step of outputting the editing result as editing result data, and the editing result output from the search editing terminal. A remote editing method comprising the steps of: obtaining the video material from the video archive based on the result data; and actually editing the video material using the obtained video material using an editing device.
JP2002060328A 2002-03-06 2002-03-06 Image material information description method, remote retrieval system, remote retrieval method, edit device, remote retrieval terminal, remote edit system, remote edit method, edit device, remote edit terminal, and image material information storage device, and method Pending JP2003256432A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002060328A JP2003256432A (en) 2002-03-06 2002-03-06 Image material information description method, remote retrieval system, remote retrieval method, edit device, remote retrieval terminal, remote edit system, remote edit method, edit device, remote edit terminal, and image material information storage device, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002060328A JP2003256432A (en) 2002-03-06 2002-03-06 Image material information description method, remote retrieval system, remote retrieval method, edit device, remote retrieval terminal, remote edit system, remote edit method, edit device, remote edit terminal, and image material information storage device, and method

Publications (2)

Publication Number Publication Date
JP2003256432A true JP2003256432A (en) 2003-09-12
JP2003256432A5 JP2003256432A5 (en) 2005-07-28

Family

ID=28669730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002060328A Pending JP2003256432A (en) 2002-03-06 2002-03-06 Image material information description method, remote retrieval system, remote retrieval method, edit device, remote retrieval terminal, remote edit system, remote edit method, edit device, remote edit terminal, and image material information storage device, and method

Country Status (1)

Country Link
JP (1) JP2003256432A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005119680A1 (en) * 2004-05-28 2005-12-15 Intel Corporation Method and apparatus to edit a media file
WO2006001238A1 (en) * 2004-06-23 2006-01-05 Matsushita Electric Industrial Co., Ltd. Archive management device, archive management system, and archive management program
WO2006016185A1 (en) * 2004-08-13 2006-02-16 Rpptv Limited Remote program production
EP1758398A1 (en) 2005-08-23 2007-02-28 Syneola SA Multilevel semiotic and fuzzy logic user and metadata interface means for interactive multimedia system having cognitive adaptive capability
JP2007241496A (en) * 2006-03-07 2007-09-20 Sony Corp Image processor, image processing method, and program
JP2008219908A (en) * 2008-03-21 2008-09-18 Sony Corp Information processing apparatus and method, and program
US7505904B2 (en) 2004-12-20 2009-03-17 Canon Kabushiki Kaisha Database construction apparatus and method
US7814416B2 (en) 2004-01-13 2010-10-12 Sony Corporation Information processing apparatus, method, program, and system for data searching using linking information
JP2011003193A (en) * 2009-06-19 2011-01-06 Ipeer Multimedia Internatl Ltd Multimedia identification system and method
US8713444B2 (en) 2005-02-15 2014-04-29 Microsoft Corporation System and method for browsing tabbed-heterogeneous windows
JP2017503394A (en) * 2014-12-14 2017-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND DISPLAY DEVICE
US9973728B2 (en) 2014-12-14 2018-05-15 SZ DJI Technology Co., Ltd. System and method for supporting selective backtracking data recording
JP7319475B1 (en) * 2022-03-30 2023-08-01 株式会社Robon METADATA MANAGEMENT SYSTEM, METADATA MANAGEMENT METHOD, AND PROGRAM

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7814416B2 (en) 2004-01-13 2010-10-12 Sony Corporation Information processing apparatus, method, program, and system for data searching using linking information
US7844648B2 (en) 2004-01-13 2010-11-30 Sony Corporation Information processing apparatus, information processing method, and program facilitating editing and checking of data
WO2005119680A1 (en) * 2004-05-28 2005-12-15 Intel Corporation Method and apparatus to edit a media file
WO2006001238A1 (en) * 2004-06-23 2006-01-05 Matsushita Electric Industrial Co., Ltd. Archive management device, archive management system, and archive management program
JP2006042317A (en) * 2004-06-23 2006-02-09 Matsushita Electric Ind Co Ltd Archive management apparatus, archive management system, and archive management program
WO2006016185A1 (en) * 2004-08-13 2006-02-16 Rpptv Limited Remote program production
GB2433810A (en) * 2004-08-13 2007-07-04 Rpptv Ltd Remote program production
US7505904B2 (en) 2004-12-20 2009-03-17 Canon Kabushiki Kaisha Database construction apparatus and method
US9626079B2 (en) 2005-02-15 2017-04-18 Microsoft Technology Licensing, Llc System and method for browsing tabbed-heterogeneous windows
US8713444B2 (en) 2005-02-15 2014-04-29 Microsoft Corporation System and method for browsing tabbed-heterogeneous windows
EP1758398A1 (en) 2005-08-23 2007-02-28 Syneola SA Multilevel semiotic and fuzzy logic user and metadata interface means for interactive multimedia system having cognitive adaptive capability
US8280827B2 (en) 2005-08-23 2012-10-02 Syneola Luxembourg Sa Multilevel semiotic and fuzzy logic user and metadata interface means for interactive multimedia system having cognitive adaptive capability
US8170269B2 (en) 2006-03-07 2012-05-01 Sony Corporation Image processing apparatus, image processing method, and program
JP2007241496A (en) * 2006-03-07 2007-09-20 Sony Corp Image processor, image processing method, and program
JP2008219908A (en) * 2008-03-21 2008-09-18 Sony Corp Information processing apparatus and method, and program
JP2011003193A (en) * 2009-06-19 2011-01-06 Ipeer Multimedia Internatl Ltd Multimedia identification system and method
JP2017503394A (en) * 2014-12-14 2017-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND DISPLAY DEVICE
US9973728B2 (en) 2014-12-14 2018-05-15 SZ DJI Technology Co., Ltd. System and method for supporting selective backtracking data recording
US20180227539A1 (en) 2014-12-14 2018-08-09 SZ DJI Technology Co., Ltd. System and method for supporting selective backtracking data recording
US10284808B2 (en) 2014-12-14 2019-05-07 SZ DJI Technology Co., Ltd. System and method for supporting selective backtracking data recording
US10567700B2 (en) 2014-12-14 2020-02-18 SZ DJI Technology Co., Ltd. Methods and systems of video processing
US10771734B2 (en) 2014-12-14 2020-09-08 SZ DJI Technology Co., Ltd. System and method for supporting selective backtracking data recording
US11095847B2 (en) 2014-12-14 2021-08-17 SZ DJI Technology Co., Ltd. Methods and systems of video processing
JP7319475B1 (en) * 2022-03-30 2023-08-01 株式会社Robon METADATA MANAGEMENT SYSTEM, METADATA MANAGEMENT METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
JP4652462B2 (en) Metadata processing method
JP5340517B2 (en) Meta descriptor for multimedia information
CN100385559C (en) Processor, system and method for identifying and processing audio and/or video material
US7809760B2 (en) Multimedia integration description scheme, method and system for MPEG-7
US20070101266A1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
JP2001028722A (en) Moving image management device and moving image management system
KR100371813B1 (en) A Recorded Medium for storing a Video Summary Description Scheme, An Apparatus and a Method for Generating Video Summary Descriptive Data, and An Apparatus and a Method for Browsing Video Summary Descriptive Data Using the Video Summary Description Scheme
CN1993755B (en) Storage medium including metadata, and reproducing apparatus and method thereof
JP2002532918A (en) Video description system and method
CN106790558B (en) Film multi-version integration storage and extraction system
KR20040035318A (en) Apparatus and method of object-based MPEG-4 content editing and authoring and retrieval
JP2003256432A (en) Image material information description method, remote retrieval system, remote retrieval method, edit device, remote retrieval terminal, remote edit system, remote edit method, edit device, remote edit terminal, and image material information storage device, and method
JP2001306599A (en) Hierarchical video management method, hierarchical management device, and recording medium storing hierarchical management program
JP4732418B2 (en) Metadata processing method
JP2006042317A (en) Archive management apparatus, archive management system, and archive management program
KR20000038290A (en) Video Search Method and Search Data Structure Based on Event Segment
CN106791539B (en) A kind of storage and extracting method of film digital program
JP4652389B2 (en) Metadata processing method
JP3690313B2 (en) Moving image management apparatus, information input method, and moving image search method
KR100518846B1 (en) Video data construction method for video browsing based on content
Adami et al. ToCAI: a framework for Indexing and Retrieval of Multimedia Documents
Izquierdo et al. Bringing user satisfaction to media access: The IST BUSMAN Project
Chen et al. MediaManager: a distributed multimedia management system for content-based retrieval, authoring and presentation
Wakita et al. Extended Package-Segment Model and Adaptable Applications
JP2003256446A (en) Data management system, data management method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040513

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040909

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080304

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080501

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080708