[go: up one dir, main page]

JP2001502097A - 音声画像データの復号方法 - Google Patents

音声画像データの復号方法

Info

Publication number
JP2001502097A
JP2001502097A JP11508368A JP50836899A JP2001502097A JP 2001502097 A JP2001502097 A JP 2001502097A JP 11508368 A JP11508368 A JP 11508368A JP 50836899 A JP50836899 A JP 50836899A JP 2001502097 A JP2001502097 A JP 2001502097A
Authority
JP
Japan
Prior art keywords
scene
dimensional
nodes
objects
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11508368A
Other languages
English (en)
Other versions
JP4237270B2 (ja
Inventor
ロール マラート
ジュリアン シグネス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Koninklijke Philips NV
Original Assignee
France Telecom SA
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA, Philips Electronics NV filed Critical France Telecom SA
Publication of JP2001502097A publication Critical patent/JP2001502097A/ja
Application granted granted Critical
Publication of JP4237270B2 publication Critical patent/JP4237270B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】 本発明は音声画像データを復号する方法であって、改善された統語言語に基づき、情景の個別の要素を、個々のアニメーション、特別な対話ユーザ/要素並びに上記要素と定義されたアニメーション及び/又は対話との間の特定の関係を規定することが可能な対象として処理することができるようにする方法に関する。記述は、二次元的対象及び/又は三次元的対象を互いに埋め込むべく設けられる横方向接続を有する階層的ツリーに編成される一方、埋め込まれた対象及び/又は情景並びに元の対象の両方における全ての関係する動作の制御を維持しながら、情景の種々の視点からの表示を任意選択的に制御する。

Description

【発明の詳細な説明】 音声画像データの復号方法 技術分野 本発明は、音声画像データを表し且つ連続したビットストリームの形で利用可 能な符号化されたデジタル信号を、表示装置上に表示(render)されるべき情景 の二進記述に鑑みて復号する方法であって、発展的な統語言語(syntacticlangu age)に基づく処理動作を有し、該処理動作が第1のステップにおいて上記情景 の構造に従って対象(object)と呼ばれる別個の要素を上記ビットストリームか ら抽出し、第2のステップにおいて上記情景の要素の個々のアニメーションを定 義し、第3のステップにおいてユーザと上記要素との間の特別な対話(interact ion)を定義し、第4のステップにおいて種々のアプリケーションの等級に応じ て上記情景要素と対応する個々のアニメーション及び/又はユーザ対話との間の 特定の関係を編成するような方法に関する。本発明は、主に、将来のMPEG-4復号 器に使用されるであろう。 背景技術 フレームに基づくビデオ及びオーディオを扱う周知のMPEG-1及びMPRG-2規格の 最も重要な目標は、データを圧縮することにより記憶及び伝送を一層効率的にす ることにあった。将来のMPEG-4復号規格は、音声画像情景をピクセルのみという よりは対象の合成として表す故に、根本的に異なったものとなるであろう。各情 景は、空間及び時間の関係を与える音声画像対象の符号化された表現として定義 され、この場合、該情景が以前にこれら対象で構成されていた(又は区画されて いた)態様如何にはよらない。 現在までのところ、自然ソース及び合成ソースを扱う規格本体は異なっていた 。良好な3次元的(3D)な能力はVRML(Virtual-Reality Modeling Langu age:仮想現実モデル化言語は今や3Dグラフィックスに基づく対話型仮想 環境を特定し及び供給のための規格となっている)を使用するマルチメディア及 びワールドワイドウェブアプリケーションを含む多くの分野の益々重要な部分と なりつつあるので、MPEG-4は自然題材(ビデオ、オーディオ、音声)及び合成題 材(2D及び3Dグラフィックス及び合成音声)を一緒に考え、斯かるマルチメ ディア内容の端末スクリーン上での提示に鑑みて、これら題材を規格化されたビ ットストリーム内で合成しようとしている。上記音声画像情報を情景内で組み立 てるため、それらの空間−時間的関係が端末に伝送される必要がある。 MPEG-4規格は、音声画像対象のビットストリーム表現の二進構文及び情景描写 情報の二進構文を記述する統語記述言語を規定する。もっと詳細には、MPEG-4シ ステム検証モデル4.0は、情景の記述のために、情景用二進フォーマット(BIF S:Binary Format for Scenes)と呼ばれる二進フォーマットを提案している。 属性(attributes)及び事象ソース及び目標のような他の情報を伴うノードの符 号化された階層として構成された該記述は、情景構造がコンピュータプログラム としてというよりはむしろパラメータ的記述(即ち、スクリプト)として伝送さ れるという仮定に基づいている。この場合、情景記述は符号化された情景描写の 更新を用いることにより時間とともに発展することができる。BIFS構文において 伝送されるノード記述も、明瞭化の目的で、テキスト形式で表すことができる。 幾つかのMPEG-4のノード及び概念は、VRML 2.0ノードと極めて類似している。他 のものは修正されたVRML 2.0であり、更に他のものがMPEG-4固有の要件で加えら れている。VRML 2.0構文と同様に、BIFSも、簡単な行為及び事象受け渡し機構( event passing mechanism)を介するユーザとの対話を記述する規定を有してい る。しかしながら、以下に説明するように、このフォーマットでは幾つかの問題 が解決されていない。 これらの問題の第1のものは、2Dと3Dの混合された情景の統一された記述 に関するものである。確かに、純3D情景の記述、純2D情景の記述及び混合さ れた2D/3D情景の記述の間には根本的な相違がある。3D情景においては、 対象の層化(layering)は深さ情報に基づくものである。2Dにおいては、深さ の概念はなく、層化は明示的に定義されねばならない。更に、2D及び3Dの混 合対象は、以下のような幾つかの方法により達成することができる。即ち: (1)2D情景への3D対象の埋め込み (a) これは、例えば2D背景の前に3D対象を表示しようと試みる場合 である。この場合、ユーザが該情景内を移動(navigate)する場合、背景は移動 しない; (b) 他の例は、ユーザインターフェースが2D対象(例えば、釦又はテ キスト)、及び情景が表示される3Dビューワ(viewer)を含んでいるようなア プリケーションである; (2)3D情景への2D対象の埋め込み (a) これは、例えば3D対象上へのテックスチャマップとしてビデオ対 象を使用するような場合である; (b) 他の例は、2Dグラフィック対象からなるテクスチャである(これ の特別な場合は“活動マップ”、即ち数個の複合された2D対象からなる3D情 景内の2D面である); (3)これら2つの方法は反復的に混合することができ、これにより例えば3D 対象を2D情景に埋め込み、結果としての合成を3D対象上へのテックスチャマ ップとして使用する(これは、鏡の反射をシミュレートするために使用すること ができる); (4)最後の可能性は、同一の3D情景を異なる視点から同時に見ることである 。 その時点では、これら全ての可能性を単一の情景グラフを用いて記述すること はできない。情景グラフは、ノードと呼ばれる対象の階層により情景を表すツリ ーである。情景は群化ノード(grouping nodes)と子ノード(children nodes) とからなっている。群化ノードの役割は、当該情景の階層構造及び空間的構成を 定義することである。子ノードはツリーの葉である。これらのノードは、幾何学 的対象、光源及び種々の形式のセンサ(ユーザの対話に感応する対象)を定義す るために使用される。群化ノードは子ノードを有している。これらの子ノードは 子ノード又は他の群化ノードであってもよい。 全てのノードはフィールドと呼ばれる属性を有している。フィールドは如何な る形式のものであってもよい。例えば、球は形状ノードである。該ノードは、そ の半径を定義するフィールドを有している。それは、形式フロートの単一値フィ ールド(SFFloat)である。群化ノードの子ノードは特別なフィールドで特定さ れる。このフィールドは多値フィールド(ノードのリスト)であり、各値は形式 ノード(MFNode)のものである。 さて、情景内でのアニメーション及びユーザ対話を定義するため、配送(rout ing)と呼ばれる事象受け渡し機構を用いてフィールド間の接続をすることが可 能である。フィールドAをフィールドBに配送するということは、フィールドA が変化した場合には常にフィールドBがフィールドAと同一の値をとるというこ とを意味する。同一の形式の(又は同一の種類の)フィールドのみを接続するこ とができる。フィールドは特殊化することができる。即ち、幾つかのものは配送 先(destination of route)でのみあり得、eventInと呼ばれ;他のものは配送 元(origin of route)でのみあり得、eventOutと呼ばれ;他のものは配送元及 び配送先の両方であり得、exposedFieldと呼ばれ、最後に他のものは接続するこ とができず、単にフィールドと呼ばれる。 VRMLにおいては、4つのノード(視点:Viewpoint;背景:Backgroud;霧:Fo g;ナビゲーション情報:NavigationInfo)が、或る時点において各々のうちの 1つのみが活性状態になり得るという意味で、特別な役割を果たす。これらのノ ードは結合可能な(bindable)ノードであると言われる。 1つのコヒーレントなフレーム内に2D及び3Dの両方の特徴を統合しようと 試みる多くの理由が存在する: − 全体の2D/3D情景に対して同一の事象受け渡し機構を使用することがで きる。 − 内容の表現が一層凝縮したものになり得る。 − 2Dの仕様と3Dの仕様とは一緒に働くように設計されているので、実施化 を最適化することができる。 これらの要件を満たすために、2D空間内で、2D又は3D情景の表示の結果 を表す2D及び3D層を、2D又は3D情景の表示の結果を当該情景グラフ内の 他のノードへの入力として使用して、作成することができる必要がある。 また、特に以下に示すような依然として解決されていない他の問題を考慮しな ければならない: (1)2D対象との対話可能性:即ち、VRML 2.0の事象受け渡し機構と互換性の ある2D対象の深さを設定する方法無しでは可能ではないような、対象との対話 、層化の変更、対象の追加又は削除が可能でなければならない; (2)対話可能性及び単純な行為可能性を備えるための単一の事象配送機構(eve nt routing mechanism):即ち、これの一例はウォークスルーアプリケーション (walk through application)におけるナビゲートに使用される2D地図の表示 であり得、これはユーザに起動された事象を2D対象(地図)から3D情景(視 点)へ配送する能力を必要とする; (3)情景の全体的階層(global hierarchy):情景グラフ表現が情景の階層的構 成に関わるが、2D又は3D層が他のグラフィック対象とは見なされ、全体的情 景グラフと混ぜ合わされてはならない(更に、例えば後述する第1図の層グラフ に図示されているように、層は階層的であってもよい); (4)ビデオ対象との対話可能性:MPEG-4の特徴の1つは対象レベルの対話、即 ちピクセルの組というよりは対象の組としてのビデオの描写であり、これは、ビ デオの内容との対話(ビデオ内の対象の切り取り及び貼り付け等)を可能とし、 内容作成者によりアプリケーション毎に定義される必要がある(端末自体の特徴 ではない上記対話はBIFSにより記述することはできるが、これには種々のビデオ 対象の構成自体がBIFSで記述されねばならない)。 発明の開示 従って、本発明の目的は、2D及び3D対象の両方から構築された複合情景の 構成を完全に記述するためのBIFSの強化を提案することにある。この強化により 、完全な情景及びそのレイアウトの統一された表現、並びに3D情景内のみなら ず(VRML 2.0におけるように)2D及び3Dノード間での事象受け渡しが可能と なる一方、端末により設けられるデフォルトユーザインターフェースの使用では なく、情景と共に伝送することができる特別なユーザインターフェースの定義が 可能となる。 この目的のため、本発明は冒頭で述べたような方法に関するもので、更に前記 処理動作が、何れかの種類の二次元的及び三次元的対象から構築される複合情景 を、二次元的及び三次元的な両特徴を統合すると共に前記情景の構造の組立機構 及び表現機構を統一するような枠組みに従って記述する付加的ステップを含んで いることを特徴としている。 更に詳細には、上記枠組みは前記付加的記述ステップが、前記情景の階層的表 現を当該情景の空間的構造を与える階層的接続を示す群化ノードとツリーの葉を 構成する子ノードとの両ノードで編成されるツリー構造に従って定義する第1の 主副ステップと、何れかの種類のノードの間の可能な横方向の接続を定義する第 2の補助副ステップとを有していることを特徴としている。 提案された本発明の有利な実施例においては、前記ツリー構造のノードが少な くとも二次元的対象と三次元的対象とを有し、前記補助定義副ステップは、前記 二次元的対象の少なくとも1つを前記三次元的対象の少なくとも1つに埋め込む 第1の動作と、前記三次元的対象と前記二次元的対象との間の横方向接続を定義 する任意選択的な第2の動作と、埋め込まれた二次元的対象及び対応する元の対 象の両方における少なくとも1つの個々のアニメーション及び/又は少なくとも 1つの特別な対話の定義ステップを制御する任意選択的な第3の動作とを有する ことを特徴としている。 また、本発明の他の有利な実施例においては、前記ツリー構造のノードが少な くとも二次元的対象と三次元的対象とを有し、前記補助定義副ステップは、前記 三次元的対象の少なくとも1つを前記二次元的対象の少なくとも1つに埋め込む 第1の動作と、前記二次元的対象と前記三次元的対象との間の横方向接続を定義 する任意選択的な第2の動作と、埋め込まれた三次元的対象及び対応する元の対 象の両方における少なくとも1つの個々のアニメーション及び/又は少なくとも 1つの特別な対話の定義ステップを制御する任意選択的な第3の動作とを有する ことを特徴としている。 また、本発明の更に他の有利な実施例においては、前記ツリー構造のノードが 少なくとも三次元的対象を有し、前記補助定義副ステップは、前記三次元的対象 の少なくとも1つを前記三次元的対象の何れかの少なくとも1つに埋め込む第1 の動作と、前記三次元的対象の間の横方向接続を定義する任意選択的な第2の動 作と、埋め込まれた三次元的対象及び対応する元の対象の両方における少なくと も1つの個々のアニメーション及び/又は少なくとも1つの特別な対話の定義ス テップを制御する任意選択的な第3の動作とを有することを特徴としている。 これら最後に述べた2つの実施例の何れであれ、前記補助定義副ステップは、 少なくとも1つの単一三次元的情景の種々の視点からの同時的表示を制御し、そ の際に前記個々のアニメーション及び/又は特別な対話の定義ステップを制御す る任意選択的な第3の動作を維持するような付加的な動作を有することができる こと注意すべきである。 本発明は、上記任意選択的な動作を伴っても伴わなくても上述した方法のみに 関するものではなく、斯かる方法をその変形の何れかの形態で実施することによ り得られる如何なる信号にも関するものである。例えば、本発明が、第1のステ ップにおいて情景の構造に従って入力ビットストリームから対象と呼ばれる個別 の要素を抽出し、第2のステップにおいて前記情景の要素の個々のアニメーショ ンを定義し、第3のステップにおいてユーザと前記要素との間の特別な対話を定 義し、第4のステップにおいてアプリケーションの種々の分類に従い前記情景要 素と対応する個々のアニメーション及び/又はユーザ対話との間の特定の関係を 編成し、何れかの種類の二次元的及び三次元的対象から構築される複合情景を二 次元的及び三次元的な両特徴を統合すると共に前記情景の構造の組立機構及び表 現機構を統一するような枠組みに従って記述する付加的ステップを実行した後で 得られるような信号にも関するものであることは明らかである。 このような信号は、二次元的対象及び三次元的対象を一緒に記述することを可 能にすると共に、階層的接続を定義する群化ノード及び子ノードで編成されたツ リー構造に従って情景の階層的表現を編成することを可能にし、これらノードは 、2D情景グラフ、3D情景グラフ、層情景グラフ及び当該情景グラフのノード 間の横方向接続からなる単一の情景グラフを一緒に形成することを可能にする。 このような信号は、既に組み立てられた若しくはスクリーン上に組み立てられ るべき2D若しくは3D情景を深さの表現で以て定義し、又は2D若しくは3D 対象から既に組み立てられた他の情景が埋め込まれる3D情景を定義し、又は他 の3D若しくは2D対象からなる3D対象用のテクスチャを定義することを可能 にする。実際に、このような信号は、当該情景の如何なる2D又は3D対象とも 対話することを可能にすると共に、当該情景の金てのこれら対象の間でのデータ の如何なる種類の伝送を編成することも可能にする。本発明は、形式及び構成の 如何に拘わらず、上記のような信号を記憶する記憶媒体にも関するものであるこ とは明らかである。最後に、本発明は、二次元的及び三次元的対象を含む何れか の種類の情景を構成するため、上述したような信号に基づいてグラフィック情景 を表示し又は何れかの他の態様で伝達するような装置にも関する。 図面の簡単な説明 本発明の特徴及び利点は以下の説明及び添付図面から一層明らかとなるであろ うが、添付図面において: 第1図は、完全な情景グラフの一例である。 発明を実施するための最良の形態 第1図の情景グラフは、ツリー構造による当該情景の階層的表示である。この 構造は、表示装置のスクリーンの方形領域を表す層の階層構造である。この階層 構造は、ノード(階層的接続を規定する群化ノードGN又はツリーの葉である子 ノードCN)で構成され、本発明により、これらのノード間に可能な横方向の接 続を伴う(第1図では、例えば3D対象が2D情景を含む状況を図示するために 、子ノード3D Object-2と群化ノード2D Scene-1との間、又は2つの“Layer3D” が異なる視点から見た同一の3D情景を含む状況を図示するために、群ノード3D Scene-2と3D Scene-1との間)。 図示された情景グラフにおいては、実際に3つの異なる情景グラフが設けられ ている。即ち、2Dグラフィックス情景グラフ、3Dグラフィックス情景グラフ 及び層情景グラフである。図示のように、3D Layer-2は3D Layer-1と同一の情景 を見るが、視点は異なり得る。3D Object-3は2D Scene-1をテクスチャノードと して使用する外形ノードである。 本発明の原理は、2D/3D組み合わせの記述を単一のグラフとして統一する 新たなノードを提案することにある。 最初の2つの新たなノードは2D及び3D層の階層構造を記述するために定義 される。これら2D及び3D層は、2D面である表示領域の階層的な組として複 合される: − Layer2D:層2Dの子ノードは、Layer2D、Layer3D及び2D情景記述にとっ て許容可能な全てのノードであり得る; − Layer3D:層3Dの子ノードは、2D又は3D層及び3D情景を記述する情 景グラフであり得る。 また、3D対象上にマップされるべき3Dワールド(world)におけるテクス チャ用入力として2D及び3D複合情景を使用することができるように2つの新 たなノードも定義される: − Composite2DTexture:これは子ノードとして2D情景を含むテクスチャマッ プであり、複合された2D情景が該テクスチャマップとして使用される。 − Composite3DTexture:これは3D情景を規定する子ノードを含むテクスチャ マップである。複合された3D情景が該テクスチャマップとして使用される。特 に、このノードを、他の視点から見た既存の3D情景の表示の結果をマップする ために使用することが可能である。このノードは、例えば、反射効果をシミュレ ートするのに有効である。 上記の有効な特別な場合は、複合された2D情景が3D空間内の方形上にマッ プされる場合である。これは、3D空間内に挿入された“活動マップ”として見 ることができる。このようなノードの実施化はComposite2DTextureノードの実施 化とは非常に異なり得るので、この場合のための特別のノードを設計する意味が ある。かくして、ActiveMapノードが以下の説明において提案される。 最後に、上記視点の所定の値又は他の結合可能な子ノードを上述したノードの 1つに配送するために、特別なバリュエータ(Valuator)ノードが定義される。 このノードはBIFS仕様内で広い範囲で使用することができ、又は準拠したVRML2. 0プロトタイプとして定義することができる。 本発明の原理を説明したので、これらの新たなノードの定義及び意味を以下の 節(A)ないし(F)により詳細に示す。 (A)Layer2Dの定義及び意味 Layer2Dノードは群化ノードとして定義される。該ノードは、2D対象が表示 されるスクリーン上の領域を定義する。3つのフィールド(又は属性)が、当該 ノードが他の対象に対してどのように表示されるかを記述する:そのサイズ、そ の位置及びその深さである。これらフィールドは、配送元又は配送先であり得る 。このように、これらはexposedFieldである。このLayer2Dノードは同一形式の (即ち、同じくLayer2Dの)又は以下に定義する同様の形式の(Layer3Dの)他の ノードの親であってもよい。これは、形式ノードの多値フィールド(MFNode)に より記述することができる。それとは別に、このノードは2D対象を表すノード の親でもあり得る。これも、形式ノードの多値フィールド(MFNode)により記述 することができる。 BIFS言語においては、Layer2Dノードは以下のように記述される: children2Dフィールドは、値として、2D情景を定義する如何なる群化又は子 ノードも有することができる。childrenLayerフィールドは、値として、2D又 は3D層ノードの何れかをとることができる。Layer2Dノードの子の順番(層化 )はtransform2Dノートの使用により明示的に与えられる。2つの2Dノードが 同一のTransform2Dの子である場合は、2Dノードの層化はTransform2Dの子フィー ルドにおける子の順番で実施される。 2D及び3D層の層化は、平行移動(translation)フィールド及び深さ(dep th)フィールドにより特定される。サイズパラメータは浮動小数点数で与えられ 、状況に従って、ピクセルで又は“グラフィックスメータ”で0.0と1.0の間 で表すことができる。平行移動パラメータに関しても同様である。或る方向にお ける−1なるサイズは、当該Layer2Dノードが、その方向ではサイズが特定され ておらず、視聴者が表示領域のサイズを決定することを意味する。 同一のLayer2Dノード下の全ての2D対象は単一の組み立てられた対象を形成 する。この組み立てられた対象は、他の対象により単一の対象として見られる。 言い換えると、Layer2DノードAが一方の上に他方が層重ねされた2つの対象B 及びCの親である場合は、DがAの子として加えられない限り、BとCとの間に 新たな対象Dを挿入することはできない。 (B)Layer3Dの定義及び意味 同様に、Layer3Dノードは群化ノードとして定義される。該ノードは3D対象 が表示されるスクリーン上の位置を定義する。3つのフィールド(又は属性)が 、該ノードが他の対象に対してどのように表示されるかを記述する:即ち、その サイズ、その位置及びその深さである。これらのフィールドは配送元又は配送先 であり得る。このように、これらフィールドはexposedFieldsである。このノー ドは、同一の形式(即ち、Layer3D)の又は類似の形式(Layer2D)の他のノード の親であり得る。このことは、形式ノードの多値フィールド(MFNode)により記 述することができる。これとは他に、該ノードは3D対象を表すノードの親であ り得る。このことも、形式ノードの多値フィールド(MFNode)により記述するこ とができる。 同一の2Dワールド(又は対象)の数個の見方が必要な特別な場合には、全て のアプリケーションにおいて各々のうちの1個のみが同時に活性状態であるとは 最早言えないから、結合可能なノードが問題を課す。しかしながら、各layer3D においては、各々のうちの1個のみが活性状態であり得る。この振る舞いは、La yer3Dノードが上記結合可能なノードの各々に対してexposedFieldを有すること を必要とする。 BIFS言語においては、Layer3Dノードは以下のように記述される: children3Dフィールドは、値として、3D情景を定義する如何なる3D群化ノ ード又は子ノードも有することができる。childrenLayerフィールドは、値とし て、2D層又は3D層の何れかを有することができる。2D層及び3D層の層化 は平行移動フィールド及び深さフィールドにより特定される。平行移動フィール ドは、Layer2Dの場合におけるのと同様に、ピクセルで又は“グラフィックスメ ータ”で0.0と1.0との間で表わされる。サイズパラメータは、Layer2Dにお けるのと同じ意味及び単位を有する。或る方向における−1なるサイズは、Laye r3Dノードが該方向においてはサイズが特定されず、視聴者が表示領域のサイズ を決定するであろうことを意味する。全ての結合可能な子ノードは、Layer3Dノ ードのexposedFieldとして用いられる。実行時においては、これらフィールドは 、Layer3Dノードの子である3D情景に関して、現在結び付けられている結合可 能な子ノードの値をとる。これにより、何らかの事象に応答して現在の視点を例 えばLayer3Dに設定することが可能になるであろうが、これは視点ノードのset_b ind eventInの直接的な使用によっては達成することはできない。何故なら、情 景が異なる層間で共有されているからである。 3D情景が幾つかのLayer 3Dの間で共有されている場合は、種々のセンサノー ドの振る舞いは次のように定義される。即ち、センサがLayer3Dのうちの該セン サを含む何れかにおいてトリガされると、該センサは事象をトリガする。 (C)Composite2DTextureの定義及び意味 composite2DTextureは、VRML 2.0画像テクスチャノードのようなテクスチャノ ードである。しかしながら、、該ノードは群化ノードとして定義される。該ノー ドは何れかの2Dノードの親であり得る。このノードにより表されるテクスチャ は子フィールドに記述される2D情景の組み合わせの結果である。 BIFS言語においては、Composite2DTextureノードは以下のように記述される: 形式MFNodeのchildren2Dフィールドは3D対象上にマップされるべき2D情景 を定義する2D群化ノード又は子ノードのリストである。サイズフィールドは、 このマップのサイズを特定する。単位はLayer2D/3Dの場合におけるのと同一であ る。デフォルト値のままとされる場合は、未定義のサイズが使用される。このco mposite2DTextureノードは外観ノードのテクスチャフィールドとしてのみ使用す ることができる。 (D)Composite3DTextureの定義及び意味 composite3DTextureは、VRML 2.0画像テクスチャノードのようなテクスチャノ ードである。しかしながら、該ノードは群化ノードとして定義される。該ノード は何れかの3Dノードの親であり得る。このノードにより表されるテクスチャは 子フィールドに記述される3D情景の組み合わせの結果である。Layer3Dノード の場合と同様に、結合可能なノードの問題はexposedFieldを用いて解決される。 BIFS言語においては、Composite3DTextureノードは以下のように記述される: 形式MFNodeのchildren3Dフィールドは、3D対象上にマップされるべき3D情 景を定義する3D群化ノード及び子ノードのリストである。サイズフィールドは 、該マップのピクセルでのサイズを特定する(デフォルトのままとされた場合は 、未定義のサイズが使用される)。続く4つのフィールドは3D情景で使用され る結合可能な子ノードの現在の値を表す。このComposite3DTextureノードは外観 フィールドのテクスチャフィールドとしてのみ使用することができる。 (E)CompositeMapの定義及び意味 CompositeMapノードは、局部座標系のz=0面の方形内に表されたComposite2 Dtextureノードの特別な場合である。Composite2DTextureノードのこの有効な部 分集合は、組み合わされた2D及び3D構成の多くの単純な場合を効率的に扱う のを可能にする。 BIFS言語においては、CompositeMapノードは以下のように記述される: 形式MFNodeのchildren2Dフィールドは、3D対象上にマップされるべき2D情 景を定義する2D群化ノード及び子ノードのリストである。sceneSizeフィール ドは、2D複合情景のピクセルでのサイズを特定する(デフォルトのままとされ た場合は、未定義のサイズが使用される)。centerフィールドはx0y座標系に おける複合マップ(Composite Map)の中心の座標を特定する。mapSizeフィール ドは、2D情景がマップされるべき方形領域の3D空間尺度でのサイズを特定す る。このノードは如何なる子ノードとしても使用することができる。 (F)Valuatorの定義及び意味 Valuatorノードは、予め決められた値を他のノードのフィールドに配送(rout e)するために使用されるノードである。該ノードは既存の各形式のexposedFiel dを有する。Valuatorは、そのexposedFieldの一つが変更される場合に常に起動 されるか、又はenentInを介して起動される。 BIFS言語においては、Valuatorノードは下記のように記述される: パラメータの意味は、単に、一定値の入れ物というだけである。この値は同一 の形式の他のフィールドに配送することができ、これによりフィールドに値を明 示的に設定することができる。配送は、eventInのset_Activeフィールドにより 起動することができる。 上述した解決策は、前記問題を解決する。完全な2D/3D情景のための単一 の表現及び2D及び3D対象とのグローバルな対話が確かに得られ、ここで、2 D及び3D対象は同一のファイル(又はストリーム)内で記述されるから、フィ ールド間で同一の配送機構を使用することが可能となる。この機能の一例が付録 Aに示され、該機能によれば1つの立方体と、2D情景内の2D円として表され たカラーパレットとからなる3D情景に対して、ユーザが該パレット内の1つの 色に触れると、上記立方体の色が触れた色に設定される。 更に、第1図に示すように、Layer2D及びLayer3Dなる2つのノードが、当該情 景を単一のグローバルな階層構造内に編成するように設計されている。また、テ クスチャマップとしての2D複合情景と2D複合マップとが概念的に非常に類似 していることに注意すべきである。該複合マップは、2D複合情景でマップされ た方形ファセットのテクスチャを定義する。テクスチャマップとしての上記2D 複合情景は如何なる幾何学形上へもマップすることができるテクスチャである。 付録Bは複合マップの一例を示す。この例においては、ワールドの原点に、2 つの画像ならなる地上の2.0x4.0の方形領域を有する。ユーザは、或る行為(本 例では特定されていない)を起動するために、上記2つの画像の何れかに触 れることができる。 付録Cは、テクスチャマップとしての3D複合情景に関して、複合マップの他 の例を示す。この例においては、Layer3D内に立方体を有している。この立方体 は、特定の視点から見た円筒の表示からなるテクスチャマップを有している。ユ ーザは、或る行為(本例では、該行為は特定されていない)を起動するために、 上記円筒に触れることができる。 同一の情景を多重に見ることに関しては、提案された該解決策は、同一の情景 が幾つかのLayer3Dに異なる視点から表示されることを可能にする。これとは別 に、該情景の視点は何らかの2D画像に触れることにより変更することができる 。この機能は最後の付録Dに示されている。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,ML,MR, NE,SN,TD,TG),AP(GH,GM,KE,L S,MW,SD,SZ,UG,ZW),EA(AM,AZ ,BY,KG,KZ,MD,RU,TJ,TM),AL ,AM,AT,AU,AZ,BA,BB,BG,BR, BY,CA,CH,CN,CU,CZ,DE,DK,E E,ES,FI,GB,GE,GH,HR,HU,ID ,IL,IS,JP,KE,KG,KP,KR,KZ, LC,LK,LR,LS,LT,LU,LV,MD,M G,MK,MN,MW,MX,NO,NZ,PL,PT ,RO,RU,SD,SE,SG,SI,SK,SL, TJ,TM,TR,TT,UA,UG,US,UZ,V N,YU,ZW (72)発明者 マラート ロール オランダ国 5656 アーアー アインドー フェン プロフ ホルストラーン 6 (72)発明者 シグネス ジュリアン オランダ国 5656 アーアー アインドー フェン プロフ ホルストラーン 6

Claims (1)

  1. 【特許請求の範囲】 1.音声画像データを表し且つ連続したビットストリームの形態で利用可能な符 号化されたデジタル信号を表示装置上に表示されるべき情景の2進記述に鑑み て復号する方法であって、該方法が発展的統語言語に基づく処理動作を有し、 該処理動作が第1のステップにおいて前記情景の構造に従って前記ビットスト リームから対象と呼ばれる個別の要素を抽出し、第2のステップにおいて前記 情景の要素の個々のアニメーションを定義し、第3のステップにおいてユーザ と前記要素との間の特別な対話を定義し、第4のステップにおいてアプリケー ションの種々の分類に従い前記情景要素と対応する個々のアニメーション及び /又はユーザ対話との間の特定の関係を編成するような方法において、 前記処理動作が、何れかの種類の二次元的及び三次元的対象から構築される 複合情景を、二次元的及び三次元的な両特徴を統合すると共に前記情景の構造 の組立機構及び表現機構を統一するような枠組みに従って記述する付加的ステ ップを含んでいることを特徴とする方法。 2.請求項1に記載の方法において、前記付加的記述ステップが前記情景の階層 的表現を、当該情景の空間的構造を与える階層的接続を示す群化ノードとツリ ーの葉を構成する子ノードとの両ノードで編成されるツリー構造に従って定義 する第1の主副ステップと、何れかの種類のノードの間の可能な横方向の接続 を定義する第2の補助副ステップとを有していることを特徴とする方法。 3.請求項2に記載の方法においで、前記ツリー構造のノードが少なくとも二次 元的対象と三次元的対象とを有し、前記補助定義副ステップは、前記二次元的 対象の少なくとも1つを前記三次元的対象の少なくとも1つに埋め込む第1の 動作と、前記三次元的対象と前記二次元的対象との間の横方向接続を定義する 任意選択的な第2の動作と、埋め込まれた二次元的対象及び対応する元の対象 の両方における少なくとも1つの個々のアニメーション及び/又は少なくとも 1つの特別な対話の定義ステップを制御する任意選択的な第3の動作とを有す ることを特徴とする方法。 4.請求項2に記載の方法において、前記ツリー構造のノードが少なくとも二次 元的対象と三次元的対象とを有し、前記補助定義副ステップは、前記三次元的 対象の少なくとも1つを前記二次元的対象の少なくとも1つに埋め込む第1の 動作と、前記二次元的対象と前記三次元的対象との間の横方向接続を定義する 任意選択的な第2の動作と、埋め込まれた三次元的対象及び対応する元の対象 の両方における少なくとも1つの個々のアニメーション及び/又は少なくとも 1つの特別な対話の定義ステップを制御する任意選択的な第3の動作とを有す ることを特徴とする方法。 5.請求項2に記載の方法において、前記ツリー構造のノードが少なくとも三次 元的対象を有し、前記補助定義副ステップは、前記三次元的対象の少なくとも 1つを前記三次元的対象の何れかの少なくとも1つに埋め込む第1の動作と、 前記三次元的対象の間の横方向接続を定義する任意選択的な第2の動作と、埋 め込まれた三次元的対象及び対応する元の対象の両方における少なくとも1つ の個々のアニメーション及び/又は少なくとも1つの特別な対話の定義ステッ プを制御する任意選択的な第3の動作とを有することを特徴とする方法。 6.請求項4及び5の何れか一項に記載の方法において、前記補助定義副ステッ プが、少なくとも1つの単一三次元的情景の種々の視点からの同時的表示を制 御し、その際に前記個々のアニメーション及び/又は特別な対話の定義ステッ プを制御する任意選択的な第3の動作を維持するような付加的な動作を有して いることを特徴とする方法。
JP50836899A 1997-07-11 1998-07-06 音声画像データの復号方法 Expired - Lifetime JP4237270B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP97401690.9 1997-07-11
EP97401690 1997-07-11
PCT/IB1998/001036 WO1999003069A1 (en) 1997-07-11 1998-07-06 Audiovisual data decoding method

Publications (2)

Publication Number Publication Date
JP2001502097A true JP2001502097A (ja) 2001-02-13
JP4237270B2 JP4237270B2 (ja) 2009-03-11

Family

ID=8229808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP50836899A Expired - Lifetime JP4237270B2 (ja) 1997-07-11 1998-07-06 音声画像データの復号方法

Country Status (11)

Country Link
US (2) US6445740B1 (ja)
EP (1) EP0925557B1 (ja)
JP (1) JP4237270B2 (ja)
KR (1) KR20010029494A (ja)
CN (1) CN1202500C (ja)
AU (1) AU7927298A (ja)
BR (1) BR9806025B1 (ja)
DE (1) DE69818621T2 (ja)
ES (1) ES2207839T3 (ja)
MY (1) MY121352A (ja)
WO (1) WO1999003069A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007536621A (ja) * 2004-05-03 2007-12-13 マイクロソフト コーポレーション 3次元シーン階層の2次元合成システムへの組込み

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850946B1 (en) * 1999-05-26 2005-02-01 Wireless Valley Communications, Inc. Method and system for a building database manipulator
US6934906B1 (en) * 1999-07-08 2005-08-23 At&T Corp. Methods and apparatus for integrating external applications into an MPEG-4 scene
US6751655B1 (en) * 2000-04-18 2004-06-15 Sun Microsystems, Inc. Method and apparatus for transport of scenegraph information across a network
US6625454B1 (en) 2000-08-04 2003-09-23 Wireless Valley Communications, Inc. Method and system for designing or deploying a communications network which considers frequency dependent effects
US6973622B1 (en) 2000-09-25 2005-12-06 Wireless Valley Communications, Inc. System and method for design, tracking, measurement, prediction and optimization of data communication networks
US20060129933A1 (en) * 2000-12-19 2006-06-15 Sparkpoint Software, Inc. System and method for multimedia authoring and playback
DE10108888A1 (de) * 2001-02-17 2002-08-29 Manfred Rennings Parkscheibe
EP1260914A1 (en) * 2001-05-23 2002-11-27 Mediabricks Ab A method for optimizing utilization of client capacity
US7216288B2 (en) * 2001-06-27 2007-05-08 International Business Machines Corporation Dynamic scene description emulation for playback of audio/visual streams on a scene description based playback system
WO2003067591A1 (en) * 2002-02-07 2003-08-14 Samsung Electronics Co., Ltd. Information storage medium containing display mode information, and reproducing apparatus and method therefor
FR2839176A1 (fr) * 2002-04-30 2003-10-31 Koninkl Philips Electronics Nv Systeme d'animation pour robot comprenant un ensemble de pieces mobiles
US7439982B2 (en) * 2002-05-31 2008-10-21 Envivio, Inc. Optimized scene graph change-based mixed media rendering
US7436406B2 (en) * 2002-07-12 2008-10-14 Raytheon Company Scene graph based display for desktop applications
FR2849980B1 (fr) * 2003-01-15 2005-04-08 Medialive Procede pour la distribution de sequences video, decodeur et systeme pour la mise en oeuvre de ce prodede
FR2853786B1 (fr) * 2003-04-11 2005-08-05 Medialive Procede et equipement de distribution de produits videos numeriques avec une restriction de certains au moins des droits de representation et de reproduction
FR2854531B1 (fr) * 2003-05-02 2007-01-05 Medialive Procede et systeme pour securiser l'embrouillage, le desembrouillage et la distribution de sequences visuelles vectorielles
US8031190B2 (en) * 2004-05-03 2011-10-04 Microsoft Corporation Translating two-dimensional user input on three-dimensional scene
KR100679740B1 (ko) * 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
CN1331359C (zh) * 2005-06-28 2007-08-08 清华大学 交互式多视点视频系统中视频流的传输方法
US20070008566A1 (en) * 2005-07-07 2007-01-11 Xerox Corporation 3-D view and edit method and apparatus for document make-ready preparation for book production
ZA200805337B (en) 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
US7913157B1 (en) * 2006-04-18 2011-03-22 Overcast Media Incorporated Method and system for the authoring and playback of independent, synchronized media through the use of a relative virtual time code
CN100446039C (zh) * 2006-09-13 2008-12-24 浙江大学 基于层次化视点相关模型的计算机辅助二维手绘动画方法
KR20080089119A (ko) * 2007-03-30 2008-10-06 삼성전자주식회사 Mpeg 기반의 ui 장치 및 이를 이용한 기능 제어 방법
US20090315980A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Image processing method and apparatus
CN102339473B (zh) * 2010-07-22 2014-03-26 山东师范大学 一种基于遗传算法的动漫模型设计方法
US10176644B2 (en) * 2015-06-07 2019-01-08 Apple Inc. Automatic rendering of 3D sound
US10743070B2 (en) * 2017-12-01 2020-08-11 At&T Intellectual Property I, L.P. Fast channel change for a set top box based on channel viewing behaviors
US20210105451A1 (en) * 2019-12-23 2021-04-08 Intel Corporation Scene construction using object-based immersive media
CN117934785B (zh) * 2023-12-22 2024-06-11 北京威驰克国际数码科技有限公司 一种生成3d模型过程的皮肤自动优化方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2144253C (en) * 1994-04-01 1999-09-21 Bruce F. Naylor System and method of generating compressed video graphics images
GB9501402D0 (en) * 1995-01-25 1995-03-15 Univ College Of London Modelling,analysis and measurement of architectural and other systems
US5838830A (en) * 1996-09-18 1998-11-17 Sharp Laboratories Of America, Inc. Vertex-based hierarchical shape representation and coding method and apparatus
US6801575B1 (en) * 1997-06-09 2004-10-05 Sharp Laboratories Of America, Inc. Audio/video system with auxiliary data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007536621A (ja) * 2004-05-03 2007-12-13 マイクロソフト コーポレーション 3次元シーン階層の2次元合成システムへの組込み

Also Published As

Publication number Publication date
CN1239566A (zh) 1999-12-22
BR9806025B1 (pt) 2009-05-05
JP4237270B2 (ja) 2009-03-11
EP0925557A1 (en) 1999-06-30
ES2207839T3 (es) 2004-06-01
CN1202500C (zh) 2005-05-18
US20030048844A1 (en) 2003-03-13
AU7927298A (en) 1999-02-08
MY121352A (en) 2006-01-28
KR20010029494A (ko) 2001-04-06
DE69818621T2 (de) 2004-09-30
EP0925557B1 (en) 2003-10-01
DE69818621D1 (de) 2003-11-06
US7965769B2 (en) 2011-06-21
US6445740B1 (en) 2002-09-03
WO1999003069A1 (en) 1999-01-21
BR9806025A (pt) 1999-10-13

Similar Documents

Publication Publication Date Title
JP2001502097A (ja) 音声画像データの復号方法
US11087549B2 (en) Methods and apparatuses for dynamic navigable 360 degree environments
Doenges et al. MPEG-4: Audio/video and synthetic graphics/audio for mixed media
Signes et al. MPEG-4's binary format for scene description
US20200389640A1 (en) Method and device for transmitting 360-degree video by using metadata related to hotspot and roi
US20130013989A1 (en) Systems and Methods for Playing, Browsing and Interacting with MPEG-4 Coded Audio-Visual Objects
Cha et al. Touchable 3D video system
Bourges-Sevenier et al. An introduction to the MPEG-4 animation framework extension
JP3955177B2 (ja) グラフィックシーンの動画化のためのデータを作成する方法及び装置
Daras et al. An MPEG-4 tool for composing 3D scenes
Swanson The cartographic possibilities of VRML
Bove Object-oriented television
JP2006505050A (ja) 動画像構成方法及びシーン構成方法
Azevedo et al. Embedding 3d objects into ncl multimedia presentations
CN118764674B (zh) 字幕渲染方法、装置、电子设备、存储介质及程序产品
Lee et al. MPEG reconfigurable graphics coding framework: Overview and applications
Signès et al. MPEG-4: Scene Representation and Interactivity
Daras et al. MPEG-4 authoring tool using moving object segmentation and tracking in video shots
Steed et al. Construction of collaborative virtual environments
Cha et al. Interactive Authoring Tool for Extensible MPEG-4 Textual Format (XMT).
KR20050103297A (ko) 디스플레이용 그래픽 애니메이션의 기술 관리 방법 및 이방법의 구현을 위한 수신기 및 시스템
Yang The application of virtual reality in art
Chen Application of 3D animation and virtual reality technology in the construction of digital tourist attractions
Fairchild Explorations of 3D virtual spaces: applications of VR
HK40074035A (en) Media data processing method and apparatus, device, and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080701

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080811

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20081001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081218

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131226

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term