[go: up one dir, main page]

JP2023132320A - 画像処理システム、画像処理方法及びコンピュータプログラム - Google Patents

画像処理システム、画像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2023132320A
JP2023132320A JP2022037555A JP2022037555A JP2023132320A JP 2023132320 A JP2023132320 A JP 2023132320A JP 2022037555 A JP2022037555 A JP 2022037555A JP 2022037555 A JP2022037555 A JP 2022037555A JP 2023132320 A JP2023132320 A JP 2023132320A
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
processing system
subject
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022037555A
Other languages
English (en)
Other versions
JP7746197B2 (ja
Inventor
充 前田
Mitsuru Maeda
衛 田苗
Mamoru Tanae
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022037555A priority Critical patent/JP7746197B2/ja
Priority to US18/174,685 priority patent/US12388965B2/en
Priority to EP23159343.5A priority patent/EP4243411A1/en
Publication of JP2023132320A publication Critical patent/JP2023132320A/ja
Application granted granted Critical
Publication of JP7746197B2 publication Critical patent/JP7746197B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Figure 2023132320000001
【課題】魅力的なコンテンツを生成できる画像処理システムを提供すること。
【解決手段】 画像処理システム100は、メインカメラ画像である第1の画像と、仮想視点画像である第2の画像とを含む立体形状のデジタルコンテンツ200を生成し、第1の画像と第2の画像とをデジタルコンテンツ200を構成する第1面201と第2面202に対応付ける。
【選択図】 図1

Description

本開示は画像処理システム、画像処理方法及びコンピュータプログラム等に関する。
複数の撮像装置の撮像により得られた複数の画像を用いて、指定された仮想視点からの仮想視点画像を生成する技術が注目されている。特許文献1には、複数の撮像装置を異なる位置に設置して被写体を撮像し、撮像により得られた撮像画像から推定される被写体の3次元形状を用いて、仮想視点画像を生成する方法について記載されている。
特開2015-45920号公報
しかし、仮想視点画像と他の画像を含む魅力的なデジタルコンテンツを提供することはできていなかった。
本開示は、魅力的なコンテンツを生成できる画像処理システムを提供することを目的としている。
本開示の1つの実施態様の画像処理システムは、
複数の撮像装置で撮像されることにより得られた複数の画像と仮想視点とに基づいて生成される仮想視点画像を取得する取得手段と、
前記取得手段により取得された仮想視点画像と、当該仮想視点画像に対応する仮想視点と異なる視点の画像とを含む立体形状のデジタルコンテンツを生成する生成手段と、を有し、
前記生成手段は、前記仮想視点画像と、当該仮想視点画像に対応する仮想視点と異なる視点の画像とを、前記デジタルコンテンツを構成する異なる面に対応付けることを特徴とする。
本開示によれば、魅力的なコンテンツを生成できる画像処理システムを提供することができる。
実施形態1に係る画像処理システム100の装置構成の1例を示す図である。 実施形態1に係る画像処理システム100のハードウェア構成を示す図である。 実施形態1の画像処理システム100の動作フローを説明するためのフローチャートである。 図4(A)~(C)は実施形態1でコンテンツ生成部4が生成するコンテンツとしての立体画像の例を示す図である。 実施形態2の画像処理システム100の動作フローを説明するためのフローチャートである。 実施形態3の画像処理システム100の動作フローを説明するためのフローチャートである。 図6の続きのフローチャートである。 図6と図7の続きのフローチャートである。
以下、図面を参照して本開示の実施形態を説明する。ただし、本開示は以下の実施形態に限定されるものではない。なお、各図において、同一の部材または要素については同一の参照番号を付し、重複する説明は省略または簡略化する。
(実施形態1)
実施形態1の画像処理システムは、複数の撮像装置(カメラ)により異なる方向から撮像して取得される撮像画像、撮像装置の状態、指定された仮想視点に基づいて、仮想視点から見た仮想視点画像を生成する。そして、その仮想視点画像を仮想的な立体画像の表面に表示する。なお、撮像装置は、カメラだけでなく、画像処理を行う機能部を有していてもよい。また、撮像装置は、カメラ以外に、距離情報を取得するセンサを有していてもよい。
複数のカメラは、複数の方向から撮像領域を撮像する。撮像領域は、例えば、競技場のフィールドと任意の高さで囲まれた領域である。撮像領域は、上述した被写体の3次元形状を推定する3次元空間と対応していても良い。3次元空間は、撮像領域の全部であっても良いし、一部であっても良い。また、撮像領域は、コンサート会場、撮像スタジオなどであってもよい。
複数のカメラは、撮像領域を取り囲むように夫々異なる位置・異なる方向(姿勢)に設置され、同期して撮像を行う。尚、複数のカメラは撮像領域の全周にわたって設置されなくてもよく、設置場所の制限等によっては撮像領域の一部の方向にのみ設置されていても良い。カメラの数は限定されず、例えば撮像領域をラグビーの競技場とする場合、競技場の周囲に数十~数百台程度のカメラが設置されても良い。
又、複数のカメラは、望遠カメラと広角カメラなど画角が異なるカメラが含まれていれも良い。例えば、望遠カメラを用いて選手を高解像度に撮像することで、生成される仮想視点画像の解像度を向上できる。又、球技の場合にはボールの移動範囲が広いので、広角カメラを用いて撮像することで、カメラ台数を減らすことができる。又、広角カメラと望遠カメラの撮像領域を組み合わせて撮像することで設置位置の自由度が向上する。尚、カメラは共通の時刻で同期され、撮像した画像にはフレーム毎の画像に撮像時刻情報が付与される。
仮想視点画像は、自由視点画像とも呼ばれ、ユーザが自由に(任意に)指定した視点に対応する画像をモニタできるものであるが、例えば、限定された複数の視点候補からユーザが選択した視点に対応する画像をモニタするもの仮想視点画像に含まれる。又、仮想視点の指定は、ユーザ操作により行われても良いし、画像解析の結果等に基づいてAIで、自動で行われても良い。又、仮想視点画像は動画であっても静止画であっても良い。
仮想視点画像の生成に用いられる仮想視点情報は、仮想視点の位置及び向き(姿勢)更には画角(焦点距離)等を含む情報である。具体的には、仮想視点情報は、仮想視点の3次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点からの向き(視線方向)を表すパラメータ、焦点距離情報等を含む。但し、仮想視点情報の内容は上記に限定されない。
又、仮想視点情報は複数フレーム毎のパラメータを有していても良い。つまり、仮想視点情報が、仮想視点画像の動画を構成する複数のフレームに夫々対応するパラメータを有し、連続する複数の時点夫々における仮想視点の位置及び向きを示す情報であっても良い。
仮想視点画像は、例えば、以下のような方法で生成される。先ず、カメラにより異なる方向から撮像することで複数カメラの画像が取得される。次に、複数カメラ画像から、人物やボールなどの被写体に対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。前景画像、背景画像は、テクスチャ情報(色情報など)を有している。
そして、被写体の3次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成される。又、競技場などの背景の3次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、仮想視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。
但し、仮想視点画像の生成方法はこれに限定されず、前景や背景モデルを用いずに撮像画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。
前景画像とは、カメラにより撮像されて取得された撮像画像から、被写体の領域(前景領域)を抽出した画像である。前景領域として抽出される被写体とは、時系列で同じ方向から撮像を行った場合において動きのある(その絶対位置や形が変化し得る)動的被写体(動体)などを指す。被写体は、例えば、競技において、それが行われるフィールド内にいる選手や審判などの人物、球技であれば人物に加え、ボールなども含む。又、コンサートやエンターテインメントにおいては、歌手、演奏者、パフォーマー、司会者などが前景の被写体である。
背景画像とは、少なくとも前景となる被写体とは異なる領域(背景領域)の画像である。具体的には、背景画像は、撮像画像から前景となる被写体を取り除いた状態の画像である。又、背景は、時系列で同じ方向から撮像を行った場合において静止、又は静止に近い状態が継続している撮像対象物を指す。
このような撮像対象物は、例えば、コンサート等のステージ、競技などのイベントを行うスタジアム、球技で使用するゴールなどの構造物、フィールド、などである。但し、背景は少なくとも前景となる被写体とは異なる領域である。尚、撮像対象としては、被写体と背景の他に、別の物体等が含まれていても良い。
図1は、本実施形態の画像処理システム100を示す図である。尚、図1に示される機能ブロックの一部は、画像処理システム100に含まれるコンピュータに、記憶媒体としてのメモリに記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
又、画像処理システム100の夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成されていても良い。画像処理システム100は、複数のカメラに接続されている。又、画像処理システム100は、形状推定部2、画像生成部3、コンテンツ生成部4、保存部5、表示部115、操作部116等を有する。
形状推定部2は、複数のカメラ1と、画像生成部3に接続され、表示部115は画像生成部3に接続されている。なお、それぞれの機能ブロックは、別々の装置に実装されていてもいいし、そのうちの全部あるいはいくつかの機能ブロックが同じ装置に実装されていてもよい。
複数のカメラ1は、コンサート等のステージ、競技などのイベントを行うスタジアム、球技で使用するゴールなどの構造物、フィールド、などの周囲の異なる位置に配置され、夫々異なる視点から撮像を行う。又、各カメラは、そのカメラを識別するための識別番号(カメラ番号)を持つ。カメラ1は、撮像した画像から前景画像を抽出する機能など、他の機能やその機能を実現するハードウェア(回路や装置など)も含んでも良い。カメラ番号は、カメラ1の設置位置に基づいて設定されていても良いし、それ以外の基準で設定されても良い。
画像処理システム100はカメラ1が設けられている会場内に配置されていても良いし、会場外の例えば放送局などに配置されていても良い。画像処理システム100はカメラ1とネットワークを介して接続されている。
形状推定部2は、複数のカメラ1からの画像を取得する。そして、形状推定部2は、複数のカメラ1から取得した画像に基づいて、被写体の3次元形状を推定する。
具体的には、形状推定部2は、公知の表現方法で表される3次元形状データを生成する。3次元形状データは、点で構成される点群データや、ポリゴンで構成されるメッシュデータや、ボクセルで構成されるボクセルデータであってもよい。
画像生成部3は、形状推定部2から被写体の3次元形状データの位置や姿勢を示す情報を取得し、仮想視点から被写体の3次元形状を見た場合に表現される被写体の二次元形状を含む仮想視点画像を生成することができる。又、画像生成部3は、仮想視点画像を生成するために、仮想視点情報(仮想視点の位置と仮想視点からの視線方向等)の指定をユーザから受け付け、その仮想視点情報に基づいて仮想視点画像を生成することもできる。ここで、画像生成部3は、複数のカメラから得られた複数の画像に基づいて仮想視点画像を生成する取得手段として機能している。
仮想視点画像は、コンテンツ生成部4に送られ、コンテンツ生成部4では、後述のように例えば立体形状のデジタルコンテンツが生成される。又、コンテンツ生成部4で生成された、仮想視点画像を含むデジタルコンテンツは表示部115へ出力される。
尚、コンテンツ生成部4は複数のカメラからの画像を直接受け取り、カメラ毎の画像を表示部115に供給することもできる。又、操作部116からの指示に基づき、カメラ毎の画像と仮想視点画像を仮想的な立体画像のどの面に表示するかを切り替えることもできる。
表示部115は例えば液晶ディスプレイやLED等で構成され、コンテンツ生成部4から、仮想視点画像を含むデジタルコンテンツを取得し表示する。又、ユーザが夫々のカメラ1を操作するためのGUI(Graphical User Interface)などを表示する。
又、操作部116は、ジョイスティック、ジョグダイヤル、タッチパネル、キーボード、及びマウスなどから構成され、カメラ1などの操作をユーザが行うために用いられる。又、操作部116は、コンテンツ生成部4で生成されるデジタルコンテンツ(立体画像)の表面に表示される画像をユーザが選択するために使われる。更に、画像生成部3における、仮想視点画像を生成するための仮想視点の位置や姿勢の指定等をすることができる。
尚、ユーザの操作指示によって仮想視点の位置や姿勢を画面上で直接的に指定しても良い。或いは、ユーザの操作指示によって所定の被写体を画面上で指定した場合に、その所定の被写体を画像認識して追尾し、その被写体からの仮想視点情報や、その被写体を中心とした円弧状の周囲の位置からの仮想視点情報を自動的に指定するようにしても良い。
更には、ユーザの操作指示によって予め指定した条件を満たす被写体を画像認識し、その被写体からの仮想視点情報や、その被写体を中心として円弧状の周囲の位置からの仮想視点情報を自動的に指定するようにしても良い。その場合の指定した条件とは例えば、特定のアスリート名や、シュートをした人、ファインプレーをした人、ボールの位置、などの条件を含む。
保存部5はコンテンツ生成部4で生成されたデジタルコンテンツや、仮想視点画像や、カメラ画像等を保存するためのメモリを含む。又、保存部5は着脱可能な記録媒体を有していても良い。着脱可能な記録媒体には、例えば他の会場や他のスポーツシーンにおいて撮像された複数のカメラ画像や、それらを用いて生成された仮想視点画像や、それらを組み合わせて生成されたデジタルコンテンツなどが記録されていても良い。
又、保存部5は、外部サーバなどからネットワークを介してダウンロードした複数のカメラ画像や、それらを用いて生成された仮想視点画像や、それらを組み合わせて生成されたデジタルコンテンツなどを保存できるようにしても良い。また、それらのカメラ画像や、仮想視点画像や、デジタルコンテンツなどは第3者が作成したものであっても良い。
図2は、実施形態1に係る画像処理システム100のハードウェア構成を示す図であり、図2を用いて画像処理システム100のハードウェア構成について説明する。
画像処理システム100は、CPU111、ROM112、RAM113、補助記憶装置114、表示部115、操作部116、通信I/F117、及びバス118等を有する。CPU111は、ROM112やRAM113や補助記憶装置114等に記憶されているコンピュータプログラム等を用いて画像処理システム100の全体を制御することで、図1に示す画像処理システムの各機能ブロックを実現する。
RAM113は、補助記憶装置114から供給されるコンピュータプログラムやデータ、及び通信I/F117を介して外部から供給されるデータなどを一時記憶する。補助記憶装置114は、例えばハードディスクドライブ等で構成され、画像データや音声データやコンテンツ生成部4からの仮想視点画像を含むデジタルコンテンツなどの種々のデータを記憶する。
表示部115は、前述のように、仮想視点画像を含むデジタルコンテンツや、GUI等を表示する。操作部116は、前述のように、ユーザによる操作入力を受けて各種の指示をCPU111に入力する。CPU111は、表示部115を制御する表示制御部、及び操作部116を制御する操作制御部として動作する。
通信I/F117は、画像処理システム100の外部の装置(例えば、カメラ1や外部サーバ等)との通信に用いられる。例えば、画像処理システム100が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F117に接続される。画像処理システム100が外部の装置と無線通信する機能を有する場合には、通信I/F117はアンテナを備える。バス118は、画像処理システム100の各部をつないで情報を伝達する。
尚、本実施形態では表示部115や操作部116が、画像処理システム100の内部に含まれている例を示しているが、表示部115と操作部116との少なくとも一方が画像処理システム100の外部に別体の装置として存在していても良い。尚、画像処理システム100は、例えばPC端末のような形態であっても良い。
図3は、実施形態1の画像処理システム100の動作フローを説明するためのフローチャートである。又、図4(A)~(C)は実施形態1でコンテンツ生成部4が生成する立体形状のデジタルコンテンツの例を示す図である。
尚、画像処理システム100のコンピュータとしてのCPU111が例えばROM112や補助記憶装置114等のメモリに記憶されたコンピュータプログラムを実行することによって図3のフローチャートの各ステップの動作が行われる。
尚、本実施形態では、画像処理システム100は放送局等に設置され、図4(A)に示すような立方形状のデジタルコンテンツ200を製作し放送してもよいし、或いはインターネットを介して提供してもよい。その際に、デジタルコンテンツ200にNFTを付与可能としている。
即ち、資産価値を向上させるために、例えば配布するコンテンツの数量を制限してシリアル番号で管理するなどして稀少性を持たせることができるようにしている。尚、NFTはノンファンジブルトークン(Non-fungible Token)の略であり、ブロックチェーン上に発行・流通するためのトークンである。NFTのフォーマットの一例としては、ERC―721やERC―1155と呼ばれるトークン規格がある。トークンは通常、ユーザが管理するウォレットに関連付けて保管される。
ステップS31において、CPU111は、メインカメラ画像(第1の画像)を例えば図4(A)のような立体形状のデジタルコンテンツ200の第1面201と対応付ける。なお、ユーザによる確認のために、第1面201と対応付けられたメインカメラ画像を表示してもよい。さらに、図4(A)で示すように、デジタルコンテンツを仮想的に見た視点からの視線方向(具体的には、図4(A)の紙面に垂直な方向)と第1面201の法線方向とが平行でない場合には、以下の表示を行ってもよい。
つまり、第1面201に表示されるメインカメラ画像は、デジタルコンテンツの表示面に対する第1面201の法線方向の角度に応じて、射影変換されて生成されてもよい。ここで、メインカメラ画像(メイン画像、第1の画像)とは、スポーツ会場に設置された複数のカメラから得られた複数の画像の内の、TV放送等のために選択される画像である。なお、メイン画像は所定の被写体を画角内に含む画像である。また、メインカメラ画像は、スポーツ会場に設置されたカメラによって撮像されたものでなくてもよい。
例えば、カメラマンの持ち込む手持ちのカメラによって撮像された画像であってもよい。あるいは会場内の観客が持ち込むカメラやカメラを搭載するスマホ等の電子機器で撮像された画像であってもよい。また、メインカメラ画像は、仮想視点画像の生成に用いられる複数のカメラのうちの一つでもよいし、その複数のカメラに含まれないカメラであってもよい。
どのカメラの画像をメイン画像として放送或いはネットで配信するかは放送局等のユーザが操作部116を用いて逐次選択する。例えばゴールの瞬間を放映、配信する場合にはゴール近傍のカメラからの画像をメイン画像として放送する場合が多い。
尚、本実施形態においては図4(A)~(C)に示すように、向かって左側に見える面を第1面とし、右側に見える面を第2面とし、上側に見える面を第3面としている。しかし、これに限定されない。どの面を第1面~第3面とするかは予め任意に設定できるものとする。
ステップS32で、コンテンツ生成部4は、デジタルコンテンツ200の第3面203に付随データとして例えばゴールにシュートした選手の名前や所属チーム名やゴールした試合における最終試合結果などのデータを対応付ける。なお、ユーザによる確認のために、第3面203に対応付けられた付随データを表示してもよい。NFTを付与する場合には、その発行数など希少性を表すデータを付随データとして第3面203に表示しても良い。発行数は、画像生成システムを使ってデジタルコンテンツを生成するユーザが決定してもよいし、画像生成システムが自動的に決定してもよい。
ステップS33において、画像生成部3は、メインカメラ画像を撮像するカメラの視点の向きに対して所定角度だけ視点の向きが異なり、例えばゴールやシューターが含まれる画像を複数のカメラ1からの画像の中から取得する。前記の所定角度は例えば90度である。その際、複数のカメラの配置位置や姿勢等は予めわかっているので、メインカメラ画像に対して上記のように所定角度視点の向きの異なる画像がどのカメラから取得できるかはCPU111が判断可能である。なお、以下で画像の視点という表現を用いる場合があるが、それは画像を撮像するカメラの視点あるいは、画像を生成するために指定された仮想視点のことである。
或いは、ステップS33(取得ステップ)において、画像生成部3において所定の(上記のように例えば90度視点の向きが異なる)仮想視点であって、画像認識された被写体を含む仮想視点からの仮想視点画像を取得しても良い。その場合、画像生成部3に対して上記の所定の(上記のように90度視点の向きつまり姿勢の異なる)仮想視点を指定し、仮想視点画像を生成させることで取得しても良い。
或いは、予め画像生成部3で予め複数の視点の仮想視点画像を生成しておき、その中から該当するものを選択することで取得しても良い。尚、本実施形態ではメインカメラ画像に対して所定角度だけ視点の異なる画像を例えば90度視点の異なる画像としているが、この角度は予め設定できるものとする。
又、仮想視点画像は、メインカメラ画像に含まれる被写体の向き(例えば、人物であれば顔や体の向き)に基づいて特定される仮想視点に対応する画像であってもよい。なお、メインカメラ画像に含まれる被写体が複数の場合には、そのうちの一つの被写体に対して、仮想視点を設定してもよいし、複数の被写体に対して仮想視点を設定してもよい。
尚、上記ではメイン画像に対して所定の角度の視点を選択する例について説明した。しかし、例えば被写体視点、被写体の後方からの視点、被写体を中心とした円弧上の位置の中の仮想視点の何れか一つなどから所定の1つの視点からの仮想視点画像を選択して取得するようにしても良い。
被写体視点とは、被写体の位置を仮想視点の位置として、被写体の向きを仮想視点からの視線方向とする仮想視点である。例えば、人物を被写体とする場合、被写体視点は、人物の顔の位置を仮想視点の位置とし、人物の顔の向きを仮想視点からの視線方向とした視点である。あるいは、その人物の視線方向を仮想視点からの視線方向としてもよい。
被写体の後方からの視点とは、被写体の後方に所定の距離離れた位置を仮想視点の位置として、その位置から被写体の位置に向かう方向を仮想視点からの視線方向とする仮想視点である。または、仮想視点からの視線方向としては、被写体の向きに応じて決定されてもよい。例えば、人物を被写体とする場合、被写体の後方からの視点とは、人物の背中から一定距離離れた位置を仮想視点の位置とし、人物の顔の向きを仮想視点から視線方向とした仮想視点である。
被写体を中心とした円弧上の位置の中の仮想視点とは、被写体の位置を中心とした所定の半径で規定される球面上の位置を仮想視点の位置として、その位置から被写体の位置に向かう方向を仮想視点からの視線方向とする仮想視点である。
例えば、人物を被写体とする場合、人物の位置を中心とした所定の半径で規定される球面上の位置を仮想視点の位置とし、その位置から被写体の位置に向かう方向を仮想視点からの視線方向とする仮想視点である。
ステップS33は、このように、第1の画像と所定の関係を有する視点の仮想視点画像を取得して第2の画像とする、仮想視点画像生成ステップとして機能している。尚、ここで、第1の画像と所定の関係を有する視点の仮想視点画像は、第1の画像の視点と同じ時刻(撮像タイミング)の仮想視点画像とする。又、本実施形態では、第1の画像と所定の関係を有する前記視点は、上記のように第1の画像の視点と所定の角度関係又は所定の位置関係にある視点とする。
そしてステップS34において、CPU111は、その第2の画像をデジタルコンテンツ200の第2面202に対応付ける。なお、ユーザの確認のために、第2の画像は表示されてもよい。尚、この時、第1面201に対応付けられるメイン画像と、第2面に対応付けられる第2画像は、前述のように同じ時刻に撮像された画像となるように同期制御されるものとする。
このようにステップS31~S34は、第1の画像を立体形状のデジタルコンテンツの後述の第1面に対応付け、第1の画像と所定の関係を有する仮想視点の仮想視点画像を、第2面202に対応付けている。又、ステップS31~S34は、コンテンツ生成ステップ(コンテンツ生成手段)として機能している。
次にステップS35において、CPU111は、操作部116を介して上記の第2面202に表示される第2の画像の視点を変更する操作がなされたか判別する。即ち、ユーザは時々刻々変化するスポーツシーンを見ながら第2面に表示すべき第2画像の視点を例えば複数のカメラ1の中から所望の視点のカメラ画像を選択することで変更する場合がある。
或いは、仮想視点の中から所望の視点を画像生成部3に対して指定することによってその視点からの仮想視点画像を取得する場合がある。ステップS35では、そのような視点変更操作がなされた場合には、Yesとなり、ステップS36に進む。
ステップS36において、CPU111は、視点が変更された後の視点画像を複数のカメラ1の中から選択するか、或いは視点が変更された後の仮想視点画像を画像生成部3から取得する。仮想視点画像の取得は、予め生成された仮想視点画像を取得してもよいし、変更された視点に基づいて新たに仮想視点画像を生成することで取得されてもよい。そしてその取得された画像を第2画像とし、ステップS34に遷移し第2面に対応付ける。
この状態において、表示部115には、デジタルコンテンツ200の第1~第3面に夫々、第1の画像、第2の画像、付随データが対応付けられる。ここで、ユーザは、デジタルコンテンツ200の第1~第3面に夫々、第1の画像、第2の画像、付随データが対応付けられた状態を、表示により確認してもよい。尚、その場合に、どの面が第1~第3の面かが分かるように面の番号も表示しても良い。
ステップS35で視点変更がない場合にはステップS37に進み、CPU111は、デジタルコンテンツ200にNFTを付与するか否か判別する。そのために例えば表示部115にデジタルコンテンツ200にNFTを付与するか否かを問うGUIを表示する。そして、ユーザがNFTを付与すると選択した場合には、それを判別してステップS38に進み、デジタルコンテンツ200にNFTを付与して、暗号化してからステップS39に進む。
ステップS37でNoと判別された場合には、そのままステップS39に進む。
尚、ステップS37におけるデジタルコンテンツ200は、図4(B)、(C)のような形状の立体画像であっても良い。又、多面体の場合に、図4(A)のような6面体に限定されず例えば8面体などであっても良い。
ステップS39において、CPU111は、図3のデジタルコンテンツ200を生成するためのフローを終了するか否か判別する。そして、ユーザが操作部116を操作して終了にしていなければ、ステップS31に戻って上記の処理を繰り替えし、終了であれば図3のフローを終了する。尚、ユーザが操作部116を操作して終了にしていなくても、操作部116の最後の操作から所定期間(例えば30分)経過したら自動的に終了しても良い。
尚、図4(B)、(C)はデジタルコンテンツ200の変形例を示した図であり、図4(B)は図4(A)のデジタルコンテンツ200を球としたものである。球状のデジタルコンテンツ200の例えば正面から見て左側の球面である第1面201に第1画像を表示し、右側の球面である第2面202に第2画像を表示する。又、上側の球面である第3面203に上記のような付随データを表示する。
図4(C)は図4(A)のデジタルコンテンツ200の各平面を所望の曲率の曲面にした例を示す図である。このように、本実施形態におけるデジタルコンテンツの表示は図4(B)、(C)のような球体や、表面が球面の立方体などを使って画像を表示するものであっても良い。
(実施形態2)
次に実施形態2について図5を用いて説明する。
図5は、実施形態2の画像処理システム100の動作フローを説明するためのフローチャートである。尚、画像処理システム100のコンピュータとしてのCPU111が例えばROM112や補助記憶装置114等のメモリに記憶されたコンピュータプログラムを実行することによって図5のフローチャートの各ステップの動作が行われる。
尚、図5において図3と同じ符号のステップは同じ処理であり説明を省略する。
図5のステップS51において、CPU111は、ユーザにより指定された視点のカメラ画像又はユーザにより指定された仮想視点からの仮想視点画像を画像生成部3から取得する。そして、取得された画像を第2の画像とする。それ以外は図3のフローと同じである。
実施形態1では、メイン画像(第1の画像)に対して所定の関係を有する(所定角度異なる)第2画像を取得するようにしていた。しかし、実施形態2では、ユーザが所望のカメラを選択するか、所望の被写体について所望の視点の仮想視点画像を取得して第2画像としている。
尚、ステップS51でユーザにより選択されるカメラ画像又は仮想視点画像は、例えばスポーツ会場に対して斜め上方の俯瞰的な視点の画像或いは斜め下方からの視点の画像などを含む。このように、実施形態2においては、第2面に表示される仮想視点画像をユーザが選択可能である。
又、ステップS51でユーザにより選択される仮想視点画像は、例えばズームアウトしたような被写体から離れた位置からの視点の仮想視点画像であっても良い。
又、過去に生成したカメラ画像や、それに基づき生成した仮想視点画像などを保存部5に保存しておき、それを読出して、第1画像や第2画像や付随データとして夫々第1面~第3面に表示させるようにしても良い。
尚、ステップS38とステップS39の間に、CPU111により、例えば操作部116の最後の操作から所定期間(例えば30分)経過したら自動的にデフォルトの立体画像表示に切り替えるステップを挿入しても良い。デフォルトの立体画像表示は、例えば第1面にメイン画像、第3面には例えば付随データを表示し、第2面には過去の統計で最も頻度の高い視点などからのカメラ画像や仮想視点画像を表示すれば良い。
(実施形態3)
図6~図8を用いて実施形態3について説明する。図6は実施形態3の画像処理システム100の動作フローを説明するためのフローチャートであり、図7は図6の続きのフローチャート、図8は、図6と図7の続きのフローチャートである。尚、画像処理システム100のコンピュータとしてのCPU111が例えばROM112や補助記憶装置114等のメモリに記憶されたコンピュータプログラムを実行することによって図6~図8のフローチャートの各ステップの動作が行われる。
実施形態3では、ユーザが仮想視点数を1~3の中から選択すると、それに応じてデジタルコンテンツ200の第1~第3面の表示を自動的に切り替える。
ステップS61において、ユーザが仮想視点の数を1~3の中から選択し、それをCPU111は受け付ける。ステップS62において、CPU111は、選択された数の仮想視点画像を画像生成部3から取得する。
このとき、自動的に代表的な仮想視点を選択する。即ち、シーンを解析し、そのシーンに対して例えば過去の統計から最も使用頻度の高い仮想視点を第1の仮想視点とし、次に使用頻度の高い仮想視点を第2の仮想視点とし、その次に使用頻度の高い仮想視点を第3の仮想視点とする。尚、第2の仮想視点は第1の仮想視点に対して例えば+90°、第3の仮想視点は第1の仮想視点に対して例えば-90°角度が異なるように予め設定しても良い。ここで+90°、-90°は例であって、これらの角度に限定されない。
ステップS63において、CPU111は、選択された仮想視点の数が1か否か判別し、1であれば、ステップS64に進む。ステップS64において、CPU111は、複数のカメラ1の中のメインカメラからメイン画像を取得してデジタルコンテンツ200の第1面201に対応付ける。
そしてステップS65で、CPU111は、付随データをデジタルコンテンツ200の第3面203に対応付ける。付随データは、実施形態1の図3のステップS32で表示する付随データと同様の、例えばゴールにシュートした選手の名前などであれば良い。
ステップS66において、CPU111は、デジタルコンテンツ200の第2面に前述の第1の仮想視点からの第1の仮想視点画像を対応付け、その後、図8のステップS81に進む。
ステップS63でNoと判別された場合には、ステップS67において、CPU111は、選択された仮想視点の数が2か否か判別し、2であれば、ステップS68に進む。
ステップS68において、CPU111は、付随データをデジタルコンテンツ200の第3面203に対応付ける。付随データは、ステップS65で対応付ける付随データと同様の、例えばゴールにシュートした選手の名前などであれば良い。
そして、ステップS69において、CPU111は、第1の仮想視点からの第1の仮想視点画像をデジタルコンテンツ200の第1面201に対応付ける。又、デジタルコンテンツ200の第2面202に、前述の第2の仮想視点からの第2の仮想視点画像を対応付ける。その後、図8のステップS81に進む。
ステップS67でNoと判別された場合には、図7のステップS71に進む。ステップS71において、CPU111は、ユーザが第3面203に付随データを対応付ける選択をしているか否か判別する。Yesの場合には、ステップS72に進み、Noの場合には、ステップS73に進む。
ステップS72において、CPU111は、第1の仮想視点からの仮想視点画像をデジタルコンテンツ200の第1面201に対応付け、第2面202に第2の仮想視点からの仮想視点画像を対応付け、第3面に第3の仮想視点からの仮想視点画像を対応付ける。その後、図8のステップS81に進む。
ステップS71でNoの場合には、ステップS73において、CPU111は、付随データをデジタルコンテンツ200の第3面203に対応付ける。付随データは、ステップS65で対応付ける付随データと同様の、例えばゴールにシュートした選手の名前などであれば良い。
そして、ステップS74において、CPU111は、第1の仮想視点からの第1の仮想視点画像をデジタルコンテンツ200の第1面201に対応付ける。又、ステップS75において、CPU111は、デジタルコンテンツ200の第2面202に、第2の仮想視点からの第2の仮想視点画像と第3の仮想視点からの第3の仮想視点画像とを並べて表示できるように対応付ける。つまり、第2面202を第2の仮想視点画像と第3の仮想視点画像とを表示する2つの領域に分割して、領域ごとに仮想視点画像を対応付ける。その後、図8のステップS81に進む。
図8のステップS81において、CPU111は、デジタルコンテンツ200にNFTを付与するか否か判別する。そのために例えば表示部115にデジタルコンテンツ200にNFTを付与するか否かを問うGUIを表示する。そして、ユーザがNFTを付与すると選択した場合には、ステップS82に進み、デジタルコンテンツ200にNFTを付与し、暗号化してからステップS83に進む。
ステップS81でNoと判別された場合には、そのままステップS83に進む。尚、ステップS81におけるデジタルコンテンツ200は、前述と同様に、図4(B)、(C)のような形状のものでもよい。
ステップS83において、CPU111は、図6~図8のフローを終了するか否か判別し、ユーザが操作部116を操作して終了にしていなければ、ステップS84に進む。
ステップS84では、CPU111は、仮想視点の数が変更されていないか判別する。数が変更されていればステップS61に戻る。数が変更されていなければステップS62に戻る。ステップS83でYesと判別された場合には図6~図8のフローを終了する。
尚、実施形態3では、ユーザが仮想視点数を1~3の中から選択すると、それに応じてデジタルコンテンツ200の第1~第3面に対応付ける画像を自動的に切り替える例を説明した。しかし、ユーザが複数のカメラの画像中からデジタルコンテンツ200を構成する面に対応付けるカメラ画像の数を、選択するようにしても良い。そして、それに応じて複数のカメラ1の中から所定のカメラを自動的に選択して、デジタルコンテンツ200の第1~第3面のそれらのカメラ画像を自動的に対応付けるようにしても良い。
なお、視点の数は、最大3つでなくてもよい。例えば、視点の数は、デジタルコンテンツを構成する面の数あるいは、画像を対応付けることが可能な面の数を最大とする範囲で決定されてもよい。また、一つの面に複数の画像を対応付けることができれば、さらに最大の視点の数を増やすことが可能である。
又、ステップS82とステップS83の間に、CPU111が、例えば操作部116の最後の操作から所定期間(例えば30分)経過したら自動的にデフォルトの立体画像表示からなるコンテンツに切り替えるステップを挿入しても良い。デフォルトの立体画像表示は、例えば第1面にメイン画像を表示し、第2面に、過去の統計で最も使用頻度の高い視点からのカメラ画像または仮想視点画像とする。第3面は例えば付随データとする。
以上のように実施形態3においては、ステップS69、ステップS72、ステップS95において、第2面に表示させる仮想視点画像とは異なる仮想視点画像を、第1面に対応付けることを可能にしている。
以上、本開示を複数の実施形態に基づいて詳述してきたが、本開示は上記実施形態に限定されるものではなく、本開示の主旨に基づき種々の変形が可能であり、それらを本開示の範囲から除外するものではない。例えば、以上の実施形態1~3を適宜組み合わせても良い。
また、デジタルコンテンツを構成する一つの面に、視点の異なる複数の仮想視点画像を対応付けてもよい。
尚、本実施形態における制御の一部又は全部を上述した実施形態の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理システム等に供給するようにしてもよい。そしてその画像処理システム等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本開示を構成することとなる。
1 カメラ
3 画像生成部
4 コンテンツ生成部
100 画像処理システム



Claims (17)

  1. 複数の撮像装置で撮像されることにより得られた複数の画像と仮想視点とに基づいて生成される仮想視点画像を取得する取得手段と、
    前記取得手段により取得された仮想視点画像と、当該仮想視点画像に対応する仮想視点と異なる視点の画像とを含む立体形状のデジタルコンテンツを生成する生成手段と、を有し、
    前記生成手段は、前記仮想視点画像と、当該仮想視点画像に対応する仮想視点と異なる視点の画像とを、前記デジタルコンテンツを構成する異なる面に対応付けることを特徴とする画像処理システム。
  2. 前記仮想視点画像に対応する前記仮想視点と異なる視点の画像は、撮像装置で撮像されることにより得られた撮像画像であることを特徴とする請求項1に記載の画像処理システム。
  3. 前記デジタルコンテンツに含まれる前記仮想視点画像は、前記撮像画像と所定の関係を有する画像であることを特徴とする請求項2に記載の画像処理システム。
  4. 前記デジタルコンテンツに含まれる前記仮想視点画像の生成に使用される画像の撮像タイミングは、前記撮像画像の撮像タイミングと同じであることを特徴とする請求項3に記載の画像処理システム。
  5. 前記デジタルコンテンツに含まれる前記仮想視点画像に対応する前記仮想視点は、前記撮像画像を撮像する撮像装置の視点と所定の角度関係又は所定の位置関係にあることを特徴とする請求項3又は4に記載の画像処理システム。
  6. 前記デジタルコンテンツに含まれる前記仮想視点画像に対応する前記仮想視点は、前記撮像画像に含まれる被写体に基づいて決定されることを特徴とする請求項2乃至5のいずれか1項に記載の画像処理システム。
  7. 前記仮想視点の位置は、前記被写体を表す3次元形状の位置又は姿勢に基づいて決定されることを特徴とする請求項6に記載の画像処理システム。
  8. 前記仮想視点の位置は、前記被写体の位置であり、
    前記仮想視点からの視線方向は、前記被写体の向きに基づいて決定されることを特徴とする請求項6又は7のいずれか1項に記載の画像処理システム。
  9. 前記被写体は人物であり、
    前記被写体の向きは、前記被写体の顔の向きであることを特徴とする請求項8に記載の画像処理システム。
  10. 前記仮想視点の位置は、前記被写体の後方に所定の距離離れた位置であり、
    前記仮想視点からの視線方向は、前記被写体の後方に所定の距離離れた位置から前記被写体に向かう方向であることを特徴とする請求項6又は7に記載の画像処理システム。
  11. 前記仮想視点の位置は、前記被写体の位置を中心とする円の円弧上の位置であり、
    前記仮想視点からの視線方向は、前記被写体の位置を中心とする円の円弧上の位置から前記被写体に向かう方向であることを特徴とする請求項6又は7に記載の画像処理システム。
  12. 前記仮想視点画像に対応する仮想視点と異なる視点の画像は、当該仮想視点とは異なる仮想視点と、前記複数の撮像装置で撮像されることにより得られた前記複数の画像とに基づいて生成される仮想視点画像であることを特徴とする請求項1に記載の画像処理システム。
  13. 前記仮想視点画像が対応付けられる面には、他の仮想視点画像も対応付けられることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理システム。
  14. 前記仮想視点画像と、当該仮想視点画像に対応する仮想視点と異なる視点の画像とが、前記デジタルコンテンツを構成する一つの面に対応付けられることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理システム。
  15. 前記生成手段は、前記デジタルコンテンツにNFT(Non-fungible Token)を付与することを特徴とする請求項1乃至14のいずれか1項に記載の画像処理システム。
  16. 複数の撮像装置で撮像されることにより得られた複数の画像と仮想視点とに基づいて生成される仮想視点画像を取得する取得ステップと、
    前記取得ステップにより取得された仮想視点画像と、当該仮想視点画像に対応する仮想視点と異なる視点の画像とを含む立体形状のデジタルコンテンツを生成する生成ステップと、を有し、
    前記生成ステップにおいて、前記仮想視点画像と、当該仮想視点画像に対応する仮想視点と異なる視点の画像とを、前記デジタルコンテンツを構成する異なる面に対応付けることを特徴とする画像処理方法。
  17. 請求項1乃至15のいずれか1項に記載の画像処理システムの各手段をコンピュータにより制御するためのコンピュータプログラム。

JP2022037555A 2022-03-10 2022-03-10 画像処理システム、画像処理方法及びコンピュータプログラム Active JP7746197B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022037555A JP7746197B2 (ja) 2022-03-10 2022-03-10 画像処理システム、画像処理方法及びコンピュータプログラム
US18/174,685 US12388965B2 (en) 2022-03-10 2023-02-27 Image processing system, image processing method, and storage medium
EP23159343.5A EP4243411A1 (en) 2022-03-10 2023-03-01 Image processing system, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022037555A JP7746197B2 (ja) 2022-03-10 2022-03-10 画像処理システム、画像処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2023132320A true JP2023132320A (ja) 2023-09-22
JP7746197B2 JP7746197B2 (ja) 2025-09-30

Family

ID=85410508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022037555A Active JP7746197B2 (ja) 2022-03-10 2022-03-10 画像処理システム、画像処理方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US12388965B2 (ja)
EP (1) EP4243411A1 (ja)
JP (1) JP7746197B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20250078403A1 (en) * 2023-09-06 2025-03-06 Fyusion, Inc. Automatically generating synthetic images from novel viewpoints

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017501500A (ja) * 2013-09-17 2017-01-12 アマゾン テクノロジーズ インコーポレイテッド 三次元オブジェクト表示のためのアプローチ
WO2018199052A1 (ja) * 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置
JP2019520618A (ja) * 2016-12-30 2019-07-18 グーグル エルエルシー 3d環境におけるコンテンツのレンダリング
JP2021086189A (ja) * 2019-11-25 2021-06-03 キヤノン株式会社 情報処理装置、情報処理方法、映像処理システム、およびプログラム
WO2021246498A1 (ja) * 2020-06-03 2021-12-09 エイベックス・テクノロジーズ株式会社 ライブ配信システム
JP2022032491A (ja) * 2020-08-12 2022-02-25 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013211672A (ja) * 2012-03-30 2013-10-10 Namco Bandai Games Inc 曲面投影立体視装置
JP5945255B2 (ja) 2013-08-27 2016-07-05 日本電信電話株式会社 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
US20190251682A1 (en) * 2013-09-30 2019-08-15 Duelight Llc Systems, methods, and computer program products for digital photography
US9361319B2 (en) * 2013-09-30 2016-06-07 Duelight Llc Systems, methods, and computer program products for digital photography
US10440407B2 (en) * 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10085005B2 (en) * 2015-04-15 2018-09-25 Lytro, Inc. Capturing light-field volume image and video data using tiled light-field cameras
US10341632B2 (en) * 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10469873B2 (en) * 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10419737B2 (en) * 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10546424B2 (en) * 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
JP6878014B2 (ja) * 2017-01-13 2021-05-26 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム
JP2019135617A (ja) 2018-02-05 2019-08-15 キヤノン株式会社 情報処理装置およびその制御方法、画像処理システム
WO2019193696A1 (ja) * 2018-04-04 2019-10-10 株式会社ソニー・インタラクティブエンタテインメント 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法
JP7271099B2 (ja) 2018-07-19 2023-05-11 キヤノン株式会社 ファイルの生成装置およびファイルに基づく映像の生成装置
JP7199886B2 (ja) 2018-09-14 2023-01-06 キヤノン株式会社 画像処理装置、画像処理方法、及び、プログラム
JP7237538B2 (ja) 2018-11-14 2023-03-13 キヤノン株式会社 情報処理装置、それを含むシステム、情報処理方法、およびプログラム
JP7279694B2 (ja) 2020-08-25 2023-05-23 トヨタ自動車株式会社 制御装置
JP7461654B2 (ja) * 2021-06-28 2024-04-04 グリー株式会社 情報処理システム、情報処理方法、情報処理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017501500A (ja) * 2013-09-17 2017-01-12 アマゾン テクノロジーズ インコーポレイテッド 三次元オブジェクト表示のためのアプローチ
JP2019520618A (ja) * 2016-12-30 2019-07-18 グーグル エルエルシー 3d環境におけるコンテンツのレンダリング
WO2018199052A1 (ja) * 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置
JP2021086189A (ja) * 2019-11-25 2021-06-03 キヤノン株式会社 情報処理装置、情報処理方法、映像処理システム、およびプログラム
WO2021246498A1 (ja) * 2020-06-03 2021-12-09 エイベックス・テクノロジーズ株式会社 ライブ配信システム
JP2022032491A (ja) * 2020-08-12 2022-02-25 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム

Also Published As

Publication number Publication date
JP7746197B2 (ja) 2025-09-30
US12388965B2 (en) 2025-08-12
US20230291883A1 (en) 2023-09-14
EP4243411A1 (en) 2023-09-13

Similar Documents

Publication Publication Date Title
KR102077108B1 (ko) 콘텐츠 체험 서비스 제공 장치 및 그 방법
JP2023181217A (ja) 情報処理システム、情報処理方法、および情報処理プログラム
CN113784148A (zh) 数据处理方法、系统、相关设备和存储介质
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
US20230353717A1 (en) Image processing system, image processing method, and storage medium
WO1995007590A1 (fr) Processeur d'images variant dans le temps et dispositif d'affichage
JP7725652B2 (ja) 情報処理装置、情報処理システム、及びプログラム
JP7682251B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7703736B2 (ja) システム
JP2022131777A (ja) 情報処理装置、それを含むシステム、情報処理方法およびプログラム
JP7612384B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7746197B2 (ja) 画像処理システム、画像処理方法及びコンピュータプログラム
JP2024062300A (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP7536531B2 (ja) 画像処理装置、画像処理方法、画像処理システム及びプログラム。
JP7730851B2 (ja) 画像処理システム、画像処理方法及びコンピュータプログラム
JP2022171436A (ja) 情報処理装置、情報処理方法およびプログラム
JP7703496B2 (ja) 画像処理システム、画像処理システムの制御方法、及びプログラム
JP7204843B2 (ja) 送信装置および送信方法、プログラム
JP7558652B2 (ja) 配置決定装置、配置決定方法、及びプログラム
JP2024131411A (ja) 画像処理システム、画像処理方法及びコンピュータプログラム
JP2024014517A (ja) 情報処理システム、情報処理方法及びコンピュータプログラム
CN116962660A (zh) 图像处理系统、图像处理方法和存储介质
JP2024022484A (ja) 生成装置、生成方法及びプログラム
JP2024124310A (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2025156338A (ja) コンテンツ作成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240311

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240903

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240910

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20241004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250917

R150 Certificate of patent or registration of utility model

Ref document number: 7746197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150