[go: up one dir, main page]

JP2014099854A - ソーシャルネットワークサービス提供装置及び方法 - Google Patents

ソーシャルネットワークサービス提供装置及び方法 Download PDF

Info

Publication number
JP2014099854A
JP2014099854A JP2013233196A JP2013233196A JP2014099854A JP 2014099854 A JP2014099854 A JP 2014099854A JP 2013233196 A JP2013233196 A JP 2013233196A JP 2013233196 A JP2013233196 A JP 2013233196A JP 2014099854 A JP2014099854 A JP 2014099854A
Authority
JP
Japan
Prior art keywords
user
image
social network
network service
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013233196A
Other languages
English (en)
Inventor
Min-Young Mun
▲みん▼ 暎 文
Eun-Sung Jung
隠 成 鄭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014099854A publication Critical patent/JP2014099854A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 拡張現実を活用したソーシャルネットワークサービス提供装置及び方法を提供する。
【解決手段】 拡張現実技術を活用してソーシャルネットワークサービス(SNS)を提供するシステムが開示される。システムは、第1ユーザのイメージを受信し、該受信されたイメージに基づいて基準映像を生成し、基準映像を第2デバイスに伝送する第1デバイスと、第1デバイスから基準映像を受信し、基準映像及び第2ユーザの現在の状況情報に基づいて仮想映像を生成し、仮想映像を所定の位置に表示する第2デバイスと、を含む。
【選択図】 図1

Description

本発明は、テレビジョンシステムを利用してオーグメンテッドリアリティ又は拡張現実(augmented reality)を実現することでソーシャルネットワークサービスを提供すること等に関する。
最近、ソーシャルネットワークサービス(SNS)を通じて意見や情報を共有及び交換するトレンドと共に、同じテレビジョン(TV)の番組を視聴しつつ他のユーザとチャットグループでリアルタイムにユーザが通信できるようにするシステムに関心が高まっている。しかし、ユーザは、TVを視聴しながら、ディスプレイを眺めつつ対話を続けるためにキーボードを用いてメッセージを入力しなければならない。したがって、ユーザは、キーボードにおけるタイプ入力が困難になる一方、TV視聴に集中することもできなってしまう。すなわち、TVは、家庭電気製品から、TVに対するSNSの簡易なアプリケーションにより多くのユーザで楽しめる通信システムへと進化している。しかしながら、これらの通信システムは、人々が実際に同じ場所に集まって一緒にTVを鑑賞しつつ実際に対話しているような感覚をユーザに与えるような環境を提供してはいない。
本発明は、拡張現実を活用したソーシャルネットワークサービス提供装置及び方法を提供することである。
実施の形態による装置は、
第1デバイスと第2デバイスとを有するソーシャルネットワークサービス提供装置であって、
前記第1デバイスは、第1ユーザのイメージを受信し、該受信された前記イメージに基づいて基準映像を生成し、前記基準映像を第2デバイスに伝送し、
前記第2デバイスは、前記第1デバイスから前記基準映像を受信し、前記基準映像及び第2ユーザの現在の状況情報に基づいて仮想映像を生成し、前記仮想映像を所定の位置に表示する、ソーシャルネットワークサービス提供装置である。
本発明の一実施形態によるソーシャルネットワークサービス提供装置の構成図である。 本発明の一実施形態によるソーシャルネットワークサービス提供装置のブロック図である。 ユーザの友人のイメージを表示する実施形態を説明する図面である。 ユーザの友人のイメージを表示する実施形態を説明する図面である。 ユーザの友人のイメージを表示する実施形態を説明する図面である。 本発明の一実施形態によるソーシャルネットワークサービス提供方法のフローチャートである。 本発明の一実施形態による第1デバイスのブロック図である。 本発明の一実施形態による第1デバイスの遂行手続きを示す図面である。 本発明の一実施形態による第2デバイスを例示した図面である。 本発明の一実施形態による第2デバイスの遂行手続きを示す図面である。
<実施の形態の概要>
本発明の一態様によれば、ソーシャルネットワークサービス(SNS)提供システムは、第1ユーザのイメージを受信し、該受信された前記イメージに基づいて基準映像を生成し、前記基準映像を第2デバイスに伝送する第1デバイスと、前記第1デバイスから前記基準映像を受信し、前記基準映像及び第2ユーザの現在の状況情報に基づいて仮想映像を生成し、前記仮想映像を所定の位置に表示する第2デバイスと、を含む。
この際、前記第1デバイスは、前記第2ユーザのイメージを収集するイメージセンサーを含み、収集された前記イメージを前記第1ユーザに伝送しうる。また、前記第1デバイスは、第1ユーザの第1音声を受信し、前記第1音声を出力するか、または前記第1音声を前記第2デバイスに伝送し、前記第2ユーザの第2音声を受信して、前記第1ユーザに伝送しうる。また、前記第1デバイスは、前記第2ユーザの友人リスト表示、同じ番組又はプログラムを視聴する友人リスト表示、及び前記第2ユーザの友人のうち少なくとも1人との対話開始のうち、少なくとも1つに関する制御命令を受信することができる。
また、前記状況情報は、前記第2ユーザの視線方向または視野角のうち、少なくとも1つを含みうる。
また、前記第2デバイスは、前記状況情報及び前記仮想映像が表示される位置に基づいて前記仮想映像の形状を決定することができる。また、前記第1デバイスは、TV信号を受信して出力するテレビであり、前記第2デバイスは、着用可能なデバイスであり得る。
また、前記仮想映像は、前記第1デバイスに表示される他イメージと重なって表示される。
本発明の他の態様によれば、ソーシャルネットワークサービス(SNS)提供方法は、第1デバイスが、ソーシャルネットワークサービス(SNS)の第1ユーザのイメージを受信する段階と、受信された前記イメージに基づいて基準映像を生成する段階と、前記基準映像を第2デバイスに伝送する段階と、前記第2デバイスが、前記基準映像及び第2ユーザの現在の状況情報に基づいて仮想映像を生成する段階と、前記仮想映像を所定の位置に表示する段階と、を含む。
この際、前記第1ユーザの第1音声を受信する段階と、前記第1ユーザの前記第1音声を出力するか、前記第2デバイスに前記第1音声を伝送する段階と、をさらに含みうる。また、第1デバイスが、イメージセンサーを通じて収集された前記第2ユーザのイメージを前記第1ユーザに伝送する段階をさらに含みうる。
また、前記状況情報は、前記第2ユーザの視線方向または視野角のうち、少なくとも1つを含みうる。
また、前記仮想映像を生成する段階は、前記状況情報及び前記仮想映像が表示される位置に基づいて生成される前記仮想映像の形状を決定する段階を含みうる。
また、前記第1デバイスは、TV信号を受信して出力するテレビであり、前記第2デバイスは、着用可能なデバイスであり得る。
また、前記基準映像を生成する段階は、前記受信されたイメージ及び前記第1ユーザの標準イメージに基づいて前記基準映像を生成する段階を含みうる。また、前記標準イメージは、前記第1ユーザの感情状態と前記第1ユーザの顔の表情とのうち少なくとも1つに基づくことができる。また、前記標準イメージは、標準イメージデータベース内に保存され、アバター、有名人のイメージ、前記第1ユーザの実際イメージ、及び前記第1ユーザと関連したイメージのうち、少なくとも1つを含みうる。
また、前記仮想映像を表示する段階は、前記仮想映像を前記第1デバイスに表示される他イメージと重畳して表示することができる。また、前記仮想映像を表示する段階は、前記第1ユーザの前記仮想映像の一部を表示することができる。
本発明のさらに他の態様によれば、デバイスは、第1ユーザのイメージを収集する少なくとも1つのイメージセンサーと、前記第1ユーザの前記イメージを第2ユーザに伝送し、前記第2ユーザのイメージを受信する第1通信部と、受信された前記第2ユーザのイメージに基づいて基準映像を生成する映像生成部と、前記基準映像を第2デバイスに伝送し、前記基準映像を用いて前記第1ユーザに表示される仮想映像を生成する第2通信部と、を含む。
この際、前記第1ユーザを認識するユーザ認識部と、前記第1ユーザから多様な制御命令を受信し、前記制御命令に対応する動作を処理する命令処理部と、をさらに含みうる。
また、前記制御命令は、全体友人リスト表示、現在放送されている番組を視聴している友人リスト表示、または特定の友人との対話開始のうち、少なくとも1つに関する制御命令を含みうる。
また、前記第1通信部を通じて受信された前記第2ユーザの音声を出力する音声出力部と、前記第1ユーザの音声を受信し、前記第1ユーザの前記音声を前記第1通信部を通じて前記第2ユーザに伝送する音声受信部と、をさらに含みうる。
また、前記基準映像を生成する標準イメージを保存している標準イメージデータベース(DB)をさらに含み、前記映像生成部は、受信された前記第2ユーザの前記イメージに基づいて1つの標準イメージを選択し、前記基準映像を生成することができる。
本発明のさらに他の態様による第2デバイスは、第1デバイスから第2ユーザの基準映像を受信する通信部と、前記第1デバイスに表示される番組を視聴している第1ユーザの現在の状況情報を認識する状況認識部と、受信された前記基準映像及び前記状況情報に基づいて仮想映像を生成するレンダリング部と、生成された前記仮想映像を所定の位置に表示するディスプレイ部と、を含む。
この際、前記第1ユーザのイメージを生成するイメージセンサーをさらに含み、前記状況認識部は、前記第1ユーザの前記イメージを分析し、前記第1ユーザの視線方向及び前記第1ユーザの視野角のうち少なくとも1つを含む状況情報を生成することができる。
また、前記レンダリング部は、前記状況情報及び前記仮想映像が表示される位置に基づいて前記仮想映像の形状を決定することができる。
また、前記第1デバイスから受信された第2ユーザの音声を前記通信部を通じて出力する音声出力部と、前記第1ユーザの前記音声を受信し、該受信された前記音声を前記通信部を通じて前記第1デバイスに伝送する音声受信部と、をさらに含みうる。
また、前記第2デバイスは、着用可能なものであり得る。
<実施の形態の詳細な説明>
その他の実施形態の具体的な事項は、詳しい説明及び図面に含まれている。記載の技術の利点及び特徴、そして、それらを果たす方法は、添付される図面と共に詳細に後述されている実施形態を参照すると、明確になる。明細書の全体に亘って同じ参照符号は、同じ構成要素を指称する。
以下、拡張現実を活用したソーシャルネットワークサービス提供装置及び方法と、デバイスの実施形態を図面を参考にして詳しく説明する。
図1は、本発明の一実施形態によるソーシャルネットワークサービス提供装置の構成図である。図1を参照すると、拡張現実を活用したソーシャルネットワークサービス提供装置1は、第1デバイス100と第2デバイス200とを含む。
本実施形態による第1デバイス100は、2D/3DスマートTV、スマートボックスが連結された一般TV及びTV受信カードが内蔵されたコンピュータのようにTV受信機能が備われた各種機器になる。しかし、必ずしもTV機能を有する機器として限定されるものではなく、動画や、映画、音楽鑑賞などの多様なコンテンツを楽しめるように支援するコンピュータのような機器が含まれうる。但し、以下、説明の便宜上、TV受信機能を備えた機器に限定して説明する。
ユーザは、第1デバイス100を通じてTVを視聴しながら、自身が所望する友人とリアルタイム対話ができる。すなわち、第1デバイス100は、ユーザの要請に応じてユーザの友人リストを提示し、ユーザが選択した友人の第1デバイスに対話要請を伝送し、対話を受諾した友人とリアルタイム対話を可能にする。第1デバイス100は、対話を受諾した友人の第1デバイスからその友人のイメージを受信し、第1デバイス100に装着されたイメージセンサー又は画像センサー110を通じてユーザのイメージ又は画像又は映像を収集して対話友人に伝送しうる。また、対話友人の音声を受信して出力し、ユーザの音声を対話友人の第1デバイスに伝送することによって、TVを視聴しながらリアルタイム対話を可能にする。
第2デバイス200は、第1デバイス100と有無線通信で連結されて各種データを送受信する。また、第2デバイス200は、ユーザに対話友人の仮想のイメージを表示することができる。例えば、第2デバイス200は、フレーム21とレンズ24とで構成されたメガネ形態の着用可能なデバイスであり得る。他の実施形態で、第2デバイス200は、単一スクリーンやマルチスクリーンを画面として有するスマートウォッチになることもある。第2デバイス200の例示は、これらのみに限定されるものではない。詳しく後述するように、第1デバイス100が受信した対話友人のイメージ又は画像又は映像に基づいて仮想のイメージを生成して、ユーザに表示する機能を備えたあらゆるデバイスが該当しうる。
第2デバイス200は、第1デバイス100が受信した対話相手のイメージに基づいてユーザに表示する仮想のイメージを生成し、該生成された仮想のイメージを所望の位置に表示することができる。図1を参照すると、第2デバイス200は、ユーザの動きを撮影することができるカメラのようなイメージセンサー又は画像センサー22と生成された仮想のイメージを特定の位置に表示するディスプレイ部23とを含みうる。イメージセンサー22は、ユーザの動きを感知して視線位置や視野角などの状況を把握し、これを通じて所望の位置を把握することができる。
図2は、本発明の一実施形態によるソーシャルネットワークサービス提供装置のブロック図である。図2を参照すると、ソーシャルネットワークサービス提供装置1の第1デバイス100は、イメージセンサー110、外部通信部120、映像生成部130、内部通信部140及び音声処理部150を含みうる。
イメージセンサー110は、対話相手に伝送するユーザのイメージを収集する。
外部通信部120は、ユーザが相手とリアルタイムSNS活動に必要な各種データを送受信する役割を果たす。例えば、外部通信部120は、ユーザの友人の第1デバイスの外部通信部と直接無線または有線通信網を通じて連結されうる。外部通信部120は、多様な機能を行うことができる。例えば、外部通信部120は、ユーザの要請を受信すれば、ユーザの友人に対話受諾要請情報伝送、友人から対話受諾情報受信、対話を受諾した友人からイメージ、音声受信及びユーザのイメージや音声を友人に伝送するなど各種データを送受信することができる。
映像生成部130は、外部通信部120を通して相手のイメージが受信されれば、対話に参与しているユーザの友人のイメージに基づいてユーザに見せる基準映像を生成する。例えば、ユーザに見せる基準映像は、実際受信された友人のイメージになりうる。または、ユーザの友人ごとに既定の標準イメージになることもある。この際、標準イメージは、図示されていない標準イメージDBに保存することができる。標準イメージDBには、アバター、芸能人イメージ、対話に参与している友人の実際イメージ、対話相手を連想させる各種イメージなどのユーザと友人に関する多様なイメージが保存することができる。
ユーザの友人が対話要請を受諾すれば、映像生成部130は、その友人に対して既定の標準イメージが存在するかを標準イメージDBで確認し、標準イメージが存在する場合、その標準イメージを基準映像に生成することができる。また、ユーザの友人のイメージが受信されれば、映像生成部130は、第1デバイス100のディスプレイ装置や第2デバイス200のディスプレイ装置に複数の標準イメージを提示し、ユーザが標準イメージとして選択したイメージを基準映像として使用できる。
ユーザは、相手から受信されたイメージによってユーザの友人の気分状態(例:楽しい状態、憂鬱な状態、怒った状態など)を把握して、気分状態を表わすのに適した標準イメージ(例:楽しい表情の標準イメージ、憂鬱な表情の標準イメージ、怒った表情の標準イメージなど)を選択することも可能である。ユーザの気分状態によって、複数の対話相手に対して互いに異なる表情の標準イメージを選択することもできる。例えば、特定の相手に対して腹が立った場合、その相手の標準イメージで愚かな表情のイメージを選択することができる。他の対話参与者に対しては、気分が良い場合、きれいな表情の標準イメージをその対話参与者に対するイメージとして選択することができる。
内部通信部140は、生成されたそれぞれの対話参与者の基準映像を第2デバイス200に伝送する。内部通信部140は、無線LAN(WiFi)、ブルートゥース、NFC(Near Field Communication)などの無線通信またはUSB、イーサネット(登録商標)などの有線通信を通じて第2デバイス200と連結してデータを送受信することができる。内部通信部140は、外部通信部120を通して相手の音声が受信されれば、これを第2デバイス200に伝送し、第2デバイス200からユーザの応答を受信することができる。
音声処理部150は、外部通信部120を通じて受信されたユーザの友人の音声を出力することができる。また、ユーザの音声を受信して、外部通信部120を通して相手の第1デバイスに伝送しうる。
一方、第1デバイス100は、ユーザから各種制御命令を受信し、対応する動作を行うことができる。例えば、ユーザの要請に応じて相手(例:ユーザの友人)リスト表示、同一の番組を視聴している友人リスト表示、ユーザの特定の友人と対話するなどの制御命令が受信されれば、ユーザにユーザの友人リスト、同一の番組を視聴中である友人リストをディスプレイ手段に出力し、ユーザが選択した友人に外部通信部120を通して対話受諾要請情報を伝送しうる。
一方、追加的な態様によれば、ソーシャルネットワークサービス提供装置1は、中継サーバをさらに含みうる。中継サーバは、各種ソーシャル活動を支援し、ユーザと対話相手の間のデータ送受信を中継することができる。例えば、中継サーバは、外部通信部120から要請情報が受信されれば、そのユーザに対して保存された友人リストを提示するか、友人の活動情報収集(例:現在視聴中である番組など)して提示することができる。または、ユーザが要請した友人に対話受諾要請情報伝送及び対話を受諾した友人からイメージや音声情報を受信して、ユーザに伝送するなどの多様な仲介サービスを提供することができる。
図3Aないし図3Cは、相手のイメージを表示する実施形態を説明する図面である。図2ないし図3Cを参照して、ソーシャルネットワークサービスシステム1の第2デバイス200を説明する。第2デバイス200は、内部通信部210、状況認識部220、レンダリング部230及びディスプレイ部240を含みうる。
内部通信部210は、第1デバイス100から対話相手の基準映像または音声またはその他のデータを受信し、ユーザの音声を第1デバイス100に伝送しうる。
状況認識部220は、ユーザの現在の状況を把握して状況情報を生成することができる。すなわち、ユーザが現在注視している視線方向やユーザの視野角などのビジョン(Vision)を把握して状況情報として生成することができる。状況認識部220は、ユーザの動きイメージを通じてユーザが注視している視線方向や視野角などを把握することができる。この際、ユーザの動きイメージは、一例によれば、第1デバイス100のイメージセンサー110によって撮影されて生成され、内部通信部210が、第1デバイス100からその生成されたユーザの動きイメージを受信することができる。他の例によれば、第2デバイス200は、図1に示したように、ユーザの動きを撮影してイメージを生成するイメージセンサー22を含み、イメージセンサー22が、ユーザの動き、特に、ユーザの顔を撮影して動きイメージを生成することができる。
レンダリング部230は、受信された基準映像をレンダリングしてユーザに表示する仮想映像を生成する。レンダリング部230は、状況認識部220によって生成された状況情報に基づいて基準映像をレンダリングすることができる。すなわち、ユーザが見ている視線方向や視野角情報を用いてレンダリングする仮想映像の形状を決定することができる。
図3A及び図3Bは、相手(友人1、友人2)の仮想映像がユーザ前方の任意の場所に表示されることを示す図面である。
図3Aは、TV画面を真っ直ぐに眺めているユーザの一例を示す。この例の場合、状況認識部220は、ユーザがTVを正面から真っ直ぐに眺めていることを認識する。この場合、視野角情報は、通常の人間の視野角である45°であってもよいし、或いは第2デバイス200により設定可能な所定値であってもよい。
図3Cは、ユーザの友人の仮想映像を表示する具体例を示した図であり、ユーザの友人の仮想映像がユーザの隣の位置に存在する感覚をユーザが持つような位置に表示される。ここでは、仮想画像が表示される場所をユーザが指定している。例えば、ユーザが床に座ってTVを視聴する場合、或いはユーザがソファーに座ってTVを視聴する場合、ユーザの友人の仮想映像は第2のデバイスの中で任意の場所に表示されよく、あたかもユーザの友人がユーザの近くに座っているかのようにユーザが感じることができるような第2のデバイスの位置に、画像が表示される。
レンダリング部230は、相手の仮想映像が表示される位置を決定し、該決定された表示位置と視野角情報とを用いてレンダリングする仮想の形状を決定することができる。例えば、図3Aのように、ユーザが視線を正面にしている場合、視野角内に入ってくる友人1の基準映像左側形状と、友人2の基準映像右側形状のみをレンダリングして仮想映像を生成することができる。図3Bまたは図3Cのように、ユーザが視線を右側に移した場合に、視野角内に入ってくる友人2の基準映像の全体形状をレンダリングして仮想映像を生成してもよい。
ディスプレイ部240は、レンダリング部230によって生成された仮想映像を表示位置に重なって見えるように表示する。図1に示したように、ユーザがレンズ24を通じて仮想映像が出力される場所の実際イメージを見ている場合、実際イメージに仮想映像が重なって見えるように表示することによって、拡張現実を具現することができる。
開示された実施形態によれば、ユーザが所望の特定の場所に友人が実際に座っているような感じを有させることによって、時間上または空間上の制約のために、数人の友人が同時に同じ場所に集まれない状況に非常に有用なソーシャル環境を提供することができる。
状況認識部220は、ユーザの状況をリアルタイムで把握してユーザの視線方向によってリアルタイム状況情報を生成し、以前の視線情報と新たに生成された視線情報とを比較して、視線の変位が所定の基準を外れれば、レンダリング部230をして再びレンダリングさせうる。
第2デバイス200は、第1デバイス100から受信される音声を出力し、ユーザの音声を受信して、第1デバイス100に伝送する音声処理部を含みうる。音声処理部(図示せず)は、音声を出力するスピーカーと音声を受信するマイクとを含みうる。
図4は、本発明の一実施形態によるソーシャルネットワークサービス提供方法のフローチャートである。図4の動作は、図示順にも行われるが、一部動作の順序が変更されるか、動作中に、一部が発明の概念と範囲とを外れない範囲内で省略されうる。図4の動作のうち、多数が並列的に、または同時に行われる。図1−図3Cで説明した内容のうち、図4にも同様に適用可能な内容についての重複的な説明は省略する。
図4を参照して、ソーシャルネットワークサービス提供装置1を通じてソーシャルネットワークサービスを提供する方法を説明する。
まず、第1デバイス100が、ユーザの要請に応じてユーザの友人のイメージを受信する(段階410)。ユーザが、第1デバイス100を通じて番組を視聴する途中で友人とリアルタイムで対話をしようとする場合、対話を受諾した友人の第1デバイスからその友人のイメージまたは音声情報を受信する。この際、対話参与者は、ユーザと同じ番組を視聴している友人であり得るが、必ずしも同一番組を視聴すると限定されるものではない。
次いで、受信された相手のイメージに基づいてユーザに見せる基準映像を生成し(段階420)、該生成された基準映像を第2デバイス200に伝送する(段階430)。第1デバイス100は、あらかじめ保存された標準イメージを通じて基準映像を生成し、この際、前述したように、相手の気分状態やユーザ自身の気分状態によって、相手の基準映像を多様な表情で生成することができる。このように、相手の基準映像が生成されれば、通信網を通じて第2デバイス200に伝送する。
第1デバイス100は、相手の音声情報がさらに受信されれば、該受信された対話音声を出力するか、第2デバイス200に伝送しうる。
次いで、第2デバイス200が、第1デバイス100から基準映像を受信すれば、現在の状況情報に基づいて基準映像をレンダリングする(段階440)。この際、ユーザの現在の状況情報に関する詳しい事項は、前述した通りである。現在の状況情報は、ユーザのリアルタイム動き(特に、顔の動き)イメージに基づいて生成され、ユーザのリアルタイム動きイメージは、第1デバイス100のイメージセンサー110を通じて収集されるか、第2デバイス200にさらに設けられるイメージセンサー22を通じて収集されうる。
第2デバイス200は、状況情報に基づいて基準映像をレンダリングして仮想映像を生成する。図3Aないし図3Cを参照して説明したように、ユーザが見ている視線方向や視野角情報を用いて仮想映像の形状を決定し、その決定された仮想映像の形状によって基準映像をレンダリングして仮想映像を生成することができる。
段階450では、生成された仮想映像を所定の位置に重畳して見えるように表示する(段階450)。生成された仮想映像は、実際の場所の位置に仮想の映像が重なって見えるように表示することによって、ユーザに拡張現実を感じるようにする。
図5は、本発明の一実施形態による第1デバイスのブロック図である。図5の実施形態による第1デバイス500は、ソーシャルネットワークサービス提供装置1を構成する第1デバイス100の他の実施形態である。図1−図4の説明は、図5にも適用可能なので、重複的な説明は省略する。
図5を参照すると、第1デバイス500は、イメージセンサー501、ユーザ認識部502、命令処理部503、外部通信部504、映像生成部505、内部通信部506、音声出力部507、音声受信部508、ディスプレイ部509及びTV信号受信部510を含みうる。イメージセンサー501、外部通信部504、映像生成部505、内部通信部506については、前述したので、以下、詳しい説明は省略する。第1デバイス500は、スマートTV、スマートボックスが連結されたTVなどのように、TV視聴機能を主にするデバイスだけではなく、TV受信カードなどを内蔵してTV視聴機能が可能なコンピュータなどを含みうる。
ユーザ認識部502は、現在番組を視聴中であるユーザを認識する。ユーザ認識部502は、ユーザからユーザ識別情報(例:ID及びパスワード)を入力されてユーザを認識することができる。また、イメージセンサー501によって収集されたユーザの顔イメージを通じて顔認識技法を用いてユーザを認識することができる。ユーザ認識部502は、その他の生体識別技法を用いてユーザを認識し、そのような技法を使うユーザ認識部502も、これに開示するユーザ認識部に含まれる。
TV信号受信部510は、TV信号を受信してディスプレイ部509を通して出力する。
命令処理部503は、ユーザから各種制御命令を受信し、それに対応する動作を行う。例えば、命令処理部503は、ユーザがTV視聴途中でリモコン、キーボード、スマートフォンなどの入力手段を用いてメニュー提供を要請する場合、ディスプレイ部509を通じてメニューを出力することができる。ユーザが、出力されたメニュー中の対話する友人リスト提供要請または同一番組を視聴中である友人リスト提供を要請する場合、ユーザ認識部502によって認識されたそのユーザの友人としてあらかじめ保存されたリストをディスプレイ部509を通じて出力することができる。また、同一番組を視聴している友人リスト提供を要請する場合、その認識されたユーザの友人としてあらかじめ保存された友人のうちから現在視聴している番組情報を収集して、同じ番組を視聴する友人リストをディスプレイ部509を通じて提供することができる。
命令処理部503は、ユーザが出力された友人リストのうちから入力手段を用いて対話する特定の友人を選択すれば、対話開始要請情報を生成して外部通信部504を通じて選択された友人の第1デバイスにその対話受諾要請情報を伝送しうる。命令処理部503は、外部通信部504を通じてユーザの友人から対話受諾情報が受信されれば、イメージセンサー501をしてユーザを撮影してユーザのイメージを生成させ、外部通信部504を通じて生成されたイメージを対話を受諾した友人の第1デバイスに伝送させうる。
映像生成部505は、外部通信部504を通じてユーザの友人からイメージが受信されれば、これを用いて基準映像を生成し、内部通信部506を通じて第2デバイスに伝送する。
音声受信部508は、ユーザの音声情報を受信して外部通信部504を通じてユーザの友人の第1デバイスに伝送する。音声出力部509は、外部通信部504がユーザの友人の第1デバイスから音声情報を受信すれば、その音声情報をスピーカーやヘッドセットなどの出力手段を通じて出力する。受信した音声情報を音声出力部509が第2デバイス200を通じて出力することもできる。
図6は、本発明の一実施形態による第1デバイス500の遂行手続きを示す図面である。図4を参照して、前述したので、以下、図6を参照して、第1デバイス500の遂行手続きを簡単に説明する。図6の動作は、図示順にも行われるが、一部動作の順序が変更されるか、動作中に、一部が発明の概念と範囲とを外れない範囲内で省略されうる。図6の動作のうち、多数が並列的に、または同時に行われる。図1−図5で説明した内容のうち、図6にも同様に適用可能な内容についての重複的な説明は省略する。
まず、現在番組を視聴中であるユーザを認識する(段階610)。この際、ユーザ識別情報(例:ID及びパスワード)を入力されてユーザを認識し、または、イメージセンサーによって収集された顔イメージを通じて顔認識技法を用いてユーザを認識することができる。その他の生体識別技法を用いてユーザを認識することもできる。
次いで、認識されたユーザから各種制御命令を受信し(段階620)、該受信された制御命令が友人と対話することである場合、友人リストをユーザに提示することができる(段階630)。ユーザが、提示された友人リストのうちから対話相手が選択されれば、その対話相手のデバイスに対話受諾要請情報を伝送しうる(段階640)。
次いで、対話相手から対話受諾情報が受信されれば、その友人のイメージを受信し(段階650)、イメージセンサーを通じてユーザのイメージを収集して、その友人に伝送しうる(段階660)。
次いで、受信された友人のイメージとあらかじめ保存された標準イメージとを用いてユーザに見せる基準映像を生成し(段階670)、該生成された基準映像を第2デバイス(段階680)に伝送する。
図7は、本発明の一実施形態による第2デバイスのブロック図である。図7の実施形態による第2デバイス700は、ソーシャルネットワークサービス提供装置1を構成する第2デバイス200の他の実施形態である。第2デバイス200は、メガネ形態の着用可能なデバイスであり得る。
図7を参照すると、着用可能な第2デバイス700は、イメージセンサー710、内部通信部720、状況認識部730、レンダリング部740、ディスプレイ部750、音声受信部760及び音声出力部770を含みうる。
第2デバイス700は、2Dまたは3D立体映像、高解像度2D映像またはホログラムを生成することができるカメラなどのイメージセンサー710を含みうる。イメージセンサー710は、リアルタイムでユーザの動きを感知し、動きイメージを生成し、深さ情報を認識することもできる。第2デバイス700がメガネ形態のデバイスとしてユーザが顔に着用する場合には、イメージセンサー710は、ユーザの顔の動きによってユーザが注視する前方を撮影して前方のイメージを生成することができる。
状況認識部730、レンダリング部740及びディスプレイ部750は、図2の関連構成要素220、230、240にそれぞれ対応する。状況認識部730は、イメージセンサー710または第1デバイスのイメージセンサーを通じて生成されたユーザの動きイメージを用いてユーザが注視している視線方向や視野角などを把握することができる。レンダリング部740及びディスプレイ部750は、基準映像の仮想映像をレンダリングして表示し、これは、図2を参照して前述した通りである。
音声受信部760は、第2デバイス700の所定の領域に設けられたマイクなどを通じてユーザの音声を受信して内部通信部720を通じて第1デバイスに伝送しうる。音声出力部770は、内部通信部720を通じて第1デバイスからユーザの音声が受信されれば、該受信された第2デバイス700の所定の領域に設けられたスピーカーを通じて出力することができる。
図8は、本発明の一実施形態による第2デバイスの遂行手続きである。図8を参照して、第2デバイス700で行われる手続きを簡単に説明する。図8の動作は、図示順にも行われるが、一部動作の順序が変更されるか、動作中に、一部が発明の概念と範囲とを外れない範囲内で省略されうる。図8の動作のうち、多数が並列的に、または同時に行われる。図1−図7で説明した内容のうち、図8にも同様に適用可能な内容についての重複的な説明は省略する。
まず、第2デバイス700は、第1デバイスから対話相手の基準映像が受信されれば(段階810)、ユーザの現在の状況情報を認識して視線、視野角などの状況情報を生成する(段階820)。ユーザの状況情報は、ユーザの動きイメージを通じて生成され、動きイメージは、第2デバイス700に設けられたイメージセンサーによって生成されるか、第1デバイスから受信することができる。
次いで、受信された基準映像をユーザの状況情報に基づいて仮想映像の形状を決定してレンダリングし(段階830)、生成された仮想映像を決定された表示位置に重なって見えるように表示する(段階840)。
一方、本実施形態は、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取れるデータが保存されるあらゆる種類の記録装置を含む。
コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがあり、またキャリアウェーブ(例えば、インターネットを介した伝送)の形態で具現するものを含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークで連結されたコンピュータシステムに分散されて、分散方式でコンピュータで読み取り可能なコードとして保存されて実行可能である。そして、本実施形態を具現するための機能的な(functional)プログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマーによって容易に推論されうる。
当業者なら、本発明が、その技術的思想や必須的な特徴を変更せずとも、他の具体的な形態で実施されることを理解できるであろう。したがって、前述した実施形態は、あらゆる面で例示的なものであり、限定的ではないということを理解しなければならない。
本発明は、拡張現実を活用したソーシャルネットワークサービス提供装置及び方法関連の技術分野に適用可能である。
100 第1デバイス
110 イメージセンサー
200 第2デバイス
21 フレーム
22 イメージセンサー
23 ディスプレイ部
24 レンズ

Claims (29)

  1. 第1デバイスと第2デバイスとを有するソーシャルネットワークサービス提供装置であって、
    前記第1デバイスは、第1ユーザのイメージを受信し、該受信された前記イメージに基づいて基準映像を生成し、前記基準映像を第2デバイスに伝送し、
    前記第2デバイスは、前記第1デバイスから前記基準映像を受信し、前記基準映像及び第2ユーザの現在の状況情報に基づいて仮想映像を生成し、前記仮想映像を所定の位置に表示する、ソーシャルネットワークサービス提供装置。
  2. 前記第1デバイスは、
    前記第2ユーザのイメージを収集するイメージセンサーを含み、収集された前記イメージを前記第1ユーザに伝送する請求項1に記載のソーシャルネットワークサービス提供装置。
  3. 前記第1デバイスは、
    第1ユーザの第1音声を受信し、前記第1音声を出力するまたは前記第1音声を前記第2デバイスに伝送し、前記第2ユーザの第2音声を受信し、前記第1ユーザに伝送する請求項1又は2に記載のソーシャルネットワークサービス提供装置。
  4. 前記第1デバイスは、前記第1デバイスを制御する1つ以上の制御命令を受信するように形成され、前記制御命令は、或る放送番組を現在視聴している前記第2ユーザの友人のリストを表示する命令、又は前記第2ユーザのうち1人以上の友人との対話を開始する命令を有する、請求項1乃至3のうち何れか一項に記載のソーシャルネットワークサービス提供装置。
  5. 前記状況情報は、
    前記第2ユーザの視線方向または視野角のうち、少なくとも1つを含む請求項1乃至4のうち何れか一項に記載のソーシャルネットワークサービス提供装置。
  6. 前記第2デバイスは、
    前記状況情報及び前記仮想映像が表示される位置に基づいて前記仮想映像の形状を決定する請求項5に記載のソーシャルネットワークサービス提供装置。
  7. 前記第1デバイスは、TV信号を受信して出力するテレビであり、前記第2デバイスは、着用可能なデバイスである請求項1乃至6のうち何れか一項に記載のソーシャルネットワークサービス提供装置。
  8. 前記仮想映像は、前記第1デバイスに表示される別のイメージを重ねるように表示される請求項1乃至7の何れか一項に記載のソーシャルネットワークサービス提供装置。
  9. 第1デバイスが、ソーシャルネットワークサービス(SNS)の第1ユーザのイメージを受信する段階と、
    受信された前記イメージに基づいて基準映像を生成する段階と、
    前記基準映像を第2デバイスに伝送する段階と、
    前記第2デバイスが、前記基準映像及び第2ユーザの現在の状況情報に基づいて仮想映像を生成する段階と、
    前記仮想映像を所定の位置に表示する段階と、
    を含むソーシャルネットワークサービス提供方法。
  10. 前記第1ユーザの第1音声を受信する段階と、
    前記第1ユーザの前記第1音声を出力するか、前記第2デバイスに前記第1音声を伝送する段階と、
    をさらに含む請求項9に記載のソーシャルネットワークサービス提供方法。
  11. 第1デバイスが、イメージセンサーを通じて収集された前記第2ユーザのイメージを前記第1ユーザに伝送する段階をさらに含む請求項9又は10に記載のソーシャルネットワークサービス提供方法。
  12. 前記状況情報は、前記第2ユーザの視線方向または視野角のうち、少なくとも1つを含む請求項9乃至11のうち何れか一項に記載のソーシャルネットワークサービス提供方法。
  13. 前記仮想映像を生成する段階は、
    前記状況情報及び前記仮想映像が表示される位置に基づいて生成される前記仮想映像の形状を決定する段階を含む請求項12に記載のソーシャルネットワークサービス提供方法。
  14. 前記第1デバイスは、TV信号を受信して出力するテレビジョンであり、前記第2デバイスは、着用可能なデバイスである請求項9乃至13のうち何れか一項に記載のソーシャルネットワークサービス提供方法。
  15. 前記基準映像を生成する段階は、前記受信されたイメージ及び前記第1ユーザの標準イメージに基づいて前記基準映像を生成する段階を含む請求項9乃至14のうち何れか一項に記載のソーシャルネットワークサービス提供方法。
  16. 前記標準イメージは、前記第1ユーザの感情状態と前記第1ユーザの顔の表情とのうち少なくとも1つに基づく請求項15に記載のソーシャルネットワークサービス提供方法。
  17. 前記標準イメージは、標準イメージデータベース内に保存され、アバター、有名人のイメージ、前記第1ユーザの実際イメージ、及び前記第1ユーザと関連したイメージのうち、少なくとも1つを含む請求項15に記載のソーシャルネットワークサービス提供方法。
  18. 前記仮想映像を表示する段階は、前記仮想映像を前記第1デバイスに表示される他イメージと重畳して表示する請求項9に記載のソーシャルネットワークサービス提供方法。
  19. 前記仮想映像を表示する段階は、前記第1ユーザの前記仮想映像の一部を表示する請求項9乃至18のうち何れか一項に記載のソーシャルネットワークサービス提供方法。
  20. 第1ユーザのイメージを収集する少なくとも1つのイメージセンサーと、
    前記第1ユーザの前記イメージを第2ユーザに伝送し、前記第2ユーザのイメージを受信する第1通信部と、
    受信された前記第2ユーザのイメージに基づいて基準映像を生成する映像生成部と、
    前記基準映像を第2デバイスに伝送し、前記基準映像を用いて前記第1ユーザに表示される仮想映像を生成する第2通信部と、
    を含むデバイス。
  21. 前記第1ユーザを認識するユーザ認識部と、
    前記第1ユーザから多様な制御命令を受信し、前記制御命令に対応する動作を処理する命令処理部と、
    をさらに含む請求項20に記載のデバイス。
  22. 前記制御命令は、全ての友人のリストを表示すること、現在放送されている番組を視聴している友人のリストを表示すること、または特定の友人との対話を開始することのうち、少なくとも1つに関する制御命令を含む請求項21に記載のデバイス。
  23. 前記第1通信部を通じて受信された前記第2ユーザの音声を出力する音声出力部と、
    前記第1ユーザの音声を受信し、前記第1ユーザの前記音声を前記第1通信部を通じて前記第2ユーザに伝送する音声受信部と、
    をさらに含む請求項20乃至22のうち何れか一項に記載のデバイス。
  24. 前記基準映像を生成する標準イメージを保存している標準イメージデータベース(DB)をさらに含み、
    前記映像生成部は、受信された前記第2ユーザの前記イメージに基づいて1つの標準イメージを選択し、前記基準映像を生成する請求項20乃至23のうち何れか一項に記載のデバイス。
  25. 第1デバイスから第2ユーザの基準映像を受信する通信部と、
    前記第1デバイスに表示される番組を視聴している第1ユーザの現在の状況情報を認識する状況認識部と、
    受信された前記基準映像及び前記状況情報に基づいて仮想映像を生成するレンダリング部と、
    生成された前記仮想映像を所定の位置に表示するディスプレイ部と、
    を含む第2デバイス。
  26. 前記第1ユーザのイメージを生成するイメージセンサーをさらに含み、
    前記状況認識部は、前記第1ユーザの前記イメージを分析し、前記第1ユーザの視線方向及び前記第1ユーザの視野角のうち少なくとも1つを含む状況情報を生成する請求項25に記載の第2デバイス。
  27. 前記レンダリング部は、前記状況情報及び前記仮想映像が表示される位置に基づいて前記仮想映像の形状を決定する請求項26に記載の第2デバイス。
  28. 前記第1デバイスから受信された第2ユーザの音声を前記通信部を通じて出力する音声出力部と、
    前記第1ユーザの前記音声を受信し、該受信された前記音声を前記通信部を通じて前記第1デバイスに伝送する音声受信部と、
    をさらに含む請求項25乃至27のうち何れか一項に記載の第2デバイス。
  29. 前記第2デバイスは着用可能である請求項25乃至28のうち何れか一項に記載の第2デバイス。
JP2013233196A 2012-11-13 2013-11-11 ソーシャルネットワークサービス提供装置及び方法 Pending JP2014099854A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0128337 2012-11-13
KR1020120128337A KR20140061620A (ko) 2012-11-13 2012-11-13 증강 현실을 활용한 소셜 네트워크 서비스 제공 시스템 및 방법과, 디바이스

Publications (1)

Publication Number Publication Date
JP2014099854A true JP2014099854A (ja) 2014-05-29

Family

ID=49619801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013233196A Pending JP2014099854A (ja) 2012-11-13 2013-11-11 ソーシャルネットワークサービス提供装置及び方法

Country Status (5)

Country Link
US (1) US20140132630A1 (ja)
EP (1) EP2731348A3 (ja)
JP (1) JP2014099854A (ja)
KR (1) KR20140061620A (ja)
CN (1) CN103812761B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018135057A1 (ja) * 2017-01-20 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150082824A (ko) * 2014-01-08 2015-07-16 삼성전자주식회사 장치 제어 방법 및 제어 장치
KR102271833B1 (ko) 2014-09-01 2021-07-01 삼성전자주식회사 전자 장치, 그 제어 방법 및 기록 매체
US9633622B2 (en) * 2014-12-18 2017-04-25 Intel Corporation Multi-user sensor-based interactions
US20160227267A1 (en) * 2015-01-30 2016-08-04 The Directv Group, Inc. Method and system for viewing set top box content in a virtual reality device
KR102547245B1 (ko) * 2015-05-27 2023-06-22 주식회사 넥슨코리아 가상 현실 디스플레이 시스템 및 방법
US10235129B1 (en) 2015-06-29 2019-03-19 Amazon Technologies, Inc. Joining users to communications via voice commands
KR20180073566A (ko) * 2015-10-20 2018-07-02 소니 주식회사 정보 처리 시스템 및 정보 처리 방법
CN105469004A (zh) * 2015-12-31 2016-04-06 上海小蚁科技有限公司 一种显示装置和显示方法
CN105719522A (zh) * 2016-01-25 2016-06-29 成都趣动力教育科技有限公司 一种双客户端语音通信方法、装置及系统
CN106293087B (zh) * 2016-08-09 2019-07-26 联想(北京)有限公司 一种信息交互方法及电子设备
US11172005B2 (en) * 2016-09-09 2021-11-09 Nokia Technologies Oy Method and apparatus for controlled observation point and orientation selection audiovisual content
CN107979763B (zh) * 2016-10-21 2021-07-06 阿里巴巴集团控股有限公司 一种虚拟现实设备生成视频、播放方法、装置及系统
US10250948B1 (en) * 2018-01-05 2019-04-02 Aron Surefire, Llc Social media with optical narrowcasting
US10897564B1 (en) 2019-06-17 2021-01-19 Snap Inc. Shared control of camera device by multiple devices
US11340857B1 (en) 2019-07-19 2022-05-24 Snap Inc. Shared control of a virtual object by multiple devices
KR102199843B1 (ko) * 2019-10-12 2021-01-07 동서대학교 산학협력단 증강현실에서 가상의 반려동물 제공 시스템
US12101360B2 (en) 2020-03-25 2024-09-24 Snap Inc. Virtual interaction session to facilitate augmented reality based communication between multiple users
US11985175B2 (en) 2020-03-25 2024-05-14 Snap Inc. Virtual interaction session to facilitate time limited augmented reality based communication between multiple users
US12182903B2 (en) 2020-03-25 2024-12-31 Snap Inc. Augmented reality based communication between multiple users
US11593997B2 (en) * 2020-03-31 2023-02-28 Snap Inc. Context based augmented reality communication
US20220264055A1 (en) * 2021-02-12 2022-08-18 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V Video Conference Apparatus, Video Conference Method and Computer Program Using a Spatial Virtual Reality Environment
US20240386676A1 (en) * 2023-05-17 2024-11-21 Doubleme, Inc. System and Method for Blockchain Token-Authenticated Holographic Companionship Profile and Content Synthesis and Sharing

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63191476A (ja) * 1987-02-04 1988-08-08 Nippon Telegr & Teleph Corp <Ntt> 知能画像通信方式
JPH08336166A (ja) * 1995-06-07 1996-12-17 Matsushita Electric Ind Co Ltd 映像視聴装置
JP2002150317A (ja) * 2000-11-08 2002-05-24 Minolta Co Ltd 映像表示装置
JP2003109036A (ja) * 2001-10-01 2003-04-11 Minolta Co Ltd 通信システム、端末装置、送信方法、およびコンピュータプログラム
JP2005269557A (ja) * 2004-03-22 2005-09-29 Sharp Corp 通信端末、テレビジョン受像機、情報出力方法、情報出力プログラム、および情報出力プログラムを記録した記録媒体
JP2006129196A (ja) * 2004-10-29 2006-05-18 Fuiritsupu Sukai 携帯電話機
JP2007318715A (ja) * 2006-05-26 2007-12-06 Cyberlink Corp 同一のチャンネル番号に対応するユーザーidとマルチメディアコンテンツを表示する方法及び通信装置
JP2010093734A (ja) * 2008-10-10 2010-04-22 Toshiba Corp 映像視聴装置、映像視聴装置の制御方法
JP2011015154A (ja) * 2009-07-01 2011-01-20 Nippon Hoso Kyokai <Nhk> 映像受信装置及び表示装置
JP2011217098A (ja) * 2010-03-31 2011-10-27 Ns Solutions Corp 情報処理システム、会議管理装置、情報処理方法、会議管理装置の制御方法及びプログラム
JP2011259383A (ja) * 2010-06-11 2011-12-22 Nippon Telegr & Teleph Corp <Ntt> Tv番組関連情報表示システム、端末間イベント同期装置、端末間イベント同期方法、及びプログラム
US20120127284A1 (en) * 2010-11-18 2012-05-24 Avi Bar-Zeev Head-mounted display device which provides surround video
JP2012528404A (ja) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション アバターを統合した共有メディア体験方法及びシステム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8280405B2 (en) * 2005-12-29 2012-10-02 Aechelon Technology, Inc. Location based wireless collaborative environment with a visual user interface
US8601386B2 (en) * 2007-04-20 2013-12-03 Ingenio Llc Methods and systems to facilitate real time communications in virtual reality
US8910208B2 (en) * 2009-12-07 2014-12-09 Anthony Hartman Interactive video system
KR101193535B1 (ko) * 2009-12-22 2012-10-22 주식회사 케이티 증강현실을 이용한 위치기반 모바일 커뮤니케이션 서비스 제공 시스템
KR101299910B1 (ko) * 2010-08-18 2013-08-23 주식회사 팬택 증강 현실 서비스의 공유 방법 및 그를 위한 사용자 단말기와 원격자 단말기
US8743244B2 (en) * 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
US8836771B2 (en) * 2011-04-26 2014-09-16 Echostar Technologies L.L.C. Apparatus, systems and methods for shared viewing experience using head mounted displays
CN102184572B (zh) * 2011-05-19 2017-07-21 威盛电子股份有限公司 三维图形裁剪方法、呈现方法及其图形处理装置
US9746990B2 (en) * 2012-09-28 2017-08-29 Intel Corporation Selectively augmenting communications transmitted by a communication device

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63191476A (ja) * 1987-02-04 1988-08-08 Nippon Telegr & Teleph Corp <Ntt> 知能画像通信方式
JPH08336166A (ja) * 1995-06-07 1996-12-17 Matsushita Electric Ind Co Ltd 映像視聴装置
JP2002150317A (ja) * 2000-11-08 2002-05-24 Minolta Co Ltd 映像表示装置
JP2003109036A (ja) * 2001-10-01 2003-04-11 Minolta Co Ltd 通信システム、端末装置、送信方法、およびコンピュータプログラム
JP2005269557A (ja) * 2004-03-22 2005-09-29 Sharp Corp 通信端末、テレビジョン受像機、情報出力方法、情報出力プログラム、および情報出力プログラムを記録した記録媒体
JP2006129196A (ja) * 2004-10-29 2006-05-18 Fuiritsupu Sukai 携帯電話機
JP2007318715A (ja) * 2006-05-26 2007-12-06 Cyberlink Corp 同一のチャンネル番号に対応するユーザーidとマルチメディアコンテンツを表示する方法及び通信装置
JP2010093734A (ja) * 2008-10-10 2010-04-22 Toshiba Corp 映像視聴装置、映像視聴装置の制御方法
JP2012528404A (ja) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション アバターを統合した共有メディア体験方法及びシステム
JP2011015154A (ja) * 2009-07-01 2011-01-20 Nippon Hoso Kyokai <Nhk> 映像受信装置及び表示装置
JP2011217098A (ja) * 2010-03-31 2011-10-27 Ns Solutions Corp 情報処理システム、会議管理装置、情報処理方法、会議管理装置の制御方法及びプログラム
JP2011259383A (ja) * 2010-06-11 2011-12-22 Nippon Telegr & Teleph Corp <Ntt> Tv番組関連情報表示システム、端末間イベント同期装置、端末間イベント同期方法、及びプログラム
US20120127284A1 (en) * 2010-11-18 2012-05-24 Avi Bar-Zeev Head-mounted display device which provides surround video

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018135057A1 (ja) * 2017-01-20 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11368664B2 (en) 2017-01-20 2022-06-21 Sony Corporation Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
KR20140061620A (ko) 2014-05-22
US20140132630A1 (en) 2014-05-15
EP2731348A2 (en) 2014-05-14
CN103812761B (zh) 2018-11-16
CN103812761A (zh) 2014-05-21
EP2731348A3 (en) 2014-06-25

Similar Documents

Publication Publication Date Title
JP2014099854A (ja) ソーシャルネットワークサービス提供装置及び方法
US8893010B1 (en) Experience sharing in location-based social networking
JP6602393B2 (ja) ヘッドマウントディスプレイ上の視覚的作用を制限するためのフィルタリング及びペアレンタルコントロール法
US9818225B2 (en) Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
CN105247881B (zh) 信息处理设备、显示控制方法以及程序
US11968425B2 (en) Method and apparatus for shared viewing of media content
JP6462059B1 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP6822413B2 (ja) サーバ装置及び情報処理方法、並びにコンピュータ・プログラム
CN114651448B (zh) 信息处理系统、信息处理方法和程序
KR102512855B1 (ko) 정보 처리 장치 및 정보 처리 방법
JP2023036740A (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
WO2024230511A1 (zh) 虚拟互动方法、装置、设备和介质
WO2018158852A1 (ja) 通話システム及びコミュニケーションシステム
WO2021161894A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2023067708A (ja) 端末、情報処理方法、プログラム、および記録媒体
CN111240471A (zh) 信息交互方法及穿戴式设备
WO2024116529A1 (ja) システム、システムの制御方法
JP2010263542A (ja) 遠隔コミュニケーションシステム、制御装置、およびプログラム
US11991220B2 (en) Electronic device performing call with user of metaverse and method for operating the same
EP4425303A1 (en) Method and system for hosting a metaverse virtual conference
WO2023075810A1 (en) System and method for extracting, transplanting live images for streaming blended, hyper-realistic reality
JP2024112028A (ja) 情報処理装置、方法およびプログラム
JP2024112024A (ja) 情報処理装置、方法およびプログラム
CN117319102A (zh) 基于上下文的化身质量
CN109845246A (zh) 信息处理装置、信息处理方法、程序和通信系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191224