JP2017062788A - 音声−触覚干渉を補償するように触覚効果を修正するためのプログラム可能な触覚デバイスおよび方法 - Google Patents
音声−触覚干渉を補償するように触覚効果を修正するためのプログラム可能な触覚デバイスおよび方法 Download PDFInfo
- Publication number
- JP2017062788A JP2017062788A JP2016183958A JP2016183958A JP2017062788A JP 2017062788 A JP2017062788 A JP 2017062788A JP 2016183958 A JP2016183958 A JP 2016183958A JP 2016183958 A JP2016183958 A JP 2016183958A JP 2017062788 A JP2017062788 A JP 2017062788A
- Authority
- JP
- Japan
- Prior art keywords
- haptic
- audio
- output device
- processor
- peripheral
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
- A63F13/285—Generating tactile feedback signals via the game input device, e.g. force feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1037—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/105—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6063—Methods for processing data by generating or executing the game program for sound processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2400/00—Loudspeakers
- H04R2400/03—Transducers capable of generating both sound as well as tactile vibration, e.g. as used in cellular phones
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
- Signal Processing (AREA)
- Otolaryngology (AREA)
Abstract
【課題】従来得られなかった触覚効果の変化を提供し、より没入可能な楽しい体験をユーザに提供する触覚フィードバック・システムを提供する。【解決手段】システムは、プロセッサと、音声ディスプレイと、触覚出力デバイスを含む触覚周辺機器とを含む。音声ディスプレイはスピーカー及びヘッドフォン・コネクタを含む。触覚出力デバイスはプロセッサから制御信号を受信し、該制御信号に応答して触覚周辺機器へ触覚効果を出力する。プロセッサは、音声ディスプレイの音声出力アクセサリ接続状況に応じて触覚出力デバイスに対する制御信号を変化させ、音声ディスプレイが音声出力アクセサリに接続されている場合(ヘッドフォン・コネクタ経由の音声出力)には第1の触覚効果を生成して適用し、接続されていない場合(スピーカー経由の音声出力)には第2の触覚効果を生成して適用するように、触覚出力デバイスを制御する。【選択図】図2
Description
本発明の実施形態は、触覚効果またはフィードバックを与えるためのシステムおよび方法に関する。
ビデオ・ゲームおよびバーチャル・リアリティ・システムは、カジュアルなゲーマーに向けたマーケティング、およびその結果のカジュアルなゲーマーの参加によって、より一層人気となっている。典型的な実装では、コンピュータ・システムは、視覚的またはグラフィカルな環境をユーザに対して表示デバイス上に表示する。ユーザは、コントローラまたは周辺デバイスからコマンドまたはデータを入力することで、表示された環境と対話することができる。コンピュータは、ジョイスティック・ハンドルなどの可動の操作子(manipulandum)をユーザが操作したことに応答して環境を更新し、表示画面を用いて視覚的フィードバックをユーザに与える。
従来のビデオ・ゲーム・デバイスまたはコントローラは、視覚および聴覚の合図を用いてユーザにフィードバックを与える。一部のコントローラまたは周辺デバイスでは、運動感覚フィードバック(たとえば能動的および抵抗的な触覚フィードバック)および/または触覚フィードバック(たとえば振動、質感、および熱)もまたユーザに与えられ、より一般的には、総称的に「触覚フィードバック」または「触覚効果」として知られている。触覚フィードバックは、ユーザ・コントローラまたは周辺デバイスを強化し簡素化する合図を提供することができる。たとえば、振動効果または振動触覚性の触覚効果は、電子デバイスのユーザに合図を与えてユーザに特定のイベントを警告するのに有用な場合があり、または現実的なフィードバックを与えて疑似環境もしくは仮想環境へのより優れた感覚的な没入を創出することができる。一般的には、ゲーム・デバイスおよび他のデバイス用の従来の触覚フィードバック・システムは、コントローラ/周辺機器の筐体に取り付けられた触覚フィードバックを生成するためのアクチュエータを含む。より具体的には、コントローラまたは周辺デバイスのモータまたは他のアクチュエータは、コントローラ内に収容され、制御用コンピュータ・システムに接続される。コンピュータ・システムは、コントローラまたは周辺デバイスからセンサ信号を受信し、アクチュエータに適切な触覚フィードバック制御信号を送信する。次いで、アクチュエータは触覚フィードバックをコントローラに与える。このようにして、コンピュータ・システムは、身体的な感覚をユーザに対して、他の視覚および聴覚のフィードバックと共に伝えることができる。
従来は得られなかった触覚効果の変化を提供して、より没入可能な楽しい体験をユーザに提供する触覚フィードバック・システムが必要となる。
本発明の実施形態は、プロセッサと、音声ディスプレイと、触覚周辺機器とを備えるシステムに関する。音声ディスプレイは音声出力デバイスを含む。触覚周辺機器は触覚出力デバイスを含み、触覚出力デバイスは、プロセッサから制御信号を受信し、プロセッサからの制御信号に応答して触覚周辺機器へ触覚効果を出力する。プロセッサは、触覚出力デバイスと音声出力デバイスの間の干渉に関連して検出された状況に応じて触覚出力デバイスに対する制御信号を変化させて、触覚出力デバイスと音声出力デバイスの間に干渉がないまたは僅かであることを示す第1の状態を該検出された状況が呈示する場合は第1の触覚効果を生成して適用し、触覚出力デバイスと音声出力デバイスの間に干渉があることを示す第2の状態を該検出された状況が示す場合は第2の触覚効果を生成して適用するように、触覚出力デバイスを制御する。第1の触覚効果は第2の触覚効果と異なる。
また、本発明の実施形態は、プロセッサと、スピーカーおよびヘッドフォン・コネクタを含む音声ディスプレイと、触覚出力デバイスを含む触覚周辺機器とを備えるシステムに関する。触覚出力デバイスは、プロセッサから制御信号を受信し、プロセッサからの制御信号に応答して触覚周辺機器へ触覚効果を出力する。プロセッサは、音声ディスプレイの音声出力アクセサリ接続状況に応じて触覚出力デバイスに対する制御信号を変化させて、ヘッドフォン・コネクタを介して音声を出力するために音声ディスプレイが音声出力アクセサリに接続されている場合は第1の触覚効果を生成して適用し、スピーカーを介して音声を出力するために音声ディスプレイが音声出力アクセサリに接続されていない場合は第2の触覚効果を生成して適用するように、触覚出力デバイスを制御する。第1の触覚効果は第2の触覚効果と異なる。
また、本発明の実施形態は、プロセッサと、音声ディスプレイと、触覚出力デバイスを含む触覚周辺機器とを備えるシステムに関する。音声ディスプレイは、プロセッサから制御信号を受信し、プロセッサからの制御信号に応答して音声を出力する。触覚出力デバイスは、プロセッサから制御信号を受信し、プロセッサからの制御信号に応答して触覚周辺機器へ触覚効果を出力する。プロセッサは、音声ディスプレイの音声出力アクセサリ接続状況に応じて、触覚出力デバイスに対する制御信号または音声ディスプレイに対する制御信号を変化させる。
本発明の前述および他の特徴および利点は、添付の図面に示された本発明の実施形態の以下の説明から明らかとなる。添付の図面は、本明細書に組み込まれており本明細書の一部を形成するものであり、さらに、本発明の原理を説明し、当業者が本発明を製作し使用できるようにする役割を果たす。図面は縮尺通りではない。
以下、本発明の特定の実施形態が図面を参照しながら説明され、図面では同様の参照符号は同一または機能的に同様の要素を示す。以下の詳細な説明は本質的に例示的なものにすぎず、本発明または本発明の用途および使用法を限定するものではない。さらに、前述の技術分野、背景、概要または以下の詳細な説明において提示されたいかなる明示または暗示された理論によっても制約される意図はない。さらに、以下の説明は主にゲーム・デバイスおよびゲーム・デバイス用のコントローラを対象としているが、その説明が、他のバーチャル・リアリティ・システムおよびこれらのバーチャル・リアリティ・システム用の周辺機器にも等しく適合することは、当業者であれば理解するであろう。
本発明の実施形態は、プロセッサと、音声ディスプレイと、触覚出力デバイスを含む触覚周辺機器とを含むシステムに関する。触覚周辺機器は触覚出力デバイスを含み、触覚出力デバイスは、プロセッサから制御信号を受信し、プロセッサからの制御信号に応答して触覚周辺機器へ触覚効果を出力するように構成される。図面に関連して本明細書でより詳細に説明される本発明の一実施形態によれば、プロセッサは、音声ディスプレイの音声出力アクセサリ接続状況に応じて触覚出力デバイスに対する制御信号を変化させるように構成される。場合によっては、音声および触覚の出力または効果は互いに干渉することがあり、したがってこれらの場合には、そのような干渉を最小化するまたは防ぐために、音声および/または触覚出力を変化させるまたは修正することが望ましい。たとえば、特定の触覚効果が音声ディスプレイの一体型スピーカーを介して出力される場合に、音声−触覚干渉が問題となり得る。本発明の一実施形態では、ヘッドフォンまたはBluetooth(登録商標)デバイスがシステムの音声ディスプレイに接続され、したがって接続された音声出力アクセサリ・デバイスを介して音声が出力される場合、触覚出力デバイスは第1の触覚効果を生成および適用する。しかしながら、音声出力アクセサリ・デバイスがシステムの音声ディスプレイに接続されておらず、したがって音声ディスプレイの一体型スピーカーを介して音声が出力される場合、触覚出力デバイスは第1の触覚効果と異なる第2の触覚効果を生成および適用する。一実施形態では、(ヘッドフォンまたはBluetoothデバイスが音声ディスプレイに接続されている場合にレンダリングされる)第1の触覚効果は、(音声出力アクセサリ・デバイスが音声ディスプレイに接続されていない場合にレンダリングされる)第2の触覚効果より強く、したがって、ヘッドフォンまたはBluetoothデバイスなどの接続された音声出力アクセサリ・デバイスを介して音声が出力される場合に与えられるより強い効果と比較して、音声ディスプレイの一体型ディスプレイを介して音声が出力される場合により弱い効果が与えられる。
本明細書で使用される場合、「音声ディスプレイ」という用語は、音声または制御信号を出力することによって音を生成することが可能なシステムの1つまたは複数のコンポーネントを含む。言い換えれば、音声ディスプレイは、システムのプロセッサから制御信号を受信し、プロセッサからの制御信号に応答して音声を出力するように構成される。音声ディスプレイは、1つまたは複数の音声出力デバイスまたはアクセサリ、たとえば、限定はされないが、スピーカー、ヘッドフォン、トランスデューサなどを含むことができる。音声出力デバイスもしくはアクセサリはシステムに統合することができ、または音声出力デバイスもしくはアクセサリは、システムに選択的に接続されるもしくは別の方法で接続される別個のコンポーネントとすることができる。たとえば、音声ディスプレイの音声出力デバイスは、1つまたは複数の一体型または内臓デバイス(すなわち、システムの一体型または内臓スピーカー、たとえば携帯電話またはタブレット・コンピュータの一体型スピーカー)とすることができ、ならびに/あるいは、音声ディスプレイの出力またはヘッドフォン・コネクタを介してシステムに選択的に接続される1つまたは複数のアクセサリ・デバイス(すなわち、携帯電話またはタブレット・コンピュータに音声ディスプレイの出力またはヘッドフォン・コネクタを介して接続されるスピーカーまたはヘッドフォン・セット)とすることができる。
音声出力アクセサリ接続状況に応じて触覚効果を変化させるまたは修正することは、様々なタイプの触覚周辺機器、たとえば図1〜7に示されたものと共に利用することができる。より具体的には、図1は、本発明の一実施形態による触覚周辺機器102に触覚フィードバックを与えるためのシステム100のブロック図であり、図2は図1のシステムの略図である。図1〜2の実施形態では、触覚周辺機器102は、ただ1つの操作子122を有する触覚ジョイスティックである。しかしながら、触覚ジョイスティックが触覚周辺機器の一例示的実施形態にすぎず、他の構成、形状、および大きさを有する触覚周辺機器を使用できることを当業者であれば理解するであろう。たとえば、本明細書でより詳細に説明されるように、触覚周辺機器は、ビデオ・ゲーム・コンソール・システム用に現在使用可能な多数の「ゲームパッド」と同様の形状および大きさの、図3〜5に示されたゲーム・システム用の手持ち式ゲーム用コントローラ302、図6〜7に示されたようなタブレット・コンピュータ604と共に使用可能な触覚周辺機器602、または、ユーザ入力(UI:user input)素子を有する他のコントローラ、たとえば、限定はされないが、携帯電話、携帯情報端末(PDA:personal digital assistant)、タブレット、コンピュータ、ゲーム用周辺機器、および当業者に知られているバーチャル・リアリティ・システム用の他のコントローラとすることができる。
図1〜2の実施形態に関して、触覚周辺機器102は、仮想環境をユーザに対してビデオまたは視覚ディスプレイ106上に生成するように構成されたホスト・コンピュータ(またはコンピュータ・システム)104と通信可能である。ホスト・コンピュータ104は、ビデオ・ゲーム・コンソール、モバイル・デバイス、または仮想環境をユーザに対してディスプレイ上に生成するように構成されたプロセッサを含む他の任意のタイプのコンピュータ・システムを含むことができる。図1のブロック図に示されるように、ホスト・コンピュータ104は、ホスト・プロセッサ108、メモリ110、および視覚ディスプレイ106を含む。ホスト・コンピュータ104は、メモリ110に格納されホスト・プロセッサ108により実行されるソフトウェア・アプリケーションを実行する。ホスト・プロセッサ108は、任意のタイプの汎用プロセッサであってよく、または触覚効果信号を提供するよう専用に設計されたプロセッサとすることができる。ホスト・プロセッサ108は、ホスト・コンピュータ104全体を動作させる同一のプロセッサとすることができ、または別個のプロセッサとすることができる。ホスト・プロセッサ108は、どの触覚効果を触覚周辺機器102に送信すべきか、およびどの順序で触覚効果を送信すべきかを決定することができる。メモリ110は、任意のタイプの記憶デバイスまたはコンピュータ可読媒体、たとえば、限定はされないが、ランダム・アクセス・メモリ(RAM)または読み出し専用メモリ(ROM)とすることができる。また、メモリ110は、ホスト・プロセッサの内部に配置することができ、または内部および外部メモリの任意の組み合わせとすることができる。
ホスト・コンピュータ104は、有線または無線の手段を介して視覚ディスプレイ106に接続される。視覚ディスプレイ106は、グラフィカルな情報をユーザに提供する任意のタイプの媒体とすることができ、これは、限定はされないが、モニタ、テレビ画面、プラズマ、LCD、プロジェクタ、または他の任意の表示デバイスを含む。一実施形態では、当技術分野で知られているように、ホスト・コンピュータ104はゲーム・デバイス・コンソールであり、視覚ディスプレイ106はゲーム・デバイス・コンソールに接続されるモニタである。別の実施形態では、当業者に知られているように、ホスト・コンピュータ104および視覚ディスプレイ106は、単一のデバイスに組み合わされ得る。
また、ホスト・コンピュータ104は、音声ディスプレイ105を含む。この実施形態では、音声ディスプレイ105はホスト・コンピュータ104に統合される。音声ディスプレイ105は、少なくとも1つの内臓または一体型スピーカー105Aと、内部にヘッドフォンを受けるように構成されたヘッドフォンまたは出力コネクタ105Bとを含む。したがって、ユーザはヘッドフォンをホスト・コンピュータ104にヘッドフォン・コネクタ105Bを介して差し込んで音声出力を聞くことができ、または音声は一体型スピーカー105Aを介して出力することができる。本明細書で使用される場合、「ヘッドフォン・コネクタ」は、従来のヘッドフォン・ジャック、ならびにヘッドフォンのペアをシステムに無線で接続するように構成された、たとえば、限定はされないがBluetoothなどの無線ヘッドフォン・コネクタまたはアダプタを含む。一体型として説明されているが、スピーカー105Aはホスト・コンピュータ104に接続される別個のコンポーネントとすることができ、および/またはスピーカー105Aはシステム100の異なるコンポーネントに接続することができることは当業者にとって明らかであろう。さらに、本明細書でより詳細に説明されるように、本発明の実施形態では、音声ディスプレイは、システムの様々なコンポーネント、たとえばホスト・コンピュータ、触覚周辺機器、または2次周辺機器、たとえば視覚ディスプレイに統合することができる。
図1〜2に示された実施形態では、ホスト・コンピュータ104は、有線またはUSB接続103を介して触覚周辺機器102と通信可能である。しかしながら、他の実施形態では、触覚周辺機器102は、当業者に知られている他の有線通信または無線通信手段を用いてホスト・コンピュータ104と通信することができる。これは、限定はされないが、シリアルまたはBluetooth接続を含むことができる。さらに、ホスト・コンピュータ104は、クラウド内にあってもよく、したがって、ローカルに有線接続されるまたは無線接続される必要はない。
図2に最も良く示されるように、触覚周辺機器102は、筐体(または土台)120と、1または2以上の自由度で動き得る操作子(またはユーザ入力デバイス)122とを含む。操作子122は、筐体120から延びている。図2では触覚周辺機器の操作子としてジョイスティックを例示しているが、本開示がジョイスティック操作子に限定されず、全体的または部分的に1または2以上の自由度で動かせる任意のデバイスも含むことは当業者には理解されよう。ジョイスティックがコントローラの操作子の一例示的実施形態にすぎず、本明細書でより詳細に説明されるように、他の構成を有する操作子、たとえばトリガ、ボタン、または他のユーザ入力素子を使用できることを当業者であれば理解するであろう。
図1をさらに参照すると、触覚周辺機器102は、ローカル・プロセッサ112、ローカル・メモリ114、操作子センサ123、および少なくとも1つの触覚出力デバイス118を含む。また、触覚周辺機器102は、接続センサ116、および追加パラメータ・センサ117を含むことができるが、そのようなセンサは、本明細書でより詳細に説明されるように、全ての実施形態で必要なわけではない。あるいは、触覚周辺機器102は、ローカル・プロセッサ112を含まないように構成することができ、これにより触覚周辺機器102からの全ての入力/出力信号がホスト・コンピュータ104により直接扱われ処理される。本明細書でより詳細に説明されるように、ローカル・プロセッサ112は、触覚出力デバイス118に接続されて、ホスト・コンピュータ104からの高レベルの監視またはストリーミング・コマンドに基づいて、触覚効果を触覚出力デバイス118に提供する。ホスト・プロセッサ108と同様に、ローカル・プロセッサ112もまた、どんな触覚効果を送信すべきか、およびどんな順番で触覚効果を送信すべきかを決定することができる。加えて、触覚周辺機器102が2つ以上の触覚出力デバイスを含む場合、ローカル・プロセッサ112は、どの触覚出力デバイスが触覚効果信号を受信するかを決定することができる。加えて、ホスト・コンピュータ104のメモリ110と同様に、ローカル・メモリ114は、任意のタイプの記憶デバイスまたはコンピュータ可読媒体、たとえば、限定はされないが、ランダム・アクセス・メモリ(RAM)または読み出し専用メモリ(ROM)とすることができる。また、ローカル・メモリ114は、ローカル・プロセッサの内部に配置することができ、または内部および外部メモリの任意の組み合わせとすることができる。
上述のように、触覚周辺機器102の操作子122は、1または2以上の自由度で物理的に動かすことができる。たとえば、ユーザは操作子122を前、後、左または右に動かすことができる。ユーザが操作子122を動かすと、操作子センサ123は、操作子の動きおよび/または位置を検出し、センサ信号をローカル・プロセッサ112に送信する。次いで、ローカル・プロセッサ112は、センサ信号をホスト・コンピュータ104に伝達または送信する。受信されたセンサ信号に基づいて、ホスト・コンピュータ104は、ビデオ・ゲーム内でアクションを行い、仮想環境を更新する。言い換えれば、触覚周辺機器102の操作子122の動きは、ユーザからの入力を表し、これによりユーザが、ホスト・コンピュータ104上で動作するソフトウェア・アプリケーション、たとえば、限定はされないが、一人称シューティング(first person shooter)、三人称キャラクタ・インタラクション(third person character interaction)、車両関連ゲーム、またはコンピュータ・シミュレーションなどに関係するビデオ・ゲームと対話することが可能になる。操作子122の動きは、コンピュータにより生成されるグラフィカル・オブジェクト、たとえばカーソルもしくは他の画像、またはホスト・コンピュータ104により視覚ディスプレイ106を介して表示される他の何らかのグラフィカル・オブジェクトなどの動きに対応する入力、あるいは仮想キャラクタもしくはゲーム用アバター、たとえば人物、車両、またはゲームもしくはコンピュータ・シミュレーションにおいて見つけることができる他の何らかのエンティティなどを制御するための入力をホスト・コンピュータ104に提供することができる。
操作子センサ123からセンサ信号を受信することに加えて、ローカル・プロセッサ112はまた、触覚出力デバイス118から出力される触覚効果に関係する高レベルの監視またはストリーミング・コマンドをホスト・コンピュータ104から受信する。次いで、ローカル・プロセッサ112は、ホスト・コンピュータ104からの高レベルの監視またはストリーミング・コマンドに基づいて、制御または駆動信号を触覚出力デバイス118に提供する。たとえば、動作時に、電圧の大きさおよび持続時間がホスト・コンピュータ104から触覚周辺機器102にストリーミングされ、ここでローカル・プロセッサ112を介して触覚出力デバイス118に情報が提供される。ホスト・コンピュータ104は、高レベルのコマンド、たとえば、触覚出力デバイス118により出力される触覚効果のタイプ(たとえば、振動、急激な揺れ(jolt)、移動止め(detent)、急な衝撃(pop)など)をローカル・プロセッサ112に提供することができ、これによりローカル・プロセッサ112は触覚出力デバイス118に、出力される触覚効果の特定の特徴(たとえば、大きさ、周波数、持続時間など)について指示する。ローカル・プロセッサ112は、それに接続されたローカル・メモリ114から、触覚効果のタイプ、大きさ、周波数、持続時間、または他の特徴を取得することができる。ホスト・コンピュータ104から受信されたゲーム・アクションおよび制御信号に応じて、ローカル・プロセッサ112は、多種多様な触覚効果または感覚、たとえば振動、移動止め、質感、急激な揺れまたは急な衝撃のうちの1つを出力するための制御または駆動信号を触覚出力デバイス118に送信することができる。
触覚出力デバイス118は、バーチャル・リアリティ・システムの当業者に知られているような慣性または運動感覚アクチュエータとすることができる。可能なアクチュエータは、限定はされないが、偏心質量がモータにより動かされる偏心回転質量(「ERM:eccentric rotating mass」)アクチュエータ、ばねに取り付けられた質量が前後に駆動されるリニア共振アクチュエータ(「LRA:linear resonant actuator」)、圧電アクチュエータ、偏心質量がモータによって動かされる電磁モータ、振動触覚アクチュエータ、慣性アクチュエータ、形状記憶合金、信号に応答して変形する電気活性ポリマー、剛性、静電摩擦(ESF:electrostatic friction)、超音波表面摩擦(USF:ultrasonic surface friction)を変化させるためのメカニズム、または上記のアクチュエータの任意の組み合わせを含む。他の実施形態では、アクチュエータは、たとえば、操作子122および/または筐体120の剛性/減衰を変化させるためのソレノイド、操作子122および/または筐体120内で大きさが変化する小型のエアバッグ、または形状変化材料などを含む運動感覚触覚フィードバックを用いることができる。
前述のように、触覚周辺機器102は単に触覚周辺機器の一例示的実施形態にすぎず、他の構成、形状、および大きさを有する触覚周辺機器を使用することができる。たとえば、図3〜5に、本発明の実施形態で利用され得る触覚周辺機器302の別の実施形態を示す。図3および図4は触覚周辺機器302の異なる斜視図であり、ここで触覚周辺機器は手持ち式ゲーム用コントローラであり、図5は、ホスト・コンピュータ104、音声ディスプレイ105、および視覚ディスプレイ106をさらに含むゲーム用システム300で使用される触覚周辺機器302のブロック図を示している。触覚周辺機器302の筐体324は、左利きのユーザまたは右利きのユーザのいずれによっても、デバイスを握る両手を簡単に収容できるように成形されている。触覚周辺機器302は、ビデオ・ゲーム・コンソール・システム用に現在使用可能な多数の「ゲームパッド」と同様の形状および大きさのコントローラの一例示的実施形態にすぎず、ユーザ入力素子の他の構成、形状、および大きさのコントローラ、たとえば、限定はされないが、Wii(商標)リモートまたはWii(商標)Uコントローラ、Sony(登録商標)SixAxis(商標)コントローラまたはSony(登録商標)Wandコントローラ、Xbox(商標)コントローラまたは類似のコントローラ、ならびに実生活の物体(たとえばテニス・ラケット、ゴルフ・クラブ、野球のバットなど)の形状および他の形状のコントローラなどのコントローラを使用できることを当業者であれば理解するであろう。
触覚周辺機器302は、いくつかのユーザ入力素子または操作子、たとえばジョイスティック322、ボタン330、およびトリガ332を含む。本明細書で使用される場合、ユーザ入力素子とは、ユーザによりホスト・コンピュータ104と対話するために操作される、トリガ、ボタン、ジョイスティックなどのインターフェース・デバイスを指す。図3〜4に見られ、当業者に知られているように、各ユーザ入力素子および追加のユーザ入力素子を2つ以上、触覚周辺機器302に含めることができる。したがって、たとえば、トリガ332の本説明は、触覚周辺機器302を単一のトリガに限定するものではない。さらに、図5のブロック図では、ジョイスティック322、ボタン330、およびトリガ332をそれぞれ1つのみ示している。しかしながら、上述のように、複数のジョイスティック、ボタン、およびトリガ、ならびに他のユーザ入力素子を使用できることを当業者であれば理解するであろう。
図5のブロック図からわかるように、触覚周辺機器302は、そのユーザ入力素子のそれぞれを直接駆動するためのターゲット触覚出力デバイス(またはモータ)、ならびにユーザの手が通常配置される場所で筐体324に接続された1つまたは複数の一般的なまたは振動型(rumble)触覚出力デバイス326、328を含む。より詳細には、ジョイスティック322は、それに接続されたターゲット触覚出力デバイス(またはモータ)318Aを含み、ボタン330は、それに接続されたターゲット触覚出力デバイス(またはモータ)318Bを含み、トリガ332は、それに接続されたターゲット触覚出力デバイス(またはモータ)318Cを含む。複数のターゲット触覚出力デバイスに加えて、触覚周辺機器302は、そのユーザ入力素子のそれぞれに接続された位置センサを含む。より詳細には、ジョイスティック322は、それに接続された位置センサ323を含み、ボタン330は、それに接続された位置センサ331を含み、トリガ332は、それに接続された位置センサ333を含む。ローカル・プロセッサ312は、ターゲット触覚出力デバイス318A、318B、318C、ならびにジョイスティック322、ボタン330、およびトリガ332の位置センサ323、331、333にそれぞれ接続される。位置センサ323、331、333から受信された信号に応答して、ローカル・プロセッサ312は、ターゲット触覚出力デバイス318A、318B、318Cに、指令されたまたは対象の効果をそれぞれジョイスティック322、ボタン330、およびトリガ332に直接提供するように指示する。そのような対象の効果は、全体触覚出力デバイス326、328によりコントローラの本体全体に沿って生成される一般的なまたは振動型触覚効果とは識別可能または区別可能である。集合的な触覚効果は、複数の様相、たとえばビデオ、音声、および触覚が同時に関与するので、ゲームへのより高い没入感をユーザに与える。触覚周辺機器102およびホスト・コンピュータ104と同様に、触覚周辺機器302は、音声ディスプレイ105および視覚ディスプレイ106を有するホスト・コンピュータ104に接続され、これと通信する。触覚周辺機器302のローカル・プロセッサ312は、各触覚出力デバイスに接続されて、ホスト・コンピュータ104からの高レベルの監視またはストリーミング・コマンドに基づいて、触覚効果をその触覚出力デバイスに与える。触覚周辺機器302の触覚出力デバイスは、触覚周辺機器102の触覚出力デバイス118用に本明細書で列挙された任意のタイプの触覚出力デバイスとすることができる。また、触覚周辺機器302は、接続センサ116と同様の接続センサ(図示せず)、および/または追加パラメータ・センサ117と同様の追加パラメータ・センサ(図示せず)を含むこともできるが、本明細書でより詳細に説明されるような全ての実施形態でセンサが必要なわけではない。
図6〜7に本発明の他の実施形態による触覚周辺機器602を示し、ここで触覚周辺機器602は、当業者に理解されるように、統合された視覚および音声ディスプレイを含むタブレット・コンピュータ604と共に使用可能なゲーム用タブレット・コンピュータである。タブレット・コンピュータ604は、Razer社から入手可能なものなど、ゲーム活動専用に設計することができ、または、よく知られており市販されているタブレット・コンピュータ、たとえばApple(登録商標)Ipad(登録商標)、Kindle(登録商標)Fire(登録商標)、およびSamsung(登録商標)Galaxy Tab(登録商標)などとすることができる。触覚周辺機器602は、タブレット・コンピュータ604を収めるように構成されたドッキング部640と、ユーザがタブレット・コンピュータ604上のゲームを制御するための操作子が配置されたハンドル642、644とを含む。ドッキング部640は、触覚周辺機器602をタブレット・コンピュータ604に接続し、その結果、ユーザがハンドル642、644上でアクションを行う、たとえばボタンを押す、ジョイスティックを動かす、トリガを押すと、タブレット・コンピュータ604上でプレイ中のゲーム上でアクションが行われることになる。
ハンドル642、641は、コントローラ上に見られる典型的な操作子またはユーザ入力素子を含む。操作子は、ハンドル644に関して説明される。しかしながら、同一または類似の操作子をハンドル642で使用できることを当業者であれば理解するであろう。特に、ハンドル644は、ジョイスティック622、ボタン630、およびトリガ632を含む。図6に見られ、当業者に知られているように、これらのユーザ入力素子のそれぞれを2つ以上、各ハンドル642、644に含めることができる。さらに、ハンドル642、644は、一般的なまたは振動型触覚出力デバイス326、328について上記で説明されたように、一般的なまたは振動型触覚効果をハンドル642、644に提供するために、ユーザの手が通常配置される場所に、それらに取り付けられた一般的なまたは振動型触覚出力デバイス626、628を含む。
図7のブロック図に示されるように、触覚周辺機器602は、ドッキング部640を介してタブレット・コンピュータ604と通信するローカル・プロセッサ612を含む。図7のブロック図では、ジョイスティック622、ボタン630、およびトリガ632をそれぞれ1つのみ示している。しかしながら、上述のように、複数のジョイスティック、ボタン、およびトリガ、ならびに他のユーザ入力素子を使用できることを当業者であれば理解するであろう。ローカル・プロセッサ612は、ターゲット触覚出力デバイス618A、618B、618C、ならびにジョイスティック622、ボタン630、およびトリガ632の位置センサ623、631、633にそれぞれ接続される。位置センサ623、631、633から受信された信号に応答して、ローカル・プロセッサ612は、ターゲット触覚出力デバイス618A、618B、618Cに、指令されたまたは対象の効果をそれぞれジョイスティック622、ボタン630、およびトリガ632に直接提供するように指示する。触覚周辺機器602のローカル・プロセッサ612は、各触覚出力デバイスに接続されて、ホスト・コンピュータ604からの高レベルの監視またはストリーミング・コマンドに基づいて、触覚効果をその触覚出力デバイスに与える。触覚周辺機器602の触覚出力デバイスは、触覚周辺機器102の触覚出力デバイス118用に本明細書で列挙された任意のタイプの触覚出力デバイスとすることができる。また、触覚周辺機器602は、接続センサ116と同様の接続センサ(図示せず)、および/または追加パラメータ・センサ117と同様の追加パラメータ・センサ(図示せず)を含むこともできるが、本明細書でより詳細に説明されるような全ての実施形態でセンサが必要なわけではない。
図6〜7は、タブレット・コンピュータ604と共に使用可能なゲーム用タブレット・コントローラとして触覚周辺機器602を例示しているが、触覚周辺機器およびホストまたはタブレット・コンピュータが、同一のデバイスまたは筐体の中にあってもよいことは当業者に理解されよう。言い換えれば、ゲーム用タブレット・コントローラは、関連する周辺機器を有さないゲーム用タブレットとすることができるが、むしろ触覚出力デバイスおよび音声ディスプレイはゲーム用タブレット自体に単一のデバイスとして統合される。
どの触覚周辺機器の構成または実施形態が利用されるかにかかわらず、システムのホスト・プロセッサおよび/またはローカル・プロセッサは、音声ディスプレイの音声出力アクセサリ接続状況に応じて触覚出力デバイスに対する制御信号を変化させるように構成される。言い換えれば、システムのホスト・プロセッサおよび/またはローカル・プロセッサは、システムの音声ディスプレイが音声出力アクセサリ、たとえばヘッドフォンまたはBluetoothデバイスに接続されているか否かに応じて、触覚出力デバイスに対する制御信号を変化させるまたは修正するように構成される。たとえば、音声出力アクセサリ・デバイスが音声ディスプレイに接続されておらず、音声が音声ディスプレイの一体型スピーカーを介して出力される場合には、より弱い触覚効果が再生または出力され、音声出力アクセサリ・デバイスが音声ディスプレイに接続されており、音声が接続された音声出力アクセサリ・デバイスを介して出力される場合には、より強い触覚効果が再生または出力される。本明細書で先に述べられたように、場合によっては、音声および触覚の出力または効果は互いに干渉することがあり、したがってこれらの場合には、そのような干渉を最小化するまたは防ぐために、音声および/または触覚出力を変化させるまたは修正することが望ましい。別の例では、携帯電話のスピーカーに伝達されない特定の音または音声効果はヘッドフォンで聞くことができ、したがってこれらの場合には、携帯電話のスピーカーを介して音が出力される場合に視聴者に聞こえない音を有する触覚効果を回避するのが望ましい。接続されたヘッドフォンの存在またはその不在を検出することによって、これらの考慮事項を考慮した触覚トラック(tactile track)または触覚効果の選択が可能になる。本明細書でより詳細に説明されるように、本発明の実施形態は、ヘッドフォンを用いてまたは用いずにビデオを見るときの内容美学(content aesthetic)の差を補償し、スピーカー−触覚干渉を補償し、様々なハードウェアまたはデバイス固有の問題または能力を考慮する。
本発明の任意の実施形態において、音声出力アクセサリ・デバイスは、システムの任意のコンポーネントに接続することができる。より具体的には、音声出力アクセサリ・デバイスは音声ディスプレイに接続され、本明細書に記載のように、音声ディスプレイは、ホスト・コンピュータ、触覚周辺機器、または2次周辺機器、たとえば視覚ディスプレイなどに統合することができる。したがって、音声出力アクセサリ・デバイスの接続は、どのシステム・コンポーネントに音声ディスプレイが統合されるかに依存する。たとえば、一実施形態では、音声出力アクセサリ・デバイスは、ホスト・コンピュータに接続される。より具体的には、この例では、音声ディスプレイは、ホスト・コンピュータ、たとえば、限定はされないが、PCの一部であるか、またはこれに統合される。このようにして、ユーザはヘッドフォンをホスト・コンピュータに差し込んで音声出力を聞くことができ、また、ユーザは同様に触覚周辺機器をホスト・コンピュータに差し込んでゲームを制御することができる。別の実施形態では、音声出力アクセサリ・デバイスは、触覚周辺機器に接続される。より具体的には、この例では、音声ディスプレイは、触覚ディスプレイと同じ周辺機器の一部であるかまたはこれに統合され、たとえば、音声ジャックおよび一体型または内臓スピーカーを有するゲーム・コントローラである。別の実施形態では、音声出力アクセサリ・デバイスは、周辺ディスプレイ・デバイスまたはインターフェース、たとえば音声接続も提供する視覚ディスプレイ・デバイスに接続される。より具体的には、この例では、音声ディスプレイは、2次周辺機器の一部であるかまたはこれに統合され、たとえば音声機能または外部アンプを有するコンピュータ・モニタである。このようにして、ユーザはヘッドフォンを2次周辺機器に差し込んで音声出力を聞くことができ、また、ユーザは同様に触覚周辺機器をホスト・コンピュータに差し込んでゲームを制御することができる。本発明の任意の実施形態において、触覚周辺機器により出力される触覚効果は、ユーザがヘッドフォンでまたはスピーカーのいずれかを介して何を聞いているかに基づいて修正される。
より具体的には、図8は、本発明の一実施形態による触覚周辺機器のユーザに触覚効果を与えるための方法を示すフローチャートである。ステップ850は、方法の開始または始まりを示す。図8の実施形態では、レンダリングされる触覚効果は、音声ディスプレイの音声出力アクセサリ接続状況に応じて変化する。一実施形態では、図8の流れ図の機能は、ホスト・コンポーネントのホスト・メモリに格納されホスト・プロセッサにより実行されるソフトウェア、および/または触覚周辺機器のローカル・メモリに格納されローカル・プロセッサにより実行されるソフトウェアにより実装される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC:application specific integrated circuit」)、プログラマブル・ゲート・アレイ(「PGA:programmable gate array」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA:field programmable gate array」)、またはハードウェアおよびソフトウェアの任意の組み合わせの使用を通じてハードウェアによって、実施することができる。この実施形態では、システムの音声ディスプレイは、少なくとも一体型スピーカーと、ヘッドフォンを内部に受けるように構成されたヘッドフォン・コネクタとを含む。音声ディスプレイは、ホスト・コンピュータ、触覚周辺機器、または2次周辺機器、たとえば視覚ディスプレイに統合することができる。図8の方法が、触覚周辺機器102、触覚周辺機器302、触覚周辺機器602、またはビデオ・ゲームの分野で知られているような別の構成を有する触覚周辺機器により実施できることは当業者に理解されよう。
ステップ852において、音声出力アクセサリ接続状況が検出される。本明細書で使用される場合、音声出力アクセサリは、ヘッドフォン、Bluetoothデバイスたとえばヘッドフォンもしくは外部スピーカー、または音声または音を出力するために音声ディスプレイに接続可能な他のアクセサリ・デバイスを含む。接続状況とは、本明細書で使用される場合、音声または音を出力するために音声出力アクセサリが音声ディスプレイに接続されているかを指す。音声出力アクセサリが音声ディスプレイに接続されていない場合、音声ディスプレイの一体型スピーカーが、音声または音を出力するために利用される。音声ディスプレイの音声出力アクセサリ接続状況は、いくつかの方法のうちの1つによって検出することができる。本発明の特定の実施形態では、音声ディスプレイの音声出力アクセサリ接続状況は、接続センサ116を通じて検出することができる(図1参照)。この実施形態における接続センサ116の例は、限定はされないが、ハードウェア・センサ、たとえば光依存性抵抗器(LDR:light dependent resistor)、機械式スイッチ、および容量センサ、ならびに電気接続がなされているかをシステムが判定するソフトウェア・センサも含む。本発明の他の実施形態では、ホスト・プロセッサおよび/またはローカル・プロセッサは、接続センサ116を用いることなく音声出力アクセサリ接続状況を検出するように構成される(したがってこの実施形態では追加の接続センサ116が必要ない)。たとえば、タブレット・コンピュータまたは携帯電話などの触覚周辺機器のプロセッサは、音声出力アクセサリが接続されているかを検出または判定するようにプログラムするまたは構成することができる。
音声ディスプレイが音声出力アクセサリに接続されているかが一旦判定されると、ホスト・プロセッサおよび/またはローカル・プロセッサは、音声ディスプレイの音声出力アクセサリ接続状況に応じて、触覚出力デバイスに対する制御信号を変化させるように構成される。ステップ854に示されるように、音声ディスプレイがヘッドフォンまたはBluetoothデバイスに接続されている場合、ステップ856に示されるように、触覚出力デバイスは、ヘッドフォンまたはBluetoothデバイス用に最適化された触覚トラックまたは効果を再生または出力するように指示される。ステップ858に示されるように、音声ディスプレイが音声出力アクセサリに接続されていない場合(すなわち音声ディスプレイがヘッドフォンまたはBluetoothデバイスに接続されていない場合)、ステップ860に示されるように、触覚出力デバイスは、デバイス・スピーカー用に最適化された触覚トラックまたは効果を再生または出力するように指示される。言い換えれば、ヘッドフォンまたはBluetoothデバイスが音声ディスプレイに接続されている(したがって接続された音声アクセサリ・デバイスを介して音声が出力される)場合、ステップ856において、触覚出力デバイスは第1の触覚効果を生成および適用する。しかしながら、音声アクセサリ・デバイスが音声ディスプレイに接続されていない(したがって音声ディスプレイの一体型スピーカーを介して音声が出力される)場合、ステップ860において、触覚出力デバイスは第2の触覚効果を生成および適用する。一実施形態では、第1の触覚効果は第2の触覚効果より強く、したがって、ヘッドフォンまたはBluetoothデバイスなどの接続された音声出力アクセサリ・デバイスを介して音声が出力される場合に与えられるより強い効果と比較して、音声ディスプレイの一体型スピーカを介して音声が出力される場合により弱い効果が与えられる。
本明細書で使用される場合、触覚出力デバイスに対する制御信号を変化させることは、音声ディスプレイの検出された音声出力アクセサリ接続状況に応じて触覚効果のトラックを出力もしくは選択することを含むことができ、または音声ディスプレイの検出された音声出力アクセサリ接続状況に応じてトラックの触覚効果を修正または変更することを含むことができる。言い換えれば、検出された音声出力アクセサリ接続状況に応じて、ホスト・プロセッサおよび/またはローカル・プロセッサは、所定の触覚トラックの触覚効果を調整するように構成することができ、またはどの触覚トラックが再生もしくは出力されるかを選択するように構成することができる。
より具体的には、一実施形態において、ホスト・プロセッサおよび/またはローカル・プロセッサは、ヘッドフォンまたはBluetoothスピーカーに対してより強いまたは追加の効果を有する触覚トラックを有効にするまたは選択するように構成し、音声ディスプレイの一体型スピーカーから再生する場合についてより弱いまたは少ない効果を有するトラックを有効にするまたは選択するように構成することができる。たとえば、ホスト・プロセッサは、状態の変化と触覚効果との事前定義されたマッピングにアクセスする。ホスト・プロセッサは、状態の変化が存在し(すなわち、音声出力アクセサリがヘッドフォン・コネクタに差し込まれているか、または別の方法で音声ディスプレイに接続されており)、関連付けられた触覚効果が触覚効果を強めることおよび/または追加の触覚効果を与えることであると決定することができる。この状態の変化についての関連付けられた触覚効果は、ホスト・プロセッサおよび/またはローカル・プロセッサにより採用された事前定義されたマッピング・システムに従って決定することができる。たとえば、事前定義されたマッピング・システムは、音声出力アクセサリが音声ディスプレイに接続されていることが検出された場合に、作成された触覚効果の特定のコンテンツ・トラックまたはシーケンスが再生されるように指示することができる。
他の実施形態では、ホスト・プロセッサおよび/またはローカル・プロセッサは、音声出力アクセサリが検出されず、したがって音声および触覚効果の両方が音声ディスプレイの一体型スピーカーから出力される場合に、所定の触覚トラックを修正してその特定の触覚効果を中止または省略するように構成することができる。たとえば、事前定義されたマッピング・システムは、作成された触覚効果の現在再生中のコンテンツ・トラックまたはシーケンスが、接続状況に応じて修正されるまたは変化するように指示することができる。音声出力アクセサリが音声ディスプレイに接続されていることが検出された場合に、現在再生中のコンテンツ・トラックに従って出力される触覚効果は、徐々に強まるか、または所定の時間の間に所定のレベルまで強まってもよい。したがって、音声ディスプレイが音声出力アクセサリに接続されている場合に、触覚ボリュームまたは強度が増加するか、または質感などの触覚効果を追加することができる。事前定義されたマッピング・システムの上記の例は本質的に例示的であり、任意の事前定義されたマッピング・システムを仮想環境の開発者の要望通りに利用できることは当業者にとって明らかであろう。
触覚出力デバイスにより出力される触覚効果は、限定はされないが、様々な度合いの振動、様々な度合いの移動止め、または他のタイプの触覚効果を含むことができる。1つの例示的な例として、ユーザがキャラクタまたは他の何らかのグラフィカル・オブジェクトを操作しており、次いで仮想環境において爆発に遭遇した場合、関連付けられた触覚効果は振動とすることができる。この場合、ローカル・プロセッサは、音声ディスプレイの検出された音声出力アクセサリ接続状況に応じて変化する強度で触覚周辺機器が振動するように指示する信号を受信する。結果として、ローカル・プロセッサは、この信号を触覚出力デバイスに送信して、適切な触覚効果を提供できるようにし、適切な触覚効果は、この例では、音声ディスプレイが音声出力アクセサリに接続されているか否かに応じた特定の強度を有する振動である。実行されユーザに与えられる触覚効果のタイプを決定する際に、高レベルの触覚パラメータまたはストリーミング値が、ソフトウェア・コードで生成され、触覚エンジン(図示せず)に送信され、ここでそれらが処理され、適切な電圧レベルが触覚出力デバイスに対して生成される。これにより、触覚周辺機器は、適切な触覚フィードバックをユーザに与え、触覚出力デバイスに対して生成された異なる電圧レベルによって触覚フィードバックの量またはタイプを変化させることが可能になる。加えて、ゲーム用ソフトウェアおよび触覚ソフトウェアは、同一のプロセッサまたは複数のプロセッサ上に常駐することができる。
図8では、最適化される触覚効果について2つの選択肢のみ(すなわち、音声出力アクセサリが音声ディスプレイに接続されているか否か)を示しているが、そのような最適化される触覚効果が音声出力アクセサリのタイプに応じてさらに変化し得ることは当業者には理解されよう。言い換えれば、触覚効果は、どのタイプの音声出力アクセサリが音声ディスプレイに接続されているかに応じて異なってもよい。たとえば、音声ディスプレイがイヤホン型ヘッドフォンに接続されている場合に、第1の最適化されたトラックまたは触覚効果を再生することができ、音声ディスプレイが耳覆い型ヘッドフォンに接続されている場合に、異なる最適化されたトラックまたは触覚効果を再生することができ、音声ディスプレイが外部スピーカーに接続されている場合に、さらに別の異なる最適化されたトラックまたは触覚効果を再生することができる。したがって、どの音声出力コンポーネントまたはアクセサリが使用されているかの検知に基づいて、異なる触覚効果を与えることができる。
本発明の別の実施形態では、レンダリングされる触覚効果は、検出されたデバイス設定ならびに、音声ディスプレイの音声出力アクセサリ接続状況とに応じて変化してもよい。デバイス設定は、限定はされないが、図9に関して説明されるような音量レベル、または図10に関して説明されるような電源状況を含むことができる。したがって、どの音声出力コンポーネントまたはアクセサリが使用されているか、およびそれがどのように使用されているかの検知に基づいて、異なる触覚効果を与えることができる。
より具体的には、図9は、本発明の一実施形態による触覚周辺機器のユーザに触覚効果を与えるための方法を示すフローチャートであり、レンダリングされる触覚効果は、音声ディスプレイの音声出力アクセサリ接続状況と、音声ディスプレイの検出された設定とに応じて変化し、検出された設定は音量レベルである。ステップ950は、方法の開始または始まりを示す。一実施形態では、図9の流れ図の機能は、ホスト・コンポーネントのホスト・メモリに格納されホスト・プロセッサにより実行されるソフトウェア、および/または触覚周辺機器のローカル・メモリに格納されローカル・プロセッサにより実行されるソフトウェアにより実装される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC」)、プログラマブル・ゲート・アレイ(「PGA」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、またはハードウェアおよびソフトウェアの任意の組み合わせの使用を通じてハードウェアによって、実施することができる。この実施形態では、システムの音声ディスプレイは、少なくとも一体型スピーカーと、ヘッドフォンを内部に受けるように構成されたヘッドフォン・コネクタとを含む。音声ディスプレイは、ホスト・コンピュータ、触覚周辺機器、または2次周辺機器、たとえば視覚ディスプレイに統合することができる。図9の方法が、触覚周辺機器102、触覚周辺機器302、触覚周辺機器602、またはビデオ・ゲームの技術で知られているような別の構成を有する触覚周辺機器により実施できることは当業者に理解されよう。
ステップ952において、音声ディスプレイの音声出力アクセサリ接続状況が検出される。音声出力アクセサリが音声ディスプレイに接続されていない場合、音声ディスプレイの一体型スピーカーが、音声または音を出力するために利用される。図8に関して上記で説明されたように、音声ディスプレイの音声出力アクセサリ接続状況は、たとえば接続センサ116を通じてなどいくつかの方法の1つによって検出することができ、またはホスト・プロセッサおよび/またはローカル・プロセッサが、接続センサ116を用いることなく、音声ディスプレイの音声出力アクセサリ接続状況を検出するように構成される。
音声ディスプレイが音声出力アクセサリに接続されているかが一旦判定されると、ホスト・プロセッサおよび/またはローカル・プロセッサは、音声ディスプレイの音声出力アクセサリ接続状況と、音声ディスプレイの音量レベルとに応じて、触覚出力デバイスに対する制御信号を変化させるように構成される。ステップ954に示されるように、音声ディスプレイがヘッドフォンまたはBluetoothデバイスに接続されている場合、ステップ956に示されるように、触覚出力デバイスが、ヘッドフォンまたはBluetoothデバイス用に最適化された触覚トラックまたは効果を再生または出力するように指示される。ステップ958に示されるように、音声ディスプレイが音声出力アクセサリに接続されていない場合(すなわち音声ディスプレイがヘッドフォンまたはBluetoothデバイスに接続されていない場合)、ステップ962において、触覚周辺機器の音量レベルが検出される。本発明の一実施形態では、ホスト・プロセッサおよび/またはローカル・プロセッサは、触覚周辺機器の音量レベルを検出するように構成される。所定の閾値未満の比較的小さい音量が検出された場合、ステップ964に示されるように、触覚出力デバイスは、音声出力が小音量のデバイス・スピーカー用に最適化された触覚トラックまたは効果を再生または出力するように指示される。所定の閾値を超える比較的大きい音量が検出された場合、ステップ966に示されるように、触覚出力デバイスは、音声出力が大音量のデバイス・スピーカー用に最適化された触覚トラックまたは効果を再生または出力するように指示される。言い換えれば、ヘッドフォンまたはBluetoothデバイスが音声ディスプレイに接続されている(したがって接続された音声アクセサリ・デバイスを介して音声が出力される)場合、ステップ956において、触覚出力デバイスは第1の触覚効果を生成および適用する。しかしながら、音声アクセサリ・デバイスが音声ディスプレイに接続されていない(したがって音声ディスプレイの一体型スピーカーを介して音声が出力される)場合、触覚出力デバイスは、音声出力の検出された音量レベルに応じて、ステップ964において第2の触覚効果を、またはステップ966において第3の触覚効果を生成および適用する。
図10は、本発明の一実施形態による触覚周辺機器のユーザに触覚効果を与えるための方法を示すフローチャートであり、レンダリングされる触覚効果は、音声ディスプレイの音声出力アクセサリ接続状況と、触覚周辺機器の検出された電源状況とに応じて変化する。この実施形態では、システムの音声ディスプレイは、少なくとも一体型スピーカーと、ヘッドフォンを内部に受けるように構成されたヘッドフォン・コネクタとを含む。音声ディスプレイは、ホスト・コンピュータ、触覚周辺機器、または2次周辺機器、たとえば視覚ディスプレイに統合することができる。本発明の一実施形態では、図10の方法は、触覚出力デバイスおよび音声ディスプレイがゲーム用タブレット自体に単一のデバイスとして統合されたゲーム用タブレットにより実施される。本発明の別の実施形態では、図10の方法は、音声ディスプレイが統合された触覚周辺機器、たとえば、限定はされないが、携帯電話デバイスにより実施される。しかしながら図10の方法が、触覚周辺機器102、触覚周辺機器302、触覚周辺機器602、またはビデオ・ゲームの技術で知られているような別の構成を有する触覚周辺機器により実施できることは当業者に理解されよう。ステップ1050は、方法の開始または始まりを示す。一実施形態では、図10の流れ図の機能は、ホスト・コンポーネントのホスト・メモリに格納されホスト・プロセッサにより実行されるソフトウェア、および/または触覚周辺機器のローカル・メモリに格納されローカル・プロセッサにより実行されるソフトウェアにより実装される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC」)、プログラマブル・ゲート・アレイ(「PGA」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、またはハードウェアおよびソフトウェアの任意の組み合わせの使用を通じてハードウェアによって、実施することができる。
ステップ1052において、音声ディスプレイの音声出力アクセサリ接続状況が検出される。音声出力アクセサリが音声ディスプレイに接続されていない場合、音声ディスプレイの一体型スピーカーが、音声または音を出力するために利用される。図8に関して上記で説明されたように、音声ディスプレイの音声出力アクセサリ接続状況は、たとえば接続センサ116を通じてなどいくつかの方法の1つによって検出することができ、またはホスト・プロセッサおよび/またはローカル・プロセッサが、接続センサ116を用いることなく、音声ディスプレイの音声出力アクセサリ接続状況を検出するように構成される。
音声ディスプレイが音声出力アクセサリに接続されているかが一旦判定されると、ホスト・プロセッサおよび/またはローカル・プロセッサは、音声ディスプレイの音声出力アクセサリ接続状況と、触覚周辺機器の電源状況とに応じて、触覚出力デバイスに対する制御信号を変化させるように構成される。ステップ1054に示されるように、音声ディスプレイがヘッドフォンまたはBluetoothデバイスに接続されている場合、ステップ1055において、触覚周辺機器の電源状況が検出される。本発明の一実施形態では、ホスト・プロセッサおよび/またはローカル・プロセッサは、触覚周辺機器の電源状況を検出するように構成される。所定の閾値未満の比較的低いバッテリー・レベルが検出された場合、ステップ1056Aに示されるように、触覚出力デバイスは、ヘッドフォンまたはBluetoothデバイスおよび低いバッテリー状況向けに最適化された触覚トラックまたは効果を再生または出力するように指示される。所定の閾値を超える比較的高いバッテリー状況またはプラグで接続された状況が検出された場合、ステップ1056Bに示されるように、触覚出力デバイスは、ヘッドフォンまたはBluetoothデバイス用に最適化された触覚トラックまたは効果を再生または出力するように指示される。
ステップ1058に示されるように、音声ディスプレイが音声出力アクセサリに接続されていない場合(すなわち音声ディスプレイがヘッドフォンまたはBluetoothデバイスに接続されていない場合)、ステップ1059において、触覚周辺機器の電源状況が検出される。本発明の一実施形態では、ホスト・プロセッサおよび/またはローカル・プロセッサは、触覚周辺機器の電源状況を検出するように構成される。所定の閾値未満の比較的低いバッテリー・レベルが検出された場合、ステップ1060Aに示されるように、触覚出力デバイスは、デバイス・スピーカーおよび低いバッテリー状況向けに最適化された触覚トラックまたは効果を再生または出力するように指示される。所定の閾値を超える比較的高いバッテリー状況またはプラグで接続された状況が検出された場合、ステップ1060Bに示されるように、触覚出力デバイスは、デバイス・スピーカー用に最適化された触覚トラックまたは効果を再生または出力するように指示される。
図8に関して上記で説明されたように、触覚出力デバイスに対する制御信号を変化させることは、音声ディスプレイの検出された接続状況および検出されたデバイス設定に応じて触覚効果のトラックを出力もしくは選択することを含むことができ、または音声ディスプレイの検出された接続状況および検出されたデバイス設定に応じてトラックの触覚効果を修正または変更することを含むことができる。言い換えれば、音声ディスプレイの検出された接続状況および検出されたデバイス設定に応じて、ホスト・プロセッサおよび/またはローカル・プロセッサは、所定の触覚トラックの触覚効果を調整するように構成することができ、またはどの触覚トラックが再生もしくは出力されるかを選択するように構成することができる。
本発明の別の実施形態では、レンダリングされる触覚効果は、触覚周辺機器の所定の属性ならびに、音声ディスプレイの音声出力アクセサリ接続状況とに応じて変化し得る。本発明の一実施形態では、所定の属性は、触覚周辺機器の触覚および音声出力の間の干渉に関係する。たとえば、所定の属性は、一体型デバイス・スピーカーの特徴もしくは能力(すなわち、特定のモデルもしくは触覚周辺機器との音声干渉により生じる既知の問題)、または触覚周辺デバイスの特徴、たとえば一体型デバイス・スピーカーの物質性および/または位置に関係し得る。一例として、特定の触覚周辺機器は、一体型デバイス・スピーカーを介して音声が出力される場合に、触覚および音声出力の間で多くの干渉を有することが分かっていることがある。加えて、触覚周辺機器の所定の属性は、特定の触覚効果またはトラックの特徴に関係し得る。別の例として、触覚周辺機器の所定の属性は、音声ディスプレイの一体型スピーカーの周波数範囲と比較した触覚アクチュエータの周波数範囲とすることができる。たとえば、サブウーファなどの一体型スピーカーは、比較的低い周波数のみを放出することができる。比較的低い周波数が音声−触覚干渉の唯一の部分または発生源である場合、ホスト・プロセッサおよび/またはローカル・プロセッサは、音声の音量を増加させつつ、特定の比較的低い周波数における触覚効果を減少させるおよび/または除去するように構成することができる。
図11は、本発明の一実施形態による触覚周辺機器のユーザに触覚効果を与えるための方法を示すフローチャートであり、レンダリングされる触覚効果は、音声ディスプレイの音声出力アクセサリ接続状況と、触覚周辺機器の所定の属性とに応じて変化し、所定の属性は触覚周辺機器の触覚出力および音声出力の間の干渉に関係する。より具体的には、図11の実施形態では、音声ディスプレイの音声出力アクセサリ接続状況は、触覚周辺機器の所定の属性が既知の音声干渉問題に関連する場合にのみ検出される。ステップ1150は、方法の開始または始まりを示す。一実施形態では、図11の流れ図の機能は、ホスト・コンポーネントのホスト・メモリに格納されホスト・プロセッサにより実行されるソフトウェア、および/または触覚周辺機器のローカル・メモリに格納されローカル・プロセッサにより実行されるソフトウェアにより実装される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC」)、プログラマブル・ゲート・アレイ(「PGA」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、またはハードウェアおよびソフトウェアの任意の組み合わせの使用を通じてハードウェアによって、実施することができる。この実施形態では、システムの音声ディスプレイは、少なくとも一体型スピーカーと、ヘッドフォンを内部に受けるように構成されたヘッドフォン・コネクタとを含む。音声ディスプレイは、ホスト・コンピュータ、触覚周辺機器、または2次周辺機器、たとえば視覚ディスプレイに統合することができる。図11の方法が、触覚周辺機器102、触覚周辺機器302、触覚周辺機器602、またはビデオ・ゲームの技術で知られているような別の構成を有する触覚周辺機器により実施できることは当業者に理解されよう。
ステップ1170において、触覚周辺機器の所定の属性が検出される。上述のように、本発明の一実施形態では、所定の属性は、触覚周辺機器の触覚および音声出力の間の干渉に関係する。たとえば、特定の触覚周辺機器は、触覚出力および音声出力の間で多くの干渉を有することが分かっていることがあり、したがって所定の属性の検出は、触覚周辺機器のタイプ(すなわち製作または製造業者)および/またはモデルの検出を含む。ステップ1172において、ホスト・プロセッサおよび/またはローカル・プロセッサは、検出された所定の属性が既知の音声−触覚干渉問題に関連するかを判定する。たとえば、ホスト・プロセッサは、所定の属性と、関連する音声−触覚干渉問題との事前定義されたマッピングにアクセスする。
検出された所定の属性が既知の音声−触覚干渉問題に関連する場合、ステップ1152において音声ディスプレイの音声出力アクセサリ接続状況が検出される。音声出力アクセサリが音声ディスプレイに接続されていない場合、音声ディスプレイの一体型スピーカーが、音声または音を出力するために利用される。図8に関して上記で説明されたように、音声ディスプレイの音声出力アクセサリ接続状況は、たとえば接続センサ116を通じてなどいくつかの方法の1つによって検出することができ、またはホスト・プロセッサおよび/またはローカル・プロセッサが、接続センサ116を用いることなく、音声ディスプレイの音声出力アクセサリ接続状況を検出するように構成される。
音声ディスプレイが音声出力アクセサリに接続されているかが判定されると、ホスト・プロセッサおよび/またはローカル・プロセッサは、音声ディスプレイの音声出力アクセサリ接続状況と、検出された所定の属性とに応じて、触覚出力デバイスに対する制御信号を変化させるように構成される。ステップ1154に示されるように、音声ディスプレイがヘッドフォンまたはBluetoothデバイスに接続されている場合、ステップ1156に示されるように、触覚出力デバイスが、ヘッドフォンまたはBluetoothデバイス用に最適化された触覚トラックまたは効果を再生または出力するように指示される。ステップ1158に示されるように、音声ディスプレイが音声出力アクセサリに接続されていない場合(すなわち音声ディスプレイがヘッドフォンまたはBluetoothデバイスに接続されていない場合)、ステップ1160に示されるように、触覚出力デバイスは、デバイス・スピーカー用に最適化された触覚トラックまたは効果を再生または出力するように指示される。言い換えれば、ヘッドフォンまたはBluetoothデバイスが音声ディスプレイに接続されている(したがって接続された音声アクセサリ・デバイスを介して音声が出力される)場合、ステップ1156において、触覚出力デバイスは第1の触覚効果を生成および適用する。しかしながら、音声アクセサリ・デバイスが音声ディスプレイに接続されていない(したがって音声ディスプレイの一体型スピーカーを介して音声が出力される)場合、ステップ1160において、触覚出力デバイスは第2の触覚効果を生成および適用する。
上述の実施形態は、音声ディスプレイの音声出力アクセサリ接続状況を、可能性のある音声−触覚干渉に関連する状況指示子として検出することを含む。しかしながら、接続状況の代わりにまたはこれに加えて、他のパラメータを、可能性のある音声−触覚干渉に関連する状況指示子として検出または検知することができる。たとえば、一実施形態では、生体センサを、可能性のある音声−触覚干渉に関連する状況指示子として利用することができ、触覚効果をアドレナリンの検出に応じて変化させることができる。ユーザが厳しい活動(rigorous activity)を行っている場合に、ホスト・プロセッサおよび/またはローカル・プロセッサは、生体センサからの検知された信号に応じて触覚出力デバイスに対する制御信号を変化させるように構成される(すなわち、アドレナリンが検知された場合に、触覚効果を強めるまたは追加することができる)。同様に、一実施形態では、モーション・センサを、可能性のある音声−触覚干渉に関連する状況指示子として利用することができ、触覚効果をユーザの動きの検出に応じて変化させることができる。ユーザがトレーニングしているか、または活動もしくは運動が増加している場合に、ホスト・プロセッサおよび/またはローカル・プロセッサは、モーション・センサからの検知された信号に応じて触覚出力デバイスに対する制御信号を変化させるように構成される(すなわち、ユーザが動いている、またはユーザの運動が所定の閾値を超えて増加している場合に、触覚効果を強めるまたは追加することができる)。この実施形態におけるモーション・センサの例は、限定はされないが、ビデオ・カメラ・デバイス、ウェブカメラ・デバイス、いかなる物理的な接触もなしで近くの物体の存在を検出するセンサ、モーション・センサ、筋肉の動きを検出してユーザの動きを決定するユーザの皮膚に貼り付けられるセンサ、赤外センサ、超音波センサ、近距離伝送、ステレオ三角測量、符号化開口、干渉計、または他の任意の距離画像センサ、たとえばXBOX Kinectなどのデバイスを含む。単一のモーション・センサとして説明されているが、ユーザの動きを決定するために、複数のセンサを同時に利用するまたは併用することができることは当業者には理解されよう。たとえば、センサ・システムをテレビ、モニタ、またはKinectアクセサリに配置して、複数のセンサを用いて空間内のユーザのリアルタイム3D画像をキャプチャすることができる。また、センサ・システムは、ウェブカメラを用いて顔を識別し、ならびにユーザの両手などのユーザとの相互作用の点、および触覚周辺機器などの他の物体との相互作用の点を識別するように構成される。センサ・システムはこの情報を用いて、システムおよび/または周辺機器に対するユーザの位置を決定し、ユーザおよび/またはシステムに対する周辺機器の位置を決定する。また、物体に配置された知的センサによって、互いを認識することが可能になり、それによって、周辺機器内のセンサ(たとえばジャイロスコープ、加速度計など)が、これらの周辺機器の配向および位置をさらに知らせるようになる。
別の実施形態では、周囲温度またはノイズ・センサを、可能性のある音声−触覚干渉に関連する状況指示子として利用することができ、周囲温度ならびに/あるいは触覚領域および音声領域の一方または両方における周囲ノイズの検出に応じて触覚効果を変化させることができる。周囲温度および/または周囲ノイズが検出された場合、ホスト・プロセッサおよび/またはローカル・プロセッサは、周囲センサからの検知された信号に応じて触覚出力デバイスに対する制御信号を変化させるように構成される(すなわち、周囲温度および/または周囲ノイズの増加が検知された場合に、触覚効果を強めるまたは追加することができる)。
別の実施形態では、物理位置センサまたはセンサ・システムを、可能性のある音声−触覚干渉に関連する状況指示子として利用することができ、ユーザを基準とした触覚周辺機器の物理位置の検出に応じて触覚効果を変化させることができる。より具体的には、触覚周辺機器がユーザを基準としてどこに物理的に配置されているか、すなわち、ユーザのポケットの中か、手で保持されているか、ユーザの体に取り付けられているか、または身につけているかに応じて、触覚効果を変化させることができる。センサの組み合わせ、すなわちセンサ・システムは、電話の位置を検出することができ、触覚効果を変化させるために利用することができる。たとえば、一部の携帯電話では、常に電話の位置を知ることが可能である(すなわち、GoogleのProject Tangoの電話、またはLynx携帯電話)。ホスト・プロセッサおよび/またはローカル・プロセッサは、物理位置センサからの検知された信号に応じて触覚出力デバイスに対する制御信号を変化させるように構成される(すなわち、ユーザが触覚周辺機器を保持しているまたは触っている場合に、触覚効果を強めるまたは追加することができる)。同様に、別の実施形態では、触覚周辺機器は、複数の周辺デバイスが互いに接続されたメッシュまたはパーソナル/ボディ・ネットワーク内の周辺機器とすることができる。メッシュ・ネットワークの部分の場合、ユーザがどの周辺機器と対話しているかに応じて、触覚効果を変化させることができる。たとえば、2つの触覚対応デバイスまたは周辺機器が互いに接触するほど十分に近づけた場合に、システムは、一方の触覚対応デバイスまたは周辺機器への触覚効果を、他方の触覚対応デバイスまたは周辺機器よりも優先するように構成することができる。
図12は、本発明の一実施形態による、触覚周辺機器のユーザに触覚効果を与えるための方法を示すフローチャートであり、レンダリングされる触覚効果は、触覚および音声出力デバイスの間の干渉に関連する検出された状況に応じて変化する。上述のように、可能性のある音声−触覚干渉に関連する状況指示子として様々なパラメータを単独または任意の組み合わせで検出または検知することができる。たとえば、検出される状況は、音声ディスプレイの音声出力アクセサリ接続状況、音量レベル、電源状況、ユーザ・バイオメトリクス、ユーザの動き、周囲温度、周囲ノイズ、ユーザを基準とした触覚周辺機器の物理位置、および/または接続された周辺機器のメッシュ・ネットワークへの参加に関係し得る。ステップ1250は、方法の開始または始まりを示す。一実施形態では、図12の流れ図の機能は、ホスト・コンポーネントのホスト・メモリに格納されホスト・プロセッサにより実行されるソフトウェア、および/または触覚周辺機器のローカル・メモリに格納されローカル・プロセッサにより実行されるソフトウェアにより実装される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC」)、プログラマブル・ゲート・アレイ(「PGA」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、またはハードウェアおよびソフトウェアの任意の組み合わせの使用を通じてハードウェアによって、実施することができる。この実施形態では、システムの音声ディスプレイは、少なくとも一体型スピーカーと、ヘッドフォンを内部に受けるように構成されたヘッドフォン・コネクタとを含む。音声ディスプレイは、ホスト・コンピュータ、触覚周辺機器、または2次周辺機器、たとえば視覚ディスプレイに統合することができる。図12の方法が、触覚周辺機器102、触覚周辺機器302、触覚周辺機器602、またはビデオ・ゲームの技術で知られているような別の構成を有する触覚周辺機器により実施できることは当業者に理解されよう。
ステップ1252において、触覚周辺機器の音声−触覚干渉に関連する状況が検出される。本発明の特定の実施形態では、触覚周辺機器の音声−触覚干渉に関連する状況を、追加パラメータ・センサ117(図1参照)を介して検出することができる。この実施形態における追加パラメータ・センサ117の例は、限定はされないが、可能性のある音声−触覚干渉に関連する状況指示子を検出するための1つまたは複数のセンサを含み、状況指示子は、たとえば、限定はされないが、音声ディスプレイの音声出力アクセサリ接続状況、音量レベル、電源状況、ユーザ・バイオメトリクス、ユーザの動き、周囲温度、周囲ノイズ、ユーザを基準とした触覚周辺機器の物理位置、および/または接続された周辺機器のメッシュ・ネットワークへの参加などである。本発明の他の実施形態では、ホスト・プロセッサおよび/またはローカル・プロセッサは、追加パラメータ・センサ117を用いることなく、触覚周辺機器の音声−触覚干渉に関連する状況を検出するように構成される(したがって、追加パラメータ・センサ117はこの実施形態では必要ない)。
ステップ1254に示されるように、検出された状況が、音声−触覚干渉がないまたは僅かであること、すなわち「状態1」を示している場合、ステップ1256に示されるように、触覚出力デバイスは、音声−触覚干渉がないまたは僅かな場合向けに最適化された触覚トラックまたは効果を再生または出力するように指示される。ステップ1258に示されるように、検出された状況が、音声−触覚干渉が存在するまたは可能性があること、すなわち「状態2」を示している場合、ステップ1260に示されるように、触覚出力デバイスは、音声−触覚干渉用に最適化された触覚トラックまたは効果を再生または出力するように指示される。言い換えれば、ホスト・プロセッサおよび/またはローカル・プロセッサは、触覚および音声出力の間の干渉に関連する触覚周辺機器の検出された状況に応じて、触覚出力デバイスに対する制御信号を変化させるように構成され、それによって、触覚および音声出力の間に干渉がないまたは僅かであることを示す第1の状態を、検出された状況が示している場合に、触覚出力デバイスが第1の触覚効果を生成および適用し、触覚および音声出力の間の干渉を示す第2の状態を、検出された状況が示している場合に、触覚出力デバイスが第2の触覚効果を生成および適用する。一実施形態では、(検出された状況が、触覚および音声出力の間の干渉を示す第2の状態を示している場合にレンダリングされる)第2の触覚効果は、(検出された状況が、触覚および音声出力の間に干渉がないまたは僅かであることを示す第1の状態を示している場合にレンダリングされる)第1の触覚効果より強く、したがって、触覚周辺機器の触覚および音声出力の間に干渉が存在する場合に、より強い効果が与えられる。
本発明の一実施形態では、触覚周辺機器の音声−触覚干渉に関連する状況は、触覚アクチュエータの可聴レベルである。より具体的には、いくつかのデバイスにおいて、触覚アクチュエータは、触覚アクチュエータが係合するときに、可聴バズ(buzz)またはノイズを生成するまたは生じさせることがある。たとえば、触覚周辺機器(すなわち携帯電話デバイス)が振動するときに、ユーザは可聴バズを聞くことがある。高い強度では、この可聴バズまたはノイズは、ユーザの注意を、触覚周辺機器上でコンテンツを見るまたは聞くことからそらす可能性がある。したがって、一実施形態では、システムは触覚アクチュエータの可聴レベルを検出するように構成され、可聴レベルが所定の閾値を超える場合に、ホスト・プロセッサおよび/またはローカル・プロセッサは、可聴バズまたはノイズを低減し、したがってユーザの体験全体を改善するよう、レンダリングされる触覚効果の強度、周波数、パターンまたは質感を調整するように構成される。反対に、検出された可聴レベルが所定の閾値未満である場合、レンダリングされる触覚効果を、ホスト・プロセッサおよび/またはローカル・プロセッサにより強めることができる。触覚周辺機器が、複数の周辺デバイスが互いに接続されたメッシュまたはパーソナル/ボディ・ネットワーク内の周辺機器である本発明の一実施形態では、触覚アクチュエータの可聴レベルが所定の閾値を超える場合に、触覚アクチュエータのノイズを低減するように、触覚および/または音声出力を調整することができる。たとえば、複数の触覚周辺機器の文脈では、コンテンツを1次触覚周辺機器およびウェアラブル触覚周辺機器上で同時に再生することができ、ウェアラブル触覚周辺機器上での触覚アクチュエータのノイズを検出すると、ウェアラブル触覚周辺機器のノイズを低減するように音声および/または触覚強度のボリュームが調整されて、1次触覚周辺機器で再生中のコンテンツとの干渉が回避される。
本発明の任意の実施形態において、ホスト・プロセッサおよび/またはローカル・プロセッサは、触覚出力の代わりにまたはこれに加えて、音声出力を変化させるまたは修正するように代替的にまたは追加的に構成することができる。より具体的には、本発明の実施形態の音声ディスプレイは、ホスト・プロセッサおよび/またはローカル・プロセッサから制御信号を受信し、ホスト・プロセッサおよび/またはローカル・プロセッサからの制御信号に応答して触覚周辺機器に音声を出力するように構成される。ホスト・プロセッサおよび/またはローカル・プロセッサは、可能性のある音声−触覚干渉に関連する状況指示子、たとえば、限定はされないが、音声ディスプレイの音声出力アクセサリ接続状況、音量レベル、電源状況、ユーザ・バイオメトリクス、ユーザの動き、周囲温度、周囲ノイズ、ユーザを基準とした触覚周辺機器の物理位置、および/または接続された周辺機器のメッシュ・ネットワークへの参加に応じて、触覚出力デバイスに対する制御信号および/または音声ディスプレイに対する制御信号を変化させるように構成することができる。たとえば、スピーカーにより出力される振動を補償するように触覚効果の大きさを変化させるもしくは調整する(または特別に作成されたトラックを選択する)のに加えてあるいはその代わりに、触覚および音声出力の間の干渉を示す状態を、検出された状況が示している場合に、レンダリングされる触覚効果を高めるように音声トラックを修正することができる。たとえば、触覚および音声出力の間の干渉を示す状態を、検出された状況が示している場合に、スピーカーの強度または音量を、触覚効果を高めるように調節することができる。別の例として、特定の触覚効果またはシーケンスによっていくらかの既知の量の音声干渉が生じる場合に、設計者が意図したようにユーザが音声フィードバックを聞くことができるだけでなく触覚フィードバックも感じることができることを保証するように、音声効果のボリュームが、触覚効果もしくはシーケンスの持続時間の間に調整される。
本発明による様々な実施形態が上記で説明されているが、これらは限定ではなく説明および例示の目的でのみ提示されていることを理解されたい。本発明の趣旨および範囲から逸脱することなく、形態および細部の様々な変更がそれらになされ得ることは当業者にとって明らかであろう。したがって、本発明の広さおよび範囲は、上述の例示的実施形態のいずれによっても制限されるべきではなく、添付の特許請求の範囲およびその等価物に従ってのみ定義されるべきである。また、本明細書で論じられた各実施形態の各特徴と、および本明細書で引用された各参考文献の各特徴とは、他の任意の実施形態の特徴と組み合わせて使用できることは理解されよう。言い換えれば、触覚効果をレンダリングする上記の方法の態様は、本明細書に記載の他の方法と任意の組み合わせで使用することができ、またはこれらの方法を別々に使用することができる。本明細書で論じられている全ての特許および刊行物は、引用によりそれらの全体が本明細書に組み込まれている。
Claims (20)
- プロセッサと、音声出力デバイスを含む音声ディスプレイと、触覚出力デバイスを含む触覚周辺機器とを備えるシステムであって、
前記触覚出力デバイスは、前記プロセッサから制御信号を受信し、前記プロセッサからの前記制御信号に応答して前記触覚周辺機器へ触覚効果を出力し、
前記プロセッサは、前記触覚出力デバイスと前記音声出力デバイスとの間の干渉に関連して検出された状況に応じて前記触覚出力デバイスに対する前記制御信号を変化させることにより、(1)前記検出された状況が前記触覚出力デバイスと前記音声出力デバイスとの間に干渉がないまたは僅かであることを示す第1の状態を呈示する場合には第1の触覚効果を生成して適用し、(2)前記検出された状況が前記触覚出力デバイスと前記音声出力デバイスとの間に干渉があることを示す第2の状態を呈示する場合には第2の触覚効果を生成して適用するように、前記触覚出力デバイスを制御し、
さらに、前記第1の触覚効果は前記第2の触覚効果とは異なることを特徴とするシステム。 - 前記プロセッサは、前記触覚出力デバイスと前記音声出力デバイスの間の干渉に関連する前記状況を検出することを特徴とする、請求項1に記載のシステム。
- 前記第1の触覚効果は前記第2の触覚効果より強いことを特徴とする、請求項1に記載のシステム。
- 前記検出された状況は音声出力アクセサリ接続状況であり、前記音声出力デバイスがヘッドフォン・コネクタを介して前記音声ディスプレイに接続されている場合には、前記触覚出力デバイスは前記第1の触覚効果を生成して適用し、前記音声出力デバイスが前記システムの一体型スピーカーである場合には、前記触覚出力デバイスは前記第2の触覚効果を生成して適用することを特徴とする、請求項1に記載のシステム。
- 前記プロセッサは前記音声ディスプレイの音量レベルを検出し、前記検出された音量レベルに応じて前記触覚出力デバイスに対する前記制御信号を変化させることを特徴とする、請求項4に記載のシステム。
- 前記プロセッサは前記音声ディスプレイの電源状況を検出し、前記検出された電源状況に応じて前記触覚出力デバイスに対する前記制御信号を変化させることを特徴とする、請求項4に記載のシステム。
- 前記プロセッサは前記触覚周辺機器の所定の属性を検出し、前記検出された所定の属性に応じて前記触覚出力デバイスに対する前記制御信号を変化させ、前記所定の属性は前記触覚出力デバイスと前記音声出力デバイスの間の干渉に関係することを特徴とする、請求項4に記載のシステム。
- 生体センサをさらに含み、前記検出された状況は前記生体センサで検知された信号により得られることを特徴とする、請求項1に記載のシステム。
- モーション・センサをさらに含み、前記検出された状況は前記モーション・センサで検知された信号により得られることを特徴とする、請求項1に記載のシステム。
- 周辺触覚ノイズ・センサをさらに含み、前記検出された状況は前記周辺触覚ノイズ・センサで検知された信号により得られることを特徴とする、請求項1に記載のシステム。
- 物理位置センサをさらに含み、前記検出された状況は前記物理位置センサで検知された信号により得られることを特徴とする、請求項1に記載のシステム。
- 前記プロセッサは、前記検出された状況に応じて前記音声ディスプレイに対する制御信号を変化させることを特徴とする、請求項1に記載のシステム。
- ホスト・コンピュータをさらに含み、前記プロセッサは前記ホスト・コンピュータ内に配備されることを特徴とする、請求項1に記載のシステム。
- 前記プロセッサは前記触覚周辺機器内に配備されることを特徴とする、請求項1に記載のシステム。
- プロセッサと、スピーカーおよびヘッドフォン・コネクタを含む音声ディスプレイと、触覚出力デバイスを含む触覚周辺機器とを備えるシステムであって、
前記触覚出力デバイスは、前記プロセッサから制御信号を受信し、前記プロセッサからの前記制御信号に応答して前記触覚周辺機器へ触覚効果を出力し、
前記プロセッサは、前記音声ディスプレイの音声出力アクセサリ接続状況に応じて前記触覚出力デバイスに対する前記制御信号を変化させることにより、(1)前記ヘッドフォン・コネクタを介して音声を出力するために前記音声ディスプレイが音声出力アクセサリに接続されている場合には第1の触覚効果を生成して適用し、(2)前記スピーカーを介して音声を出力するために前記音声ディスプレイが音声出力アクセサリに接続されていない場合には第2の触覚効果を生成して適用するように、前記触覚出力デバイスを制御し、
さらに、前記第1の触覚効果が前記第2の触覚効果と異なることを特徴とするシステム。 - 前記プロセッサは、前記音声ディスプレイの前記音声出力アクセサリ接続状況を検出することを特徴とする、請求項15に記載のシステム。
- 前記第1の触覚効果は前記第2の触覚効果より強いことを特徴とする、請求項15に記載のシステム。
- 前記プロセッサは前記音声ディスプレイの音量レベルを検出し、前記検出された音量レベルに応じて前記触覚出力デバイスに対する前記制御信号を変化させることを特徴とする、請求項15に記載のシステム。
- プロセッサと、音声ディスプレイと、触覚出力デバイスを含む触覚周辺機器とを備えるシステムであって、
前記音声ディスプレイは、前記プロセッサから制御信号を受信し、前記プロセッサからの前記制御信号に応答して音声を出力し、
前記触覚周辺機器は、前記プロセッサから制御信号を受信し、前記プロセッサからの前記制御信号に応答して前記触覚周辺機器へ触覚効果を出力し、
前記プロセッサは、前記音声ディスプレイの音声出力アクセサリ接続状況に応じて、前記触覚出力デバイスに対する前記制御信号または前記音声ディスプレイに対する前記制御信号を変化させることを特徴とするシステム。 - 前記触覚出力デバイスは、前記音声ディスプレイが音声出力アクセサリに接続されている場合に第1の触覚効果を生成して適用し、前記音声ディスプレイが音声出力アクセサリに接続されていない場合に第2の触覚効果を生成して適用し、さらに前記第1の触覚効果は前記第2の触覚効果と異なることを特徴とする、請求項19に記載のシステム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US14/864,926 | 2015-09-25 | ||
| US14/864,926 US9842476B2 (en) | 2015-09-25 | 2015-09-25 | Programmable haptic devices and methods for modifying haptic effects to compensate for audio-haptic interference |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017062788A true JP2017062788A (ja) | 2017-03-30 |
Family
ID=56920630
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016183958A Pending JP2017062788A (ja) | 2015-09-25 | 2016-09-21 | 音声−触覚干渉を補償するように触覚効果を修正するためのプログラム可能な触覚デバイスおよび方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (2) | US9842476B2 (ja) |
| EP (1) | EP3147757B1 (ja) |
| JP (1) | JP2017062788A (ja) |
| KR (1) | KR20170037530A (ja) |
| CN (1) | CN106997238A (ja) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018193650A1 (ja) * | 2017-04-18 | 2018-10-25 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| WO2018216480A1 (ja) * | 2017-05-22 | 2018-11-29 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
| US10963055B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Vibration device and control system for presenting corrected vibration data |
| US10963054B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Information processing system, vibration control method and program |
| US10969867B2 (en) | 2016-12-15 | 2021-04-06 | Sony Interactive Entertainment Inc. | Information processing system, controller device, controller device control method and program |
| US11013990B2 (en) | 2017-04-19 | 2021-05-25 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| US11145172B2 (en) | 2017-04-18 | 2021-10-12 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| US11195293B2 (en) | 2017-07-20 | 2021-12-07 | Sony Interactive Entertainment Inc. | Information processing device and positional information obtaining method |
| US11198059B2 (en) | 2017-08-29 | 2021-12-14 | Sony Interactive Entertainment Inc. | Vibration control apparatus, vibration control method, and program |
| US11458389B2 (en) | 2017-04-26 | 2022-10-04 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| US11738261B2 (en) | 2017-08-24 | 2023-08-29 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| WO2023189406A1 (ja) * | 2022-03-31 | 2023-10-05 | 株式会社栗本鐵工所 | 出力制御装置、出力制御プログラム及び出力制御方法 |
| US11779836B2 (en) | 2017-08-24 | 2023-10-10 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
Families Citing this family (54)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3112987A1 (en) * | 2015-06-29 | 2017-01-04 | Thomson Licensing | Method and schemes for perceptually driven encoding of haptic effects |
| US10438583B2 (en) * | 2016-07-20 | 2019-10-08 | Lenovo (Singapore) Pte. Ltd. | Natural language voice assistant |
| US10621992B2 (en) | 2016-07-22 | 2020-04-14 | Lenovo (Singapore) Pte. Ltd. | Activating voice assistant based on at least one of user proximity and context |
| US10297120B2 (en) * | 2016-12-13 | 2019-05-21 | Disney Enterprises, Inc. | Haptic effect generation system |
| US11132840B2 (en) * | 2017-01-16 | 2021-09-28 | Samsung Electronics Co., Ltd | Method and device for obtaining real time status and controlling of transmitting devices |
| US10732714B2 (en) | 2017-05-08 | 2020-08-04 | Cirrus Logic, Inc. | Integrated haptic system |
| US10664533B2 (en) | 2017-05-24 | 2020-05-26 | Lenovo (Singapore) Pte. Ltd. | Systems and methods to determine response cue for digital assistant based on context |
| US11259121B2 (en) | 2017-07-21 | 2022-02-22 | Cirrus Logic, Inc. | Surface speaker |
| JP7042061B2 (ja) * | 2017-11-10 | 2022-03-25 | 株式会社バンダイナムコエンターテインメント | 操作入力システム、操作入力装置及びゲームシステム |
| US10455339B2 (en) | 2018-01-19 | 2019-10-22 | Cirrus Logic, Inc. | Always-on detection systems |
| US10620704B2 (en) | 2018-01-19 | 2020-04-14 | Cirrus Logic, Inc. | Haptic output systems |
| JP2021073749A (ja) * | 2018-03-07 | 2021-05-13 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| US11139767B2 (en) | 2018-03-22 | 2021-10-05 | Cirrus Logic, Inc. | Methods and apparatus for driving a transducer |
| US10795443B2 (en) | 2018-03-23 | 2020-10-06 | Cirrus Logic, Inc. | Methods and apparatus for driving a transducer |
| US10667051B2 (en) | 2018-03-26 | 2020-05-26 | Cirrus Logic, Inc. | Methods and apparatus for limiting the excursion of a transducer |
| US10820100B2 (en) | 2018-03-26 | 2020-10-27 | Cirrus Logic, Inc. | Methods and apparatus for limiting the excursion of a transducer |
| US10832537B2 (en) | 2018-04-04 | 2020-11-10 | Cirrus Logic, Inc. | Methods and apparatus for outputting a haptic signal to a haptic transducer |
| US11069206B2 (en) | 2018-05-04 | 2021-07-20 | Cirrus Logic, Inc. | Methods and apparatus for outputting a haptic signal to a haptic transducer |
| DE112019003350T5 (de) * | 2018-07-04 | 2021-03-18 | Sony Corporation | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahrenund programm |
| US12138529B2 (en) * | 2018-07-10 | 2024-11-12 | Sony Interactive Entertainment Inc. | Controller apparatus and control method thereof |
| US11269415B2 (en) | 2018-08-14 | 2022-03-08 | Cirrus Logic, Inc. | Haptic output systems |
| GB201817495D0 (en) | 2018-10-26 | 2018-12-12 | Cirrus Logic Int Semiconductor Ltd | A force sensing system and method |
| US12035445B2 (en) | 2019-03-29 | 2024-07-09 | Cirrus Logic Inc. | Resonant tracking of an electromagnetic load |
| US10955955B2 (en) | 2019-03-29 | 2021-03-23 | Cirrus Logic, Inc. | Controller for use in a device comprising force sensors |
| US10726683B1 (en) | 2019-03-29 | 2020-07-28 | Cirrus Logic, Inc. | Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus |
| US10828672B2 (en) | 2019-03-29 | 2020-11-10 | Cirrus Logic, Inc. | Driver circuitry |
| US10992297B2 (en) | 2019-03-29 | 2021-04-27 | Cirrus Logic, Inc. | Device comprising force sensors |
| US12176781B2 (en) | 2019-03-29 | 2024-12-24 | Cirrus Logic Inc. | Methods and systems for estimating transducer parameters |
| US11509292B2 (en) | 2019-03-29 | 2022-11-22 | Cirrus Logic, Inc. | Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter |
| US11644370B2 (en) | 2019-03-29 | 2023-05-09 | Cirrus Logic, Inc. | Force sensing with an electromagnetic load |
| US10976825B2 (en) | 2019-06-07 | 2021-04-13 | Cirrus Logic, Inc. | Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system |
| US11150733B2 (en) | 2019-06-07 | 2021-10-19 | Cirrus Logic, Inc. | Methods and apparatuses for providing a haptic output signal to a haptic actuator |
| WO2020254788A1 (en) | 2019-06-21 | 2020-12-24 | Cirrus Logic International Semiconductor Limited | A method and apparatus for configuring a plurality of virtual buttons on a device |
| US11408787B2 (en) | 2019-10-15 | 2022-08-09 | Cirrus Logic, Inc. | Control methods for a force sensor system |
| US11380175B2 (en) | 2019-10-24 | 2022-07-05 | Cirrus Logic, Inc. | Reproducibility of haptic waveform |
| JP6875484B2 (ja) * | 2019-10-24 | 2021-05-26 | 株式会社Cygames | コンテンツ再生プログラム、コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生システム |
| US12276687B2 (en) | 2019-12-05 | 2025-04-15 | Cirrus Logic Inc. | Methods and systems for estimating coil impedance of an electromagnetic transducer |
| US11545951B2 (en) | 2019-12-06 | 2023-01-03 | Cirrus Logic, Inc. | Methods and systems for detecting and managing amplifier instability |
| CN113132545B (zh) * | 2020-01-10 | 2022-11-15 | 北京小米移动软件有限公司 | 电子设备 |
| US12244253B2 (en) | 2020-04-16 | 2025-03-04 | Cirrus Logic Inc. | Restricting undesired movement of a haptic actuator |
| US11662821B2 (en) | 2020-04-16 | 2023-05-30 | Cirrus Logic, Inc. | In-situ monitoring, calibration, and testing of a haptic actuator |
| WO2022168547A1 (ja) * | 2021-02-08 | 2022-08-11 | ソニーグループ株式会社 | 触覚刺激を与える制御装置 |
| CN113491876B (zh) * | 2021-04-28 | 2024-02-06 | 荣成歌尔科技有限公司 | 一种模拟摇杆的控制方法及模拟摇杆 |
| US11933822B2 (en) | 2021-06-16 | 2024-03-19 | Cirrus Logic Inc. | Methods and systems for in-system estimation of actuator parameters |
| US11765499B2 (en) | 2021-06-22 | 2023-09-19 | Cirrus Logic Inc. | Methods and systems for managing mixed mode electromechanical actuator drive |
| US11908310B2 (en) | 2021-06-22 | 2024-02-20 | Cirrus Logic Inc. | Methods and systems for detecting and managing unexpected spectral content in an amplifier system |
| US11763646B2 (en) * | 2021-07-12 | 2023-09-19 | Zepp, Inc. | Neck evaluation method and device |
| TWI785865B (zh) * | 2021-10-28 | 2022-12-01 | 華碩電腦股份有限公司 | 具有振動功能的電子裝置以及振動驅動方法 |
| US11552649B1 (en) | 2021-12-03 | 2023-01-10 | Cirrus Logic, Inc. | Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths |
| EP4198692A1 (en) | 2021-12-15 | 2023-06-21 | Nokia Technologies Oy | Tactile audio display |
| EP4246290A4 (en) * | 2022-02-07 | 2024-05-22 | Samsung Electronics Co., Ltd. | Electronic device and method for providing haptic function |
| US12115441B2 (en) * | 2022-08-03 | 2024-10-15 | Sony Interactive Entertainment Inc. | Fidelity of motion sensor signal by filtering voice and haptic components |
| US12361160B2 (en) | 2022-08-03 | 2025-07-15 | Sony Interactive Entertainment Inc. | Tunable filtering of voice-related components from motion sensor |
| CN116185200A (zh) * | 2023-03-02 | 2023-05-30 | 北京有竹居网络技术有限公司 | 触觉反馈内容的生成方法、装置、电子设备及存储介质 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011151467A (ja) * | 2010-01-19 | 2011-08-04 | Nec Casio Mobile Communications Ltd | 端末装置及び無接点型電子機器並びにプログラム |
| JP2012114620A (ja) * | 2010-11-24 | 2012-06-14 | Nec Saitama Ltd | 通信端末装置、バイブレータ制御方法、及び、プログラム |
| WO2013018310A1 (ja) * | 2011-07-29 | 2013-02-07 | パナソニック株式会社 | 電子機器 |
| JP2014229315A (ja) * | 2013-05-24 | 2014-12-08 | イマージョン コーポレーションImmersion Corporation | メディア・コンテンツ及び一又は複数の外部パラメータに基づいて触覚フィードバックを提供する方法及び装置 |
| WO2015083691A1 (ja) * | 2013-12-02 | 2015-06-11 | 株式会社ニコン | 電子機器、および振動情報生成装置 |
| JP2015215712A (ja) * | 2014-05-09 | 2015-12-03 | 和俊 尾花 | 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法 |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9357052B2 (en) | 2008-06-09 | 2016-05-31 | Immersion Corporation | Developing a notification framework for electronic device events |
| US8306238B2 (en) * | 2009-06-17 | 2012-11-06 | Sony Ericsson Mobile Communications Ab | Method and circuit for controlling an output of an audio signal of a battery-powered device |
| WO2012133982A1 (ko) * | 2011-03-25 | 2012-10-04 | 엘지전자 주식회사 | 영상처리장치 및 영상처리장치의 제어 방법 |
| EP2704958B1 (en) * | 2011-05-02 | 2016-06-08 | Graphic Packaging International, Inc. | Carton with opening feature |
| CN104602748B (zh) * | 2012-08-16 | 2016-06-15 | 行为研究株式会社 | 振动处理装置及方法 |
| JP2014082667A (ja) * | 2012-10-17 | 2014-05-08 | Sony Corp | 端末装置およびプログラム |
| US9319150B2 (en) | 2012-10-29 | 2016-04-19 | Dell Products, Lp | Reduction of haptic noise feedback in system |
| US9202351B2 (en) | 2013-03-11 | 2015-12-01 | Immersion Corporation | Systems and methods for haptics in vibrating environments and devices |
| EP3211511A1 (en) * | 2013-03-15 | 2017-08-30 | Immersion Corporation | Programmable haptic peripheral |
| US20140329589A1 (en) * | 2013-05-03 | 2014-11-06 | Steelseries Aps | Method and apparatus for configuring a gaming environment |
| US9729730B2 (en) | 2013-07-02 | 2017-08-08 | Immersion Corporation | Systems and methods for perceptual normalization of haptic effects |
| US9107011B2 (en) * | 2013-07-03 | 2015-08-11 | Sonetics Holdings, Inc. | Headset with fit detection system |
| US10162416B2 (en) | 2013-09-06 | 2018-12-25 | Immersion Corporation | Dynamic haptic conversion system |
| JP2015170174A (ja) * | 2014-03-07 | 2015-09-28 | ソニー株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
| US9665198B2 (en) * | 2014-05-06 | 2017-05-30 | Qualcomm Incorporated | System and method for optimizing haptic feedback |
| JP6327417B2 (ja) * | 2014-05-30 | 2018-05-23 | 任天堂株式会社 | 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法 |
| US9392368B2 (en) * | 2014-08-25 | 2016-07-12 | Comcast Cable Communications, Llc | Dynamic positional audio |
-
2015
- 2015-09-25 US US14/864,926 patent/US9842476B2/en active Active
-
2016
- 2016-09-13 EP EP16188534.8A patent/EP3147757B1/en active Active
- 2016-09-20 CN CN201610832537.3A patent/CN106997238A/zh active Pending
- 2016-09-21 JP JP2016183958A patent/JP2017062788A/ja active Pending
- 2016-09-21 KR KR1020160120533A patent/KR20170037530A/ko not_active Withdrawn
-
2017
- 2017-11-02 US US15/801,477 patent/US10347093B2/en not_active Expired - Fee Related
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011151467A (ja) * | 2010-01-19 | 2011-08-04 | Nec Casio Mobile Communications Ltd | 端末装置及び無接点型電子機器並びにプログラム |
| JP2012114620A (ja) * | 2010-11-24 | 2012-06-14 | Nec Saitama Ltd | 通信端末装置、バイブレータ制御方法、及び、プログラム |
| WO2013018310A1 (ja) * | 2011-07-29 | 2013-02-07 | パナソニック株式会社 | 電子機器 |
| JP2014229315A (ja) * | 2013-05-24 | 2014-12-08 | イマージョン コーポレーションImmersion Corporation | メディア・コンテンツ及び一又は複数の外部パラメータに基づいて触覚フィードバックを提供する方法及び装置 |
| WO2015083691A1 (ja) * | 2013-12-02 | 2015-06-11 | 株式会社ニコン | 電子機器、および振動情報生成装置 |
| JP2015215712A (ja) * | 2014-05-09 | 2015-12-03 | 和俊 尾花 | 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法 |
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10963055B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Vibration device and control system for presenting corrected vibration data |
| US10963054B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Information processing system, vibration control method and program |
| US10969867B2 (en) | 2016-12-15 | 2021-04-06 | Sony Interactive Entertainment Inc. | Information processing system, controller device, controller device control method and program |
| US11145172B2 (en) | 2017-04-18 | 2021-10-12 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| WO2018193514A1 (ja) * | 2017-04-18 | 2018-10-25 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| JPWO2018193650A1 (ja) * | 2017-04-18 | 2019-11-07 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| WO2018193650A1 (ja) * | 2017-04-18 | 2018-10-25 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| US10981053B2 (en) | 2017-04-18 | 2021-04-20 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| US11013990B2 (en) | 2017-04-19 | 2021-05-25 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| US11458389B2 (en) | 2017-04-26 | 2022-10-04 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| JPWO2018216480A1 (ja) * | 2017-05-22 | 2020-03-26 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
| WO2018216480A1 (ja) * | 2017-05-22 | 2018-11-29 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP7172999B2 (ja) | 2017-05-22 | 2022-11-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
| US12023584B2 (en) | 2017-05-22 | 2024-07-02 | Sony Corporation | Information processing apparatus and information processing method for setting vibration strength for each type of a sound output section |
| US11195293B2 (en) | 2017-07-20 | 2021-12-07 | Sony Interactive Entertainment Inc. | Information processing device and positional information obtaining method |
| US11738261B2 (en) | 2017-08-24 | 2023-08-29 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| US11779836B2 (en) | 2017-08-24 | 2023-10-10 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| US11198059B2 (en) | 2017-08-29 | 2021-12-14 | Sony Interactive Entertainment Inc. | Vibration control apparatus, vibration control method, and program |
| WO2023189406A1 (ja) * | 2022-03-31 | 2023-10-05 | 株式会社栗本鐵工所 | 出力制御装置、出力制御プログラム及び出力制御方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US10347093B2 (en) | 2019-07-09 |
| US20180061195A1 (en) | 2018-03-01 |
| US9842476B2 (en) | 2017-12-12 |
| EP3147757B1 (en) | 2020-03-04 |
| CN106997238A (zh) | 2017-08-01 |
| US20170092084A1 (en) | 2017-03-30 |
| EP3147757A1 (en) | 2017-03-29 |
| KR20170037530A (ko) | 2017-04-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10347093B2 (en) | Programmable haptic devices and methods for modifying haptic effects to compensate for audio-haptic interference | |
| JP6576697B2 (ja) | 視野および/または近接度に基づいて触覚強度を変更するためのプログラマブル触覚デバイスおよび方法 | |
| US10146311B2 (en) | Haptic devices and methods for providing haptic effects via audio tracks | |
| CN108399003B (zh) | 带有选择的触觉元数据的触觉广播 | |
| CN108170262B (zh) | 触觉环绕功能 | |
| JP6834962B2 (ja) | 情報処理装置、方法およびコンピュータプログラム | |
| US20180341332A1 (en) | Systems and Methods for a Shared Haptic Experience | |
| US10124252B2 (en) | Programmable haptic peripheral | |
| JP2015095261A (ja) | ユーザー入力素子に隔離された触覚効果を有するゲーミングデバイス | |
| CN108509028A (zh) | 用于虚拟情感触摸的系统和方法 | |
| JP6801838B2 (ja) | スローモーションのためのハプティック効果の修正 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181205 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191129 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200630 |