JP7081045B2 - ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること - Google Patents
ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること Download PDFInfo
- Publication number
- JP7081045B2 JP7081045B2 JP2021512355A JP2021512355A JP7081045B2 JP 7081045 B2 JP7081045 B2 JP 7081045B2 JP 2021512355 A JP2021512355 A JP 2021512355A JP 2021512355 A JP2021512355 A JP 2021512355A JP 7081045 B2 JP7081045 B2 JP 7081045B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- content
- client device
- subset
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/453—Help systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Psychiatry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Social Psychology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- User Interface Of Digital Computer (AREA)
Description
いる1つまたは複数のセンサからの出力に頼ることができる。さらに、様々な実装において、クライアントデバイス104は、任意で、センサからの出力(および/またはその変換)を遠隔のデバイス116に提供することができ、遠隔のデバイス116は、任意で、そのような提供されたデータに基づいて距離の測定値を決定することができる。
に留意されたい。
ング可能」であるアプリケーションであることが可能である。アプリケーションが呼び出されるとき、アプリケーションは、クライアントデバイス516によって実行され、および/またはクライアントデバイスによって前面に出され得る(たとえば、アプリケーションのコンテンツが、クライアントデバイスの表示を引き継ぐことができる)。
102 ユーザ
104 クライアントデバイス
106 移動
108 第1の距離の閾値
110 第2の距離の閾値
112 第1のコンテンツ
114 第2のコンテンツ
116 遠隔のデバイス
118 第3の距離の閾値
120 第1の位置
122 第2の位置
200 図
204 クライアントデバイス
206 図
208 ユーザ
210 クライアントデバイス
212 第1のコンテンツ
214 第2のコンテンツ
216 第3のコンテンツ
218 環境
300 方法
400 方法
500 システム
502 サーバデバイス
504 自動化されたアシスタント
506 ボイストゥテキストエンジン、ユーザデータ
508 テキストパーサエンジン
512 遠隔のコンピューティングデバイス
516 クライアントデバイス
518 自動化されたアシスタントインターフェース
522 コンテキストデータ
528 エージェント選択エンジン
530 遠隔のデバイス
532 エージェント
534 エージェントデータ選択エンジン
536 エージェントデータ
538 エージェント
610 コンピュータシステム
612 バスサブシステム
614 プロセッサ
616 ネットワークインターフェースサブシステム
620 ユーザインターフェース出力デバイス
622 ユーザインターフェース入力デバイス
624 ストレージサブシステム
625 メモリ
626 ファイルストレージサブシステム
630 主ランダムアクセスメモリ(RAM)
632 読み出し専用メモリ(ROM)
Claims (27)
自動化されたアシスタントにアクションの実行を初期化させる要求を受信するステップであって、前記自動化されたアシスタントが、ディスプレイデバイスおよびセンサと通信しているクライアントデバイスの自動化されたアシスタントインターフェースを介してアクセス可能であり、前記センサが、前記ディスプレイデバイスに対するユーザの距離を示す出力を提供する、ステップと、
前記ディスプレイデバイスに対する前記ユーザの推定された距離に対応する距離の測定値および前記推定された距離の推定された変化率を前記センサの前記出力に基づいて決定するステップと、
前記アクションを完了するためのエージェントを前記受信された要求に基づいて特定するステップであって、前記エージェントが、前記自動化されたアシスタントによってアクセス可能であり、前記ディスプレイデバイスに対する前記ユーザの前記推定された距離および前記推定された変化率に基づいて前記クライアントデバイスのためのデータを提供するように構成される、ステップと、
前記要求を受信したことおよび前記受信された要求に基づいて前記エージェントを特定したことに応じて、前記特定されたエージェントに前記アクションを促進するためにコンテンツアイテムを提供させるエージェント要求を生成するステップであって、前記エージェント要求が、前記決定された距離の測定値および前記推定された変化率のインジケーションを特定する、ステップと、
前記アクションのためのコンテンツアイテムのサブセットを、候補のコンテンツアイテムの前記サブセットと前記エージェント要求に含まれる前記距離の測定値および前記推定された変更率の前記インジケーションとの間の対応に基づいて前記エージェントに選択させるために前記エージェントに前記エージェント要求を送信するステップであって、前記候補のコンテンツアイテムの前記サブセットが、コンテンツアイテムの前記サブセットから除外されたその他のコンテンツアイテムに比べて独特に前記クライアントデバイスにおいてレンダリングされるように構成される、ステップと、
前記クライアントデバイスに候補のコンテンツアイテムの前記選択されたサブセットをレンダリングさせるステップとを含む、
方法。
前記クライアントデバイスに前記第1のサブセットのみを最初にレンダリングさせるステップと、
前記クライアントデバイスに前記第2のサブセットをバッファリングさせるとともに、次いで、前記ユーザが距離の前記第2の範囲内にある新しい距離に移動したと判定したことに応じて前記第2のサブセットをレンダリングさせるステップとを含む、
請求項1に記載の方法。
請求項2に記載の方法。
請求項3に記載の方法。
請求項2に記載の方法。
請求項5に記載の方法。
請求項2から6のいずれか一項に記載の方法。
前記ユーザが前記自動化されたアシスタントの現在アクティブなユーザであると判定するステップをさらに含み、
前記ユーザの前記推定された距離に対応する前記距離の測定値を決定するステップが、前記ユーザが前記自動化されたアシスタントの前記現在アクティブなユーザであると判定したことに応じて前記1人または複数のさらなるユーザの代わりに前記ユーザの前記距離の測定値を決定するステップを含む、
請求項1から7のいずれか一項に記載の方法。
請求項8に記載の方法。
請求項9に記載の方法。
別個の距離の測定値を決定するステップであって、前記別個の距離の測定値が、前記ディスプレイデバイスに対する前記ユーザの前記距離が変わったことを示す、ステップと、
前記別個の距離の測定値を決定したことに応じて、前記特定されたエージェントに関する別個のエージェント要求を生成するステップであって、前記別個のエージェント要求が、前記別個の距離の測定値を含む、ステップと、
前記候補のコンテンツアイテムの別個のサブセットと前記エージェント要求に含まれる前記別個の距離の測定値との間の対応に基づいて前記アクションのための前記候補のコンテンツアイテムの前記別個のサブセットを前記エージェントに選択させるために前記エージェントに前記別個のエージェント要求を送信するステップと、
前記クライアントデバイスに候補のコンテンツアイテムの前記選択された別個のサブセットをレンダリングさせるステップとをさらに含む、
請求項1から8のいずれか一項に記載の方法。
近さに適応するコンテンツに関連するユーザプリファレンスを示すユーザプロファイルを前記ユーザの前記声紋に基づいて選択するステップであって、コンテンツアイテムの前記サブセットが、前記ユーザプリファレンスに基づいて選択される、ステップをさらに含む、
請求項1に記載の方法。
請求項1に記載の方法。
請求項1に記載の方法。
ユーザと自動化されたアシスタントとの間のインタラクション中に前記ユーザによって既に要求されたアクションを促進するために第1のコンテンツをレンダリングするステップであって、前記自動化されたアシスタントが、クライアントデバイスの自動化されたアシスタントインターフェースを介してアクセス可能であり、前記第1のコンテンツが、前記クライアントデバイスのローカルに記憶されるコンテンツアイテムの第1のサブセットに基づいてレンダリングされる、ステップと、
前記クライアントデバイスに接続されるセンサの出力に基づいて、前記クライアントデバイスが前記第1のコンテンツをレンダリングしている間に、前記ユーザの位置が第1の位置から第2の位置に変わったと判定するステップと、
前記アクションを促進するために第2のコンテンツをそこからレンダリングするためのコンテンツアイテムの第2のサブセットを、前記ユーザの位置の変化率に応じて、前記センサの前記出力に基づいて特定するステップであって、コンテンツアイテムの前記第2のサブセットが、コンテンツアイテムの前記第1のサブセットと排他的なデータを含み、前記クライアントデバイスのローカルに記憶される、ステップと、
コンテンツアイテムの前記特定された第2のサブセットに基づいて前記第2のコンテンツをレンダリングするステップと、
前記クライアントデバイスが前記第2のコンテンツをレンダリングしている間、前記センサの後続の出力を監視するステップと、
前記センサの前記後続の出力が、前記ユーザが前記第1の位置および前記第2の位置と異なる第3の位置に移動したことを示すときに、
前記ユーザが前記第3の位置にいるときに第3のコンテンツをそこからレンダリングするためのコンテンツアイテムの第3のサブセットが、前記ユーザの位置の変化率に応じて、前記クライアントデバイスのローカルで利用され得ないと判定するステップと、
前記自動化されたアシスタントによってアクセスされ得る遠隔のサーバデバイスからコンテンツアイテムの前記第3のサブセットを受信する要求を生成するステップとを含む、
方法。
コンテンツアイテムの前記第3のサブセットを受信するステップと、
コンテンツアイテムの前記第3のサブセットに基づいて前記第3のコンテンツをレンダリングするステップであって、前記第1のコンテンツが、第1のモダリティによってレンダリングされ、前記第3のコンテンツが、前記第1のモダリティと異なる第2のモダリティによってレンダリングされる、ステップとをさらに含む、
請求項15に記載の方法。
請求項16に記載の方法。
請求項17に記載の方法。
前記受け取られた口頭の発話に対応するオーディオデータに基づいて、前記アクションを実行するための目標アプリケーションおよび前記クライアントデバイスに対する前記ユーザの向きを決定するステップとをさらに含む、
請求項15に記載の方法。
前記センサの前記後続の出力が、前記ユーザが前記第3の位置に移動したことを示すときに、
前記カメラによってキャプチャされた1つまたは複数の画像に基づいて、前記ユーザがアクティブなユーザであるかどうかを、1つもしくは複数の画像の処理に基づいて決定された前記ユーザの姿勢、前記1つもしくは複数の画像の処理に基づいて決定された前記ユーザの凝視の方向、前記1つもしくは複数の画像の処理に基づいて決定された前記ユーザの口の動き、および前記1つまたは複数の画像の処理に基づいて検出された前記ユーザのジェスチャのうちの1つまたは複数に基づいて判定するステップをさらに含む、
請求項15に記載の方法。
ディスプレイデバイスを含むクライアントデバイスによって送信された自動化されたアシスタントの要求を遠隔の自動化されたアシスタントシステムにおいて受信するステップと、
前記遠隔の自動化されたアシスタントシステムによって、前記自動化されたアシスタントの要求の内容に基づいて、前記自動化されたアシスタントの要求のための自動化されたアシスタントエージェントと、前記クライアントデバイスとユーザとの間の現在の距離を示すユーザの距離の測定値と、前記ユーザの位置の変化率とを決定するステップであって、前記ユーザが、前記クライアントデバイスの環境内にいる、ステップと、
前記遠隔の自動化されたアシスタントシステムによって、前記自動化されたアシスタントの要求のための前記決定された自動化されたアシスタントエージェントに、前記ユーザの距離の測定値および前記ユーザの位置の変化率を含むエージェント要求を送信するステップと、
前記遠隔の自動化されたアシスタントシステムによって、前記エージェント要求に応じて前記自動化されたアシスタントエージェントから、前記ユーザの距離の測定値および前記ユーザの位置の変化率に適応されるコンテンツアイテムを受信するステップと、
前記ユーザの距離の測定値および前記ユーザの位置の変化率に適応される前記コンテンツアイテムを送信するステップであって、前記コンテンツアイテムが、前記自動化されたアシスタントの要求に応じて前記遠隔の自動化されたアシスタントから前記クライアントデバイスに送信される、ステップとを含み、
応答コンテンツを送信することが、前記クライアントデバイスに前記クライアントデバイスの前記ディスプレイデバイスによって前記応答コンテンツをレンダリングさせる、
方法。
請求項21に記載の方法。
請求項22に記載の方法。
請求項23に記載の方法。
請求項22に記載の方法。
システム。
コンピュータプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022084510A JP7715681B2 (ja) | 2018-05-04 | 2022-05-24 | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/US2018/031163 WO2019212566A1 (en) | 2018-05-04 | 2018-05-04 | Generating and/or adapting automated assistant content according to a distance between user(s) and an automated assistant interface |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022084510A Division JP7715681B2 (ja) | 2018-05-04 | 2022-05-24 | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021522636A JP2021522636A (ja) | 2021-08-30 |
| JP7081045B2 true JP7081045B2 (ja) | 2022-06-06 |
Family
ID=62555161
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021512355A Active JP7081045B2 (ja) | 2018-05-04 | 2018-05-04 | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること |
| JP2022084510A Active JP7715681B2 (ja) | 2018-05-04 | 2022-05-24 | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022084510A Active JP7715681B2 (ja) | 2018-05-04 | 2022-05-24 | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること |
Country Status (6)
| Country | Link |
|---|---|
| US (3) | US10878279B2 (ja) |
| EP (2) | EP3616034B1 (ja) |
| JP (2) | JP7081045B2 (ja) |
| KR (2) | KR102574277B1 (ja) |
| CN (2) | CN119179420A (ja) |
| WO (1) | WO2019212566A1 (ja) |
Families Citing this family (40)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9772817B2 (en) | 2016-02-22 | 2017-09-26 | Sonos, Inc. | Room-corrected voice detection |
| US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
| US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
| US11183181B2 (en) | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
| US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
| US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
| US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
| US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
| US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
| CN119917055A (zh) | 2018-05-04 | 2025-05-02 | 谷歌有限责任公司 | 基于检测到的手势和凝视调用自动化助理功能 |
| CN119179420A (zh) | 2018-05-04 | 2024-12-24 | 谷歌有限责任公司 | 根据用户和自动化助理界面之间的距离来生成和/或适应自动化助理内容 |
| KR102512446B1 (ko) | 2018-05-04 | 2023-03-22 | 구글 엘엘씨 | 자동화된 어시스턴트 기능(들)의 핫-워드 프리 적응 |
| CN118567472A (zh) * | 2018-05-04 | 2024-08-30 | 谷歌有限责任公司 | 基于检测到的嘴运动和/或凝视的适配自动助理 |
| US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
| US10783428B2 (en) * | 2018-07-05 | 2020-09-22 | Accenture Global Solutions Limited | Holographic virtual assistant |
| US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
| US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
| US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
| US10811015B2 (en) | 2018-09-25 | 2020-10-20 | Sonos, Inc. | Voice detection optimization based on selected voice assistant service |
| US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
| US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
| US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
| US11164585B2 (en) | 2019-06-07 | 2021-11-02 | Mitsubishi Electric Automotive America, Inc. | Systems and methods for virtual assistant routing |
| JP7396359B2 (ja) * | 2019-06-17 | 2023-12-12 | 日本電信電話株式会社 | 支援者選定装置、支援者選定方法、及びプログラム |
| US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
| US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
| KR20190106921A (ko) * | 2019-08-30 | 2019-09-18 | 엘지전자 주식회사 | 커뮤니케이션 로봇 및 그의 구동 방법 |
| US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
| US11308958B2 (en) * | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
| CN111273833B (zh) * | 2020-03-25 | 2022-02-01 | 北京百度网讯科技有限公司 | 人机交互的控制方法、装置和系统、电子设备 |
| US11308962B2 (en) * | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
| US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
| US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
| CN112954437B (zh) * | 2021-02-02 | 2022-10-28 | 深圳市慧鲤科技有限公司 | 一种视频资源处理方法、装置、计算机设备及存储介质 |
| TW202240461A (zh) * | 2021-03-03 | 2022-10-16 | 美商元平台公司 | 使用輔助系統的語音和手勢輸入之文字編輯 |
| US12205590B2 (en) | 2021-06-25 | 2025-01-21 | Samsung Electronics Co., Ltd. | Electronic device and method of outputting object generated based on distance between electronic device and target device |
| US12380885B2 (en) | 2021-07-19 | 2025-08-05 | Google Llc | Bit vector-based content matching for third-party digital assistant actions |
| EP4564154A3 (en) | 2021-09-30 | 2025-07-23 | Sonos Inc. | Conflict management for wake-word detection processes |
| US12100395B2 (en) | 2021-11-30 | 2024-09-24 | Google Llc | Dynamic assistant suggestions during assistant browsing |
| US12020704B2 (en) | 2022-01-19 | 2024-06-25 | Google Llc | Dynamic adaptation of parameter set used in hot word free adaptation of automated assistant |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005534065A (ja) | 2002-07-25 | 2005-11-10 | ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミット ベシュレンクテル ハフツング | マンマシンインタフェースユニットの動作及び/又は制御方法 |
| JP2006236013A (ja) | 2005-02-25 | 2006-09-07 | Nippon Telegr & Teleph Corp <Ntt> | 環境的情報提示装置、環境的情報提示方法およびこの方法のプログラム |
| JP2010049313A (ja) | 2008-08-19 | 2010-03-04 | Sony Corp | 画像処理装置、画像処理方法、プログラム |
| JP2012181748A (ja) | 2011-03-02 | 2012-09-20 | Dainippon Printing Co Ltd | 図柄表示具、及び合成画像表示システム |
| WO2016157662A1 (ja) | 2015-03-31 | 2016-10-06 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
| US20170289766A1 (en) | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Digital Assistant Experience based on Presence Detection |
| WO2017184587A1 (en) | 2016-04-18 | 2017-10-26 | Google Inc. | Automated assistant invocation of appropriate agent |
| JP2018055155A (ja) | 2016-09-26 | 2018-04-05 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
Family Cites Families (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0348866A (ja) * | 1989-07-18 | 1991-03-01 | Ricoh Co Ltd | 複写機のガイダンス制御装置 |
| US6971072B1 (en) * | 1999-05-13 | 2005-11-29 | International Business Machines Corporation | Reactive user interface control based on environmental sensing |
| US7203911B2 (en) * | 2002-05-13 | 2007-04-10 | Microsoft Corporation | Altering a display on a viewing device based upon a user proximity to the viewing device |
| US7134080B2 (en) * | 2002-08-23 | 2006-11-07 | International Business Machines Corporation | Method and system for a user-following interface |
| US20050229200A1 (en) * | 2004-04-08 | 2005-10-13 | International Business Machines Corporation | Method and system for adjusting a display based on user distance from display device |
| US8203577B2 (en) | 2007-09-25 | 2012-06-19 | Microsoft Corporation | Proximity based computer display |
| KR101472844B1 (ko) | 2007-10-23 | 2014-12-16 | 삼성전자 주식회사 | 적응적 문서 디스플레이 장치 및 방법 |
| CN101742282A (zh) | 2008-11-24 | 2010-06-16 | 深圳Tcl新技术有限公司 | 一种调整显示设备视频内容参数的方法、系统及设备 |
| US20110298980A1 (en) | 2010-06-08 | 2011-12-08 | Sony Corporation | Resizing tv graphic elements and reorienting graphics plane for user position |
| US9274744B2 (en) | 2010-09-10 | 2016-03-01 | Amazon Technologies, Inc. | Relative position-inclusive device interfaces |
| US9390317B2 (en) | 2011-03-21 | 2016-07-12 | Hewlett-Packard Development Company, L.P. | Lip activity detection |
| US20120246678A1 (en) | 2011-03-24 | 2012-09-27 | Tobe Barksdale | Distance Dependent Scalable User Interface |
| KR20130136566A (ko) * | 2011-03-29 | 2013-12-12 | 퀄컴 인코포레이티드 | 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들 |
| US8782716B2 (en) | 2011-07-29 | 2014-07-15 | Google Inc. | Systems and methods for rendering user interface objects in accordance with a variable scaling factor |
| US20130113879A1 (en) * | 2011-11-04 | 2013-05-09 | Comcast Cable Communications, Llc | Multi-Depth Adaptation For Video Content |
| EP2780825A4 (en) * | 2011-11-15 | 2015-07-08 | Trimble Navigation Ltd | EXTENSIVE WEB-BASED 3D MODELING |
| US9046917B2 (en) | 2012-05-17 | 2015-06-02 | Sri International | Device, method and system for monitoring, predicting, and accelerating interactions with a computing device |
| US9674331B2 (en) * | 2012-06-08 | 2017-06-06 | Apple Inc. | Transmitting data from an automated assistant to an accessory |
| US9164580B2 (en) * | 2012-08-24 | 2015-10-20 | Microsoft Technology Licensing, Llc | Calibration of eye tracking system |
| US8659703B1 (en) | 2012-10-23 | 2014-02-25 | Sony Corporation | Adapting layout and text font size for viewer distance from TV |
| US9804820B2 (en) * | 2013-12-16 | 2017-10-31 | Nuance Communications, Inc. | Systems and methods for providing a virtual assistant |
| EP3090568A1 (en) * | 2013-12-30 | 2016-11-09 | Thomson Licensing | Proximity dependent media playback |
| US20150309580A1 (en) | 2014-04-25 | 2015-10-29 | Wipro Limited | Method and computing unit for facilitating interactions of a group of users with gesture-based application |
| US9588408B1 (en) * | 2014-05-15 | 2017-03-07 | Autofuss | Methods and systems for projecting a target portion of an image at a higher resolution |
| JP2017144521A (ja) | 2016-02-18 | 2017-08-24 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| US11227017B2 (en) * | 2016-05-17 | 2022-01-18 | Google Llc | Providing suggestions for interaction with an automated assistant in a multi-user message exchange thread |
| US10467509B2 (en) * | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Computationally-efficient human-identifying smart assistant computer |
| US10438584B2 (en) * | 2017-04-07 | 2019-10-08 | Google Llc | Multi-user virtual assistant for verbal device control |
| US10853911B2 (en) * | 2018-04-17 | 2020-12-01 | Google Llc | Dynamic adaptation of images for projection, and/or of projection parameters, based on user(s) in environment |
| CN119179420A (zh) | 2018-05-04 | 2024-12-24 | 谷歌有限责任公司 | 根据用户和自动化助理界面之间的距离来生成和/或适应自动化助理内容 |
-
2018
- 2018-05-04 CN CN202411163910.1A patent/CN119179420A/zh active Pending
- 2018-05-04 WO PCT/US2018/031163 patent/WO2019212566A1/en not_active Ceased
- 2018-05-04 JP JP2021512355A patent/JP7081045B2/ja active Active
- 2018-05-04 EP EP18729824.5A patent/EP3616034B1/en active Active
- 2018-05-04 US US16/618,532 patent/US10878279B2/en active Active
- 2018-05-04 KR KR1020207033967A patent/KR102574277B1/ko active Active
- 2018-05-04 EP EP24163016.9A patent/EP4361777A3/en active Pending
- 2018-05-04 KR KR1020237029180A patent/KR20230128586A/ko active Pending
- 2018-05-04 CN CN201880094151.4A patent/CN112204500B/zh active Active
-
2020
- 2020-12-28 US US17/135,272 patent/US11789522B2/en active Active
-
2022
- 2022-05-24 JP JP2022084510A patent/JP7715681B2/ja active Active
-
2023
- 2023-10-02 US US18/375,876 patent/US12277259B2/en active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005534065A (ja) | 2002-07-25 | 2005-11-10 | ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミット ベシュレンクテル ハフツング | マンマシンインタフェースユニットの動作及び/又は制御方法 |
| JP2006236013A (ja) | 2005-02-25 | 2006-09-07 | Nippon Telegr & Teleph Corp <Ntt> | 環境的情報提示装置、環境的情報提示方法およびこの方法のプログラム |
| JP2010049313A (ja) | 2008-08-19 | 2010-03-04 | Sony Corp | 画像処理装置、画像処理方法、プログラム |
| JP2012181748A (ja) | 2011-03-02 | 2012-09-20 | Dainippon Printing Co Ltd | 図柄表示具、及び合成画像表示システム |
| WO2016157662A1 (ja) | 2015-03-31 | 2016-10-06 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
| US20170289766A1 (en) | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Digital Assistant Experience based on Presence Detection |
| WO2017184587A1 (en) | 2016-04-18 | 2017-10-26 | Google Inc. | Automated assistant invocation of appropriate agent |
| JP2018055155A (ja) | 2016-09-26 | 2018-04-05 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20230128586A (ko) | 2023-09-05 |
| EP4361777A3 (en) | 2024-07-31 |
| EP3616034B1 (en) | 2024-04-10 |
| JP2022119878A (ja) | 2022-08-17 |
| KR20210002648A (ko) | 2021-01-08 |
| US12277259B2 (en) | 2025-04-15 |
| EP4361777A2 (en) | 2024-05-01 |
| US20240028108A1 (en) | 2024-01-25 |
| CN112204500A (zh) | 2021-01-08 |
| JP7715681B2 (ja) | 2025-07-30 |
| CN119179420A (zh) | 2024-12-24 |
| US10878279B2 (en) | 2020-12-29 |
| JP2021522636A (ja) | 2021-08-30 |
| US11789522B2 (en) | 2023-10-17 |
| US20210117720A1 (en) | 2021-04-22 |
| EP3616034A1 (en) | 2020-03-04 |
| KR102574277B1 (ko) | 2023-09-04 |
| WO2019212566A1 (en) | 2019-11-07 |
| US20200167597A1 (en) | 2020-05-28 |
| CN112204500B (zh) | 2024-09-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7081045B2 (ja) | ユーザと自動化されたアシスタントインターフェースとの間の距離に応じて自動化されたアシスタントのコンテンツを生成するおよび/または適応させること | |
| KR102817837B1 (ko) | 검출된 제스처 및 시선에 기초하여 자동화된 어시스턴트 기능 호출 | |
| KR102677096B1 (ko) | 감지된 입 움직임 및/또는 시선을 기반으로 자동화된 어시스턴트 적응 | |
| EP3769210B1 (en) | Transferring an automated assistant routine between client devices during execution of the routine | |
| US20220351720A1 (en) | Methods and systems for reducing latency in automated assistant interactions | |
| US20240347062A1 (en) | Dynamic adaptation of parameter set used in hot word free adaptation of automated assistant | |
| US20250087214A1 (en) | Accelerometer-based endpointing measure(s) and /or gaze-based endpointing measure(s) for speech processing | |
| US11948580B2 (en) | Collaborative ranking of interpretations of spoken utterances | |
| US20230031461A1 (en) | Providing certain reasoning with respect to fulfillment of an assistant command | |
| EP4150536B1 (en) | Providing certain reasoning with respect to fulfillment of an assistant command | |
| EP4169016B1 (en) | Collaborative ranking of interpretations of spoken utterances |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201224 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211227 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220425 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220525 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7081045 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |