JP2025075999A - COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT DEVICE, AND PROGRAM - Google Patents
COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT DEVICE, AND PROGRAM Download PDFInfo
- Publication number
- JP2025075999A JP2025075999A JP2023187579A JP2023187579A JP2025075999A JP 2025075999 A JP2025075999 A JP 2025075999A JP 2023187579 A JP2023187579 A JP 2023187579A JP 2023187579 A JP2023187579 A JP 2023187579A JP 2025075999 A JP2025075999 A JP 2025075999A
- Authority
- JP
- Japan
- Prior art keywords
- intention
- participants
- information
- communication support
- speak
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明の一実施形態は、コミュニケーション支援方法、コミュニケーション支援装置、およびプログラムに関する。 One embodiment of the present invention relates to a communication support method, a communication support device, and a program.
特許文献1には、入力された音声から発話を検出すると共に、映像と音声から予備動作(相槌、手の上下方向の動き、頷き、身体動作)検出して、各動作毎に所定のポイントを付与して保持すると共に、発話の有無と当該ポイントを他の端末に送信することで共有し、その上で、各端末において発話があるユーザを選択し、当該ユーザの表示領域に枠を重畳表示し、所定の有効時間内の予備動作のポイントを合計した値を発話可能性ポイントとし、最も高いポイントのユーザを選択して、当該ユーザの表示領域に枠を点滅させて重畳表示する、Web会議における発話動作検出が開示されている。
例えば近端側の複数の参加者が会話している場合に、遠端側の参加者に発言したい意思があった場合でも、近端側の複数の参加者は当該意思を知ることは難しい。したがって、遠端側の参加者は会話に参加し難い。 For example, when multiple near-end participants are having a conversation, even if a far-end participant wishes to speak, it is difficult for the multiple near-end participants to know of that intention. Therefore, it is difficult for the far-end participant to join the conversation.
本実施形態の一つは、遠端側および近端側の参加者が発言したい意思を持つことを知らせることができるコミュニケーション支援方法を提供することを目的とする。 One of the embodiments aims to provide a communication support method that allows far-end and near-end participants to inform each other that they wish to speak.
コミュニケーション支援方法は、カメラで撮影した映像データから、遠隔会議における近端側と遠端側を含む全ての参加者の映像を取得し、前記全ての参加者の映像から、発話意思があるか否かを判定する指標である意思表示情報を検出し、前記意思表示情報に基づいて前記全ての参加者の中から発話意思がある発話意思保持者を推定し、前記発話意思保持者の情報を表示器に表示する。 The communication support method obtains images of all participants in a remote conference, including the near-end and far-end, from video data captured by a camera, detects intention-expression information, which is an index for determining whether or not there is an intention to speak, estimates which of all the participants have the intention to speak based on the intention-expression information, and displays information about the person with the intention to speak on a display.
本発明の一実施形態によれば、遠端側および近端側の参加者が発言したい意思を持つことを知らせることができる。 According to one embodiment of the present invention, far-end and near-end participants can signal their intention to speak.
図1は、コミュニケーション支援システムのブロック図である。コミュニケーション支援システムは、第1地点1および第2地点2にそれぞれ設置された、マイク10、カメラ20、およびパーソナルコンピュータ(PC)30を備える。マイク10およびカメラ20は、PC30に接続される。第1地点1のPC30および第2地点2のPC30は、ネットワークを介して接続される。
Figure 1 is a block diagram of a communication support system. The communication support system includes a
図2は、第1地点1の室内の立面模式図である。マイク10は、一例として、室内の天井に設置されている。マイク10は、厚みの薄い直方体形状の筐体を有する。カメラ20は机上に設置されている。マイク10の筐体の直下には、机が設置されている。図1の例では、机の周囲には、複数の参加者(参加者u1,u2)がいる。
Figure 2 is a schematic elevation diagram of the room at the
図3は、第2地点2の室内の立面模式図である。マイク10は、一例として、机上に設置されている。マイク10は、厚みの薄い直方体形状の筐体を有する。カメラ20はPC30に設置されている。図2の例では、机の周囲のうちPC30の前に参加者u3がいる。
Figure 3 is a schematic elevation diagram of the room at the
本実施形態において、第1地点1および第2地点2にそれぞれ設置された、マイク10、カメラ20、およびPC30はそれぞれ同一の構成および同一の機能を備える。
In this embodiment, the
カメラ20は、参加者の画像を取得する。カメラ20は、取得した画像に係る映像信号に所定の信号処理を施し、信号処理後の映像信号をPC30に送信する。カメラ20は、例えばパン、チルト、またはズームによるフレーミング処理を行う。
The
マイク10は、参加者の音声を取得する。マイク10は、取得した音信号に所定の信号処理を施す。マイク10は、例えば複数のマイクユニットを有するアレイマイクである。マイク10は、例えば、取得した音信号にビームフォーミングの指向性処理を施す。ビームフォーミングは、例えば、遅延和処理により話者の方向に位相を揃え、話者の方向に感度を高くした収音ビームを形成する処理である。マイク10は、話者の音声の方向情報を求め、話者の方向に収音ビームを向ける処理を行ってもよい。マイク10は、複数のマイクユニットから取得した音信号を分析して音声の到来方向を推定する。音信号の分析方法は、相互相関法、遅延和(Delay-and-Sum)法、あるいはMUSIC(Multiple Signal Classification)法等、どの様な手法であってもよい。相互相関法では、マイク10は、例えば複数のマイクの音信号の相互相関を算出する。マイク10は、例えばある2つのマイクの音信号の相互相関のピークを求める。さらに、マイク10は、別の2つのマイクの音信号の相互相関のピークを求める。マイク10は、この様にして算出した複数の相互相関のピークに基づいて、音声の到来方向を推定する。これにより、マイク10は、話者の方向情報を求めることができる。
The
マイク10は、信号処理後の音信号をPC30に送信する。PC30は、マイク10から受信した音信号、およびカメラ20から受信した映像信号を遠端側のPC30に送信する。PC30は、カメラ20から受信した映像信号を自装置の表示器(不図示)に表示してもよい。
The
また、PC30は、遠端側のPC30から映像信号および音信号を受信する。PC30は、受信した映像信号を不図示の表示器に出力する。また、PC30は、受信した音信号を不図示のスピーカに出力する。これにより、コミュニケーション支援システムは、遠隔地との会議を行うための遠隔会議システムの構成要素として機能する。
The
PC30は、一般的な情報処理装置であり、各種処理を行うプロセッサを備える。PC30は、マイク10またはカメラ20を操作するためのリモートコントローラとしても機能する。PC30のプロセッサは、内蔵するフラッシュメモリ等の記憶装置に記憶されている動作用のプログラムを読み出すことにより、コミュニケーション支援システムの制御部として機能する。なお、プログラムは自装置のフラッシュメモリに記憶しておく必要はない。PC30は、例えばサーバ等から都度プログラムをダウンロードしてもよい。
The
図4は、コミュニケーション支援方法の動作を示すフローチャートである。まず、PC30は、カメラで撮影した映像データから、遠隔会議における近端側と遠端側を含む全ての参加者の映像を取得する(S11)。例えば第1地点1のPC30は、第1地点1のカメラ20で撮影した映像データ(以下、第1映像データと称する。)を取得し、第2地点2のカメラ20で撮影した映像データ(以下、第2映像データと称する。)を受信する。PC30は、例えばニューラルネットワーク等を用いた所定のモデルにより、第1映像データおよび第2映像データのそれぞれについて話者の顔を認識する処理を行い、全ての参加者の映像を取得する。
Figure 4 is a flowchart showing the operation of the communication support method. First,
次に、PC30は、取得した全ての参加者の映像から、発話意思があるか否かを判定する指標である意思表示情報を検出する(S12)。例えば、PC30は、参加者の映像と意思表示情報との関係をDNN(Deep Neural Network)等で訓練した所定の訓練済モデルを用意する。PC30は、過去の複数の参加者の発話開始直前の映像、発話開始時の映像を訓練用データとして取得して、所定のモデルに、発話開始直前の映像と意思表示情報との関係を訓練させる。PC30は、訓練済の所定のモデルに各参加者の映像を入力して、それぞれの参加者の意思表示情報を求める。この場合、意思表示情報は、例えば0~100%の確率値(会議参加度)として求められる。
Next,
次に、PC30は、意思表示情報に基づいて全ての参加者の中から発話意思がある発話意思保持者を推定する(S13)。例えば、PC30は、意思表示情報の会議参加度が所定の閾値を超えた場合に、対応する参加者を発話意思保持者と判断する。 Next, PC30 estimates a participant who intends to speak from among all the participants based on the intention expression information (S13). For example, when the conference participation level of the intention expression information exceeds a predetermined threshold, PC30 determines that the corresponding participant is a participant who intends to speak.
そして、PC30は、発話意思保持者の情報を表示器に表示する(S14)。図5および図6は、第1地点1のPC30の表示器に表示される、遠隔会議アプリケーションプログラムの画面の一例である。図7および図8は、第2地点2のPC30の表示器に表示される、遠隔会議アプリケーションプログラムの画面の一例である。図5および図7は、誰も発話意思を持っていない場合の画面の一例であり、図6および図8は参加者u1を発話意思保持者であると判断した場合の画面の一例である。
Then, the
PC30は、発話意思保持者の情報の一例として、発話意思保持者である参加者u2の位置において、該参加者u2を囲む矩形画像を重畳して表示する。これにより、全ての参加者は、発言したい意思を持つ参加者がいることを知ることができる。
As an example of information about a participant who intends to speak, the
あるいは、PC30は、発話意思保持者の情報の一例として、図9に示す様に、発話意思保持者である参加者u2を目立たせる様な映像に変更してもよい。図9は、第2地点2のPC30の表示器に表示される、遠隔会議アプリケーションプログラムの画面の一例である。図9の例では、PC30は、発話意思保持者である参加者u2の映像の画面内の占有率が所定比率(例えば50%)になるように拡大するフレーミング処理している。あるいは、PC30は、現在の話者(例えば参加者u1)および発話意思保持者である参加者u2の映像の画面内の占有率が所定比率(例えば50%)になるように拡大するフレーミング処理をしてもよい。また、PC30は、現在の話者(例えば参加者u1)を拡大した映像と、発話意思保持者である参加者u2を拡大した映像と、を1画面内で分割して表示してもよい。また、PC30は、現在の話者(例えば参加者u1)を拡大した映像と、発話意思保持者である参加者u2を拡大した映像と、を所定時間経過毎に切り替えてもよい。この時、PC30は、現在の話者(例えば参加者u1)を拡大した映像を長く、発話意思保持者である参加者u2を拡大した映像を短く表示してもよい。あるいは、PC30は、複数の発話意思保持者を推定した場合には、会議参加度の高い参加者の映像を相対的に長く表示してもよい。
Alternatively, the
遠端側の参加者は表示器に表示されるため、近端側の参加者が遠端側の参加者の意思を把握することは難しい。特に、近端側の複数の参加者が会話している場合に遠端側の参加者が当該会話に入ることは非常に難しい。しかし、本実施形態のコミュニケーション支援方法によれば、遠端側および近端側の全ての参加者に、発言したい意思を持っていることを知らせることができる。これにより、参加者は、発話を開始することへの心理的負担が軽減されるという新たな顧客体験を得ることができる。また、遠端側の参加者が近端側の複数の参加者に対して発話意思を知らせることで、遠隔側の参加者であっても近端側の会話に参加しやすくなるという新たな顧客体験を得ることができる。すなわち、本実施形態のコミュニケーション支援方法は、遠端側の参加者に対して、近端側で実際に会って話している環境に近い状況を演出することができる。 Because the far-end participants are displayed on a display, it is difficult for the near-end participants to understand the intentions of the far-end participants. In particular, when multiple near-end participants are talking, it is very difficult for the far-end participants to join the conversation. However, according to the communication support method of this embodiment, it is possible to inform all participants on the far-end and near-end sides that one has the intention to speak. This allows participants to obtain a new customer experience in which the psychological burden of starting to speak is reduced. In addition, by having the far-end participants inform multiple near-end participants of their intention to speak, it is possible to obtain a new customer experience in which even remote participants can easily participate in the near-end conversation. In other words, the communication support method of this embodiment can create a situation for the far-end participants that is close to an environment in which they are actually meeting and talking at the near-end.
(変形例1)
PC30は、取得した遠端側の参加者および近端側の参加者の映像から、参加者の視線情報を意思表示情報として検出してもよい。
(Variation 1)
The
PC30は、視線情報として、参加者毎の視線の方向を算出して、各参加者の視線先を求める。つまり、視線情報は、視線元の参加者と視線先の参加者とを表す有向グラフとして表される。PC30は、視線情報に基づいて全ての参加者の中から発話意思がある発話意思保持者を推定する。例えば、PC30は、有向グラフに基づいて参加者毎の被視線数を求める。被視線数の多い参加者は、他の複数の参加者が注目していることを意味する。つまり、被視線数は、現在の発話者等、会議参加度の高い参加者に対応する。したがって、PC30は、被視線数が所定の閾値を超えた場合に、対応する参加者を発話意思保持者と判断する。あるいは、PC30は、現在の発話者における視線先の参加者を発話意思保持者と判断してもよい。これにより、変形例1のコミュニケーション支援方法は、現在の発話者が次に発話して欲しいと思っている参加者を推定することができる。
PC30 calculates the direction of gaze for each participant as gaze information, and determines the gaze destination of each participant. In other words, the gaze information is expressed as a directed graph representing the participant who is the source of the gaze and the participant who is the destination of the gaze. PC30 estimates the participant who intends to speak from among all participants based on the gaze information. For example, PC30 calculates the number of gazes for each participant based on the directed graph. A participant who is gazed at many times means that multiple other participants are paying attention to him/her. In other words, the number of gazes corresponds to a participant who has a high level of participation in the conference, such as the current speaker. Therefore, when the number of gazes exceeds a predetermined threshold, PC30 determines the corresponding participant as the participant who intends to speak. Alternatively, PC30 may determine the participant who is gazed at by the current speaker as the participant who intends to speak. In this way, the communication support method of
(変形例2)
PC30は、取得した遠端側の参加者および近端側の参加者の映像から、参加者の特定の動きを示す動作情報を意思表示情報として検出してもよい。特定の動作とは、例えばうなずく動作、あるいは手を動かす動作等である。これらの様な動作は、会話に参加しようとする可能性の高い動作である。
(Variation 2)
The
そこで、PC30は、意思表示情報として上記特定の動作情報を検出し(S12)、当該特定の動作情報に基づいて全ての参加者の中から発話意思がある発話意思保持者を推定してもよい(S13)。例えば、PC30は、特定の動作をしている参加者を発話意思保持者と判断する。
Therefore, the
上述の様に、遠端側の参加者は表示器に表示されるため、近端側の参加者が遠端側の特定の動作に気付くことは難しい。しかし、変形例2のコミュニケーション支援方法によれば、遠端側および近端側の全ての参加者に対して、発話に関係する特定の動作を行っていることを知らせることができる。 As mentioned above, the far-end participant is displayed on the display, making it difficult for the near-end participant to notice specific actions being made by the far-end participant. However, with the communication support method of variant example 2, it is possible to inform all participants on both the far-end and near-end sides that a specific action related to speech is being made.
(変形例3)
PC30は、音声信号に含まれる音声情報から意思表示情報を検出し(S12)、当該音声情報に基づいて全ての参加者の中から発話意思がある発話意思保持者を推定してもよい(S13)。例えば、PC30は、特定の単語(参加者の名前、遠端側の場所の名前等)を認識した場合に、対応する参加者を発話意思保持者と判断する。
(Variation 3)
The
また、PC30は、例えば複数人が同時に発話した場合に、その後に発話を停止した参加者(発話を譲った参加者)を発話意思保持者と推定してもよい。
In addition, for example, when multiple people speak at the same time,
あるいは、PC30は、会話の履歴を記録し、参加者毎に、次に発話する参加者の関係をデータベースとして記録しておいてもよい。あるいは、PC30は、直前に発話した参加者を、次の発話意思保持者と推定してもよい。
Alternatively,
また、PC30は、会話内容と発話との関係を訓練した訓練済モデルを用いて、現在の会話内容に対する次の発話意思保持者を推定してもよい。あるいは、PC30は、参加者毎の情報として、例えば役割(進行役、記録役、傍聴者等)、知識、または技術等の情報を記録しておき、現在の会話内容に対応する役割、知識、または技術等の情報を所有する参加者を発話意思保持者として推定してもよい。
The
以上の様に、変形例3のコミュニケーション支援方法は、音声情報から意思表示情報を検出する。コミュニケーション支援方法は、話者ではなく発話意思保持者を推定するため、例えば「はい」、「そうですね」等の会議参加度に影響しない一言だけを発話した参加者は発話意思保持者として推定されない。したがって、変形例3のコミュニケーション支援方法は、この様な発話者を強調表示する、あるいはフレーミングすることはない。 As described above, the communication support method of variant 3 detects intention information from voice information. Since the communication support method estimates the person with the intention to speak rather than the speaker, a participant who only utters one word that does not affect the level of participation in the conference, such as "Yes" or "That's right," is not estimated as the person with the intention to speak. Therefore, the communication support method of variant 3 does not highlight or frame such speakers.
(変形例4)
PC30は、参加者の会話参加度をスコアリングしてもよい。PC30は、スコアリングの点数に基づいて全ての参加者の中から発話意思がある発話意思保持者を推定してもよい(S13)。
(Variation 4)
The
例えば、PC30は、変形例1で示した有向グラフに基づいて参加者毎の被視線数を求める。被視線数の多い参加者は、他の複数の参加者が注目していることを意味する。したがって、PC30は、参加者毎の被視線数を点数として求める。また、PC30は、各参加者の被視線数に所定の重み係数を乗算した結果を点数として求めてもよい。重み係数は、例えば被視線数の多い参加者からの視線を高くし、被視線数の少ない参加者からの視線を低くする。当該被視線数の多い参加者の視線先の参加者は、次に発話する可能性が高く、高いスコアとして求められる。
For example,
また、PC30は、動作情報として、特定動作を行っている参加者の点数を上記被視線数に加算してもよい。特定の動作とは、例えばうなずく動作、あるいは手を動かす動作等である。これらの様な動作は、会話に参加しようとする可能性の高い動作である。したがって、PC30は、動作情報として、特定動作を行っている参加者に点数を加算する。
In addition,
PC30は、点数が所定の閾値を超えた場合に、対応する参加者を発話意思保持者と判断する。PC30は、上記の様に視線情報に動作情報としての点数を合算することで、発話意思保持者をより高精度に推定することができる。 When the score exceeds a predetermined threshold, PC30 judges the corresponding participant to be a person with the intention to speak. By adding the score as movement information to the gaze information as described above, PC30 can estimate with higher accuracy the person with the intention to speak.
また、PC30は、該スコアリングの結果を発話意思保持者の情報として表示してもよい。図10は、第2地点2のPC30の表示器に表示される、遠隔会議アプリケーションプログラムの画面の一例である。図10の例では、PC30は、点数が所定の閾値を超えて発話意思保持者と判断した参加者の映像の周囲に、スコアリングの結果を表示している。これにより、遠端側および近端側の全ての参加者は、他の全ての参加者の発話意思の強さを直感的に知ることができる。
The
また、PC30は、スコアリングの点数が高い複数の発話意思保持者を強調して表示してもよい。図11は、第2地点2のPC30の表示器に表示される、遠隔会議アプリケーションプログラムの画面の一例である。図11の例では、PC30は、点数が所定の閾値を超えて発話意思保持者と判断した参加者の映像を囲む矩形画像を重畳して表示する。これにより、遠端側および近端側の全ての参加者は、発言したい意思を持つ参加者がいることを一目で知ることができる。
The
(変形例5)
PC30は、意思表示情報に基づいて発話意思の無い参加者を推定してもよい。また、PC30は、発話意思のない参加者の情報を表示しないようにしてもよい。また、PC30は、発話意思のない参加者の映像をマスクする処理を行ってもよい。
(Variation 5)
The
例えば、PC30は、うつむいている等の特定の動作、姿勢を検出した場合に、当該参加者を発話意思の無い参加者として推定する。また、PC30は、被視線数の少ない参加者を発話意思の無い参加者として推定してもよい。あるいは、PC30は、視線の変化の少ない参加者を発話意思の無い参加者として推定してもよい。
For example, when
また、PC30は、音声情報に基づいて発話意思の無い参加者を推定してもよい。PC30は、例えば所定時間以上、発言のない参加者を発話意思の無い参加者として推定してもよい。また、PC30は、例えば名前を呼ばれていない参加者を発話意思の無い参加者として推定してもよい。
The
(変形例6)
PC30は、マイクで収音した音声信号に基づいて全ての参加者の中から話者を特定し、話者および発話意思保持者の情報を表示器に表示してもよい。
(Variation 6)
The
図12は、第2地点2のPC30の表示器に表示される、遠隔会議アプリケーションプログラムの画面の一例である。PC30は、マイク10で推定された話者の方向情報を受信する。図12の例では、PC30は、受信した話者の方向情報に対応する参加者の映像を囲む矩形画像を重畳して表示する。また、図12の例では、PC30は、発話意思保持者に対応する参加者の映像にも矩形画像を重畳して表示する。ただし、PC30は、話者の情報と発話意思保持者の情報は異なる態様で表示することが好ましい。例えば図12の例では、PC30は、発話意思保持者に対応する参加者には、破線の矩形画像を重畳して表示している。
Figure 12 is an example of a screen of a remote conference application program displayed on the display of
これにより、全ての参加者は、現在の話者と、発言したい意思を持つ参加者と、を一目で知ることができる。 This allows all participants to see at a glance who is currently speaking and who wants to speak.
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。 The description of the present embodiment should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims, not by the above-described embodiments. Furthermore, the scope of the present invention includes the scope equivalent to the claims.
10:マイク,20:カメラ,30:PC 10: Microphone, 20: Camera, 30: PC
Claims (15)
前記全ての参加者の映像から、発話意思があるか否かを判定する指標である意思表示情報を検出し、
前記意思表示情報に基づいて前記全ての参加者の中から発話意思がある発話意思保持者を推定し、
前記発話意思保持者の情報を表示器に表示する、
コミュニケーション支援方法。 From the video data captured by the camera, images of all participants in the remote conference, including the near-end and far-end, are acquired,
Detecting intention expression information, which is an index for determining whether or not the participant has an intention to speak, from the images of all the participants;
predicting a person who has an intention to speak from among all the participants based on the intention expression information;
displaying information about the person with the intention to speak on a display device;
Communication support methods.
請求項1に記載のコミュニケーション支援方法。 Detecting gaze information or motion information showing a specific movement of the participant from the video as the intention expression information;
The communication support method according to claim 1 .
該スコアリングの結果を前記情報として表示する、
請求項1または請求項2に記載のコミュニケーション支援方法。 Score the conversational participation of the participants;
Displaying the result of the scoring as the information.
The communication support method according to claim 1 or 2.
請求項4に記載のコミュニケーション支援方法。 and highlighting and displaying the plurality of speech intention holders who have high scores in the scoring.
The communication support method according to claim 4.
前記発話意思のない参加者の情報を表示しない、
請求項1または請求項2に記載のコミュニケーション支援方法。 Inferring participants who have no intention of speaking from the intention expression information;
Do not display information about participants who have no intention of speaking;
The communication support method according to claim 1 or 2.
前記話者および前記発話意思保持者の情報を表示器に表示する、
請求項1または請求項2に記載のコミュニケーション支援方法。 Identifying a speaker from among all the participants based on an audio signal picked up by a microphone;
displaying information about the speaker and the speech intention holder on a display device;
The communication support method according to claim 1 or 2.
前記全ての参加者の映像から、発話意思があるか否かを判定する指標である意思表示情報を検出し、
前記意思表示情報に基づいて前記全ての参加者の中から発話意思がある発話意思保持者を推定し、
前記発話意思保持者の情報を表示器に表示する、
プロセッサを備えるコミュニケーション支援装置。 From the video data captured by the camera, images of all participants in the remote conference, including the near-end and far-end, are acquired,
Detecting intention expression information, which is an index for determining whether or not the participant has an intention to speak, from the images of all the participants;
predicting a person who has an intention to speak from among all the participants based on the intention expression information;
displaying information about the person with the intention to speak on a display device;
A communication support device comprising a processor.
請求項8に記載のコミュニケーション支援装置。 The processor detects gaze information or motion information indicating a specific movement of the participant from the video as the intention expression information.
The communication support device according to claim 8.
前記参加者の会話参加度をスコアリングし、
該スコアリングの結果を前記情報として前記表示器に表示する、
請求項8または請求項9に記載のコミュニケーション支援装置。 The processor,
Score the conversational participation of the participants;
displaying the result of the scoring as the information on the display device;
The communication support device according to claim 8 or 9.
請求項11に記載のコミュニケーション支援装置。 the processor highlights the plurality of speech intention holders who have high scores in the scoring and displays them on the display device.
The communication support device according to claim 11.
前記意思表示情報から発話意思のない参加者を推定し、
前記発話意思のない参加者の情報を表示しない、
請求項8または請求項9に記載のコミュニケーション支援装置。 The processor,
Inferring participants who have no intention of speaking from the intention expression information;
Do not display information about participants who have no intention of speaking;
The communication support device according to claim 8 or 9.
マイクで収音した音声信号に基づいて前記全ての参加者の中から話者を特定し、
前記話者および前記発話意思保持者の情報を表示器に表示する、
請求項8または請求項9に記載のコミュニケーション支援装置。 The processor,
Identifying a speaker from among all the participants based on an audio signal picked up by a microphone;
displaying information about the speaker and the speech intention holder on a display device;
The communication support device according to claim 8 or 9.
前記全ての参加者の映像から、発話意思があるか否かを判定する指標である意思表示情報を検出し、
前記意思表示情報に基づいて前記全ての参加者の中から発話意思がある発話意思保持者を推定し、
前記発話意思保持者の情報を表示器に表示する、
処理を情報処理装置に実行させるプログラム。 From the video data captured by the camera, images of all participants in the remote conference, including the near-end and far-end, are acquired,
Detecting intention expression information, which is an index for determining whether or not the participant has an intention to speak, from the images of all the participants;
predicting a person who has an intention to speak from among all the participants based on the intention expression information;
displaying information about the person with the intention to speak on a display device;
A program that causes an information processing device to execute processing.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023187579A JP2025075999A (en) | 2023-11-01 | 2023-11-01 | COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT DEVICE, AND PROGRAM |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023187579A JP2025075999A (en) | 2023-11-01 | 2023-11-01 | COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT DEVICE, AND PROGRAM |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2025075999A true JP2025075999A (en) | 2025-05-15 |
Family
ID=95698566
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023187579A Pending JP2025075999A (en) | 2023-11-01 | 2023-11-01 | COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT DEVICE, AND PROGRAM |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2025075999A (en) |
-
2023
- 2023-11-01 JP JP2023187579A patent/JP2025075999A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112075075B (en) | Method and computerized intelligent assistant for facilitating teleconferencing | |
| US10264210B2 (en) | Video processing apparatus, method, and system | |
| JP2004515982A (en) | Method and apparatus for predicting events in video conferencing and other applications | |
| JP7283384B2 (en) | Information processing terminal, information processing device, and information processing method | |
| EP4064692A1 (en) | Smart audio muting in a videoconferencing system | |
| JP7323098B2 (en) | Dialogue support device, dialogue support system, and dialogue support program | |
| Danninger et al. | The connector: facilitating context-aware communication | |
| CN118104227A (en) | Terminal, information processing method, program, and recording medium | |
| EP3412036A1 (en) | Method for assisting a hearing-impaired person in following a conversation | |
| JP7683654B2 (en) | Conference support device, conference support method, conference support system, and conference support program | |
| JP2025075999A (en) | COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT DEVICE, AND PROGRAM | |
| US12260876B2 (en) | Voice conference apparatus, voice conference system and voice conference method | |
| JP2009060220A (en) | Communication system and communication program | |
| US7984010B2 (en) | Action agenda determining apparatus | |
| JP7197957B2 (en) | Reaction analysis system and reaction analysis device | |
| JP2023135870A (en) | Auxiliary equipment | |
| JP4585380B2 (en) | Next speaker detection method, apparatus, and program | |
| JP7269269B2 (en) | Information processing device, information processing method, and information processing program | |
| JP7156743B1 (en) | Video image analysis system | |
| JP7121436B1 (en) | Video analysis program | |
| JP7197955B1 (en) | Video meeting evaluation terminal | |
| JP7121433B1 (en) | Video analysis program | |
| WO2023209898A1 (en) | Voice analysis device, voice analysis method, and voice analysis program | |
| JP6699457B2 (en) | Communication control device, communication control system, communication control method, and communication control program | |
| WO2025074099A1 (en) | Audio or video conferencing end-system |