JP2008021186A - Position notifying method with sound, and information processing system using the method - Google Patents
Position notifying method with sound, and information processing system using the method Download PDFInfo
- Publication number
- JP2008021186A JP2008021186A JP2006193296A JP2006193296A JP2008021186A JP 2008021186 A JP2008021186 A JP 2008021186A JP 2006193296 A JP2006193296 A JP 2006193296A JP 2006193296 A JP2006193296 A JP 2006193296A JP 2008021186 A JP2008021186 A JP 2008021186A
- Authority
- JP
- Japan
- Prior art keywords
- target
- sound
- controllable
- user
- uncontrollable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 51
- 230000010365 information processing Effects 0.000 title claims description 20
- 238000012545 processing Methods 0.000 claims abstract description 77
- 238000006243 chemical reaction Methods 0.000 claims abstract description 16
- 230000033001 locomotion Effects 0.000 claims description 33
- 238000004891 communication Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 15
- 238000004519 manufacturing process Methods 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 13
- 230000004807 localization Effects 0.000 description 10
- 238000012937 correction Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、物標の位置を2次元あるいは3次元の立体音響で音源発生場所として示し、聴覚でユーザに所在位置を認知させることのできる位置通知方法、および同方法を用いた情報処理システムに関する。 The present invention relates to a position notification method capable of indicating the position of a target as a sound source generation location by two-dimensional or three-dimensional stereophonic sound and allowing a user to recognize the location by hearing, and an information processing system using the method. .
一般に、情報処理システムのユーザインタフェースは、ディスプレイ表示によって視覚を重視した手法が用いられている。たとえば、フォルダ、ディレクトリ、アプリケーションプログラムなど(以下、フォルダ等という。)を選択する際はポインタをそのフォルダ等のアイコンに重ねてクリックすることによって選択する。 In general, a user interface of an information processing system uses a technique that places importance on vision through display display. For example, when selecting a folder, a directory, an application program or the like (hereinafter referred to as a folder or the like), the pointer is overlaid on the icon of the folder or the like and then clicked.
しかしながら、このような視覚のみに頼ったインタフェースを採ると、視覚障害者にとっては甚だ不便であるのみならず、健常者にとってもディスプレイを注視するあまり疲労が蓄積したり、操作ミスを生じたりする原因となる。 However, taking such an interface that relies solely on vision is not only very inconvenient for visually impaired people, but also causes a lot of fatigue and an operational error for healthy people who are gazing at the display. It becomes.
従来、ユーザの操作性の向上、操作ミスの削減を目的として、音響によってユーザへ位置その他の情報を通知する技術が提案されている。たとえば、特許文献1では、運転者を好適に目的地へ誘導するために、車両の現在位置および進行方向を取得し、その現在位置および進行方向と地理情報とに基づいて経路誘導情報を生成し、この経路誘導情報が左折のときは運転者に左側から聞こえ,前記経路誘導情報が右折のときは運転者に右側から聞こえるように音場を形成して、メッセージ音声またはガイド音を発生する運転支援装置が提案されている。
2. Description of the Related Art Conventionally, for the purpose of improving user operability and reducing operational errors, a technique for notifying a user of a position and other information by sound has been proposed. For example, in
また、特許文献2では、利用者が音声を聞いただけで、再生しているウィンドウの識別を可能にするため、音声に再生すべきウィンドウの位置情報を付加するという技術思想が開示されている。この文献には、変化が生じた場合ウィンドウIDおよび新しい表示位置を音声の方向計算部に通知するウィンドウ位置監視部と、聞こえてくる方向をウィンドウ表示位置にあわせて変換する音声の方向計算部と、変化の生じた場合に音声管理用レコード追加削除部を呼び出す音声状態監視部と、音声が発生した場合には、音声管理テーブルにレコードを追加し、音声が消滅した場合にはレコードの削除処理を行う音声管理用レコード追加削除部と、ウィンドウシステムの提供する立体音響システムの形式にあった方式に音声を変換する音声の出力命令発行部と、実際の音声出力を行う立体音響出力部とを有するウィンドウシステムの音声再生装置が記載されている。
しかしながら、上記の特許文献1に記載の技術は、常に運転手を左右の音源の中心において音声で通知を出力するものである。
However, the technique described in
一方、特許文献2に記載の技術は、操作者(ユーザ)の顔が画面の中心線上にあるとして各音源の音量を定めている。
しかしながら、常に操作者を基準に物標の位置関係から立体的に配置された各音源の音量を定めるようにすると、その音源の用途によっては不都合が生じる。 However, if the volume of each sound source arranged three-dimensionally is determined based on the positional relationship of the target with the operator as a reference, inconvenience occurs depending on the use of the sound source.
たとえば、その操作者が飛行機の操縦士の場合、その状況を遠方で確認する管制官は、必ずしも操縦士の位置で音を認識できるとは限らない。たとえば、センサで検知した物体位置を音響で操縦士に通知するようにしていたとしても、モニタカメラが操縦士の後ろから撮られているような場合は、モニタ画面で見る映像と音響の方向は必ずしも一致しない。 For example, when the operator is an airplane pilot, a controller who confirms the situation remotely cannot always recognize sound at the pilot's position. For example, even if the object position detected by the sensor is reported to the pilot by sound, if the monitor camera is taken from behind the pilot, the direction of the image and sound seen on the monitor screen will be Does not necessarily match.
また、画面上に表示されるものを音で認識しようとすると、画面上に複数の物標が存在する場合、音源が錯綜して操作者にとっては逆に混乱を招くという問題がある。 Also, when trying to recognize what is displayed on the screen with sound, if there are a plurality of targets on the screen, there is a problem that the sound source is complicated and confuses the operator.
本発明は、上述のかかる事情に鑑みてなされたものであり、物標位置を音響によって操作者に通知する場合、音響の利用者が複数存在しても正しくその位置を伝えられ、また物標が複数存在する場合でも操作者に分かりやすく伝えることのできる音響による位置通知方法、および同方法を用いた情報処理システムを提供することを目的とする。 The present invention has been made in view of the above-described circumstances. When the target position is notified to the operator by sound, the position can be correctly transmitted even if there are a plurality of sound users, and the target is also detected. It is an object of the present invention to provide an acoustic position notification method that can be easily communicated to an operator even when there are a plurality of information, and an information processing system using the method.
上記の課題を解決するため、本発明に係わる音響による位置通知方法は、音響を利用して物標位置をユーザに通知する方法であって、一または二以上の物標の座標データを入力する処理と、入力した座標データを音響で発信する音の仮想位置へ変換する仮想物標変換処理と、前記仮想位置にもとづいて各音源から音を出力する処理と、を含むことを特徴とする。 In order to solve the above-described problem, a position notification method using sound according to the present invention is a method of notifying a user of a target position using sound, and inputting coordinate data of one or more targets. And a virtual target conversion process for converting the input coordinate data into a virtual position of sound transmitted by sound, and a process for outputting sound from each sound source based on the virtual position.
本発明では、センサや入力装置等から入力した物標の座標データをコンピュータ上の空間位置に座標変換して音響出力する。 In the present invention, coordinate data of a target input from a sensor, an input device, or the like is coordinate-converted to a spatial position on a computer and output as sound.
好ましくは、ユーザ(操作者)の周囲にスピーカ等の音響設備を配置し、3次元的な立体音響として通知するようにすると良い。 Preferably, sound equipment such as a speaker is arranged around the user (operator) so as to be notified as three-dimensional stereophonic sound.
ここで述べる仮想とは、一般的にコンピュータの処理装置によって描かれてモニタ画面に表されるもの、もしくはコンピュータ内に存在する平面もしくは立体的空間配置であり、通常はコンピュータの画面出力において、この空間が表示されるものをいう。 The virtual mentioned here is generally drawn by a computer processing device and displayed on a monitor screen, or a plane or three-dimensional spatial arrangement existing in the computer. A space is displayed.
また、情報処理システムとは、一般的にCPUを搭載した電子演算機能を有するシステムを意味し、パーソナルコンピュータと言われるようなコンピュータシステムも含む趣旨である。 In addition, the information processing system generally means a system having an electronic calculation function equipped with a CPU, and includes a computer system called a personal computer.
さらに、本発明に係わる音響による位置通知方法は、前記物標が複数存在するとき、物標ごと又は所定の条件で分類された物標グループごとに異なる音源が割り付けられ、かつ、自己がその位置を制御できる可制御物標は、自己がその位置を制御できない不可制御物標とは異なる音響の演出方法を割り付けられていることを特徴とする。 Furthermore, in the acoustic position notification method according to the present invention, when there are a plurality of the targets, a different sound source is assigned to each target or each target group classified under a predetermined condition, and the position is determined by the self. The controllable target that can control the sound is assigned a sound production method different from the uncontrollable target that cannot control its position.
発音対象の物標が混在した場合、ユーザの認識が困難となる。このとき、音色とか音程を変えるのみでは、ユーザの物標識別が弱く、まず、その物標が自分で制御できるものか否かで音響の演出方法を替えるようにする。 When targets to be pronounced are mixed, it is difficult for the user to recognize. At this time, only by changing the tone color or the pitch, the user's object marker is weak, and first, the sound production method is changed depending on whether or not the target can be controlled by the user.
ここで、音響の演出方法とは、イコライザー等を使って特別な音にするなどの音響技術のみならず、物標の位置に対して発音するのか、それとも物標の位置の変化に対して発音するのかというような出力の仕方も含む趣旨である。 Here, the sound production method is not only a sound technology such as using an equalizer to make a special sound, but also sounding in response to the position of the target or in response to changes in the position of the target It is intended to include output methods such as whether to do.
特に、前記音響の演出方法において、前記可制御物標は物標の位置の変化に基づいて発音し、前記不可制御物標は物標の位置に基づいて連続的または間欠的に発音するようにすると良い。 In particular, in the sound production method, the controllable target is sounded based on a change in the position of the target, and the uncontrollable target is sounded continuously or intermittently based on the position of the target. Good.
可制御物標は、自己がその位置を制御できるものであるため位置が変化したときのみ発音されれば足りる。また、可制御物標の位置を認識したい場合は、その物標を動かせば音が出るため容易に認識できる。不可制御物標は、自己がその位置を制御できないため連続的ないし間欠的に常時発音するようにするのが良い。これによって、物標が複数存在しても自己が制御可能な物標位置を確実かつ容易に認識することができる。 Since the controllable target can control its position, it only needs to be pronounced when the position changes. If you want to recognize the position of a controllable target, you can easily recognize it by moving the target because it makes a sound. The uncontrollable target should be sounded continuously or intermittently because it cannot control its position. Thereby, even if there are a plurality of targets, it is possible to reliably and easily recognize a target position that can be controlled by itself.
好ましくは、前記可制御物標は、当該物標の移動可能範囲における位置を基準に立体音響の方向および音量を決定し、前記不可制御物標は、前記可制御物標の位置を基準として、立体音響の方向および音量を決定するのが良い。 Preferably, the controllable target determines the direction and volume of stereophonic sound based on the position of the target in the movable range, and the uncontrollable target is based on the position of the controllable target, The direction and volume of the stereophonic sound should be determined.
特に可制御物標については、その位置を必要な場合のみに確認すれば良く、このときは全移動可能範囲に対してどの位置に有るかを知ることが重要となる。一方、不可制御物標については、可制御物標の位置(すなわちユーザ位置)を基準にして、その方向を音響で通知することによって、ユーザは不可制御物標へ容易にアクセスすることができる。 In particular, for a controllable target, it is only necessary to check its position when necessary. In this case, it is important to know which position is in the entire movable range. On the other hand, regarding the uncontrollable target, the user can easily access the uncontrollable target by notifying the direction of the controllable target by sound with reference to the position of the controllable target (that is, the user position).
より好ましくは、前記可制御物標が前記不可制御物標の所定範囲に入ったときは、該不可制御物標を識別可能な音またはメッセージを出力するのが良い。これにより、ユーザは、不可制御物標に間違えなくアクセスできたことを知ることができる。 More preferably, when the controllable target falls within a predetermined range of the uncontrollable target, a sound or a message that can identify the uncontrollable target may be output. As a result, the user can know that the uncontrollable target has been accessed without mistake.
また、本発明に係わる音響による位置通知方法は、物標ごとに異なる発音タイミングを割付けられていることを特徴とする。 In addition, the acoustic position notification method according to the present invention is characterized in that different sound generation timings are assigned to each target.
物標が複数存在するような場合、同時に発音するのではなく、タイミングをずらして、例えば距離が遠い物標から、各方位から順にユーザを包み込ませるように発音させるようにすれば、最も近い物標の認識が容易となり、かつ、ユーザの注意を促すことができる。 If there are multiple targets, instead of sounding at the same time, it is possible to create the closest object by shifting the timing and, for example, sounding the target so that the user is wrapped in order from each direction. The recognition of the mark becomes easy and the user's attention can be urged.
また、本発明に係わる音響による位置通知方法は、物標ごとに所定時間前からの位置情報をもとに現在に至るまでの移動経過を連続音または間欠音で通知する処理と、前記移動経過に基づいて未来の移動経路を予測演算する処理と、前記予測演算結果による未来の移動方向または移動経路を通知する処理と、を含むことを特徴とする。 The acoustic position notification method according to the present invention includes a process of notifying the progress of movement up to the present time based on position information from a predetermined time before each target with a continuous sound or intermittent sound, and the movement progress. And a process of predicting a future movement path based on the prediction calculation process and a process of notifying a future movement direction or movement path based on the prediction calculation result.
これにより、ユーザは、過去の移動経路から将来の移動方向または経路を予測して、回避策を講じる等の対処を行うことができる。 Thus, the user can take measures such as taking a workaround by predicting a future moving direction or route from the past moving route.
本発明に係わる情報処理システムは、コンピュータ実行可能なメニューをアイコンとして表示する手段と、ポインタ(カーソルを含む。)を移動させる入力装置と、前記ポインタを可制御物標として設定する手段と、コンピュータ画面上に表示された前記アイコンを不可制御物標として設定する手段と、前記ポインタおよび前記アイコンの位置を立体音響で知らせる音響出力装置と、を備えたことを特徴とする。 An information processing system according to the present invention includes means for displaying a computer-executable menu as an icon, an input device for moving a pointer (including a cursor), means for setting the pointer as a controllable target, and a computer It is characterized by comprising means for setting the icon displayed on the screen as an uncontrollable target, and a sound output device for notifying the position of the pointer and the icon with stereophonic sound.
本発明では、上述した音響による位置通知方法をコンピュータシステムのOSに適用することによって、ユーザインタフェースとしての利便性を向上させる。 In the present invention, the convenience as a user interface is improved by applying the above-described acoustic position notification method to the OS of the computer system.
また、本発明に係わる情報処理システムは、複数のユーザ端末と、各ユーザ端末と通信ネットワークを介して繋がるサーバとを有する情報処理システムであって、前記サーバは、制御可能なアイコンとしてユーザごとに選択されたアイコンを可制御物標として設定すると共に、制御可能なアイコン以外のアイコンを不可制御物標として設定する手段と、前記可制御物標と前記不可制御物標とを各ユーザ端末上に表示出力する手段と、を備え、 前記各ユーザ端末は、該ユーザの可制御物標の位置を基準にして前記不可制御物標の位置を演算する手段と、前記不可制御物標の位置を音響で通知する手段と、を備えたことを特徴とする。 An information processing system according to the present invention is an information processing system having a plurality of user terminals and a server connected to each user terminal via a communication network, and the server is provided as a controllable icon for each user. A means for setting the selected icon as a controllable target and an icon other than a controllable icon as an uncontrollable target, and the controllable target and the uncontrollable target on each user terminal Means for displaying and outputting, wherein each user terminal calculates the position of the uncontrollable target with reference to the position of the controllable target of the user, and acoustically detects the position of the uncontrollable target And notifying means.
本発明では、サーバから送られてくる物標座標を各ユーザ端末で補正して仮想物標座標を算出する。このとき、まず自己が制御可能な可制御物標の座標(仮想物標座標)を演算し、次にこの座標を基準として不可制御物標の座標を演算する。 In the present invention, the target coordinates sent from the server are corrected at each user terminal to calculate virtual target coordinates. At this time, the coordinates of the controllable target that can be controlled by itself (virtual target coordinates) are calculated, and then the coordinates of the uncontrollable target are calculated using this coordinate as a reference.
本発明によれば、物標位置を音響によって操作者に通知する場合、仮想物標の概念を取り入れることによって、音響の利用者が複数存在しても、あるいは音響データと画像データとを通信によって遠方に送信する場合でも、画面と連動して正しく物標の位置を伝えることができ、また物標が複数存在する場合でも操作者に分かりやすく確実に物標位置を伝えることができる。 According to the present invention, when the target position is notified to the operator by sound, the concept of the virtual target is adopted, so that even if there are a plurality of sound users or the sound data and the image data are communicated. Even when transmitting to a distant place, the position of the target can be correctly communicated in conjunction with the screen, and even when there are a plurality of targets, the position of the target can be clearly communicated to the operator in an easy-to-understand manner.
以下、本発明の実施の形態を説明する。
図1は、第1の実施の形態による情報処理システムのブロック図である。ここで情報処理システム1は、コンピュータなどの処理装置10、音響出力装置60、通信手段2を介して処理装置10と繋がるマウスなどの入力装置70と繋がっている。また、センサ76を通して取り込んだ信号をセンサ処理装置81で通信データに変換して、通信手段2を介して処理装置10へ送っている。
Embodiments of the present invention will be described below.
FIG. 1 is a block diagram of an information processing system according to the first embodiment. Here, the
なお、通信手段2は、インターネットなどの広域通信網でも良いし、LANあるいはUSBなどのローカルあるいは短距離用の通信手段であっても良い。また、必要により、入力装置70とセンサ処理装置81は、それぞれ異なる通信手段を介して処理装置10と通信を行うようにしても良い。
The communication means 2 may be a wide area communication network such as the Internet, or a local or short distance communication means such as a LAN or USB. If necessary, the
音響出力装置60は、立体音響としては従来の技術を使い、縦、横、奥行きなど3Dで表現ができ、発音手段としては、スピーカやヘッドフォンなどの一般的な再生装置を用いる。 The sound output device 60 uses conventional technology for three-dimensional sound and can express in 3D such as vertical, horizontal, and depth, and uses a general reproduction device such as a speaker or headphones as a sound generation means.
ユーザは、これら再生装置のスピーカに対して同じ位置、もしくはヘッドフォンのようにユーザに装着されていて固定位置であることを前提とする。なお、聴衆するユーザが移動した際には、センサによってユーザの位置を算出し、再生装置から出力する音の定位に対して、ユーザの移動位置の加減をして、立体音響を再生するために最適な定位を表すようにしても良い。ユーザが移動をすることによって、各スピーカから再生される音のバランスが崩れるために、ユーザに正しい距離感が与えるために補正するものである。 It is assumed that the user is in the same position with respect to the speakers of these playback devices, or is in a fixed position attached to the user like a headphone. Note that when the audience user moves, the position of the user is calculated by a sensor, and the moving position of the user is added to or subtracted from the localization of the sound output from the playback device to reproduce the stereophonic sound. An optimum localization may be represented. Since the balance of the sound reproduced from each speaker is lost as the user moves, the correction is made to give the user a sense of distance.
一方、処理装置10は、通信手段2を介して入力装置70あるいはセンサ処理装置81とデータの送受信を行う送受信部11、受け取ったデータの処理を行う処理演算部12、データを記憶する記録部14、処理したデータを表示する表示部16、また表示部16へ表示する画面情報等を音響処理する音源部13と処理したデータを音響出力装置60へ出力する送受信部15を有している。
On the other hand, the
さらに、処理装置10の処理演算部12は、入力装置70やセンサ処理装置81から受け取った信号を処理する入力信号処理手段22、物標や音声に関する基本情報を記録部14に登録する基本情報登録手段21、入力した信号の座標をコンピュータ上の仮想物標座標へ変換する物標座標変換手段23、物標の移動速度、移動距離停止判定などの物標の動きに関する処理を実行する物標運動演算手段24、映像出力処理を行う物標映像出力手段25、仮想物標座標をもとに立体音響として出力する音源部制御指示手段26を備えている。各手段21〜26はCPUのプログラムとして実行可能な機能である。
Further, the
次に各装置の機能概要を説明する。
(1)入力装置70、センサ76、センサ処理装置81の機能について
入力装置70は、マウス、キーボード、ジョイスティック、タッチペン、ゲームコントローラ等であり、x,y,z方向に動かした移動数値と、ユーザが操作するon/offの数値を処理装置10へ伝達する機能を有する。入力装置70から移動距離や移動方向、速度などの信号を発信することによって、上下左右や奥、手前など、モニタなどの空間内のカーソルを3次元的に移動させることができる。
Next, the functional outline of each device will be described.
(1) Functions of the
入力装置70の送信データの例を図2に示す。位置座標のほか、移動停止の状態、スイッチ状態を示す選択フラグなどで構成されている。
An example of transmission data of the
また、センサ76は、赤外線センサ、音波レーダー(車、戦闘機、航空機)、光センサ、匂いセンサなどであり、これらのセンサによって検知された信号はセンサ処理装置81によって処理され、通信手段2を介して処理装置10へ送られてくる。このように、センサ76とセンサ処理装置81は、物標位置の距離や角度等のデータを処理装置10に伝達する機能を有する。
The
図3にセンサ処理装置81の送信データ例を示す。物標の座標、移動速度等の運動情報のほか、温度、角度、色、匂いなどのセンサの種類によって決まる種々のデータで構成されている。
FIG. 3 shows an example of transmission data of the
仮想に存在する物標(たとえば、一般的にコンピュータのOSで使用するモニタ上のカーソル等)は、コンピュータすなわち処理装置10の入力装置70で移動させることができる。
A virtual target (for example, a cursor on a monitor generally used in an OS of a computer) can be moved by the computer, that is, the
(2)処理装置10の機能
入力装置70から入力された信号を入力信号処理手段22により、仮想上の物標(たとえばカーソル)の位置を記録する。
(2) Function of
処理装置10の物標座標変換手段23は、入力した物標座標をコンピュータ上の仮想物標座標へ変換する。
The target coordinate conversion means 23 of the
変換処理の仕方の例としては、たとえば入力装置については、以下の(1)式によって仮想物標座標へ変換する。 As an example of the conversion processing method, for example, the input device is converted into virtual target coordinates by the following equation (1).
仮想物標座標=仮想物標座標+座標(x,y,z) ・・・ (1)
センサについては、(2)式によって仮想物標座標へ変換する。
Virtual target coordinates = virtual target coordinates + coordinates (x, y, z) (1)
About a sensor, it converts into a virtual target coordinate by (2) Formula.
仮想物標座標=物標座標+(使用者位置―センサ位置) ・・・ (2)
そして、物標運動演算手段24は、この仮想物標座標および入力装置70やセンサ処理装置81から送信されてきた物標属性情報を取得し、物標位置を変化させるなどの処理を実行する。また、物標運動演算手段24は、カーソルの移動中、もしくは停止した場所、あるいはその周辺に仮想の別の物標が存在するかを記録し、この情報を音響部13に受け渡す。具体的には、カーソルの直下、付近にファイルやディレクトリが存在するかどうか等である。物標座標変換手段23が示した座標に基づいて音源指示判定手段51によって音源を選択すると共に音源発生手段52へ座標、定位情報を引き渡す。音源発生手段52は、ユーザに対して、立体音響にて移動したとおりに音の定位を動かす。その動かしているカーソル周辺、あるいは同じ位置に仮想の物標が存在する際には、仮想上の物標の存在を音響出力装置60により立体音響で示す。
Virtual target coordinates = target coordinates + (user position-sensor position) (2)
Then, the target motion calculation means 24 acquires the virtual target coordinates and the target attribute information transmitted from the
なお、ユーザが入力装置70によって選択(たとえばクリック)をした場合は、その物標が示すものを実行するようにしてもよい。たとえばディレクトリを開くなどである。そしてその開いた物標上の仮想空間をさらにカーソルを示すべく、入力座標の記録を保存していき、その座標位置情報を音源発生手段52に引き渡して、音響出力装置60を通して発音をさせる。なお、物標をカーソルによって選択したまま移動、ドラッグさせるような場合には、その処理の状況を示す音を出すようにしても良い。
In addition, when the user selects (for example, clicks) with the
座標情報の変化が大きい時は(スピーディーにマウスを動かした時など)、発音の音程を変化させても良いし、音量を変化させても良い。また、右側や上方へ移動させた場合には、定位の出力を同じく右側から上方へ、明るい音色や音程を高くし、左方や下方へ移動をさせた場合には、定位の出力を同じく左方や下方へ暗い音色や低い音を発生させるなど座標位置によって音を変化させることである。奥や手前も、音程や音色を変化させる指示を出力側に指示を出す。 When the change in coordinate information is large (such as when the mouse is moved quickly), the pitch of the pronunciation may be changed or the volume may be changed. Also, when moved to the right or upward, the stereo output is also increased from the right to the upper, bright tone or pitch is increased, and when moved to the left or downward, the stereo output is also left. The sound is changed depending on the coordinate position, for example, a dark tone or a low tone is generated downward or downward. At the back and in front, the output side is instructed to change the pitch and tone.
また、過去や将来にさかのぼって、音で物標の動きをプレビューしても良い。任意の時間前からの、物標の動きを読み出して、現在までの移動を音で連続的に示しても良いし、逆に、過去の移動データ、角度、速度から予測して、将来の時間分先の移動予測を音で示しても良い。 Further, the movement of the target may be previewed with sound, going back to the past or the future. The movement of the target from any time before may be read and the movement up to the present may be indicated continuously by sound, or conversely, the future time predicted from the past movement data, angle and speed The movement prediction ahead may be indicated by sound.
(3)音響出力装置60の機能について
音響出力装置60は、サラウンド機器、音響オーディオ機器、立体音響機器、仮想サラウンドなどである。
処理装置10から引き渡された、座標情報(x,y,z)情報や、音色、音程の指示をもとに、音源から音波を発生し、立体音響の増幅機、スピーカ部、ヘッドフォン部を通して音を発生させる。
(3) Functions of the sound output device 60 The sound output device 60 is a surround device, an audio device, a stereophonic device, a virtual surround, or the like.
Based on the coordinate information (x, y, z) information, timbre, and pitch instructions delivered from the
次に、上記の構成を有する情報処理システム1の動作を説明する。
まず、処理装置10において、予め、カーソルやフォルダ等の音響出力の対象となる物標に関する種々の情報を属性情報および音響に関する基本情報を登録しておく。この情報の登録は、入力装置70を介して行うようにしても良いし、別に設けた専用の入力装置(図示せず)を介して行うようにしても良い。
Next, the operation of the
First, in the
入力装置70から入力された物標属性情報と音響基本情報は、基本情報登録手段21によって、記録部14に保存される。
図4、図5は、それぞれ記録部14に保存されている音響基本情報と物標属性情報のテーブル構成例である。
The target attribute information and the acoustic basic information input from the
4 and 5 are table configuration examples of basic acoustic information and target attribute information stored in the recording unit 14, respectively.
ここで、音響基本情報は、音源の識別情報を格納する音源テーブル、イコライザのパラメータ情報を格納するイコライザテーブル、効果音方法を格納するエフェクターテーブルとして保存されている。 Here, the basic sound information is stored as a sound source table storing sound source identification information, an equalizer table storing equalizer parameter information, and an effector table storing sound effect methods.
また、物標属性情報は、物標に対する操作と発音との関係を記憶する属性・状態テーブル、フォルダなどが階層構造になっている場合は階層と発音との関係を記憶する深さテーブル、物標の移動速度と音源、イコライザとの関係(演出情報)を記憶する誘導音テーブル、物標同士が重なったり特定の動きをしたりしたときの演出情報を記憶する発音テーブルとして保存されている。 The target attribute information includes an attribute / state table for storing the relationship between operation on the target and pronunciation, and a depth table for storing the relationship between hierarchy and pronunciation when folders and the like have a hierarchical structure. A guide sound table for storing the relationship (effect information) between the moving speed of the target, the sound source, and the equalizer, and a pronunciation table for storing the effect information when the targets overlap each other or perform a specific movement are stored.
情報処理装置1は、入力装置70から通信手段2を介して送られてきた信号を送受信部11で受け取ると、入力信号処理手段22によって、その座標データを記録部14に保存する。
When the
ユーザは、制御対象機器を設定する。たとえば、汎用のコンピュータの場合は、デフォルトとしてカーソルを設定しておいても良い。ゲームなどの場合は、アプリケーションプログラムによって、戦車とかヘリコプターとか、あるいは、キャラクタなどを設定する。
物標の補正座標としては、そのキャラクタ等をもとに補正を行う。
The user sets the control target device. For example, in the case of a general-purpose computer, a cursor may be set as a default. In the case of a game or the like, a tank, a helicopter, or a character is set by an application program.
The correction coordinates of the target are corrected based on the character or the like.
以下、その補正処理について説明する。
まず、基本的な処理について説明する。(ステップ1)まず、あるトリガーによって仮想物標、属性の処理ルーチンを起動させる。トリガーとしては、たとえば、マウスを手で動かす、センサが物標を捉える、他人が物標の操作をオンラインで行う、CPUが物標の操作を行う、などがある。(ステップ2)このトリガーによって、仮想座標、属性の変化の記憶処理を開始する。具体的には、物標の座標位置の記録、属性記録、カーソル位置の記録などを行う。(ステップ3)そして、過去の仮想物標の座標との差分を算出する。この差分に基づいて、差が大きい場合は、速い操作と判定、移動をした方向によって、定位を決定する。物標と自己位置あるいはカーソルとの間に他の物標が無いか、などの処理判定を行う。このような処理を行うことによって、たとえば、ユーザが過去の秒数を指定することによって過去から今までの経路を音で知らせることができる。(ステップ4)次に音の定位、発音方法を決定し、音源回路へ指示出力する。
Hereinafter, the correction process will be described.
First, basic processing will be described. (Step 1) First, a virtual target and attribute processing routine is activated by a certain trigger. Examples of the trigger include moving a mouse with a hand, a sensor capturing a target, another person operating a target online, and a CPU operating a target. (Step 2) By this trigger, storage processing of changes in virtual coordinates and attributes is started. Specifically, the coordinate position of the target, attribute recording, cursor position recording, and the like are performed. (Step 3) Then, a difference from the coordinates of the past virtual target is calculated. If the difference is large based on this difference, the localization is determined based on the direction in which it is determined that the operation is fast and the movement is performed. Processing determination is performed such as whether there is another target between the target and the self position or the cursor. By performing such processing, for example, the user can notify the route from the past to the present by sound by designating the past number of seconds. (Step 4) Next, the sound localization and sound generation method are determined, and instructions are output to the sound source circuit.
上記の基本処理によって以下の機能が可能となる。
(1)実際の入力装置から送られてきた情報を処理して、360度の仮想空間上の座標に適宜変換して、その移動距離や物体、移動方向、角度を算出し、また前の座標位置を仮想上に記録しておき、前と現在で差分を取り、変化量を計る。そして、それに応じて、再生する音の音程や音色、音量、定位(再生をする位置、上下左右奥行き)を変化させて、360度の立体音響によって再生させる。
The basic functions described above enable the following functions.
(1) Process the information sent from the actual input device, convert it appropriately into coordinates in 360 degree virtual space, calculate its moving distance, object, moving direction, angle, and previous coordinates The position is recorded virtually, the difference between the previous and current is taken, and the amount of change is measured. Then, in response to this, the pitch, tone color, volume, and localization (reproduction position, up / down / left / right depth) of the sound to be reproduced are changed, and the sound is reproduced with 360-degree stereophony.
たとえば、マウスを動かした時に、右上から右下に早く動かすと、立体音響上も右上から右下に、"キュイーン"と言う早そうな音で再生)
車の前方に、障害物がある場合、距離が近い場合は音が大きくなる、音程が高い。人だったら、"人です"、犬だったら"犬です"と出力する。
(For example, if you move the mouse quickly from the upper right to the lower right, the stereo sound will play from the upper right to the lower right, with a quick sound called "Cuen")
When there is an obstacle in front of the car, when the distance is short, the sound becomes louder and the pitch is high. If it ’s a person, it prints “I am a person”, and if it ’s a dog, it prints “I am a dog”
(2)センサが示す物標の種類や、属性で条件を判断して、仮想空間上の音響の種類や変化(音種類、EQ、点滅など)を与える。 (2) The condition is determined based on the type or attribute of the target indicated by the sensor, and the type or change (sound type, EQ, blinking, etc.) of the sound in the virtual space is given.
特定の範囲以上の大きい物体か、生命体か、非生命体か、明るいのか、小さいのか、匂いが多いのか、などセンサの属性によって、特定の音を発音し、変化を与える。 A specific sound is produced and changed according to the sensor attributes such as whether it is a large object exceeding a specific range, a living object, a non-living object, a bright object, a small object, or a smell.
(3)過去の移動を音で示す。
5秒前の座標位置から、現在の座標位置までの変化を、立体音響で連続した発音で動かせる。自分が移動している際には、過去の座標位置に対して、自分の移動距離数を加算することで、相対的に聞くこともできる。
たとえば、コンピュータゲームにおいて、戦闘機の場合、0.5秒前の敵機(不可制御物標)の測定データを仮想上の位置として、現在の測定データを収得する。その差分を計って、もし自己がコントロールしている自機(可制御物標)に接近しているならば、危険であるので、音を大きく、音程の高い音を発音する。そして、5秒前の敵機の位置から、現在の位置まで仮想上を点で結び、この移動距離を立体音響で連続して再生する。
(3) The past movement is indicated by sound.
The change from the coordinate
For example, in a computer game, in the case of a fighter aircraft, the current measurement data is acquired using the measurement data of an enemy aircraft (uncontrollable target) 0.5 seconds before as a virtual position. The difference is measured, and if it is close to its own machine (controllable target) that it is controlling, it is dangerous, so the sound is loud and a high pitch sound is produced. Then, a virtual point is connected from the position of the
(4)将来の移動予測を音で示す。
現在までの移動データや、属性から判断して、これから移動をしようとしている数秒先の仮想物標座標までを、連続した発音で示す。自分が移動している際には、将来の座標位置に対して、自分の移動距離数を加算することで、相対的に聞くこともできる。
(4) The future movement prediction is indicated by sound.
Judging from the movement data and attributes up to now, the virtual target coordinates up to a few seconds ahead of the movement are indicated by continuous pronunciation. When you are moving, you can listen relatively by adding your own moving distance to the future coordinate position.
(5)当たり、接触判定
入力装置70から送られてきた情報を処理して、360度の仮想空間上の座標に適宜変換して、その場所や付近に存在する別の仮想上の物標を検知し、その物標の種類や、物標との距離、関係によって、再生する音の音程や音色、音量、定位(再生をする位置、上下左右奥行き)を変化させて、360度の立体音響によって再生させる。
(5) Hit determination The information sent from the
センサが示す物標の種類や、属性で条件を判断して、仮想空間上の音響の種類や変化(音種類、EQ、点滅など)を与える。 A condition is determined based on the type and attribute of the target indicated by the sensor, and the type and change (sound type, EQ, blinking, etc.) of the sound in the virtual space are given.
特定の範囲以上の大きい物体か、生命体か、非生命体か、明るいのか、小さいのか、匂いが多いのか、などセンサの属性によって、特定の音を発音し、変化を与える。 A specific sound is produced and changed according to the sensor attributes such as whether it is a large object exceeding a specific range, a living object, a non-living object, a bright object, a small object, or a smell.
また、仮想物標どうしが接近した際、もしくは、設定した範囲に含まれる場合、この仮想空間上の座標から、仮想空間上の音響の種類や変化(音種類、EQ、点滅など)を発生させ、与える。 Also, when virtual targets approach each other or are included in the set range, the type or change of sound (sound type, EQ, blinking, etc.) in the virtual space is generated from the coordinates in the virtual space. ,give.
車のコーナーセンサが反応した場合、この方向から、警告音を発生させ、その距離から音量を変えたり、EQで変化させるようにする。 When the car corner sensor reacts, a warning sound is generated from this direction, and the sound volume is changed from that distance or changed by EQ.
たとえば、マウスを動かして、カーソルが移動したときに、何かファイル上を通過する時には、適当な音を出す。あるいは、戦闘機などで、あらかじめ設定しておいた仮想の座標位置に、最新データの仮想座標位置が重なった場合は、適当な音を出すようにする。 For example, when the mouse is moved and the cursor moves, a suitable sound is produced when passing over any file. Alternatively, when the virtual coordinate position of the latest data overlaps the virtual coordinate position set in advance by a fighter or the like, an appropriate sound is output.
(6)物標との間、環境で音を変化させられる。
たとえば、物標(不可制御物標)と自分(可制御物標)との間に障害物の壁があったり、温度変化、酸素などの伝達物質(火災時)の量によって、音を変化する。
(6) Sound can be changed in the environment between the target and the target.
For example, there is an obstacle wall between the target (uncontrollable target) and oneself (controllable target), or the sound changes depending on the temperature change and the amount of oxygen and other transmission substances (during a fire) .
(実施例1)オペレーションシステム
コンピュータのオペレーションシステムにおいて、ファイルやディレクトリの所在を立体音響にて示すものである。例えば、ビジュアルを用いたOSの画面において、マウスなどの入力装置によって示されるカーソルの存在を、立体音響で仮想的にその位置から音を出す。ユーザは、モニタの前にいるものとする。画面の左下にカーソルがある場合は、左の下から音が出る。そして、入力装置を動かして、右上へ移動をさせた場合は、音が左下から右上へ移動する。さらに、3Dデスクトップ化により、奥の概念が加わった際には、奥や後ろの定位から音を発する。そのカーソルの位置、もしくは周辺に、何かファイルやディレクトリを示している際には、音や音声などでその詳細を示しても良い。既知の立体音響技術を使い、スピーカやヘッドフォンで実現する。視覚にハンディキャップを持つ人へのパーソナルコンピュータ(以下、パソコンあるいはPCともいう。)の使用の補助として活用できるが、PCの通常の使用のサポートとして、視覚情報を使わないことから入力の補助ができ、円滑に操作ができる。
(Embodiment 1) Operation system In the operation system of a computer, the location of a file or directory is indicated by three-dimensional sound. For example, on the screen of an OS using a visual, the presence of a cursor indicated by an input device such as a mouse is virtually output from its position with stereophonic sound. Assume that the user is in front of the monitor. If the cursor is at the bottom left of the screen, the sound will come out from the bottom left. When the input device is moved to move to the upper right, the sound moves from the lower left to the upper right. In addition, when the concept of the back is added due to the 3D desktop, sound is emitted from the back and back localization. When any file or directory is indicated at or around the cursor, the details may be indicated by sound or voice. Using known stereophonic technology, it is realized with speakers and headphones. It can be used as an aid to use a personal computer (hereinafter also referred to as a personal computer or a PC) for people with visual handicap, but it does not use visual information as a support for normal use of a PC. Can be operated smoothly.
上記の機能を実現するための処理手順の例を図6を用いて説明する。
マウスの位置の変化を検知することによって起動するとマウスの位置座標を入力する。なお、カーソルなど仮想物標ごとに図7に例示する位置、音響データを持たせておき、逐次このデータを更新していく。そして、ユーザに対してカーソル位置に相応する場所から発音する(S101)。
An example of a processing procedure for realizing the above function will be described with reference to FIG.
When activated by detecting a change in the mouse position, the mouse position coordinates are input. Note that the position and acoustic data illustrated in FIG. 7 are provided for each virtual target such as a cursor, and this data is sequentially updated. Then, a pronunciation is made to the user from a location corresponding to the cursor position (S101).
次に、カーソル位置もしくはその周辺にファイルが存在するか否かを判定し(S102)、ファイルが存在する場合は、そのファイル名を読み上げるか、または、そのファイルに対応した音で知らせる(S103)。そして、クリックしたか(S104)、あるいはダブルクリックしたかによって(S106)、ファイル名の読み上げ、あるいはファイルの実行などのアプリケーション処理を行う(S105、S107)。 Next, it is determined whether or not the file exists at or around the cursor position (S102). If the file exists, the file name is read out or notified with a sound corresponding to the file (S103). . Then, depending on whether it is clicked (S104) or double-clicked (S106), application processing such as reading a file name or executing a file is performed (S105, S107).
ステップ102でNOの場合は、次にカーソル位置もしくはその周辺にディレクトリが存在するかを否かを判定し(S108)、ディレクトリ名の読み上げなど、ディレクトリに対して上記のファイルと同様の処理を実行する(S109〜S113)。必要ならば、ファイル、ディレクトリ以外に体の物標に対して同様の処理を行う。
If NO in
その後、マウスに関する処理を実行する。具体的には、クリックしたままか否かを判定し(S114)、YESの場合は、さらに移動したか否かを判定し(S115)、YESの場合は、発音したまま、音の定位を移動させる(S116)。ステップS115でNOの場合は、発音したままでカーソルの所在を表示する(S117)。 Thereafter, processing related to the mouse is executed. Specifically, it is determined whether or not the button is still clicked (S114). If YES, it is determined whether or not it has further moved (S115). If YES, the sound localization is moved while sounding. (S116). If NO in step S115, the location of the cursor is displayed while sounding (S117).
ステップS114でNOの場合は、速度に応じた音程あるいは音量で発音処理を実行する(S118〜S121)。 If NO in step S114, sound generation processing is executed with a pitch or volume corresponding to the speed (S118 to S121).
(実施例2)モバイル機器
PC以外にも、ポータブルオーディオ機器における、曲選択、使用操作のサポート、携帯電話などにも使用をすることができる。これらを所持操作している際に、処理の出力表示画面を見なくても、内部のファイル情報や階層を音で位置を確認して、項目を選択することができる。機能や電話番号、住所録、コンテンツのアプリケーションなどが仮想空間内に配置されており、これらを立体音響で確認し、操作ができる。洋服内に内包している際に、いちいち取り出さなくても、手元だけで操作ができる。
(Embodiment 2) In addition to the mobile device PC, the portable audio device can be used for music selection, use operation support, mobile phone and the like. When carrying these, it is possible to select the item by checking the position of the internal file information and hierarchy with sound without looking at the output display screen of the process. Functions, phone numbers, address books, content applications, etc. are located in the virtual space, and these can be confirmed and operated with 3D sound. Even if it is contained in clothes, you can operate it with just your hand without having to take it out.
(実施例3)ゲーム
またこの技術を応用して、映像の無いコンピュータゲームとして、仮想空間の中、音だけでゲーム上の敵を探しえたりすることができる。過去の移動軌跡や、将来の予想も音響で示せる。
(Embodiment 3) A game and this technology can be applied to search for enemies on the game by using only sound in a virtual space as a computer game without video. Past movement trajectories and future predictions can also be indicated by sound.
(実施例4)車、航空機
上記実施例1〜3は、ユーザによって入力装置を自発的に動かすものであったが、この入力装置を既知のセンサやレーダー波にした場合、これら入力装置が捉えた物標方向や距離などの位置情報を処理し、その情報によって一定の法則で音源の音色を変化させ、立体音響の出力へ変換すれば、ユーザに対して物標の位置を立体音響で示すことができる。
(Embodiment 4) Car, Aircraft In
たとえば、自動車のコーナーセンサやレーダー派による前方の障害物の感知装置の場合、自動車前方に存在する障害物の位置を、角度や距離を測り把握することが出来る。これらと、当発案をあわせれば、障害物がある場合に、運転者に対して、この障害物が存在する方向から、立体音響で警告音を発することが出来る。視覚的に確認しなくても、意識的に音が発生している方向、距離に障害物が存在することを認知できる。 For example, in the case of an automobile corner sensor or a radar obstacle detection device in front of the radar, the position of the obstacle existing in front of the automobile can be measured and measured. If these ideas are combined with this idea, a warning sound can be emitted with three-dimensional sound from the direction in which the obstacle exists to the driver when there is an obstacle. Even without visual confirmation, it can be recognized that there is an obstacle in the direction and distance where the sound is consciously generated.
コンピュータゲームにおいて、戦闘機のパイロットが、敵機が接近したり、ミサイルがロックした時に、その接近してくる方向から警告音も立体音響でなるので、視認することなく音で識別できる。ミサイルなのか、飛行機なのか、早いのか、遅いのか、これによって音色を変える。 In a computer game, when a pilot of a fighter plane approaches an enemy aircraft or locks a missile, the warning sound is also three-dimensional sound from the approaching direction, so it can be identified by sound without visual recognition. Depending on whether it is a missile, an airplane, fast or slow, the tone is changed.
また、車の運転者も、後退時に後方に障害物がある際に、その障害物がある方向から立体音響で音が発生される。なお、この場合の運転者の位置は、音を発生するスピーカから見て定位置であり、運転者の位置が変わったり、身長(耳の位置)が変わった際には、補正、調整を行う。対象物(物標)の過去の移動軌跡や、将来の予想も音響で示すことができる。 In addition, when there is an obstacle behind the car driver when traveling backward, a sound is generated with a three-dimensional sound from the direction of the obstacle. Note that the driver's position in this case is a fixed position as seen from the speaker that generates sound, and correction and adjustment are performed when the driver's position changes or the height (ear position) changes. . The past movement trajectory of the object (target) and the future prediction can also be indicated by sound.
以上、本実施の形態によれば、ユーザはモニタを見なくても、カーソルを進めたい方向へ音響を頼りに操作することが可能となる。また、聴覚のサポートにより、ユーザの入力装置を操作する負担が低減する。
また、立体音響を使うことにより、前後左右、奥、手前などを音で出力できるために、実際に視認しなくても、音の発する方向を耳で意識をして確認することができる。
As described above, according to the present embodiment, it is possible for the user to operate by relying on the sound in the direction in which the cursor is to be advanced without looking at the monitor. In addition, the auditory support reduces the burden on the user to operate the input device.
In addition, by using stereophonic sound, the front, rear, left, right, back, front, etc. can be output with sound, so that the direction of sound generation can be consciously confirmed by the ear without actually viewing.
次に第2の実施の形態を説明する。
本実施の形態では、通信ネットワークを介して対戦するゲームの場合について説明する。図8において、本実施の形態における情報処理システム1は、ゲームのアプリケーションを実行するサーバ100にユーザ端末200a、200bがインターネット等の通信ネットワーク5を介して繋がっている。ユーザ端末の数は、ゲームの内容によって異なってくる。
Next, a second embodiment will be described.
In the present embodiment, a case where a game is played through a communication network will be described. In FIG. 8, in the
サーバ100は、通信ネットワーク5とデータの授受を行う送受信部110と処理演算部120を有し、さらに、処理演算部120は、CPUにより実行される機能としてユーザ端末から送られてくるデータを受信する受信処理手段121、物標に関する基本情報を登録する物標基本情報登録手段122、アプリケーションプログラムを実行するアプリケーション実行手段123、実行結果をユーザ端末へ送信する送信処理手段122を備えている。
The
一方、ユーザ端末200A,200Bは、通信ネットワーク5とのデータ授受を行う送受信部210、CPUによって種々の演算処理を行う処理演算部220、データを記憶する記憶部240、ゲームの制御指令などのデータを入力する入力装置250、ゲーム内容を表示する表示装置270、立体音響を実現するための音響出力装置260から構成されている。
On the other hand, the user terminals 200A and 200B include a transmission /
また、処理演算部220は、入力装置250から入力されるデータを処理する入力処理手段224、入力データをサーバ100へ送信する入力データ送信手段221、サーバ100から送られてくるゲーム等のデータを受信する受信処理手段222、物標の属性を記憶部240に登録するユーザ別物標属性登録手段227、ゲーム画面の表示範囲を制御する画面表示制御手段228、表示範囲によってサーバ100から送られてくる物標の座標を変換する物標座標変換手段223、物標を含むゲーム内容の表示出力処理を実行する物標映像出力手段225、および、物標の座標および属性に基づいて立体音響の出力処理を行う音響処理手段226を有している。各手段221〜228はCPUの機能として、プログラムによって実現可能である。
The
いま、ゲームとして戦闘機と戦車とのバトルゲームを想定し、戦闘機はユーザAが端末200Aを介して操縦し、戦車はユーザBが端末200Bを介してコントロールする場合を考える。 Now, suppose a battle game between a fighter and a tank as a game, and consider a case in which the fighter is controlled by the user A via the terminal 200A and the tank is controlled by the user B via the terminal 200B.
ユーザA、ユーザBは、それぞれの端末200a、200bからサーバ100にアクセスをして自己が操作する対象(戦闘機か戦車か)を設定する。この設定情報は、サーバ100の物標基本情報登録手段122によって、物標基本情報テーブル141に保存される。
The user A and the user B access the
図9は、物標基本情報テーブル141のデータ構成例である。ユーザ識別情報ごとに操作対象の物標識別情報とが関連付けられて保存されている。 FIG. 9 is a data configuration example of the target basic information table 141. Each piece of user identification information is stored in association with operation target object-specific information.
ユーザ端末200aまたは200bからのゲーム開始指令によって、サーバ100のアプリケーション手段123が実行される。そして、ゲームの進行に伴って、各物標の状態(移動中・移動方向、停止中、破壊、攻撃)や物標の位置が逐次基本情報テーブルに保存される。
The
送受信処理手段124は、この基本情報テーブル141のデータを随時、各ユーザ端末200a、200bに送信する。なお、送信の仕方は、テーブルの状態に変化が生じたときに行うようにすることによって、サーバや通信ネットワークの負荷を軽減することができる。
The transmission / reception processing means 124 transmits the data in the basic information table 141 to the
ユーザ端末200a側では、まず受信処理手段222でサーバ100から送られてきたサーバ100における物標の基本情報データを受信すると、ユーザ別物標属性登録手段227によって、ユーザの制御できる物標(可制御物標)と制御できない物標(不可制御物標)に分けて物標管理テーブル241を作成して記憶部240に保存する。
On the
図10は、物標管理テーブル241のデータ構成例である。
ここで、ユーザAの物標管理テーブル241は、可制御物標として、ユーザAが操縦する戦闘機、不可制御物標として、ユーザBの操縦する戦車が登録されている。
一方、ユーザBの端末200b上での物標管理テーブル241では、ユーザBの操縦する戦車が可制御物標として登録され、ユーザAの操縦する戦闘機は不可制御物標として登録される。
FIG. 10 is a data configuration example of the target management table 241.
Here, in the target management table 241 of the user A, a fighter plane operated by the user A is registered as a controllable target, and a tank operated by the user B is registered as an uncontrollable target.
On the other hand, in the target management table 241 on the terminal 200b of the user B, the tank operated by the user B is registered as a controllable target, and the fighter plane operated by the user A is registered as an uncontrollable target.
再び、ユーザ端末200aに戻って、画面表示制御手段228は、ユーザAが可制御物標である戦闘機301をコントロールしやすい位置に表示する。通常は、可制御物標がほぼ中央になるような表示位置に持ってくる。そして、この表示位置とサーバ100から送られてくる座標との変換値を物標管理テーブル241に保存する。
Returning to the
図11は、画面表示制御手段228の処理手順を示すフローチャートである。
画面表示制御手段228は、起動されるとまず、可制御物標の座標を入力して(S201)、それに補正値を加え、表示装置270に出力するための座標を計算する。そして、指定された倍率で全体を表示し、その中に、不可制御物標を同様の補正値を加え、指定された倍率における表示位置に表示出力するようにする。この演算結果は、物標映像出力手段225によって、表示装置270に表示出力される。
FIG. 11 is a flowchart showing the processing procedure of the screen display control means 228.
When the screen display control means 228 is activated, it first inputs the coordinates of the controllable target (S201), adds a correction value to it, and calculates the coordinates to be output to the
一方、音響処理手段226は、この座標をもとに可制御物標である戦車302の音源を抽出し、また、物標座標変換手段で変換処理された位置から音響出力する。このとき、通常は、無音またはユーザAを周囲から包み込むように音響出力し、ユーザAの操作によって、物標位置から効果音を発するようにする。
On the other hand, the sound processing means 226 extracts the sound source of the
また、不可制御物標である戦車位置も映像出力すると共に、音響処理手段226によって、立体音響の出力処理する。 In addition, the tank position, which is an uncontrollable target, is also output as an image, and the sound processing means 226 outputs a stereophonic sound.
上記の処理の結果ユーザAの端末200aの表示装置270では、図12(a)のように表示され、効果音としては、可制御物標である戦闘機301の位置すなわちユーザ位置と、不可制御物標である戦車302の位置からそれぞれ出力される。
As a result of the above processing, the
一方、ユーザBの端末200bの表示装置270には、図12(b)のようにユーザBが制御できる戦車302がほぼ中央位置に表示され、同様にこの位置に基づいて効果音が発せられる。なお、必要により表示方向や表示倍率を変えるようにしても良い。このとき、可制御物標と不可制御物標との相対的な座標位置が変わってくるので、立体音響の音源方向も変わる。
On the other hand, on the
そして、可制御物標の補正後の座標が所定範囲を超えたか否かを判定して(S202)、所定範囲を超えた場合は、可制御物標がほぼ中央に位置するように補正値(座標変換データ)を変更する(S203)。 Then, it is determined whether or not the corrected coordinate of the controllable target exceeds a predetermined range (S202). If the controllable target exceeds the predetermined range, the correction value ( Coordinate conversion data) is changed (S203).
以上、本実施の形態によれば、サーバで管理する物標座標を各端末上でそれぞれの可制御物標に合わせた仮想物標座標に置き換えるので、ユーザは、自己の制御できる物標を中心に立体音響で他の物標の位置を知ることができ、より臨場感のあるゲームが可能となる。また、サーバにおいては、可制御物標、不可制御物標の不区別をせずに各物標座標の管理するので、サーバの負荷を軽減することができる。 As described above, according to the present embodiment, the target coordinates managed by the server are replaced with virtual target coordinates that match each controllable target on each terminal, so that the user can focus on the target that can be controlled by the user. In addition, it is possible to know the positions of other targets with stereophonic sound, and a more realistic game becomes possible. Further, since the server manages each target coordinate without distinguishing between controllable targets and uncontrollable targets, the load on the server can be reduced.
また、可制御物標の表示範囲を画面の中央付近等に制限し、不可制御物標の位置を可制御物標からの相対位置で音響報知することによって、ユーザは容易に可制御物標の方向や距離を把握することができる。また不可制御物標は表示装置への表示範囲に限定されずにその位置を報知させることによって、ユーザは画面表示に拘束されずに、不可制御物標の位置を認識することができる。 In addition, by restricting the display range of the controllable target to the vicinity of the center of the screen, etc., and by notifying the position of the uncontrollable target relative to the controllable target, the user can easily display the controllable target. The direction and distance can be grasped. Further, by notifying the position of the uncontrollable target without being limited to the display range on the display device, the user can recognize the position of the uncontrollable target without being restricted by the screen display.
なお、上記はネットワークゲームを例に挙げて説明したが、サーバ側でセンサで物体(匂い等も含む)を検知し、その物体の座標を複数の端末側に送り、夫々の端末で任意の物標を特定し(可制御物標に相当)、その特定した物標を基準にしてその他の物標(不可制御物標に相当)の相対位置を音響でユーザに報知するような事例にも適用できる。 In the above description, the network game is taken as an example. However, an object (including odor) is detected by a sensor on the server side, and the coordinates of the object are sent to a plurality of terminals. Also applicable to cases where a target is identified (equivalent to a controllable target) and the relative position of other targets (equivalent to uncontrollable targets) is reported to the user by sound based on the identified target. it can.
次に、第3の実施の形態について説明する。
本実施の形態では、コンピュータ上でカーソルを移動させ、フォルダやアプリケーションプログラムのアイコンを選択する場合について説明する。
Next, a third embodiment will be described.
In this embodiment, a case where a cursor is moved on a computer and a folder or an application program icon is selected will be described.
カーソルは、可制御物標とし、その他のアイコンは、不可制御物標として設定する。
フォルダ配置としては、2次元平面のみでなく、奥行きをもった3次元的に配置とすることができる。このような状態では、発音対象の物標座標は複数存在する。
The cursor is set as a controllable target, and the other icons are set as uncontrollable targets.
As the folder arrangement, not only a two-dimensional plane but also a three-dimensional arrangement with a depth can be used. In such a state, there are a plurality of target coordinates to be sounded.
カーソル位置と夫々の物標座標との距離に基づいて各物標の発する音量を決定する。また、このときの不可制御物標の位置は、可制御物標であるカーソルを中心とした位置となる。 The volume of each target is determined based on the distance between the cursor position and each target coordinate. Further, the position of the uncontrollable target at this time is a position centered on the cursor that is the controllable target.
物標については、即ち画面上の物標位置ではなく、カーソル位置を分離することによって、カーソルは、画面の右隅にあったとしても、フォルダが右上にある場合、フォルダの音は、右上から聞こえてくるのではなく、真上から聞こえてくる。
このようにすれば、カーソルが静止状態のときは、カーソルからの発音は無いが、フォルダを動かす方向は正確に認識可能である。
For a target, that is, by separating the cursor position, not the target position on the screen, even if the cursor is in the right corner of the screen, if the folder is in the upper right, the sound of the folder You can hear it from directly above.
In this way, when the cursor is stationary, there is no sound from the cursor, but the direction in which the folder is moved can be accurately recognized.
一方、カーソルを動かすことによってカーソルからの発音がなされるので、画面上のどこにあるかを知ることができる。 On the other hand, since the pronunciation from the cursor is made by moving the cursor, it is possible to know where it is on the screen.
以上のごとく物標座標を補正値によって自由にコンピュータ上の仮想位置へ移動可能とし、可制御物標か不可制御物標かによってその補正値を可変にして、物標の発音位置座標を決定し、さらに物標属性や位置、速度などの運動情報によって決定する音源、演出方法で発音するので汎用性のある音響による位置指示処理が可能となる。 As described above, the target coordinate can be freely moved to the virtual position on the computer by the correction value, and the correction value is made variable depending on whether it is a controllable target or an uncontrollable target, and the pronunciation position coordinate of the target is determined. Furthermore, since sound is generated by a sound source determined by motion information such as target attributes, position, and speed, and a production method, position instruction processing by versatile sound can be performed.
本発明は、上述の実施の形態に係らずその要旨を逸脱しない範囲で種々変形して実施することができる。たとえば、不可制御物標の位置を可制御物標との相対的位置とせず、不可制御物標の移動可能範囲における位置によって音響で通知するようにしても良いし、可制御物標との相対的な位置を基準にするのか、移動可能範囲を基準にするのかをユーザの選択によって切替可能にしても良い。また、可制御物標の表示位置と音源の基準位置を予め調整可能な手段を設けるようにしても良い。 The present invention can be implemented with various modifications without departing from the gist of the present invention regardless of the above-described embodiments. For example, the position of the uncontrollable target may not be set as a relative position to the controllable target, but may be notified by sound according to the position of the uncontrollable target in the movable range, or relative to the controllable target. It may be possible to switch according to the user's selection whether to use a specific position or a movable range as a reference. Further, a means capable of adjusting in advance the display position of the controllable target and the reference position of the sound source may be provided.
1 情報処理システム 2 通信手段
5 通信ネットワーク 10 処理装置
11、15、61、75、80、82、84 送受信部
12、72、78、83 処理演算部
13 音源部 14 記録部
16 表示部 21 基本情報登録手段
22 入力信号処理変換手段 23 物標座標変換手段
24 物標運動演算手段 25 物標映像出力手段
26 音源部制御指示手段 41 各手段記録DB
42 音波波形DB 43 音声合成DB
44 音波形記録DB 51 音源指示判定手段
52 音源発生手段 62 D/A変換手段
63 各チャンネル音声増幅器 64 スピーカ部
65 ヘッドフォン部 70 入力装置
71 入力部 73、79 A/D変換手段
76 センサ 77 センサ部
85 物標種類データ 86 物標位置座標データ
87 物標明度データ 88 物標色データ
89 物標角度データ 90 物標温度データ
91 物標匂いデータ 100 サーバ
110、210 送受信部 120、220 処理演算部
121 受信処理手段 122 物標基本情報登録手段
123 アプリケーション実行手段 124 送信処理手段
141 物標基本情報テーブル 200a,200b ユーザ端末
221 入力データ送信手段 222 受信処理手段
223 物標座標変換手段 224 入力処理手段
225 物標映像出力手段 226 音源部制御指示手段
227 ユーザ別物標属性登録手段 228 画面表示制御手段
241 物標管理テーブル 250 入力装置
260 音響出力装置 270 表示装置
DESCRIPTION OF
42
44 Sound
Claims (9)
一または二以上の物標の座標データを入力する処理と、
入力した座標データを音響で発信する音の仮想位置へ変換する仮想物標変換処理と、
前記仮想位置にもとづいて各音源から音を出力する処理と、
を含むことを特徴とする音響による位置通知方法。 A method of notifying a user of a target position using sound,
A process of inputting coordinate data of one or more targets,
A virtual target conversion process for converting the input coordinate data into a virtual position of sound transmitted by sound;
Processing to output sound from each sound source based on the virtual position;
The position notification method by sound characterized by including.
自己がその位置を制御できる可制御物標は、自己がその位置を制御できない不可制御物標とは異なる音響の演出方法を割り付けられていることを特徴とする請求項1記載の音響による位置通知方法。 When there are a plurality of the targets, different sound sources are allocated for each target or for each target group classified under a predetermined condition, and
2. The position notification by sound according to claim 1, wherein the controllable target that can control its position is assigned a different sound production method than the uncontrollable target that cannot control its position. Method.
前記不可制御物標は、前記可制御物標の位置を基準として、立体音響の方向および音量を決定することを特徴とする請求項2または3記載の音響による位置通知方法。 The controllable target determines the direction and volume of the stereophony based on the position of the target in the movable range,
4. The position notification method by sound according to claim 2, wherein the uncontrollable target determines a direction and volume of stereophonic sound based on a position of the controllable target.
前記移動経過に基づいて未来の移動経路を予測演算する処理と、
前記予測演算結果による未来の移動方向または移動経路を通知する処理と、
を含むことを特徴とする請求項1ないし6のいずれか一に記載の音響による位置通知方法。 A process of notifying the progress of movement up to the present time based on position information from a predetermined time before each target with a continuous sound or intermittent sound,
A process of predicting a future movement path based on the movement progress;
A process of notifying the future movement direction or movement path according to the prediction calculation result;
The position notification method by sound according to any one of claims 1 to 6, characterized by comprising:
コンピュータ実行可能なメニューをアイコンとして表示する手段と、
ポインタを移動させる入力装置と、
前記ポインタを可制御物標として設定する手段と、
コンピュータ画面上に表示された前記アイコンを不可制御物標として設定する手段と、
前記ポインタおよび前記アイコンの位置を音響で知らせる音響出力装置と、
を備えたことを特徴とする情報処理システム。 An information processing system for notifying the position of a target by sound using the position notification method according to any one of claims 2 to 5,
Means for displaying computer-executable menus as icons;
An input device for moving the pointer;
Means for setting the pointer as a controllable target;
Means for setting the icon displayed on the computer screen as an uncontrollable target;
An acoustic output device that acoustically informs the position of the pointer and the icon;
An information processing system comprising:
前記サーバは、制御可能なアイコンとしてユーザごとに選択されたアイコンを可制御物標として設定すると共に、制御可能なアイコン以外のアイコンを不可制御物標として設定する手段と、前記可制御物標と前記不可制御物標とを各ユーザ端末上に表示出力する手段と、を備え、
前記各ユーザ端末は、該ユーザの可制御物標の位置を基準にして前記不可制御物標の位置を演算する手段と、前記不可制御物標の位置を音響で通知する手段と、を備えたことを特徴とする情報処理システム。 An information processing system having a plurality of user terminals and a server connected to each user terminal via a communication network,
The server sets an icon selected for each user as a controllable icon as a controllable target, and sets an icon other than the controllable icon as an uncontrollable target; the controllable target; Means for displaying and outputting the uncontrollable target on each user terminal,
Each user terminal includes means for calculating the position of the uncontrollable target with reference to the position of the controllable target of the user, and means for notifying the position of the uncontrollable target by sound. An information processing system characterized by this.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006193296A JP2008021186A (en) | 2006-07-13 | 2006-07-13 | Position notifying method with sound, and information processing system using the method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006193296A JP2008021186A (en) | 2006-07-13 | 2006-07-13 | Position notifying method with sound, and information processing system using the method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008021186A true JP2008021186A (en) | 2008-01-31 |
Family
ID=39077059
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006193296A Pending JP2008021186A (en) | 2006-07-13 | 2006-07-13 | Position notifying method with sound, and information processing system using the method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2008021186A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013162284A (en) * | 2012-02-03 | 2013-08-19 | Sony Corp | Information processing device, information processing method, and program |
| KR20160032602A (en) * | 2014-09-16 | 2016-03-24 | 삼성전자주식회사 | Method for Outputting the Screen Information to Sound And Electronic Device for Supporting the Same |
| CN112233146A (en) * | 2020-11-04 | 2021-01-15 | Oppo广东移动通信有限公司 | Location recommendation method and apparatus, computer-readable storage medium and electronic device |
| CN116559852A (en) * | 2023-03-20 | 2023-08-08 | 西安电子科技大学 | Method for maneuvering protected object to avoid |
-
2006
- 2006-07-13 JP JP2006193296A patent/JP2008021186A/en active Pending
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013162284A (en) * | 2012-02-03 | 2013-08-19 | Sony Corp | Information processing device, information processing method, and program |
| CN104081335A (en) * | 2012-02-03 | 2014-10-01 | 索尼公司 | Information processing device, information processing method, and program |
| US10445059B2 (en) | 2012-02-03 | 2019-10-15 | Sony Corporation | Information processing device, information processing method, and program for generating a notification sound |
| KR20160032602A (en) * | 2014-09-16 | 2016-03-24 | 삼성전자주식회사 | Method for Outputting the Screen Information to Sound And Electronic Device for Supporting the Same |
| KR102329193B1 (en) | 2014-09-16 | 2021-11-22 | 삼성전자주식회사 | Method for Outputting the Screen Information to Sound And Electronic Device for Supporting the Same |
| CN112233146A (en) * | 2020-11-04 | 2021-01-15 | Oppo广东移动通信有限公司 | Location recommendation method and apparatus, computer-readable storage medium and electronic device |
| CN112233146B (en) * | 2020-11-04 | 2024-02-23 | Oppo广东移动通信有限公司 | Position recommendation method and device, computer readable storage medium and electronic equipment |
| CN116559852A (en) * | 2023-03-20 | 2023-08-08 | 西安电子科技大学 | Method for maneuvering protected object to avoid |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6731457B2 (en) | Visual display method and device for compensating audio information, recording medium, program, electronic device | |
| US10609462B2 (en) | Accessory device that provides sensor input to a media device | |
| US8334841B2 (en) | Virtual user interface method and system thereof | |
| JP6618219B2 (en) | Information processing method, terminal, and computer storage medium | |
| EP2891955B1 (en) | In-vehicle gesture interactive spatial audio system | |
| JP6195843B2 (en) | Gesture control voice user interface | |
| US9632683B2 (en) | Methods, apparatuses and computer program products for manipulating characteristics of audio objects by using directional gestures | |
| KR20200087260A (en) | Method for indicating marker point location, electronic device, and computer readable storage medium | |
| US11019448B2 (en) | Providing audio signals in a virtual environment | |
| US20210110596A1 (en) | Information processing device, information processing method, and program | |
| CN112068752B (en) | Space display method and device, electronic equipment and storage medium | |
| KR20140118060A (en) | Portable teriminal and sound output apparatus and method for providing locations of sound sources in the portable teriminal | |
| KR20190122559A (en) | Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments | |
| US20130156201A1 (en) | Audio control device and audio control method | |
| WO2019077897A1 (en) | Information processing device, information processing method, and program | |
| JPWO2016136311A1 (en) | Information processing apparatus, information processing method, and program | |
| US20230421866A1 (en) | Server apparatus of distribution system | |
| JP2008021186A (en) | Position notifying method with sound, and information processing system using the method | |
| JP6456171B2 (en) | Information processing apparatus, information processing method, and program | |
| EP4252195A1 (en) | Real world beacons indicating virtual locations | |
| JP2016010039A (en) | Remote conference system, video processing method, video controller, conference terminal, and program thereof | |
| US11460994B2 (en) | Information processing apparatus and information processing method | |
| JP6065225B2 (en) | Karaoke equipment | |
| US12254758B2 (en) | Mobile terminal and display device for searching for location of remote control device by using Bluetooth pairing | |
| JP2015046103A (en) | Interactive interface and information processing apparatus |