JP2015047309A - Medical observation support device and medical observation support program - Google Patents
Medical observation support device and medical observation support program Download PDFInfo
- Publication number
- JP2015047309A JP2015047309A JP2013180682A JP2013180682A JP2015047309A JP 2015047309 A JP2015047309 A JP 2015047309A JP 2013180682 A JP2013180682 A JP 2013180682A JP 2013180682 A JP2013180682 A JP 2013180682A JP 2015047309 A JP2015047309 A JP 2015047309A
- Authority
- JP
- Japan
- Prior art keywords
- organ
- observation
- viewpoint position
- line
- sight direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
【課題】発話による直感的な観察支援を実現する医用観察支援装置を提供する。
【解決手段】臓器の観察に係る視点位置及び視線方向を3次元で変化させる観察制御部50と、音声入力装置24から入力される音声を認識し、その音声に対応する臓器の解剖学的名称を判定する音声認識部60とを、備え、観察制御部50は、音声認識部60により判定される臓器の解剖学的名称に基づいて、その臓器の観察に係る視点位置及び視線方向を決定するものであることから、観察したい部位の解剖学的名称を発話することで、その臓器を簡便に表示させるといった制御が可能となる。すなわち、発話による直感的な観察支援を実現する医用観察支援装置を提供することができる。
【選択図】図2A medical observation support apparatus that realizes intuitive observation support by utterance is provided.
An observation control unit for changing a viewpoint position and a line-of-sight direction for observation of an organ in three dimensions, and a voice input from a voice input device are recognized, and an anatomical name of the organ corresponding to the voice. And the observation control unit 50 determines the viewpoint position and the line-of-sight direction related to the observation of the organ based on the anatomical name of the organ determined by the voice recognition unit 60. Therefore, by speaking the anatomical name of the site to be observed, it is possible to control the organ to be displayed easily. That is, it is possible to provide a medical observation support apparatus that realizes intuitive observation support by utterance.
[Selection] Figure 2
Description
本発明は、被検体における臓器の観察を支援する医用観察支援装置及び医用観察支援プログラムに関し、特に、発話による直感的な観察支援を実現するための改良に関する。 The present invention relates to a medical observation support apparatus and a medical observation support program that support observation of an organ in a subject, and more particularly, to an improvement for realizing intuitive observation support by utterance.
被検体における臓器の観察を支援する医用観察支援装置が知られている。例えば、非特許文献1に記載された手術ナビゲーションがその一例である。斯かる技術においては、内視鏡手術の安全性を高めるために、手術前に撮影されたCT(Computed Tomography)装置や磁気共鳴(MRI;Magnetic Resonance Imaging)装置等の3次元画像データを利用し、内視鏡の動きに追従して仮想3次元画像を生成して表示させる。例えば、内視鏡に装着された位置センサを利用することで前記追従表示等を行う。所定の部位を詳しく観察したい場合には、前記仮想3次元画像を平行移動或いは回転等させながら観察を行う。 2. Description of the Related Art Medical observation support apparatuses that support observation of organs in a subject are known. For example, surgical navigation described in Non-Patent Document 1 is an example. In such a technique, in order to enhance the safety of endoscopic surgery, three-dimensional image data such as a CT (Computed Tomography) apparatus and a magnetic resonance (MRI) apparatus that have been imaged before surgery are used. A virtual three-dimensional image is generated and displayed following the movement of the endoscope. For example, the follow-up display is performed by using a position sensor attached to an endoscope. When it is desired to observe a predetermined part in detail, the virtual three-dimensional image is observed while being translated or rotated.
前記手術ナビゲーションを手術中に行う場合、衛生上の問題から術者自身がマウスやキーボード等或いはタッチパネルディスプレイ等の操作装置に触れることは困難である。このため、非接触型のユーザインターフェイスが提案されている。例えば、非特許文献2に記載された技術がその一例である。この技術によれば、手術ナビゲーションに音声認識を導入し、左右上下等の音声コマンドを認識することで、手術ナビゲーションを制御し、術者が必要とするビューを得ることができる。 When the surgical navigation is performed during surgery, it is difficult for the surgeon himself to touch an operation device such as a mouse, a keyboard, or a touch panel display due to hygiene problems. For this reason, a non-contact type user interface has been proposed. For example, the technique described in Non-Patent Document 2 is an example. According to this technique, speech recognition is introduced into surgical navigation, and by recognizing voice commands such as left, right, up and down, the surgical navigation can be controlled and a view required by the operator can be obtained.
ところで、手術中における臓器の観察においては、例えば解剖学的名称を操作装置により入力する等して、観察対象となる部位を医師が直接的に指定したいという要望があった。しかし、前記のように、手術中には滅菌上の問題から術者自身が操作装置に触れることは困難である。前記従来の技術では、臓器の観察に係る左右上下等の視点位置を発話により決定することはできるものの、観察対象となる部位を医師が直接的に指定するといったような手術ナビゲーションを実現することはできなかった。すなわち、発話による直感的な観察支援を実現する医用観察支援装置及び医用観察支援プログラムは、未だ開発されていないのが現状である。 By the way, in the observation of organs during surgery, there has been a demand for a doctor to directly specify a site to be observed, for example, by inputting an anatomical name using an operating device. However, as described above, it is difficult for the surgeon himself to touch the operating device during surgery because of sterilization problems. Although the conventional technique can determine viewpoint positions such as left, right, up, down, etc. related to observation of an organ by utterance, it is possible to realize surgical navigation such that a doctor directly designates a site to be observed could not. That is, the medical observation support apparatus and the medical observation support program that realize intuitive observation support by utterance have not been developed yet.
本発明は、以上の事情を背景として為されたものであり、その目的とするところは、発話による直感的な観察支援を実現する医用観察支援装置及び医用観察支援プログラムを提供することにある。 The present invention has been made in the background of the above circumstances, and an object of the present invention is to provide a medical observation support apparatus and a medical observation support program that realize intuitive observation support by utterance.
斯かる目的を達成するために、本第1発明の要旨とするところは、被検体における臓器の観察を支援する医用観察支援装置であって、前記臓器の観察に係る視点位置及び視線方向を3次元で変化させる観察制御部と、音声入力装置から入力される音声を認識し、その音声に対応する臓器の解剖学的名称を判定する音声認識部とを、備え、前記観察制御部は、前記音声認識部により判定される臓器の解剖学的名称に基づいて、その臓器の観察に係る視点位置及び視線方向を決定することを特徴とするものである。 In order to achieve such an object, the gist of the first invention is a medical observation support apparatus for supporting observation of an organ in a subject, wherein a viewpoint position and a line-of-sight direction related to the observation of the organ are set to 3. An observation control unit that changes in dimension, and a voice recognition unit that recognizes a voice input from a voice input device and determines an anatomical name of an organ corresponding to the voice, and the observation control unit includes: Based on the anatomical name of the organ determined by the speech recognition unit, the viewpoint position and the line-of-sight direction related to the observation of the organ are determined.
前記第1発明によれば、前記臓器の観察に係る視点位置及び視線方向を3次元で変化させる観察制御部と、音声入力装置から入力される音声を認識し、その音声に対応する臓器の解剖学的名称を判定する音声認識部とを、備え、前記観察制御部は、前記音声認識部により判定される臓器の解剖学的名称に基づいて、その臓器の観察に係る視点位置及び視線方向を決定するものであることから、観察したい部位の解剖学的名称を発話することで、その臓器を簡便に表示させるといった制御が可能となる。すなわち、発話による直感的な観察支援を実現する医用観察支援装置を提供することができる。 According to the first aspect of the present invention, the observation control unit that changes the viewpoint position and the line-of-sight direction related to the observation of the organ in three dimensions and the voice input from the voice input device are recognized, and the anatomy of the organ corresponding to the voice is recognized. A speech recognition unit that determines a scientific name, and the observation control unit determines a viewpoint position and a line-of-sight direction for observation of the organ based on an anatomical name of the organ determined by the speech recognition unit. Since it is determined, by speaking the anatomical name of the site to be observed, it is possible to control such that the organ is simply displayed. That is, it is possible to provide a medical observation support apparatus that realizes intuitive observation support by utterance.
前記第1発明に従属する本第2発明の要旨とするところは、前記観察制御部は、前記臓器の観察に係る視点位置及び視線方向に対応して、その臓器が他の臓器によって遮られると判定される場合には、前記視点位置及び視線方向の少なくとも一方を調整するものである。このようにすれば、対象となる臓器の観察をより好適なものとすることができる。 The gist of the second invention, which is dependent on the first invention, is that the observation control unit is obstructed by another organ corresponding to the viewpoint position and the line-of-sight direction related to the observation of the organ. In the case of determination, at least one of the viewpoint position and the line-of-sight direction is adjusted. In this way, observation of the target organ can be made more suitable.
前記第1発明又は第2発明に従属する本第3発明の要旨とするところは、前記観察制御部は、予め取得された前記臓器の3次元画像データに基づいてその臓器の3次元仮想画像を生成するものであり、前記音声認識部により判定される臓器の解剖学的名称に基づいて、その臓器に対応する前記3次元仮想画像に係る視点位置及び視線方向を決定するものである。このようにすれば、例えば仮想内視鏡画像表示制御等において、観察したい部位の解剖学的名称を発話することで、その臓器の3次元仮想画像を簡便に表示させるといった制御が可能となる。 The gist of the third invention subordinate to the first invention or the second invention is that the observation control unit generates a three-dimensional virtual image of the organ based on the three-dimensional image data of the organ acquired in advance. Based on the anatomical name of the organ determined by the voice recognition unit, the viewpoint position and the line-of-sight direction related to the three-dimensional virtual image corresponding to the organ are determined. In this way, for example, in the virtual endoscopic image display control, the anatomical name of the part desired to be observed is spoken, thereby making it possible to easily display the three-dimensional virtual image of the organ.
前記第1発明又は第2発明に従属する本第4発明の要旨とするところは、前記観察制御部は、前記臓器の実際の映像を撮影するものであり、前記音声認識部により判定される臓器の解剖学的名称に基づいて、その臓器の撮影に係る視点位置及び視線方向を決定するものである。このようにすれば、例えば所謂手術ロボットを用いた手術における手術ナビゲーション等において、観察したい部位の解剖学的名称を発話することで、その臓器の像を簡便に撮影するといった制御が可能となる。 The gist of the fourth invention subordinate to the first invention or the second invention is that the observation control section captures an actual image of the organ, and the organ determined by the voice recognition section. The viewpoint position and the line-of-sight direction related to the imaging of the organ are determined based on the anatomical name. In this way, for example, in surgical navigation in a surgical operation using a so-called surgical robot, it is possible to control the imaging of the organ simply by speaking the anatomical name of the site to be observed.
前記第1発明から第4発明の何れかに従属する本第5発明の要旨とするところは、前記観察制御部は、前記音声認識部により判定される臓器の解剖学的名称が更新された場合には、前記視点位置を現時点における観察位置から一旦離隔させた後、前記臓器の観察に係る視点位置へ移動させるものである。このようにすれば、視点位置の移動を利用者により分かり易く認識させることができる。 The gist of the fifth invention according to any one of the first to fourth inventions is that the observation control unit is updated when the anatomical name of the organ determined by the voice recognition unit is updated. First, the viewpoint position is once separated from the current observation position and then moved to the viewpoint position related to the observation of the organ. In this way, the movement of the viewpoint position can be recognized more easily by the user.
前記第1発明から第5発明の何れかに従属する本第6発明の要旨とするところは、前記観察制御部は、前記被検体の方向に基づいてその被検体における臓器の観察に係る視点位置及び視線方向を決定するものである。このようにすれば、対象となる臓器の観察をより好適なものとすることができる。 The gist of the sixth invention according to any one of the first to fifth inventions is that the observation control unit is configured to determine a viewpoint position related to observation of an organ in the subject based on the direction of the subject. And the direction of the line of sight. In this way, observation of the target organ can be made more suitable.
前記第1発明から第6発明の何れかに従属する本第7発明の要旨とするところは、前記観察制御部は、前記臓器の長手方向に基づいてその臓器の観察に係る視点位置及び視線方向を決定するものである。このようにすれば、対象となる臓器の観察をより好適なものとすることができる。 The gist of the seventh invention dependent on any one of the first to sixth inventions is that the observation control unit is configured to determine a viewpoint position and a line-of-sight direction related to observation of the organ based on the longitudinal direction of the organ. Is to determine. In this way, observation of the target organ can be made more suitable.
前記目的を達成するために、本第8発明の要旨とするところは、臓器の観察を支援する医用観察支援装置に備えられた制御装置を、前記臓器の観察に係る視点位置及び視線方向を3次元で変化させる観察制御部、及び、音声入力装置から入力される音声を認識し、その音声に対応する臓器の解剖学的名称を判定する音声認識部として機能させ、前記観察制御部は、前記音声認識部により判定される臓器の解剖学的名称に基づいて、その臓器の観察に係る視点位置及び視線方向を決定することを特徴とする医用観察支援プログラムである。このようにすれば、観察したい部位の解剖学的名称を発話することで、その臓器を簡便に表示させるといった制御が可能となる。すなわち、発話による直感的な観察支援を実現する医用観察支援プログラムを提供することができる。 In order to achieve the above object, the gist of the eighth aspect of the present invention is to provide a control device provided in a medical observation support apparatus that supports the observation of an organ, and to change the viewpoint position and the line-of-sight direction related to the observation of the organ. An observation control unit that changes in dimension, and a voice that is input from a voice input device, and that functions as a voice recognition unit that determines an anatomical name of an organ corresponding to the voice; The medical observation support program is characterized in that, based on an anatomical name of an organ determined by a voice recognition unit, a viewpoint position and a line-of-sight direction related to the observation of the organ are determined. In this way, by speaking the anatomical name of the site to be observed, it is possible to control such that the organ is simply displayed. That is, it is possible to provide a medical observation support program that realizes intuitive observation support by utterance.
以下、本発明の好適な実施例について、図面を参照しつつ詳細に説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施例である医用観察支援装置10(以下、単に支援装置10という)の構成を例示する図である。この図1に示すように、本実施例の支援装置10は、中央演算処理装置であるCPU12と、読出専用メモリであるROM14と、随時書込読出メモリであるRAM16と、記憶装置18と、映像表示装置20と、入力装置22と、音声入力装置24とを、備えて構成されている。前記CPU12は、前記RAM16の一時記憶機能を利用しつつ前記ROM14に予め記憶された所定のプログラムに基づいて電子情報を処理・制御する所謂マイクロコンピュータである。 FIG. 1 is a diagram illustrating a configuration of a medical observation support apparatus 10 (hereinafter simply referred to as support apparatus 10) according to an embodiment of the present invention. As shown in FIG. 1, the support device 10 of this embodiment includes a CPU 12 that is a central processing unit, a ROM 14 that is a read-only memory, a RAM 16 that is a write / read memory as needed, a storage device 18, and an image. The display device 20, the input device 22, and the voice input device 24 are provided. The CPU 12 is a so-called microcomputer that processes and controls electronic information based on a predetermined program stored in advance in the ROM 14 while using the temporary storage function of the RAM 16.
前記記憶装置18は、好適には、情報を記憶可能なハードディスクドライブ等の公知の記憶装置(記憶媒体)である。小型メモリカードや光ディスク等の着脱式記憶媒体であってもよい。前記映像表示装置20は、好適には、TFT(Thin Film Transistor Liquid Crystal)等の公知の表示装置(ディスプレイ)であり、出力インターフェイス26を介して前記CPU12等に接続されている。前記入力装置22は、キーボードやマウス等の公知の入力デバイスであり、入力インターフェイス28を介して前記CPU12等に接続されている。前記音声入力装置24は、好適には、音声をはじめとする音波に対応する振動を電気信号に変換する公知のマイクロフォンであり、A/Dコンバータ30を介して前記CPU12等に接続されている。すなわち、前記音声入力装置24から入力された音声等の音波が前記A/Dコンバータ30によりディジタル信号に変換されて前記CPU12等に入力されるようになっている。 The storage device 18 is preferably a known storage device (storage medium) such as a hard disk drive capable of storing information. It may be a removable storage medium such as a small memory card or an optical disk. The video display device 20 is preferably a known display device (display) such as a TFT (Thin Film Transistor Liquid Crystal), and is connected to the CPU 12 or the like via an output interface 26. The input device 22 is a known input device such as a keyboard or a mouse, and is connected to the CPU 12 or the like via an input interface 28. The voice input device 24 is preferably a known microphone that converts vibrations corresponding to sound waves including voice into electrical signals, and is connected to the CPU 12 and the like via an A / D converter 30. That is, sound waves such as voice input from the voice input device 24 are converted into digital signals by the A / D converter 30 and input to the CPU 12 or the like.
図2は、前記支援装置10に備えられた制御機能の要部を説明する機能ブロック線図である。この図2に示す観察制御部50、音声認識部60、解剖学的名称情報発生部62、及び画像合成表示部64は、好適には、何れも前記CPU12に機能的に備えられたものであるが、各制御部が個別に複数のCPUやコンピュータに設けられると共に相互に通信が可能に構成されたものであってもよい。前記各制御部のうち一部が前記支援装置10とは別の制御装置に備えられたものであってもよい。例えば、前記画像合成表示部64が前記支援装置10とは別の装置(例えば、表示専用の装置)に備えられたものであってもよい。或いは、前記音声認識部60が前記支援装置10とは別の装置(例えば、音声認識専用の装置)に備えられたものであってもよい。 FIG. 2 is a functional block diagram for explaining the main part of the control function provided in the support apparatus 10. The observation control unit 50, voice recognition unit 60, anatomical name information generation unit 62, and image composition display unit 64 shown in FIG. 2 are preferably all functionally provided in the CPU 12. However, each control unit may be individually provided in a plurality of CPUs and computers and configured to be able to communicate with each other. A part of each control unit may be provided in a control device different from the support device 10. For example, the image composition display unit 64 may be provided in a device different from the support device 10 (for example, a display-dedicated device). Alternatively, the voice recognition unit 60 may be provided in a device different from the support device 10 (for example, a device dedicated to voice recognition).
本実施例の支援装置10は、被検体の臓器に関して予めX線CTや磁気共鳴装置等により得られた3次元画像データに基づいて、前記臓器の3次元仮想画像を生成する。前記支援装置10は、前記臓器に対応する前記3次元仮想画像の観察(表示)を支援する。好適には、血管、気管支、食道等の木構造をなす臓器に対応する前記3次元仮想画像を生成すると共に、その3次元仮想画像の観察を支援する。或いは、大腸、小腸、十二指腸、胃、胆管、膵管、リンパ管等の管腔臓器(中空臓器)に対応する3次元仮想画像の観察及び支援を行うものであってもよい。 The support apparatus 10 according to the present embodiment generates a three-dimensional virtual image of the organ based on three-dimensional image data obtained in advance by an X-ray CT, a magnetic resonance apparatus, or the like regarding the organ of the subject. The support device 10 supports observation (display) of the three-dimensional virtual image corresponding to the organ. Preferably, the three-dimensional virtual image corresponding to an organ having a tree structure such as a blood vessel, a bronchus, and an esophagus is generated, and observation of the three-dimensional virtual image is supported. Or you may observe and support the three-dimensional virtual image corresponding to luminal organs (hollow organ), such as large intestine, small intestine, duodenum, stomach, bile duct, pancreatic duct, lymphatic duct.
図2に示すように、前記支援装置10に備えられた記憶装置18には、画像データベース32及び血管データベース34等の各種データベースが設けられている。これらのデータベースは、好適には、前記記憶装置18に備えられたものであるが、前記記憶装置18とは別体の記憶装置に備えられたものであってもよい。更には、前記支援装置10とは別体の制御装置に備えられた記憶装置に、前記画像データベース32及び血管データベース34の一部乃至全部が備えられたものであってもよい。 As shown in FIG. 2, the storage device 18 provided in the support device 10 is provided with various databases such as an image database 32 and a blood vessel database 34. These databases are preferably provided in the storage device 18, but may be provided in a storage device separate from the storage device 18. Furthermore, a part or all of the image database 32 and the blood vessel database 34 may be provided in a storage device provided in a control device separate from the support device 10.
前記画像データベース32には、公知のX線CT(Computed Tomography)装置や磁気共鳴(MRI;Magnetic Resonance Imaging)装置等によって予め得られた被検体の3次元画像データが記憶される。この3次元画像データは、X線CTにより得られたものにおいては、被検体に対して多方向からX線を照射し、被検体を透過してきたX線を検出器で検出して、透過X線量の情報をコンピュータで処理して3次元画像として再構成したものである。前記画像データベース32には、例えば、X線CTや磁気共鳴装置等により得られた被検体の3次元濃淡画像、換言すれば被検体の単位体積であるボクセル毎の画素値(濃度値)が記憶される。前記画像データベース32には、好適には、X線CTや磁気共鳴装置等により得られた管腔臓器の3次元画像データが記憶される。 The image database 32 stores three-dimensional image data of a subject obtained in advance by a known X-ray CT (Computed Tomography) apparatus, magnetic resonance (MRI) apparatus, or the like. In the case where the three-dimensional image data is obtained by X-ray CT, X-rays are irradiated to the subject from multiple directions, the X-rays transmitted through the subject are detected by a detector, and transmitted X The dose information is processed by a computer and reconstructed as a three-dimensional image. The image database 32 stores, for example, a three-dimensional grayscale image of a subject obtained by X-ray CT, a magnetic resonance apparatus, or the like, in other words, a pixel value (density value) for each voxel that is a unit volume of the subject. Is done. The image database 32 preferably stores three-dimensional image data of a luminal organ obtained by an X-ray CT, a magnetic resonance apparatus or the like.
図3は、前記血管データベース34の構成を例示する図である。この図3に示すように、前記血管データベース34は、観察対象である前記臓器に関する各種情報を格納する。すなわち、図3に示す血管データベース34は、被検体の臓器に関する各種情報を格納する臓器データベースの一例である。図3においては、前記臓器の一例として、木構造をなす管腔臓器である血管に関する各種情報が前記血管データベース34に記憶された例を示している。以下の実施例においては、前記支援装置10により、被検体における臓器の一例である血管の観察を支援する制御について説明する。 FIG. 3 is a diagram illustrating the configuration of the blood vessel database 34. As shown in FIG. 3, the blood vessel database 34 stores various types of information related to the organ to be observed. That is, the blood vessel database 34 shown in FIG. 3 is an example of an organ database that stores various types of information related to the organ of the subject. In FIG. 3, as an example of the organ, an example in which various types of information related to blood vessels that are luminal organs having a tree structure are stored in the blood vessel database 34 is shown. In the following embodiments, control for supporting observation of blood vessels, which are examples of organs in a subject, by the support apparatus 10 will be described.
図3に示すように、前記血管データベース34には、被検体の血管に関する情報として、血管名N(例えば、“Superior mesenteric artery”)、血管和名JN(例えば、上腸間膜動脈)、血管名略称CN(例えば、SMA)、平均観察方向dN(例えば、(0,1,0))、平均観察上向き方向uN(例えば、(0,−1,0))、観察方向標準偏差ΔsN(例えば、2度)、観察上向き方向標準偏差ΔuN(例えば、1度)等の情報が記憶されている。好適には、前記情報に加えて、平均観察位置pN(例えば、所定の座標)、平均観察上向き位置qN(例えば、所定の座標)等の情報が記憶されている。換言すれば、それぞれ所定の解剖学的名称で識別される複数の血管それぞれに対応して、血管名、血管和名、及び血管名略称等の解剖学的名称情報、平均観察方向、平均観察上向き方向、観察方向標準偏差、観察上向き方向標準偏差、平均観察位置、及び平均上向き観察位置等の観察視点位置/視線方向情報等が記憶されている。すなわち、前記血管データベース34は、前記支援装置10の観察対象である臓器毎に、各臓器の解剖学的名称を記憶する解剖学的名称データベースを含んでいる。前記支援装置10の観察対象である臓器(臓器の部位)毎に、各臓器に対応する観察視点位置及び視線方向を記憶する視点位置/視線方向データベースを含んでいる。解剖学的名称データベース及び視点位置/視線方向データベースが、それぞれ個別のデータベースとして備えられたものであってもよい。 As shown in FIG. 3, in the blood vessel database 34, as information on the blood vessels of the subject, a blood vessel name N (for example, “Superior mesenteric artery”), a blood vessel Japanese name J N (for example, superior mesenteric artery), Blood vessel name abbreviation C N (for example, SMA), average observation direction d N (for example, (0, 1, 0)), average observation upward direction u N (for example, (0, -1, 0)), observation direction standard Information such as deviation Δs N (for example, 2 degrees) and observation upward standard deviation Δu N (for example, 1 degree) is stored. Preferably, in addition to the information, information such as an average observation position p N (for example, predetermined coordinates) and an average observation upward position q N (for example, predetermined coordinates) are stored. In other words, corresponding to each of a plurality of blood vessels identified by a predetermined anatomical name, anatomical name information such as a blood vessel name, a blood vessel sum name, and a blood vessel name abbreviation, an average observation direction, an average observation upward Observation viewpoint position / gaze direction information and the like such as direction, observation direction standard deviation, observation upward standard deviation, average observation position, and average upward observation position are stored. That is, the blood vessel database 34 includes an anatomical name database that stores an anatomical name of each organ for each organ to be observed by the support apparatus 10. For each organ (organ part) that is an observation target of the support apparatus 10, a viewpoint position / line-of-sight direction database that stores an observation viewpoint position and a line-of-sight direction corresponding to each organ is included. The anatomical name database and the viewpoint position / gaze direction database may be provided as separate databases.
前記血管データベース34は、好適には、それぞれ所定の解剖学的名称で識別される複数の血管それぞれに対応して、各血管の走行方向、長さ、断面積等の特徴情報を格納する。図4は、被検体の臓器に関する情報の一例として、血管枝bに係る特徴情報を例示する図である。前記血管データベース34は、例えば、木構造をなす血管の枝構造単位で枝シリアル番号によりデータベース化されており、各血管枝に対応する始点vb 1、終点vb n、中心位置o(=(vb 1+vb n)/2)、経路{vb 1,…,vb n}、経路長n、長さlb(=|vb 1,…,vb n|)、走行方向sb(=(vb n−vb 1)/|vb 1,…,vb n|)、及び半径(断面半径)rb等の情報が記憶されている。 The blood vessel database 34 preferably stores characteristic information such as the running direction, length, and cross-sectional area of each blood vessel corresponding to each of a plurality of blood vessels identified by a predetermined anatomical name. FIG. 4 is a diagram illustrating feature information related to the blood vessel branch b as an example of information related to the organ of the subject. The blood vessel database 34 is, for example, a database of branch serial numbers of blood vessel branch structures forming a tree structure, and the start point v b 1 , end point v b n , and center position o (= ( v b 1 + v b n ) / 2), route {v b 1 ,..., v b n }, route length n, length l b (= | v b 1 ,..., v b n |), travel direction s b (= (v b n -v b 1) / | v b 1, ..., v b n |), and the radius (cross sectional radius) r b such information is stored.
図2に示すように、前記観察制御部50は、3次元仮想画像生成部52、視点位置/視線方向設定部54、臓器識別部56、及び臓器重なり判定部58を備えている。前記3次元仮想画像生成部52は、予め取得されて前記画像データベース32に記憶された3次元画像データに基づいてその臓器の3次元仮想画像を生成する。例えば、所定の臓器の観察に際して、その臓器に対応して予め得られて前記画像データベース32に記憶された3次元画像データを読み出し、その3次元画像データに基づいて3次元仮想画像を生成する。前記画像データベース32に記憶された3次元画像データは、例えば、CT装置等を用いて、X線照射器・検出器を連続的に回転させつつ被検体を体軸方向に連続送りすることにより、被検体の3次元領域について螺旋状の連続スキャン(ヘリカルスキャン)を行った3次元画像データである。前記3次元仮想画像生成部52は、斯かる3次元画像データを読み出し、3次元領域の連続するスライスの断層像を積み重ねることによって臓器の3次元仮想画像を作成する。本実施例においては、観察対象となる臓器の仮想的な外形(例えば、正面側から視た外観を表す像)を示す3次元仮想画像の表示制御について説明するが、例えば管腔臓器の内部(内腔)に内視鏡を挿入して撮影を行った際の映像に対応する3次元仮想内視鏡画像を、前記3次元画像データに基づいて表示させる表示制御にも、本発明は好適に適用される。 As shown in FIG. 2, the observation control unit 50 includes a three-dimensional virtual image generation unit 52, a viewpoint position / gaze direction setting unit 54, an organ identification unit 56, and an organ overlap determination unit 58. The three-dimensional virtual image generation unit 52 generates a three-dimensional virtual image of the organ based on the three-dimensional image data acquired in advance and stored in the image database 32. For example, when observing a predetermined organ, 3D image data obtained in advance corresponding to the organ and stored in the image database 32 is read, and a 3D virtual image is generated based on the 3D image data. The three-dimensional image data stored in the image database 32 is obtained by continuously feeding the subject in the body axis direction while continuously rotating the X-ray irradiator / detector using, for example, a CT apparatus. This is three-dimensional image data obtained by performing a spiral continuous scan (helical scan) on a three-dimensional region of a subject. The three-dimensional virtual image generation unit 52 reads out such three-dimensional image data and creates a three-dimensional virtual image of an organ by stacking tomographic images of successive slices in a three-dimensional region. In the present embodiment, display control of a three-dimensional virtual image showing a virtual outer shape of an organ to be observed (for example, an image representing an appearance viewed from the front side) will be described. The present invention is also suitable for display control in which a three-dimensional virtual endoscopic image corresponding to an image obtained by inserting an endoscope into a lumen is displayed based on the three-dimensional image data. Applied.
前記視点位置/視線方向設定部54は、前記3次元仮想画像生成部52により生成される前記臓器の3次元仮想画像に係る視点位置及び視線方向を設定(決定)する。図5は、前記臓器の3次元仮想画像に係る視点位置及び視線方向に対応する仮想カメラ70について説明する図である。図5に示す仮想カメラ70においては、視点位置及び視線方向が定義される。例えば、この仮想カメラ70が、前記臓器の3次元仮想画像に係る視点位置に対応する。前記仮想カメラ70の視線方向が、前記臓器の3次元仮想画像に係る視線方向に対応する。前記視点位置/視線方向設定部54は、概念的には、前記3次元仮想画像生成部52により生成される前記臓器の3次元仮想画像に対して、前記仮想カメラ70を3次元方向に相対移動させることで、前記臓器の3次元仮想画像に係る視点位置及び視線方向を設定する。 The viewpoint position / gaze direction setting unit 54 sets (determines) a viewpoint position and a gaze direction related to the three-dimensional virtual image of the organ generated by the three-dimensional virtual image generation unit 52. FIG. 5 is a diagram illustrating the virtual camera 70 corresponding to the viewpoint position and the line-of-sight direction according to the three-dimensional virtual image of the organ. In the virtual camera 70 shown in FIG. 5, the viewpoint position and the line-of-sight direction are defined. For example, the virtual camera 70 corresponds to the viewpoint position related to the three-dimensional virtual image of the organ. The line-of-sight direction of the virtual camera 70 corresponds to the line-of-sight direction related to the three-dimensional virtual image of the organ. The viewpoint position / gaze direction setting unit 54 conceptually moves the virtual camera 70 in a three-dimensional direction relative to the three-dimensional virtual image of the organ generated by the three-dimensional virtual image generation unit 52. By doing so, the viewpoint position and the line-of-sight direction related to the three-dimensional virtual image of the organ are set.
前記音声認識部60は、前記音声入力装置24から入力される音声を認識する。具体的には、前記音声入力装置24により入力されて前記A/Dコンバータ30によりディジタル信号に変換された音声情報に関して、公知の技術によりその周波数等を解析することで、前記音声情報に対応する音素テキスト(発声された文字列)を認識する。前記音声認識部60は、認識された音素テキストに対応する臓器の解剖学的名称を判定する。前記血管データベース34は、前記支援装置10による観察対象となる臓器(血管枝)それぞれに対応して、臓器の解剖学的名称と音素テキストとを対応付けて記憶する。すなわち、予め定められた複数の血管枝それぞれに対応して、各血管枝の解剖学的名称を発声した際の音声に対応する音素テキストがデータベース化されている。前記音声認識部60は、好適には、前記血管データベース34に記憶された対応関係から、前記音声情報に対応して認識された音素テキストに基づいて、その音声情報に対応する臓器の解剖学的名称を判定する。すなわち、前記血管データベース34は、前記支援装置10の観察対象である臓器毎に、各臓器の解剖学的名称に対応する音素テキストを記憶する音素テキストデータベースを含んでいる。斯かる音素テキストデータベースが、前記血管データベース34とは別のデータベース或いはテーブルとして備えられたものであってもよい。 The voice recognition unit 60 recognizes voice input from the voice input device 24. Specifically, the voice information input by the voice input device 24 and converted into a digital signal by the A / D converter 30 is analyzed by analyzing the frequency or the like by a known technique, thereby corresponding to the voice information. Recognize phoneme text (spoken character strings). The voice recognition unit 60 determines an anatomical name of the organ corresponding to the recognized phoneme text. The blood vessel database 34 stores an anatomical name of an organ and a phoneme text in association with each organ (blood vessel branch) to be observed by the support apparatus 10. That is, the phoneme text corresponding to the voice when the anatomical name of each blood vessel branch is uttered corresponding to each of a plurality of predetermined blood vessel branches is stored in a database. The speech recognition unit 60 preferably uses the correspondence stored in the blood vessel database 34 based on the phoneme text recognized corresponding to the speech information, and the anatomy of the organ corresponding to the speech information. Determine the name. That is, the blood vessel database 34 includes a phoneme text database that stores phoneme text corresponding to the anatomical name of each organ for each organ that is the observation target of the support apparatus 10. Such a phoneme text database may be provided as a database or table different from the blood vessel database 34.
前記音声認識部60は、更には、前記臓器の観察に係る各種指令に対応する音素テキストを認識するものであってもよい。例えば、「上向き」、「下向き」等、前記臓器の観察に係る視線方向を指示する指令に対応する音素テキストを認識するものであってもよい。更には、「右」、「左」、「上」、「下」等、前記支援装置10における観察に係る視点位置を移動させる指令に対応する音素テキストを認識するものであってもよい。 The voice recognition unit 60 may further recognize phoneme text corresponding to various commands related to the observation of the organ. For example, a phoneme text corresponding to a command indicating a line-of-sight direction related to observation of the organ, such as “upward” or “downward”, may be recognized. Furthermore, the phonetic text corresponding to the command for moving the viewpoint position related to the observation in the support device 10 such as “right”, “left”, “up”, “down”, etc. may be recognized.
前記臓器識別部56は、観察対象である臓器を識別する。好適には、それぞれ所定の解剖学的名称で識別される複数の臓器に関して、前記3次元仮想画像生成部52により生成される前記臓器の3次元仮想画像における各部が、どの臓器(臓器の部位)に対応するか識別する。好適には、前記3次元仮想画像生成部52により生成される前記臓器の3次元仮想画像における各部の走行方向、長さ、断面積等の特徴を抽出し、前記血管データベース34に記憶された特徴情報を参照することで、対象となる部位がどの臓器に対応するか識別する。例えば、前記血管データベース34に記憶された特徴情報に関して、走行方向、長さ、断面積等の特徴が最も近い臓器を、対象となる部位に対応する臓器として識別する。 The organ identifying unit 56 identifies an organ to be observed. Preferably, with respect to a plurality of organs identified by predetermined anatomical names, each part in the three-dimensional virtual image of the organ generated by the three-dimensional virtual image generation unit 52 is which organ (part of the organ). Identify whether it corresponds to. Preferably, features such as the running direction, length, and cross-sectional area of each part in the three-dimensional virtual image of the organ generated by the three-dimensional virtual image generation unit 52 are extracted and stored in the blood vessel database 34. By referring to the information, it is identified which organ the target region corresponds to. For example, regarding the feature information stored in the blood vessel database 34, the organ having the closest feature such as the traveling direction, length, cross-sectional area, etc. is identified as the organ corresponding to the target region.
前記臓器識別部56は、好適には、前記3次元仮想画像生成部52により生成される前記臓器の3次元仮想画像を、体積領域であるVOI(Volume Of Interest:注目体積領域=以下、単にVOIと記す)により分割し、VOI内の臓器の領域情報及び構造情報を抽出することで、観察対象である臓器を識別するものであってもよい。或いは、前記3次元仮想画像生成部52により生成される前記臓器の3次元仮想画像における各部について、例えば前記入力装置22により解剖学的名称が入力されて対応付けられる等、人的な処理により臓器の識別が行われるものであってもよい。斯かる態様においては、前記臓器の3次元仮想画像における各部と、識別された臓器(例えば、その解剖学的名称等)とが対応付けられて前記記憶装置18等に記憶され、以下の制御に用いられる。 The organ identifying unit 56 preferably uses the three-dimensional virtual image of the organ generated by the three-dimensional virtual image generating unit 52 as a volume region of VOI (Volume Of Interest). And organ information to be observed may be identified by extracting region information and structure information of the organ in the VOI. Alternatively, each part in the three-dimensional virtual image of the organ generated by the three-dimensional virtual image generation unit 52 is associated with an organ by human processing, for example, an anatomical name is input and associated with the input device 22. May be identified. In such an aspect, each part in the three-dimensional virtual image of the organ and the identified organ (for example, its anatomical name) are associated with each other and stored in the storage device 18 or the like for the following control. Used.
前記観察制御部50は、前記音声認識部60により判定される臓器の解剖学的名称に基づいて、その臓器の観察に係る視点位置及び視線方向を決定する。前述のように、前記3次元仮想画像生成部52により生成される前記臓器の3次元仮想画像における各部の解剖学的名称は、前記臓器識別部56により識別される。前記血管データベース34には、観察対象である臓器(血管枝)それぞれに対応して、平均観察方向、平均観察上向き方向、観察方向標準偏差、観察上向き方向標準偏差、平均観察位置、及び平均観察上向き位置等の視点位置及び視線方向に関する情報が予め定められて記憶されている。前記視点位置/視線方向設定部54は、前記音声認識部60により所定の臓器の解剖学的名称が判定された場合、その臓器の解剖学的名称に対応して前記血管データベース34に記憶された視点位置及び視線方向に関する情報を読み出し、その情報に基づいて前記臓器の観察に係る視点位置及び視線方向を決定する。 Based on the anatomical name of the organ determined by the voice recognition unit 60, the observation control unit 50 determines a viewpoint position and a line-of-sight direction related to the observation of the organ. As described above, the anatomical name of each part in the three-dimensional virtual image of the organ generated by the three-dimensional virtual image generation unit 52 is identified by the organ identification unit 56. In the blood vessel database 34, the average observation direction, the average observation upward direction, the observation direction standard deviation, the observation upward direction standard deviation, the average observation position, and the average observation upward corresponding to each organ (blood vessel branch) to be observed. Information on the viewpoint position such as the position and the line-of-sight direction is determined and stored in advance. When the voice recognition unit 60 determines the anatomical name of a predetermined organ, the viewpoint position / gaze direction setting unit 54 stores the anatomical name of the organ stored in the blood vessel database 34. Information on the viewpoint position and the line-of-sight direction is read out, and the viewpoint position and the line-of-sight direction related to the observation of the organ are determined based on the information.
図6は、前記仮想カメラ70を用いて前記臓器の3次元仮想画像に係る視点位置及び視線方向を説明する図である。被検体における臓器の3次元仮想画像として血管枝bの3次元仮想画像72(以下、単に仮想画像72という)を考えた場合、その仮想画像72に対する前記仮想カメラ70の相対的な視点位置及び視線方向を設定すると、後述する画像合成表示部64等により前記映像表示装置20に表示される仮想画面74内における前記仮想画像72の位置、方向、専有率(画面全体における仮想画像72の占有面積)等が定まる。すなわち、前記視点位置/視線方向設定部54は、前記音声認識部60により判定される臓器の解剖学的名称に基づいて、その臓器に対応する前記仮想画像72に係る視点位置及び視線方向を決定する。 FIG. 6 is a diagram for explaining the viewpoint position and the line-of-sight direction related to the three-dimensional virtual image of the organ using the virtual camera 70. When a three-dimensional virtual image 72 of a blood vessel branch b (hereinafter simply referred to as a virtual image 72) is considered as a three-dimensional virtual image of an organ in a subject, the relative viewpoint position and line of sight of the virtual camera 70 with respect to the virtual image 72 When the direction is set, the position, direction, and occupancy rate of the virtual image 72 in the virtual screen 74 displayed on the video display device 20 by the image composition display unit 64 described later (occupied area of the virtual image 72 in the entire screen) Etc. are determined. That is, the viewpoint position / gaze direction setting unit 54 determines a viewpoint position and a gaze direction related to the virtual image 72 corresponding to the organ based on the anatomical name of the organ determined by the voice recognition unit 60. To do.
前記視点位置/視線方向設定部54は、好適には、前記被検体の方向に基づいてその被検体における臓器の観察に係る視点位置及び視線方向を決定する。前記被検体の方向とは、例えば被検体の体軸方向(頭部から脚部へと向かう方向、被検体が直立した場合における鉛直方向)である。前記視点位置/視線方向設定部54は、好適には、少なくとも前記被検体の上下方向と、前記仮想画面74内における仮想画像72の上下方向とが一致するように、その被検体における臓器の観察に係る視点位置及び視線方向を決定する。 The viewpoint position / line-of-sight direction setting unit 54 preferably determines a viewpoint position and a line-of-sight direction related to observation of an organ in the subject based on the direction of the subject. The direction of the subject is, for example, the body axis direction of the subject (the direction from the head to the leg, the vertical direction when the subject is upright). The viewpoint position / line-of-sight direction setting unit 54 preferably observes the organ in the subject so that at least the vertical direction of the subject matches the vertical direction of the virtual image 72 in the virtual screen 74. The viewpoint position and the line-of-sight direction are determined.
前記視点位置/視線方向設定部54は、好適には、前記臓器の長手方向に基づいてその臓器の観察に係る視点位置及び視線方向を決定する。前記臓器の長手方向とは、管腔臓器等の長手状の臓器における軸心方向であり、例えば図4に示す血管枝bの走行方向sbに対応する。前記視点位置/視線方向設定部54は、好適には、前記仮想画面74内における仮想画像72の長手方向が、その仮想画面74の左右方向或いは上下方向等、画面の広がりに対応する方向となるように、その被検体における臓器の観察に係る視点位置及び視線方向を決定する。換言すれば、前記仮想画面74内における仮想画像72の長手方向が、その仮想画面74の奥行き方向とならないように、その被検体における臓器の観察に係る視点位置及び視線方向を決定する。 The viewpoint position / line-of-sight direction setting unit 54 preferably determines a viewpoint position and a line-of-sight direction related to observation of the organ based on the longitudinal direction of the organ. The longitudinal direction of the organ is an axial direction in a longitudinal organ such as a luminal organ, and corresponds to, for example, the traveling direction s b of the blood vessel branch b shown in FIG. In the viewpoint position / line-of-sight direction setting unit 54, preferably, the longitudinal direction of the virtual image 72 in the virtual screen 74 is a direction corresponding to the spread of the screen, such as the horizontal direction or the vertical direction of the virtual screen 74. In this manner, the viewpoint position and the line-of-sight direction related to the observation of the organ in the subject are determined. In other words, the viewpoint position and the line-of-sight direction for observing the organ in the subject are determined so that the longitudinal direction of the virtual image 72 in the virtual screen 74 does not become the depth direction of the virtual screen 74.
前記視点位置/視線方向設定部54は、具体的には、前記血管データベース34に記憶された平均観察方向、平均観察上向き方向、観察方向標準偏差、観察上向き方向標準偏差、平均観察位置、及び平均上向き観察位置等の情報に基づいて、前記臓器の観察に係る視点位置及び視線方向を決定する。例えば、観察対象となる臓器に対応して前記血管データベース34に記憶された平均観察位置を読み出し、その平均観察位置に基づいて前記臓器の観察に係る視点位置を設定する。観察対象となる臓器に対応して前記血管データベース34に記憶された平均観察方向及び観察方向標準偏差を読み出し、それら平均観察方向及び観察方向標準偏差に基づいて前記臓器の観察に係る視線方向を決定する。例えば、前記音声認識部60により「上向き」に対応する音素テキストが認識された場合等、観察対象となる臓器を上向きに観察する場合には、観察対象となる臓器に対応して前記血管データベース34に記憶された平均上向き観察位置を読み出し、その平均上向き観察位置に基づいて前記臓器の観察に係る視点位置を設定する。観察対象となる臓器に対応して前記血管データベース34に記憶された平均上向き観察方向及び観察上向き方向標準偏差を読み出し、それら平均上向き観察方向及び観察上向き方向標準偏差に基づいて前記臓器の観察に係る視線方向を決定する。視認しづらい臓器の観察においては、その臓器に対応する仮想画像の長手方向に基づいて、斯かる臓器の全体が視認できるような視点位置及び視線方向を設定する。 Specifically, the viewpoint position / gaze direction setting unit 54 stores the average observation direction, average observation upward direction, observation direction standard deviation, observation upward direction standard deviation, average observation position, and average stored in the blood vessel database 34. Based on the information such as the upward observation position, the viewpoint position and the line-of-sight direction for observing the organ are determined. For example, the average observation position stored in the blood vessel database 34 corresponding to the organ to be observed is read, and the viewpoint position related to the observation of the organ is set based on the average observation position. The average observation direction and the observation direction standard deviation stored in the blood vessel database 34 corresponding to the organ to be observed are read, and the line-of-sight direction relating to the observation of the organ is determined based on the average observation direction and the observation direction standard deviation. To do. For example, when observing an organ to be observed upward, such as when a phoneme text corresponding to “upward” is recognized by the speech recognition unit 60, the blood vessel database 34 corresponds to the organ to be observed. The average upward observation position stored in is read out, and the viewpoint position related to the observation of the organ is set based on the average upward observation position. The average upward observation direction and the observation upward direction standard deviation stored in the blood vessel database 34 corresponding to the organ to be observed are read, and the observation of the organ is performed based on the average upward observation direction and the observation upward direction standard deviation. Determine the line-of-sight direction. In observing an organ that is difficult to visually recognize, a viewpoint position and a line-of-sight direction are set based on the longitudinal direction of the virtual image corresponding to the organ so that the entire organ can be visually recognized.
前記視点位置/視線方向設定部54は、好適には、観察対象となる臓器に対応する仮想画像72が、前記仮想画面74における略中央に位置するように前記視点位置及び視線方向を算出する。好適には、観察対象となる臓器に対応する仮想画像72の、前記仮想画面74全体における占有率(仮想画像72が占める面積の割合)が、予め定められた閾値以上となるように前記視点位置及び視線方向を算出する。前記視点位置/視線方向設定部54は、必ずしも予め前記血管データベース34等に記憶された視点位置及び視線方向に関する情報に基づいて前記臓器の観察に係る視点位置及び視線方向を設定するものでなくともよい。前記臓器識別部56により観察対象となる臓器が識別された際に、その臓器の特徴に基づいて前記視点位置及び視線方向をその都度算出するものであってもよい。 The viewpoint position / line-of-sight direction setting unit 54 preferably calculates the viewpoint position and line-of-sight direction so that the virtual image 72 corresponding to the organ to be observed is positioned at the approximate center of the virtual screen 74. Preferably, the viewpoint position is set so that the occupation ratio (ratio of the area occupied by the virtual image 72) of the virtual image 72 corresponding to the organ to be observed in the entire virtual screen 74 is equal to or greater than a predetermined threshold. And the line-of-sight direction is calculated. The viewpoint position / line-of-sight direction setting unit 54 does not necessarily set the viewpoint position and line-of-sight direction related to observation of the organ based on information on the viewpoint position and line-of-sight direction stored in advance in the blood vessel database 34 or the like. Good. When the organ to be observed is identified by the organ identifying unit 56, the viewpoint position and the line-of-sight direction may be calculated each time based on the characteristics of the organ.
前記視点位置/視線方向設定部54は、好適には、前記音声認識部60により判定される臓器の解剖学的名称が更新された場合、すなわち現時点の観察対象である臓器とは異なる臓器の解剖学的名称が前記音声認識部60により判定された場合であって、視点位置の移動距離が規定の閾値以上である場合(比較的遠くへ移動する場合)には、前記視点位置を現時点における観察位置から一旦離隔させた後、前記臓器の観察に係る視点位置へ移動させる。例えば、前記音声認識部60により判定される臓器の解剖学的名称が更新された場合、前記視点位置を現時点における観察位置から予め定められた基準視点位置へ移動させた後、前記臓器の観察に係る視点位置へ移動させる。前記基準視点位置は、例えば、観察対象となる臓器全体(例えば、血管全体)を概観する視点位置に対応する。或いは、現時点における観察位置から、所定距離に対応する分だけ視点位置をズームアウトさせた後、前記臓器の観察に係る視点位置へ移動させる。斯かる制御により、観察位置の移動に要する時間が長くなることを抑制しつつ、観察位置の移動を、観察者に違和感なく認識させることができる。 The viewpoint position / line-of-sight direction setting unit 54 preferably analyzes the anatomy of an organ different from the organ currently being observed, when the anatomical name of the organ determined by the speech recognition unit 60 is updated. When the scientific name is determined by the speech recognition unit 60 and the moving distance of the viewpoint position is equal to or greater than a predetermined threshold (when moving relatively far), the viewpoint position is observed at the present time. After being separated from the position once, it is moved to the viewpoint position related to the observation of the organ. For example, when the anatomical name of the organ determined by the voice recognition unit 60 is updated, the viewpoint position is moved from the current observation position to a predetermined reference viewpoint position, and then the organ is observed. Move to that viewpoint position. The reference viewpoint position corresponds to, for example, a viewpoint position that gives an overview of an entire organ to be observed (for example, the entire blood vessel). Alternatively, the viewpoint position is zoomed out by an amount corresponding to a predetermined distance from the current observation position, and then moved to the viewpoint position related to the observation of the organ. By such control, it is possible to make the observer recognize the movement of the observation position without feeling uncomfortable while suppressing an increase in the time required for the movement of the observation position.
前記解剖学的名称情報発生部62は、観察対象である臓器の解剖学的名称情報を生成する。例えば、前記音声認識部60により判定される臓器の解剖学的名称に対応するテキストデータ(文字画像データ)を生成する。前記画像合成表示部64は、前記3次元仮想画像生成部52により生成される前記臓器の3次元仮想画像に対して、前記解剖学的名称情報発生部62により生成されたテキストデータを合成させ、前記映像表示装置20に表示させる。好適には、前記3次元仮想画像生成部52により生成される3次元仮想画像において、前記臓器識別部56により識別される観察対象である臓器に対応する部位に、その臓器の解剖学的名称に対応するテキストデータを合成させ、前記映像表示装置20に表示させる。 The anatomical name information generation unit 62 generates anatomical name information of an organ to be observed. For example, text data (character image data) corresponding to the anatomical name of the organ determined by the voice recognition unit 60 is generated. The image synthesis display unit 64 synthesizes the text data generated by the anatomical name information generation unit 62 with the 3D virtual image of the organ generated by the 3D virtual image generation unit 52, The image is displayed on the video display device 20. Preferably, in the three-dimensional virtual image generated by the three-dimensional virtual image generation unit 52, an anatomical name of the organ is assigned to a site corresponding to the organ to be observed identified by the organ identification unit 56. Corresponding text data is synthesized and displayed on the video display device 20.
図7及び図8は、前記支援装置10による臓器の観察に際して、前記映像表示装置20に表示される画面の一例を示す図である。図7及び図8においては、画面向かって左側に3次元仮想画像を含む仮想画面を表示させると共に、画面向かって右側に対応する断面画像すなわち3次元仮想画像の基となる画像データ(CT画像データ)を表示させる観察画面を例示している。図7は、「CA(シー・エー)」との発声に対して前記音声認識部60による認識が行われた場合における画面を例示しており、解剖学的血管名略称「CA」に対応する腹腔動脈の仮想画像が、仮想画面における略中央とされている。すなわち、前記音声認識部60により判定される臓器の解剖学的名称に対応する仮想画像が、仮想画面における略中央となるように、その視点位置及び視線方向が設定されている。図8は、「CHA(シー・エイチ・エー)」との発声に対して前記音声認識部60による認識が行われた場合における画面を例示しており、解剖学的血管名略称「CHA」に対応する総肝動脈の仮想画像が、仮想画面における略中央とされている。しかし、対象となる仮想画像の手前に、解剖学的血管名略称「GDA」に対応する胃十二指腸動脈の仮想画像が映り込んでいるため、その仮想画像によって解剖学的血管名略称「CHA」に対応する総肝動脈の仮想画像が遮られ、観察し難くなっている。 7 and 8 are diagrams illustrating examples of screens displayed on the video display device 20 when the support device 10 observes an organ. 7 and 8, a virtual screen including a three-dimensional virtual image is displayed on the left side of the screen, and a cross-sectional image corresponding to the right side of the screen, that is, image data (CT image data) that is the basis of the three-dimensional virtual image is displayed. ) Is shown as an example. FIG. 7 exemplifies a screen when the speech recognition unit 60 recognizes the utterance “CA” and corresponds to the anatomical vessel name abbreviation “CA”. The virtual image of the celiac artery is set at the approximate center of the virtual screen. In other words, the viewpoint position and the line-of-sight direction are set so that the virtual image corresponding to the anatomical name of the organ determined by the voice recognition unit 60 is approximately in the center of the virtual screen. FIG. 8 exemplifies a screen when the speech recognition unit 60 recognizes the utterance “CHA”, and the anatomical blood vessel name is abbreviated as “CHA”. The corresponding virtual image of the common hepatic artery is the approximate center of the virtual screen. However, since the virtual image of the gastroduodenal artery corresponding to the anatomical blood vessel name abbreviation “GDA” is reflected in front of the target virtual image, the virtual image is changed to the anatomical blood vessel name abbreviation “CHA”. The corresponding virtual image of the common hepatic artery is obstructed, making it difficult to observe.
前記画像重なり判定部58は、前記視点位置/視線方向設定部54により設定された前記臓器の観察に係る視点位置及び視線方向に対応して、その臓器が他の臓器によって遮られるか否かを判定する。具体的には、規定の評価関数を用い、観察対象となる臓器に対応する仮想画像72の、前記仮想画面74全体における占有率(仮想画像72が占める面積の割合)を算出する。その占有率が予め定められた閾値未満である場合には、図8を用いて前述したように、前記観察対象となる臓器が他の臓器によって遮られていると判定する。 The image overlap determination unit 58 determines whether or not the organ is obstructed by another organ corresponding to the viewpoint position and the line-of-sight direction related to the observation of the organ set by the viewpoint position / line-of-sight direction setting unit 54. judge. Specifically, using a prescribed evaluation function, the occupation ratio (ratio of the area occupied by the virtual image 72) of the virtual image 72 corresponding to the organ to be observed in the entire virtual screen 74 is calculated. When the occupation ratio is less than a predetermined threshold, it is determined that the organ to be observed is blocked by another organ as described above with reference to FIG.
図9及び図10は、前記仮想画像72の占有率について説明するために、図6を断面図として模式化した図であり、図9は血管枝bの軸心に垂直な断面(半径方向の断面)に、図10は血管枝bの軸心を含む断面(長手方向の断面)にそれぞれ対応する。図9及び図10において、前記仮想カメラ70の視点位置をpb、血管枝bの軸心(中心位置)をcbでそれぞれ示している。図9に示すように、前記仮想画像72の、前記仮想画面74全体における血管枝b半径方向の画面占有率αは、前記仮想カメラ70から血管枝bの軸心までの仮想的な距離をk、血管枝bの半径(仮想半径)をrb、前記仮想カメラ70の視野角をθとして、次の(1)式で表される。図10に示すように、前記仮想画像72の、前記仮想画面74全体における血管枝b長手方向の画面占有率βは、前記仮想カメラ70から血管枝bの軸心までの仮想的な距離をk、血管枝bの長手方向の長さ寸法(仮想長さ)をlb、前記仮想カメラ70の視野角をθとして、次の(2)式で表される。 FIG. 9 and FIG. 10 are schematic views of FIG. 6 as a cross-sectional view for explaining the occupation ratio of the virtual image 72. FIG. 9 is a cross-sectional view (radial direction) perpendicular to the axis of the blood vessel branch b. 10 corresponds to a cross section (longitudinal cross section) including the axis of the blood vessel branch b. 9 and 10, the viewpoint position of the virtual camera 70 is indicated by p b , and the axis (center position) of the blood vessel branch b is indicated by c b . As shown in FIG. 9, the screen occupancy ratio α in the radial direction of the blood vessel branch b in the entire virtual screen 74 of the virtual image 72 represents the virtual distance from the virtual camera 70 to the axis of the blood vessel branch b. , the radius of the vessel branch b (virtual radius) and r b, the view angle of the virtual camera 70 as theta, expressed by the following equation (1). As shown in FIG. 10, the screen occupancy ratio β in the longitudinal direction of the blood vessel branch b in the entire virtual screen 74 of the virtual image 72 is the virtual distance from the virtual camera 70 to the axis of the blood vessel branch b. The length dimension (virtual length) of the blood vessel branch b in the longitudinal direction is l b and the viewing angle of the virtual camera 70 is θ, which is expressed by the following equation (2).
α=rb/(k×tan(θ/2))×100 ・・・(1)
β=lb/(k×2×tan(θ/2))×100 ・・・(2)
α = r b / (k × tan (θ / 2)) × 100 (1)
β = l b / (k × 2 × tan (θ / 2)) × 100 (2)
図11は、観察対象である臓器を遮る位置に他の臓器が存在する場合における前記仮想画像72の占有率について説明する図である。この図11に示す例においては、前記仮想画像72の観察に係る視点位置及び視線方向を定める仮想カメラ70を基準とした場合、観察対象となる前記仮想画像72の前面側(手前側)に他の臓器である妨害血管枝に対応する3次元仮想画像76(以下、単に仮想画像76という)が存在する。斯かる状態において、観察対象である前記仮想画像72の経路(軸心)上に複数の経路点(図11においては白抜き丸印で示している)vb 1〜vb nを設定した場合、それらのうち幾つかの経路点が前記仮想画像76によって遮蔽され、前記仮想カメラ70から見えなくなる。すなわち、前記映像表示装置20に表示される仮想画面74内に描画されなくなる。ここで、前記仮想画像72の描画率は、例えば、その仮想画像72の経路点のうち前記仮想画面74上に描画される経路点の数を、前記仮想画像72の経路点の総数で除した値となる。すなわち前記仮想画像72の描画率=(描画される経路点の数)/(血管枝の経路点の数)となる。 FIG. 11 is a diagram for explaining the occupation ratio of the virtual image 72 when another organ is present at a position that blocks the organ to be observed. In the example shown in FIG. 11, when the virtual camera 70 that determines the viewpoint position and the line-of-sight direction for observing the virtual image 72 is used as a reference, the front side (front side) of the virtual image 72 to be observed is the other. There is a three-dimensional virtual image 76 (hereinafter simply referred to as a virtual image 76) corresponding to a disturbing blood vessel branch that is an organ of the present. In such a state, when a plurality of path points (indicated by white circles in FIG. 11) v b 1 to v b n are set on the path (axial center) of the virtual image 72 to be observed. , Some of them are blocked by the virtual image 76 and become invisible from the virtual camera 70. That is, the image is not drawn in the virtual screen 74 displayed on the video display device 20. Here, the drawing rate of the virtual image 72 is obtained by dividing, for example, the number of route points drawn on the virtual screen 74 among the route points of the virtual image 72 by the total number of route points of the virtual image 72. Value. That is, the drawing ratio of the virtual image 72 = (number of route points to be drawn) / (number of route points of the blood vessel branch).
前記視点位置/視線方向設定部54は、前記臓器の観察に係る視点位置及び視線方向に対応して、その臓器が他の臓器によって遮られると判定される場合、すなわち前記画像重なり判定部58による判定が肯定される場合には、前記視点位置及び視線方向の少なくとも一方を調整(変更)する。図12は、前記視点位置/視線方向設定部54による視線方向の調整について説明する図である。この図12に示す例では、前記仮想画像72の観察に係る視線方向dNがdbである状態から所定角度変更して、前記仮想画像74の長手方向(走行方向)sbに垂直な方向である視線方向d′bの状態に変更している。すなわち、前記視点位置/視線方向設定部54は、例えば、前記仮想画像74の長手方向sbを基準として、その長手方向sbに対する視線方向を調整する。好適には、図12に示すように、前記仮想画像72における注視位置(仮想画像72上における視線方向の延長線上の点)を維持したまま、その仮想画像72の観察に係る視点位置及び視線方向を調整する。例えば、前記仮想画像72の描画率が最大となる視線方向を算出すると共に、その視線方向において前記仮想画像72における注視位置が維持される視点位置を算出する。 The viewpoint position / line-of-sight direction setting unit 54 corresponds to the viewpoint position and line-of-sight direction related to the observation of the organ, when it is determined that the organ is blocked by another organ, that is, by the image overlap determination unit 58 If the determination is affirmative, at least one of the viewpoint position and the line-of-sight direction is adjusted (changed). FIG. 12 is a diagram for explaining the adjustment of the gaze direction by the viewpoint position / gaze direction setting unit 54. In the example shown in FIG. 12, the virtual line-of-sight direction d N of the observation image 72 in a predetermined angular change from a state which is d b, the longitudinal direction (running direction) perpendicular to the s b of the virtual image 74 To the state of the line-of-sight direction d' b . That is, the viewpoint position / line-of-sight direction setting unit 54, for example, based on the longitudinal direction s b of the virtual image 74 to adjust the viewing direction with respect to the longitudinal direction s b. Preferably, as shown in FIG. 12, while maintaining the gaze position in the virtual image 72 (a point on the extension line of the visual line direction on the virtual image 72), the viewpoint position and the visual line direction related to the observation of the virtual image 72 Adjust. For example, the gaze direction that maximizes the drawing rate of the virtual image 72 is calculated, and the viewpoint position at which the gaze position in the virtual image 72 is maintained in the gaze direction is calculated.
図13は、前記臓器の観察に係る視点位置及び視線方向に応じた前記仮想画像72の見え方の違いについて概念的に説明する図である。図13に示す仮想画面74a〜74eは、前記仮想画像72における注視位置を維持しつつ、その仮想画像72の観察に係る視点位置及び視線方向を縦方向及び横方向に変更(探索)した仮想カメラ70a〜70eの視点位置及び視線方向にそれぞれ対応するものである。図13に示すように、観察対象となる前記仮想画像72の前面側に他の臓器に対応する前記仮想画像76が存在する場合において、前記仮想画像72の観察に係る視点位置及び視線方向を前記仮想カメラ70a〜70eのように変化させると、前記仮想画面74a〜74eのように前記仮想画像72及び仮想画像76の相対的な位置関係が変化する。図12に示す例において、前記仮想カメラ70a、70c〜70eに対応する仮想画面74a、74c〜74eでは、前記仮想画像72の一部が前記仮想画像76によって遮られて見えなくなっているが、前記仮想カメラ70bに対応する仮想画面74bでは、前記仮想画像76によって遮られることなく前記仮想画像72の全体が見えている。従って、図12に示す例では、前記仮想カメラ70bに対応する視点位置及び視線方向を採用することで、前記仮想画像72を好適に観察することができる。 FIG. 13 is a diagram conceptually illustrating a difference in appearance of the virtual image 72 according to the viewpoint position and the line-of-sight direction related to the observation of the organ. Virtual screens 74a to 74e shown in FIG. 13 are virtual cameras that change (search) the viewpoint position and the line-of-sight direction related to the observation of the virtual image 72 in the vertical direction and the horizontal direction while maintaining the gaze position in the virtual image 72. These correspond to the viewpoint positions and the line-of-sight directions of 70a to 70e, respectively. As shown in FIG. 13, when the virtual image 76 corresponding to another organ exists on the front side of the virtual image 72 to be observed, the viewpoint position and the line-of-sight direction related to the observation of the virtual image 72 are When the virtual cameras 70a to 70e are changed, the relative positional relationship between the virtual image 72 and the virtual image 76 is changed like the virtual screens 74a to 74e. In the example shown in FIG. 12, in the virtual screens 74a, 74c to 74e corresponding to the virtual cameras 70a and 70c to 70e, a part of the virtual image 72 is obstructed by the virtual image 76 and cannot be seen. On the virtual screen 74b corresponding to the virtual camera 70b, the entire virtual image 72 can be seen without being blocked by the virtual image 76. Therefore, in the example shown in FIG. 12, the virtual image 72 can be suitably observed by adopting the viewpoint position and the line-of-sight direction corresponding to the virtual camera 70b.
図14は、前記支援装置10のCPU12による観察支援制御の一例の要部について説明するフローチャートであり、所定の周期で繰り返し実行されるものである。 FIG. 14 is a flowchart for explaining a main part of an example of the observation support control by the CPU 12 of the support apparatus 10 and is repeatedly executed at a predetermined cycle.
先ず、ステップ(以下、ステップを省略する)S1において、前記画像データベース32に記憶された、観察対象となる臓器に対応する3次元画像データ(CT画像データ或いはMR画像データ等)が読み出される。次に、S2において、S1にて読み出された3次元画像データに対応する3次元仮想画像が、体積領域であるVOIにより分割され、VOI内における血管の領域情報及び構造情報等が抽出される。次に、S3において、S2にて抽出された血管の領域情報及び構造情報等に基づいて、各血管の解剖学的名称(血管名)が認識される。次に、S4において、S3にて認識された各血管の解剖学的名称に基づいて血管の木構造データが生成される。 First, in step S1 (hereinafter, step is omitted), three-dimensional image data (CT image data or MR image data) stored in the image database 32 and corresponding to an organ to be observed is read. Next, in S2, the three-dimensional virtual image corresponding to the three-dimensional image data read in S1 is divided by the volume region VOI, and blood vessel region information and structure information in the VOI are extracted. . Next, in S3, the anatomical name (blood vessel name) of each blood vessel is recognized based on the blood vessel region information and structure information extracted in S2. Next, in S4, tree structure data of the blood vessel is generated based on the anatomical name of each blood vessel recognized in S3.
前記S1〜S4の処理と併行して、S5〜S8の処理が実行される。S5においては、前記音声入力装置24により入力されて前記A/Dコンバータ30によりディジタル信号に変換された音声情報が公知の技術により認識(解析)される。次に、S6において、S5にて認識された音声情報に対応する音素テキスト(発声された文字列)が認識される。「上向き」等の指令に対応する音素テキストが認識される。次に、S7において、S6にて認識された音素テキストに対応する血管の解剖学的名称が判定され、付随コマンドが切り出される。次に、S8において、S7にて判定された解剖学的名称に対応する血管が、観察対象である注目血管とされ、その注目血管を指定する注目血管名コマンドが出力される。 In parallel with the processes of S1 to S4, the processes of S5 to S8 are executed. In S5, the voice information input by the voice input device 24 and converted into a digital signal by the A / D converter 30 is recognized (analyzed) by a known technique. Next, in S6, the phoneme text (spoken character string) corresponding to the speech information recognized in S5 is recognized. Phoneme text corresponding to a command such as “upward” is recognized. Next, in S7, the anatomical name of the blood vessel corresponding to the phoneme text recognized in S6 is determined, and the accompanying command is cut out. Next, in S8, a blood vessel corresponding to the anatomical name determined in S7 is set as a target blood vessel to be observed, and a target blood vessel name command for designating the target blood vessel is output.
次に、S9において、観察対象である臓器として、S8にて出力された注目血管名コマンドに対応する血管枝bが探索される。次に、SAにおいて、図15に示す視点位置・視線方向計算処理が実行される。次に、SBにおいて、図17に示す妨害物体による遮蔽を考慮した視点位置及び視線方向の修正処理が実行される。次に、S10において、SAにて算出され、SBにて修正された視点位置及び視線方向が、前記血管枝bの観察に係る視点位置及び視線方向として設定される。次に、S11において、前記血管枝bの仮想画像72が、SAにて算出され、SBにて修正された視点位置及び視線方向に対応して描画され、血管枝bの解剖学的名称を示すテキストデータが生成されると共に、前記仮想画像72及びテキストデータが合成されて前記映像表示装置20に表示(描画)された後、本ルーチンが終了させられる。 Next, in S9, a blood vessel branch b corresponding to the target blood vessel name command output in S8 is searched for as an observation target organ. Next, in SA, the viewpoint position / gaze direction calculation process shown in FIG. 15 is executed. Next, in SB, the correction process of the viewpoint position and the line-of-sight direction in consideration of the shielding by the obstructing object shown in FIG. 17 is executed. Next, in S10, the viewpoint position and the line-of-sight direction calculated in SA and corrected in SB are set as the viewpoint position and the line-of-sight direction related to the observation of the blood vessel branch b. Next, in S11, the virtual image 72 of the blood vessel branch b is drawn in correspondence with the viewpoint position and the line-of-sight direction calculated in SA and corrected in SB, and indicates the anatomical name of the blood vessel branch b. After the text data is generated and the virtual image 72 and the text data are combined and displayed (drawn) on the video display device 20, this routine is terminated.
図15は、図14に示す制御のSAにおける視点位置・視線方向計算処理の一例の要部について説明するフローチャートである。先ず、SA1において、前記S8にて出力された注目血管名コマンドに対応する注目血管枝名Nが取得される。SA1の処理と併行して、SA2において、前記S4にて生成された血管の木構造データ等の血管枝bに係る情報が取得される。次に、SA3において、SA1にて取得された注目血管枝名Nに対応する仮想画像を観察対象である臓器の画像として、SA2にて取得された血管枝bに係る情報に基づいて、前記血管枝bに対応する仮想画像72の仮想画面74上における半径方向画面占有率α及び長手方向画面占有率βが算出される。半径方向画面占有率αが予め定められた閾値であるtα%以上且つ長手方向画面占有率βが予め定められた閾値であるtβ%以上となる最大注視視点間距離kが算出される。 FIG. 15 is a flowchart for explaining a main part of an example of the viewpoint position / gaze direction calculation process in the SA of the control shown in FIG. First, in SA1, a target blood vessel branch name N corresponding to the target blood vessel name command output in S8 is acquired. In parallel with the processing of SA1, information related to the blood vessel branch b such as the tree structure data of the blood vessel generated in S4 is acquired in SA2. Next, in SA3, the virtual image corresponding to the target vessel branch name N acquired in SA1 is used as an image of the organ that is the observation target, based on the information related to the blood vessel branch b acquired in SA2, and the blood vessel A radial direction screen occupancy rate α and a longitudinal direction screen occupancy rate β on the virtual screen 74 of the virtual image 72 corresponding to the branch b are calculated. A maximum gaze point distance k at which the radial direction screen occupancy α is equal to or greater than a predetermined threshold value tα% and the longitudinal direction screen occupancy rate β is equal to or greater than a predetermined threshold value tβ% is calculated.
次に、SA4において、注目血管枝Nに対応して前記血管データベース34に記憶された中心位置(注視点位)cbが参照される。次に、SA5において、注目血管枝Nに対応して前記血管データベース34に記憶された平均観察方向(視点方向)db=dNが参照される。前記S6にて「上向き」に対応する音素テキストが認識された場合等、上向き観察が行われる場合には、注目血管枝Nに対応して前記血管データベース34に記憶された平均観察上向き方向(仮想画面上向き方向)ub=uNが参照される。次に、SAAにおいて、図16に示す視線方向修正処理が実行される。次に、SA6において、SAAにて修正された視線方向に対応して、視点位置pb(=cb−kdb)が算出される。次に、SA7において、SAAにて修正された視線方向及びSA6にて算出された視点位置pbに対応して、仮想画面描画パラメータpb db ub等が出力された後、図14に示す制御に復帰させられる。 Next, in SA4, the center position (gaze point position) c b stored in the blood vessel database 34 corresponding to the target blood vessel branch N is referred to. Next, in SA5, the average observation direction (viewpoint direction) d b = d N stored in the blood vessel database 34 corresponding to the target blood vessel branch N is referred to. When an upward observation is performed, such as when a phoneme text corresponding to “upward” is recognized in S6, an average observation upward direction (virtual virtual) stored in the blood vessel database 34 corresponding to the target blood vessel branch N is obtained. Screen upward direction) Reference is made to u b = u N. Next, in SAA, the line-of-sight direction correction process shown in FIG. 16 is executed. Next, in SA6, the viewpoint position p b (= c b −kd b ) is calculated corresponding to the line-of-sight direction corrected in SAA. Next, in SA7, the virtual screen drawing parameters p b d b u b and the like are output corresponding to the line-of-sight direction corrected in SAA and the viewpoint position p b calculated in SA6, and then in FIG. It is returned to the control shown.
図20は、図14に示す制御のSAにおける視点位置・視線方向計算処理の一例の要部について説明するフローチャートであり、仮想内視鏡画像の表示制御に対応するものである。この図20に示す制御は、前記支援装置10が、仮想内視鏡画像の観察を支援する制御において、前述した図15に示す制御に代替して実行されるものである。図20に示す制御において、前述した図15に示す制御と共通するステップについては、同一の符号を付してその説明を省略する。図20に示す制御では、SA4の処理に続くSA5′において、注目血管枝Nに対応して前記血管データベース34に記憶された走行方向sbが参照され、db=sbとされる。前記S6にて「上向き」に対応する音素テキストが認識された場合等、上向き観察が行われる場合には、仮想画面上向き方向ubが計算される。例えば、dbに垂直な任意の方向でubが計算される。次に、SA6′において、SA5′にて参照された視線方向に対応して、視点位置pb(=cb)が算出される。すなわち、仮想内視鏡画像の表示制御において、好適には、注視点位置に視点位置が設定され、視線方向は管腔臓器の走行方向に一致させられる。続いて、前述したSA7以下の処理が実行される。 FIG. 20 is a flowchart for explaining a main part of an example of the viewpoint position / gaze direction calculation processing in SA of the control shown in FIG. 14, and corresponds to the display control of the virtual endoscopic image. The control shown in FIG. 20 is executed in place of the control shown in FIG. 15 described above in the control in which the support device 10 supports the observation of the virtual endoscopic image. In the control shown in FIG. 20, steps common to the control shown in FIG. 15 described above are denoted by the same reference numerals and description thereof is omitted. In the control shown in FIG. 20, in SA5 ′ following the process of SA4, the traveling direction s b stored in the blood vessel database 34 corresponding to the target blood vessel branch N is referred to, and d b = s b is set. Etc. If the phoneme text corresponding to "up" in the S6 is recognized, when the upward observation is performed, the virtual screen upward direction u b are calculated. For example, u b is calculated in any direction perpendicular to d b . Next, in SA6 ′, the viewpoint position p b (= c b ) is calculated corresponding to the line-of-sight direction referred to in SA5 ′. That is, in the display control of the virtual endoscopic image, preferably, the viewpoint position is set as the gazing point position, and the line-of-sight direction is matched with the traveling direction of the luminal organ. Subsequently, the processing from SA7 onward is executed.
図16は、図15に示す制御のSAAにおける視線方向修正処理の一例の要部について説明するフローチャートである。先ず、SAA1において、前記SA5にて参照された視線方向(平均観察方向)dbが取得される。SAA1の処理と併行して、SAA2において、注目血管枝Nに対応して前記血管データベース34に記憶された血管枝bの走行方向sbが読み出される。次に、SAA3において、SAA1にて取得された視線方向dbとSAA2にて読み出された走行方向sbとが張る平面内において、dbがsbに対して垂直となるように、sb×db(sb及びdbの外積)を回転軸として、dbを角度(π/2−cos-1(sbdb))回転させて新しい視線方向dbとする処理が行われる。次に、SAA4において、SAA3にて算出された新しい視線方向dbが、視線方向修正結果として出力された後、図15に示す制御に復帰させられる。 FIG. 16 is a flowchart for explaining a main part of an example of the gaze direction correction process in the SAA of the control shown in FIG. First, in SAA1, referenced line-of-sight direction at the SA5 (average viewing direction) d b is obtained. In parallel with the processing of SAA1, in SAA2, the traveling direction s b of the blood vessel branch b stored in the blood vessel database 34 corresponding to the target blood vessel branch N is read. Then, in SAA3, in a plane spanned by the running direction s b read by line-of-sight direction d b and SAA2 obtained at SAA1, as d b is perpendicular to the s b, s A process of rotating d b by an angle (π / 2−cos −1 (s b d b )) to obtain a new line-of-sight direction d b is performed with b × d b (outer product of s b and d b ) as a rotation axis. Is called. Then, in SAA4, new viewing direction d b calculated in SAA3, after being outputted as the result gaze direction correcting and allowed to return to the control shown in FIG. 15.
図17は、図14に示す制御のSBにおける妨害物体による遮蔽を考慮した視点位置及び視線方向の修正処理の一例の要部について説明するフローチャートである。先ず、SB1において、前記S4にて生成された血管の木構造データ等の血管枝bに係る情報が取得される。SB1の処理と併行して、SB2において、前記SA7にて出力された仮想画面描画パラメータpb db ub等が取得される。SB1及びSB2の処理と併行して、SB3において、前記画像データベース32に記憶された、観察対象となる臓器に対応する3次元画像データ(CT画像データ或いはMR画像データ等)が読み出される。次に、SB4において、パラメータp′b、d′b、u′bに、SB2にて取得された仮想画面描画パラメータpb、db、ubがそれぞれ代入される。 FIG. 17 is a flowchart illustrating a main part of an example of the correction process of the viewpoint position and the line-of-sight direction in consideration of the shielding by the obstructing object in the control SB illustrated in FIG. First, in SB1, information related to the blood vessel branch b such as the tree structure data of the blood vessel generated in S4 is acquired. In parallel with the processing of SB1, the virtual screen drawing parameters p b d b u b and the like output at SA7 are acquired at SB2. In parallel with the processing of SB1 and SB2, in SB3, three-dimensional image data (CT image data or MR image data or the like) stored in the image database 32 and corresponding to the organ to be observed is read. Next, at SB4, the parameter p 'b, d' b, the u 'b, the virtual screen drawing parameter p b acquired in SB2, d b, u b are respectively substituted.
次に、SBAにおいて、図18に示す血管枝b描画率計算処理(横方向の描画率計算処理)が実行される。次に、SB5において、SBAにて算出された血管枝bの描画率ρが最大であるか否かが判断される。このSB5の判断が肯定される場合には、SB6において、パラメータpm b、dm b、um bに、SB4にて定められたパラメータp′b、d′b、u′bがそれぞれ代入された後、SB7以下の処理が実行されるが、SB5の判断が否定される場合には、SB7において、血管枝bの横方向探索範囲に関して全範囲がチェック済みであるか否かが判断される。このSB7の判断が肯定される場合には、SB11以下の処理が実行されるが、SB7の判断が否定される場合には、SB8において、Δθhが更新される。次に、SB9において、ubを回転軸としてdbubをΔθh回転したものをd′bu′bとする処理が行われる。次に、SB10において、p′bがcb−kd′bとされた後、SBA以下の処理が再び実行される。 Next, in SBA, the blood vessel branch b drawing rate calculation process (horizontal drawing rate calculation process) shown in FIG. 18 is executed. Next, in SB5, it is determined whether or not the drawing rate ρ of the blood vessel branch b calculated in SBA is the maximum. If the determination in SB5 is positive, in SB6, the parameter p m b, d m b, the u m b, the parameter p 'b, d' defined in SB4 b, u 'b is respectively substituted After SB7, the processing below SB7 is executed. If the determination at SB5 is negative, it is determined at SB7 whether or not the entire range has been checked with respect to the lateral search range of the blood vessel branch b. The If the determination in SB7 is positive, SB11 although the following process is performed, if the determination of SB7 is negative, then, at SB8, [Delta] [theta] h is updated. Next, in SB9, the process of those rotation [Delta] [theta] h a d b u b as the rotation axis u b and d 'b u' b is performed. Next, at SB 10, after the p 'b is c b -kd' is a b, SBA following processing is executed again.
SB11においては、パラメータpb、db、ubに、SB6にて定められたパラメータpm b、dm b、um bがそれぞれ代入される。次に、SBAにおいて、図18に示す血管枝b描画率計算処理(縦方向の描画率計算処理)が実行される。次に、次に、SB12において、SBAにて算出された血管枝bの描画率ρが最大(極大)であるか否かが判断される。このSB12の判断が肯定される場合には、SB13において、パラメータpm b、dm b、um bに、SB4にて定められたパラメータp′b、d′b、u′bがそれぞれ代入された後、SB14以下の処理が実行されるが、SB12の判断が否定される場合には、SB14において、血管枝bの縦方向探索範囲に関して全範囲がチェック済みであるか否かが判断される。このSB14の判断が肯定される場合には、SB18以下の処理が実行されるが、SB14の判断が否定される場合には、SB15において、Δθvが更新される。次に、SB16において、db×ubを回転軸としてdbubをΔθv回転したものをd′bu′bとする処理が行われる。次に、SB17において、p′bがcb−kd′bとされた後、SBA以下の処理が再び実行される。SB18においては、パラメータpb、db、ubに、SB13にて定められたパラメータpm b、dm b、um bがそれぞれ代入される。次に、SB19において、SB11及びSB18にて補正された仮想画面描画パラメータ補正結果pb db ub等が出力された後、図14に示す制御に復帰させられる。 In SB11, the parameter p b, d b, the u b, the parameter p m b defined in SB6, d m b, u m b are respectively substituted. Next, in SBA, the blood vessel branch b drawing rate calculation process (vertical drawing rate calculation process) shown in FIG. 18 is executed. Next, in SB12, it is determined whether or not the drawing rate ρ of the blood vessel branch b calculated in SBA is the maximum (maximum). If the determination at SB12 is positive, in SB13, the parameter p m b, d m b, the u m b, the parameter p 'b, d' defined in SB4 b, u 'b is respectively substituted After that, the processing from SB14 is executed. However, if the determination in SB12 is negative, it is determined in SB14 whether or not the entire range has been checked with respect to the vertical direction search range of the blood vessel branch b. The If the determination at SB14 is positive, SB18 although the following process is performed, if the determination of SB14 is no, SB15, [Delta] [theta] v is updated. Next, in SB16, the process of the d 'b u' b what was [Delta] [theta] v rotates d b u b as a rotation axis d b × u b is performed. Then, in SB17, after the p 'b is c b -kd' is a b, SBA following processing is performed again. In SB18, the parameter p b, d b, the u b, the parameter p m b defined by SB13, d m b, u m b are respectively substituted. Next, in SB19, after the virtual screen drawing parameter correction results p b d b u b corrected in SB11 and SB18 are output, the control returns to the control shown in FIG.
図18は、図17に示す制御のSBAにおける血管枝b描画率計算処理の一例の要部について説明するフローチャートである。先ず、SBA1において、前記S4にて生成された血管の木構造データ等の血管枝bに係る情報が取得される。SBA1の処理と併行して、SBA2において、前記SA7にて出力された仮想画面描画パラメータpb db ub等が取得される。SBA1及びSBA2の処理と併行して、SBA3において、前記画像データベース32に記憶された、観察対象となる臓器に対応する3次元画像データ(CT画像データ或いはMR画像データ等)が読み出される。次に、SBA4において、パラメータiに1が、パラメータqに0がそれぞれ代入される。次に、SBA5において、視点位置pbとvb iとを結ぶレイが発生させられる。次に、SBA6において、SBA5にて発生させられたレイ上に妨害物体(例えば、他の臓器の仮想画像)が存在するか否かが判断される。このSBA6の判断が肯定される場合には、SBA8以下の処理が実行されるが、SBA6の判断が否定される場合には、SBA7において、パラメータqに1が加算された(q+1とされた)後、SBA8において、i=nであるか否かが判断される。このSBA8の肯定される場合には、SBA10以下の処理が実行されるが、SBA8の判断が否定される場合には、SBA9において、パラメータiに1が加算された(i+1とされた)後、SBA5以下の処理が再び実行される。SBA10においては、描画率ρ(=q/b)が算出される。このbは、例えば血管枝bに対応する前記仮想画像72の経路点の総数である。次に、SBA11において、SBA10にて算出された描画率ρが出力された後、図17に示す制御に復帰させられる。 FIG. 18 is a flowchart for explaining a main part of an example of the blood vessel branch b drawing rate calculation process in the SBA of the control shown in FIG. First, in SBA1, information related to the blood vessel branch b such as the tree structure data of the blood vessel generated in S4 is acquired. In parallel with the processing of SBA1, in SBA2, the virtual screen drawing parameters p b d b u b and the like output in SA7 are acquired. In parallel with the processing of SBA1 and SBA2, in SBA3, the three-dimensional image data (CT image data or MR image data, etc.) stored in the image database 32 corresponding to the organ to be observed is read. Next, in SBA4, 1 is assigned to the parameter i and 0 is assigned to the parameter q. Next, in SBA5, a ray connecting the viewpoint positions p b and v b i is generated. Next, in SBA6, it is determined whether or not an obstructing object (for example, a virtual image of another organ) exists on the ray generated in SBA5. When the determination of SBA6 is affirmed, the processing below SBA8 is executed, but when the determination of SBA6 is negative, 1 is added to the parameter q in SBA7 (set to q + 1). Thereafter, in SBA8, it is determined whether i = n. When this SBA8 is affirmed, the processing below SBA10 is executed. However, when the determination of SBA8 is negative, 1 is added to the parameter i (i + 1 is set) at SBA9, The processing below SBA5 is executed again. In SBA10, the drawing rate ρ (= q / b) is calculated. This b is the total number of route points of the virtual image 72 corresponding to the blood vessel branch b, for example. Next, in SBA11, after the drawing rate ρ calculated in SBA10 is output, the control is returned to the control shown in FIG.
以上に説明した、図14〜図18の制御において、S1〜S11、SA、及びSBが前記観察制御部50の処理に、S1、S11が前記3次元仮想画像生成部52の処理に、SA及びSBが前記視点位置/視線方向設定部54の処理に、S2〜S4が前記臓器識別部56の処理に、SBAが前記臓器重なり判定部58の処理に、S5〜S7が前記音声認識部60の処理に、S7及びS11が前記解剖学的名称情報発生部62の処理に、S11が前記画像合成表示部64の処理に、それぞれ対応する。 In the control of FIGS. 14 to 18 described above, S1 to S11, SA, and SB are the processes of the observation control unit 50, and S1 and S11 are the processes of the three-dimensional virtual image generation unit 52. SB is the process of the viewpoint position / gaze direction setting unit 54, S2 to S4 are the process of the organ identification unit 56, SBA is the process of the organ overlap determination unit 58, and S5 to S7 are the process of the voice recognition unit 60. S7 and S11 correspond to the processing of the anatomical name information generation unit 62, and S11 corresponds to the processing of the image composition display unit 64, respectively.
このように、本実施例によれば、前記臓器の観察に係る視点位置及び視線方向を3次元で変化させる観察制御部50(S1〜S11、SA、及びSB)と、音声入力装置24から入力される音声を認識し、その音声に対応する臓器の解剖学的名称を判定する音声認識部60(S5〜S7)とを、備え、前記観察制御部50は、前記音声認識部60により判定される臓器の解剖学的名称に基づいて、その臓器の観察に係る視点位置及び視線方向を決定するものであることから、観察したい部位の解剖学的名称を発話することで、その臓器を簡便に表示させるといった制御が可能となる。すなわち、発話による直感的な観察支援を実現する支援装置10を提供することができる。 As described above, according to this embodiment, the observation control unit 50 (S1 to S11, SA, and SB) that changes the viewpoint position and the line-of-sight direction related to the observation of the organ in three dimensions and the voice input device 24 are input. A speech recognition unit 60 (S5 to S7) that recognizes the speech to be performed and determines the anatomical name of the organ corresponding to the speech, and the observation control unit 50 is determined by the speech recognition unit 60. Based on the anatomical name of the target organ, the viewpoint position and line-of-sight direction for observing the organ are determined. Control such as display is possible. That is, it is possible to provide the support device 10 that realizes intuitive observation support by utterance.
前記観察制御部50は、前記臓器の観察に係る視点位置及び視線方向に対応して、その臓器が他の臓器によって遮られると判定される場合には、前記視点位置及び視線方向の少なくとも一方を調整するものであるため、対象となる臓器の観察をより好適なものとすることができる。 In response to the viewpoint position and the line-of-sight direction related to the observation of the organ, the observation control unit 50 determines at least one of the viewpoint position and the line-of-sight direction when it is determined that the organ is blocked by another organ. Since the adjustment is made, observation of the target organ can be made more suitable.
前記観察制御部50は、予め取得された前記臓器の3次元画像データに基づいてその臓器の仮想画像72を生成するものであり、前記音声認識部60により判定される臓器の解剖学的名称に基づいて、その臓器に対応する前記仮想画像72に係る視点位置及び視線方向を決定するものであるため、例えば仮想内視鏡画像表示制御等において、観察したい部位の解剖学的名称を発話することで、その臓器の仮想画像72を簡便に表示させるといった制御が可能となる。 The observation control unit 50 generates a virtual image 72 of the organ based on the three-dimensional image data of the organ acquired in advance, and uses the anatomical name of the organ determined by the speech recognition unit 60. Since the viewpoint position and the line-of-sight direction related to the virtual image 72 corresponding to the organ are determined based on this, the anatomical name of the part to be observed is spoken in, for example, virtual endoscopic image display control Thus, it is possible to perform control such that the virtual image 72 of the organ is simply displayed.
前記観察制御部50は、前記音声認識部60により判定される臓器の解剖学的名称が更新された場合には、前記視点位置を現時点における観察位置から一旦離隔させた後、前記臓器の観察に係る視点位置へ移動させるものであるため、視点位置の移動を利用者により分かり易く認識させることができる。 When the anatomical name of the organ determined by the voice recognition unit 60 is updated, the observation control unit 50 temporarily separates the viewpoint position from the current observation position, and then observes the organ. Since it is moved to such a viewpoint position, the movement of the viewpoint position can be recognized more easily by the user.
前記観察制御部50は、前記被検体の方向に基づいてその被検体における臓器の観察に係る視点位置及び視線方向を決定するものであるため、対象となる臓器の観察をより好適なものとすることができる。 The observation control unit 50 determines the viewpoint position and the line-of-sight direction related to the observation of the organ in the subject based on the direction of the subject, and thus makes the observation of the target organ more suitable. be able to.
前記観察制御部50は、前記臓器の長手方向に基づいてその臓器の観察に係る視点位置及び視線方向を決定するものであるため、対象となる臓器の観察をより好適なものとすることができる。 Since the observation control unit 50 determines the viewpoint position and the line-of-sight direction related to the observation of the organ based on the longitudinal direction of the organ, the observation of the target organ can be made more suitable. .
本実施例によれば、臓器の観察を支援する支援装置10に備えられたCPU12を、前記臓器の観察に係る視点位置及び視線方向を3次元で変化させる観察制御部50、及び、音声入力装置24から入力される音声を認識し、その音声に対応する臓器の解剖学的名称を判定する音声認識部60として機能させ、前記観察制御部50は、前記音声認識部60により判定される臓器の解剖学的名称に基づいて、その臓器の観察に係る視点位置及び視線方向を決定することを特徴とする医用観察支援プログラムであることから、観察したい部位の解剖学的名称を発話することで、その臓器を簡便に表示させるといった制御が可能となる。すなわち、発話による直感的な観察支援を実現する医用観察支援プログラムを提供することができる。 According to the present embodiment, the CPU 12 provided in the support device 10 that supports the observation of the organ, the observation control unit 50 that changes the viewpoint position and the line-of-sight direction related to the observation of the organ in three dimensions, and the voice input device The speech control unit 50 recognizes the voice input from the voice 24 and functions as a voice recognition unit 60 that determines the anatomical name of the organ corresponding to the voice. Based on the anatomical name, it is a medical observation support program characterized by determining the viewpoint position and line-of-sight direction related to the observation of the organ, so by speaking the anatomical name of the part to be observed, It is possible to perform control such that the organ is simply displayed. That is, it is possible to provide a medical observation support program that realizes intuitive observation support by utterance.
続いて、本発明の他の好適な実施例を図面に基づいて詳細に説明する。以下の説明において、実施例相互に共通する部分については同一の符号を用いてその説明を省略する。 Next, another preferred embodiment of the present invention will be described in detail with reference to the drawings. In the following description, portions common to the embodiments are denoted by the same reference numerals and description thereof is omitted.
図19は、前記支援装置10に備えられた装置及び制御機能の一例の要部を説明する機能ブロック線図である。この図19に示すように、本実施例の支援装置10には、医用カメラ80及び医用カメラ駆動部82が備えられている。前記医用カメラ80は、例えばCCD(Charge Coupled Device)等の撮像素子を備えたデジタルカメラであり、前記支援装置10による観察対象である臓器の実際の映像を撮影する撮像装置である。前記医用カメラ駆動部82は、前記医用カメラ80を、前記観察対象である臓器に対して3次元方向に移動させる装置である。前記医用カメラ駆動部82は、前記CPU12から供給される指令に従い、前記医用カメラ80を前記臓器に対して3次元方向に移動させる。前記医用カメラ80及び医用カメラ駆動部82は、好適には、図示しない操作部における操作に応じて被検体の手術を行う所謂マスタースレイブ型医用ロボット等に備えられたものである。前記医用カメラ80及び医用カメラ駆動部82は、好適には、管腔臓器の観察に用いられる公知の電子スコープ或いはファイバスコープ等の内視鏡である。 FIG. 19 is a functional block diagram illustrating a main part of an example of the devices and control functions provided in the support device 10. As shown in FIG. 19, the support apparatus 10 of this embodiment includes a medical camera 80 and a medical camera drive unit 82. The medical camera 80 is a digital camera provided with an imaging element such as a CCD (Charge Coupled Device), for example, and is an imaging device that captures an actual image of an organ to be observed by the support device 10. The medical camera drive unit 82 is a device that moves the medical camera 80 in a three-dimensional direction with respect to the organ to be observed. The medical camera drive unit 82 moves the medical camera 80 in a three-dimensional direction with respect to the organ according to a command supplied from the CPU 12. The medical camera 80 and the medical camera drive unit 82 are preferably provided in a so-called master slave type medical robot or the like that performs an operation on a subject according to an operation in an operation unit (not shown). The medical camera 80 and the medical camera drive unit 82 are preferably endoscopes such as known electronic scopes or fiberscopes used for observing luminal organs.
本実施例の支援装置10における観察制御部50は、前記医用カメラ80を介して観察対象となる臓器の実際の映像を撮影する。このため、前記観察制御部50は、前記医用カメラ80による撮像を制御する撮像制御部66を備えている。この撮像制御部66は、前記医用カメラ駆動部82を介して、前記医用カメラ80を、観察対象である臓器に対して3次元方向に移動させる。すなわち、前記医用カメラ80による前記臓器の撮影に係る視点位置及び視線方向を制御する。本実施例の観察制御部50に備えられた視点位置/視線方向設定部54は、前記撮像制御部66の制御に係る、前記医用カメラ80による前記臓器の撮影に係る視点位置及び視線方向を設定する。 The observation control unit 50 in the support apparatus 10 of the present embodiment captures an actual image of an organ to be observed via the medical camera 80. For this reason, the observation control unit 50 includes an imaging control unit 66 that controls imaging by the medical camera 80. The imaging control unit 66 moves the medical camera 80 in a three-dimensional direction with respect to the organ to be observed via the medical camera driving unit 82. That is, the viewpoint position and the line-of-sight direction related to the imaging of the organ by the medical camera 80 are controlled. The viewpoint position / gaze direction setting unit 54 provided in the observation control unit 50 according to the present embodiment sets the viewpoint position and the gaze direction related to imaging of the organ by the medical camera 80 according to the control of the imaging control unit 66. To do.
本実施例の観察制御部50に備えられた臓器識別部56は、前記医用カメラ80による撮影対象となる実際の臓器を識別する。好適には、それぞれ所定の解剖学的名称で識別される複数の臓器に関して、前記医用カメラ80により撮影される前記臓器における各部が、どの臓器に対応するか識別する。好適には、観察対象となる被検体に対応して予め取得された臓器の3次元画像データを参照し、前記医用カメラ80により撮影される位置が、どの臓器に対応する位置であるか識別する。好適には、前記医用カメラ80による撮影対象である臓器における各部の走行方向、長さ、断面積等の特徴を、対応する3次元画像データから抽出し、前記血管データベース34に記憶された特徴情報を参照することで、対象となる部位がどの臓器に対応するか識別する。例えば、前記血管データベース34に記憶された特徴情報に関して、走行方向、長さ、断面積等の特徴が最も近い臓器を、対象となる部位に対応する臓器として識別する。 The organ identifying unit 56 provided in the observation control unit 50 according to the present embodiment identifies an actual organ to be imaged by the medical camera 80. Preferably, for each of a plurality of organs identified by a predetermined anatomical name, each organ in the organ imaged by the medical camera 80 corresponds to which organ. Preferably, three-dimensional image data of an organ acquired in advance corresponding to a subject to be observed is referred to, and the position corresponding to which organ is imaged by the medical camera 80 is identified. . Preferably, features such as the running direction, length, cross-sectional area, etc., of each part of the organ that is a subject to be imaged by the medical camera 80 are extracted from the corresponding three-dimensional image data and stored in the blood vessel database 34. By referring to, it is identified which organ corresponds to the target region. For example, regarding the feature information stored in the blood vessel database 34, the organ having the closest feature such as the traveling direction, length, cross-sectional area, etc. is identified as the organ corresponding to the target region.
前述のように、前記血管データベース34には、観察対象である臓器(血管枝)それぞれに対応して、平均観察方向、平均観察上向き方向、観察方向標準偏差、観察上向き方向標準偏差、平均観察位置、及び平均観察上向き位置等の視点位置及び視線方向に関する情報が予め定められて記憶されている。前記視点位置/視線方向設定部54は、前記音声認識部60により所定の臓器の解剖学的名称が判定された場合、その臓器の解剖学的名称に対応して前記血管データベース34に記憶された視点位置及び視線方向に関する情報を読み出し、その情報に基づいて前記臓器の観察に係る視点位置及び視線方向を決定する。すなわち、前記視点位置/視線方向設定部54は、前記音声認識部60により判定される臓器の解剖学的名称に基づいて、前記医用カメラ80によるその臓器の撮影に係る視点位置及び視線方向を決定する。 As described above, the blood vessel database 34 includes an average observation direction, an average observation upward direction, an observation direction standard deviation, an observation upward direction standard deviation, and an average observation position corresponding to each organ (blood vessel branch) to be observed. And information regarding the viewpoint position and the line-of-sight direction, such as the average observation upward position, are stored in advance. When the voice recognition unit 60 determines the anatomical name of a predetermined organ, the viewpoint position / gaze direction setting unit 54 stores the anatomical name of the organ stored in the blood vessel database 34. Information on the viewpoint position and the line-of-sight direction is read out, and the viewpoint position and the line-of-sight direction related to the observation of the organ are determined based on the information. That is, the viewpoint position / gaze direction setting unit 54 determines a viewpoint position and a gaze direction related to imaging of the organ by the medical camera 80 based on the anatomical name of the organ determined by the voice recognition unit 60. To do.
本実施例の観察制御部50に備えられた画像合成表示部64は、前記医用カメラ80により撮影される前記臓器の実際の映像に対して、前記解剖学的名称情報発生部62により生成されたテキストデータを合成させ、前記映像表示装置20に表示させる。好適には、前記医用カメラ80により撮影される前記臓器の実際の映像において、前記臓器識別部56により識別される観察対象である臓器に対応する部位に、その臓器の解剖学的名称に対応するテキストデータを合成させ、前記映像表示装置20に表示させる。 The image composition display unit 64 provided in the observation control unit 50 of the present embodiment is generated by the anatomical name information generation unit 62 with respect to an actual image of the organ imaged by the medical camera 80. The text data is synthesized and displayed on the video display device 20. Preferably, in the actual image of the organ imaged by the medical camera 80, the part corresponding to the organ to be observed identified by the organ identifying unit 56 corresponds to the anatomical name of the organ. The text data is synthesized and displayed on the video display device 20.
本実施例の観察制御部50に備えられた臓器重なり判定部58は、前記視点位置/視線方向設定部54により設定された、前記医用カメラ80によるその臓器の撮影に係る視点位置及び視線方向に対応して、その臓器の実際の映像が他の臓器によって遮られるか否かを判定する。具体的には、前記実施例において詳述したような方法を用いて、観察対象となる臓器に対応する実際の映像の、撮像画面全体における占有率(実際の映像が占める面積の割合)を算出する。その占有率が予め定められた閾値未満である場合には、前記観察対象となる臓器が他の臓器によって遮られていると判定する。 The organ overlap determination unit 58 provided in the observation control unit 50 of the present embodiment sets the viewpoint position and the line-of-sight direction related to imaging of the organ by the medical camera 80 set by the viewpoint position / line-of-sight direction setting unit 54. Correspondingly, it is determined whether or not the actual image of the organ is obstructed by another organ. Specifically, using the method described in detail in the above embodiment, the occupancy ratio (the ratio of the area occupied by the actual image) of the actual image corresponding to the organ to be observed in the entire imaging screen is calculated. To do. When the occupation ratio is less than a predetermined threshold, it is determined that the organ to be observed is obstructed by another organ.
その他、前記臓器重なり判定部58により、臓器が他の臓器によって遮られると判定される場合には、前記視点位置及び視線方向の少なくとも一方を調整する制御、前記音声認識部60により判定される臓器の解剖学的名称が更新された場合には、前記視点位置を現時点における観察位置から一旦離隔させた後、前記臓器の観察に係る視点位置へ移動させる制御、前記被検体の方向に基づいてその被検体における臓器の観察に係る視点位置及び視線方向を決定する制御、前記臓器の長手方向に基づいてその臓器の観察に係る視点位置及び視線方向を決定する制御等については、前記実施例において詳述した制御が、本実施例においても同様に適用される。 In addition, when the organ overlap determination unit 58 determines that the organ is obstructed by another organ, control for adjusting at least one of the viewpoint position and the line-of-sight direction, and the organ determined by the speech recognition unit 60 When the anatomical name is updated, the viewpoint position is once separated from the current observation position, and then moved to the viewpoint position related to the observation of the organ, based on the direction of the subject. The control for determining the viewpoint position and the line-of-sight direction related to the observation of the organ in the subject, the control for determining the viewpoint position and the line-of-sight direction related to the observation of the organ based on the longitudinal direction of the organ, and the like in the embodiment. The control described above is similarly applied to this embodiment.
このように、本実施例によれば、前記観察制御部50は、前記臓器の実際の映像を撮影するものであり、前記音声認識部60により判定される臓器の解剖学的名称に基づいて、その臓器の撮影に係る視点位置及び視線方向を決定するものであるため、例えば所謂手術ロボットを用いた手術における手術ナビゲーション等において、観察したい部位の解剖学的名称を発話することで、その臓器の像を簡便に撮影するといった制御が可能となる。 Thus, according to the present embodiment, the observation control unit 50 captures an actual image of the organ, and based on the anatomical name of the organ determined by the speech recognition unit 60, Since the viewpoint position and the line-of-sight direction for imaging the organ are determined, for example, in surgical navigation using a so-called surgical robot, by speaking the anatomical name of the site to be observed, It is possible to perform control such as simply capturing an image.
以上、本発明の好適な実施例を図面に基づいて詳細に説明したが、本発明はこれに限定されるものではなく、更に別の態様においても実施される。 The preferred embodiments of the present invention have been described in detail with reference to the drawings. However, the present invention is not limited to these embodiments, and may be implemented in other modes.
例えば、前述の実施例1においては、予め取得された臓器の3次元画像データに基づいてその臓器の3次元仮想画像を生成する制御に本発明が適用された例について、前述の実施例2においては、前記臓器の実際の映像を撮影する制御に本発明が適用された例についてそれぞれ説明したが、これらの制御は複合的に適用されてもよい。例えば、予め取得された臓器の3次元画像データに基づいてその臓器の3次元仮想画像を生成する制御と、前記臓器の実際の映像を撮影する制御とを同期して実行する医用観察支援装置において、本発明がその両者の制御に適用されるものであってもよい。更には、観察対象となる臓器の仮想的な外形(例えば、正面側から視た外観を表す像)を示す3次元仮想画像の表示制御と、観察対象となる臓器の内部(内腔)に内視鏡を挿入して撮影を行った際の映像に対応する3次元仮想内視鏡画像を、前記3次元画像データに基づいて表示させる表示制御とを、同期して実行する医用観察支援装置において、本発明がその両者の制御に適用されるものであってもよい。 For example, in Example 1 described above, an example in which the present invention is applied to control for generating a 3D virtual image of an organ based on 3D image data of the organ acquired in advance is described in Example 2 described above. Have been described with respect to examples in which the present invention is applied to control for capturing an actual image of the organ, but these controls may be applied in combination. For example, in a medical observation support apparatus that executes synchronously control for generating a three-dimensional virtual image of an organ based on pre-acquired three-dimensional image data of the organ and control for capturing an actual video of the organ. The present invention may be applied to control of both. Furthermore, display control of a three-dimensional virtual image showing a virtual outer shape of an organ to be observed (for example, an image representing an appearance viewed from the front side), and internal (inner lumen) of the organ to be observed. In a medical observation support apparatus that synchronously executes display control for displaying a three-dimensional virtual endoscopic image corresponding to an image taken by inserting an endoscope based on the three-dimensional image data The present invention may be applied to control of both.
前述の実施例においては、前記音声認識部60により判定される1つの臓器の解剖学的名称に基づいて、その臓器の観察に係る視点位置及び視線方向を決定する制御について説明したが、前記音声認識部60により判定される2つ以上の臓器の解剖学的名称に基づいて、それらの臓器の観察に係る視点位置及び視線方向を決定するものであってもよい。例えば、「CAとLGAとの分岐部」との発声に応じて、観察対象となる臓器における解剖学的名称「CA」と「LGA」との分岐部における3次元仮想画像を表示させる(或いは、斯かる部位の実際の映像を撮影する)ように視点位置及び視線方向を設定するものであってもよい。 In the above-described embodiment, the control for determining the viewpoint position and the line-of-sight direction related to the observation of the organ based on the anatomical name of the one organ determined by the voice recognition unit 60 has been described. Based on the anatomical names of two or more organs determined by the recognition unit 60, the viewpoint position and the line-of-sight direction for observing these organs may be determined. For example, in response to the utterance of “branch portion of CA and LGA”, a three-dimensional virtual image at the branch portion of the anatomical names “CA” and “LGA” in the organ to be observed is displayed (or The viewpoint position and the line-of-sight direction may be set so that an actual image of such a part is captured.
前述の実施例においては、前記音声認識部60により「上向き」に対応する音素テキストが認識された場合等において、観察対象となる臓器を上向きに観察する制御について説明したが、音声認識により、観察対象となる部位をより詳しく指示する制御を行うものであってもよい。例えば、「CAを右から」との発声に応じて、解剖学的名称「CA」に対応する臓器を右側から左側に向かって観察する視点位置及び視線方向を設定する制御、「CAを大きく」との発声に応じて、解剖学的名称「CA」に対応する臓器を拡大して観察する視点位置及び視線方向を設定する制御等を行うものであってもよい。或いは、前記支援装置10による観察に係る履歴を前記RAM16等に記憶させておき、「さっきの」との発声に応じて、前記RAM16等に記憶された履歴における視点位置及び視線方向を再度設定する制御を行うものであってもよい。 In the embodiment described above, the control for observing the organ to be observed upward when the phoneme text corresponding to “upward” is recognized by the speech recognition unit 60 has been described. You may perform control which instruct | indicates the site | part used as object more in detail. For example, in response to the utterance of “CA from the right”, the control for setting the viewpoint position and the line-of-sight direction for observing the organ corresponding to the anatomical name “CA” from the right side to the left side, “increase CA” , The control may be performed to set the viewpoint position and the line-of-sight direction for magnifying and observing the organ corresponding to the anatomical name “CA”. Alternatively, the history related to the observation by the support device 10 is stored in the RAM 16 or the like, and the viewpoint position and the line-of-sight direction in the history stored in the RAM 16 or the like are set again in response to the utterance of “previous”. Control may be performed.
前述の実施例においては、「CMA」等の解剖学的名称の略称の発声に応じて、その解剖学的名称に対応する臓器の観察に係る視点位置及び視線方向を設定する制御について説明したが、「上腸間膜動脈」等の和名の発声、或いは「Superior mesenteric artery」等の正式名の発声に応じて同様の制御を行うものであってもよい。 In the above-described embodiment, the control for setting the viewpoint position and the line-of-sight direction related to the observation of the organ corresponding to the anatomical name according to the utterance of the abbreviation of the anatomical name such as “CMA” has been described. The same control may be performed according to utterances of Japanese names such as “superior mesenteric artery” or utterances of official names such as “Superior mesenteric artery”.
その他、一々例示はしないが、本発明はその趣旨を逸脱しない範囲内において種々の変更が加えられて実施されるものである。 In addition, although not illustrated one by one, the present invention is implemented with various modifications within a range not departing from the gist thereof.
10:医用観察支援装置、24:音声入力装置、50:観察制御部、60:音声認識部、72、76:3次元仮想画像 10: medical observation support device, 24: voice input device, 50: observation control unit, 60: voice recognition unit, 72, 76: three-dimensional virtual image
Claims (8)
前記臓器の観察に係る視点位置及び視線方向を3次元で変化させる観察制御部と、
音声入力装置から入力される音声を認識し、該音声に対応する臓器の解剖学的名称を判定する音声認識部と
を、備え、
前記観察制御部は、前記音声認識部により判定される臓器の解剖学的名称に基づいて、該臓器の観察に係る視点位置及び視線方向を決定するものである
ことを特徴とする医用観察支援装置。 A medical observation support apparatus for supporting observation of an organ in a subject,
An observation control unit that changes the viewpoint position and the line-of-sight direction for observation of the organ in three dimensions;
A voice recognition unit that recognizes a voice input from a voice input device and determines an anatomical name of an organ corresponding to the voice;
The observation control unit is configured to determine a viewpoint position and a line-of-sight direction related to observation of an organ based on an anatomical name of the organ determined by the voice recognition unit. .
請求項1に記載の医用観察支援装置。 The observation control unit adjusts at least one of the viewpoint position and the line-of-sight direction when it is determined that the organ is obstructed by another organ corresponding to the viewpoint position and the line-of-sight direction related to the observation of the organ. The medical observation support apparatus according to claim 1.
請求項1又は2に記載の医用観察支援装置。 The observation control unit generates a three-dimensional virtual image of the organ based on the three-dimensional image data of the organ acquired in advance, and is based on the anatomical name of the organ determined by the voice recognition unit. The medical observation support apparatus according to claim 1 or 2, wherein a viewpoint position and a line-of-sight direction related to the three-dimensional virtual image corresponding to the organ are determined.
請求項1又は2に記載の医用観察支援装置。 The observation control unit captures an actual image of the organ, and determines a viewpoint position and a line-of-sight direction related to the imaging of the organ based on an anatomical name of the organ determined by the voice recognition unit The medical observation support apparatus according to claim 1 or 2.
請求項1から4の何れか1項に記載の医用観察支援装置。 When the anatomical name of the organ determined by the voice recognition unit is updated, the observation control unit temporarily separates the viewpoint position from the current observation position, and then performs a viewpoint related to the observation of the organ. The medical observation support apparatus according to any one of claims 1 to 4, wherein the medical observation support apparatus is moved to a position.
請求項1から5の何れか1項に記載の医用観察支援装置。 The medical observation support according to any one of claims 1 to 5, wherein the observation control unit determines a viewpoint position and a line-of-sight direction related to observation of an organ in the subject based on the direction of the subject. apparatus.
請求項1から6の何れか1項に記載の医用観察支援装置。 The medical observation support apparatus according to any one of claims 1 to 6, wherein the observation control unit determines a viewpoint position and a line-of-sight direction for observation of the organ based on a longitudinal direction of the organ.
前記臓器の観察に係る視点位置及び視線方向を3次元で変化させる観察制御部、
及び、音声入力装置から入力される音声を認識し、該音声に対応する臓器の解剖学的名称を判定する音声認識部
として機能させ、
前記観察制御部は、前記音声認識部により判定される臓器の解剖学的名称に基づいて、該臓器の観察に係る視点位置及び視線方向を決定するものである
ことを特徴とする医用観察支援プログラム。 A control device provided in a medical observation support device that supports observation of an organ,
An observation control unit for changing the viewpoint position and the line-of-sight direction in the three-dimensional view related to the observation of the organ;
And recognizes the voice input from the voice input device, and functions as a voice recognition unit that determines the anatomical name of the organ corresponding to the voice,
The said observation control part determines the viewpoint position and gaze direction which concern on observation of the said organ based on the anatomical name of the organ determined by the said voice recognition part, The medical observation assistance program characterized by the above-mentioned .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013180682A JP6304737B2 (en) | 2013-08-30 | 2013-08-30 | Medical observation support apparatus and medical observation support program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013180682A JP6304737B2 (en) | 2013-08-30 | 2013-08-30 | Medical observation support apparatus and medical observation support program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2015047309A true JP2015047309A (en) | 2015-03-16 |
| JP6304737B2 JP6304737B2 (en) | 2018-04-04 |
Family
ID=52697825
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013180682A Active JP6304737B2 (en) | 2013-08-30 | 2013-08-30 | Medical observation support apparatus and medical observation support program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6304737B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017149868A1 (en) * | 2016-03-01 | 2017-09-08 | ソニー株式会社 | Information processing device, information processing method, and program |
| US20200367733A1 (en) | 2018-02-21 | 2020-11-26 | Olympus Corporation | Medical system and medical system operating method |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11104064A (en) * | 1997-10-01 | 1999-04-20 | Olympus Optical Co Ltd | Viewing field changing device of endoscope |
| JP2005211531A (en) * | 2004-01-30 | 2005-08-11 | Olympus Corp | Virtual image display system |
| JP2006146473A (en) * | 2004-11-18 | 2006-06-08 | Ziosoft Inc | Image processing program |
| US20090161927A1 (en) * | 2006-05-02 | 2009-06-25 | National University Corporation Nagoya University | Medical Image Observation Assisting System |
| JP2009529951A (en) * | 2006-03-13 | 2009-08-27 | ブラッコ イメージング エス.ピー.エー. | Method and apparatus for recording and reviewing a surgical navigation process |
-
2013
- 2013-08-30 JP JP2013180682A patent/JP6304737B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11104064A (en) * | 1997-10-01 | 1999-04-20 | Olympus Optical Co Ltd | Viewing field changing device of endoscope |
| JP2005211531A (en) * | 2004-01-30 | 2005-08-11 | Olympus Corp | Virtual image display system |
| JP2006146473A (en) * | 2004-11-18 | 2006-06-08 | Ziosoft Inc | Image processing program |
| JP2009529951A (en) * | 2006-03-13 | 2009-08-27 | ブラッコ イメージング エス.ピー.エー. | Method and apparatus for recording and reviewing a surgical navigation process |
| US20090161927A1 (en) * | 2006-05-02 | 2009-06-25 | National University Corporation Nagoya University | Medical Image Observation Assisting System |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017149868A1 (en) * | 2016-03-01 | 2017-09-08 | ソニー株式会社 | Information processing device, information processing method, and program |
| US10522145B2 (en) | 2016-03-01 | 2019-12-31 | Sony Corporation | Information processing apparatus and information processing method |
| US20200367733A1 (en) | 2018-02-21 | 2020-11-26 | Olympus Corporation | Medical system and medical system operating method |
| US11800966B2 (en) | 2018-02-21 | 2023-10-31 | Olympus Corporation | Medical system and medical system operating method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6304737B2 (en) | 2018-04-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| AU2019204469B2 (en) | Dynamic 3D lung map view for tool navigation inside the lung | |
| JP7167030B2 (en) | MEDICAL NAVIGATION SYSTEM USING SHAPE SENSING DEVICE AND METHOD OF OPERATION | |
| US8509877B2 (en) | Endoscope insertion support system and endoscope insertion support method | |
| JP4653542B2 (en) | Image processing device | |
| CN104411226B (en) | Enhanced Vascular Visualization Using a Robotically Steered Endoscope | |
| JP4899068B2 (en) | Medical image observation support device | |
| CN106572827B (en) | Intelligent display | |
| CN106030656B (en) | System and method for visualizing an anatomical target | |
| JP4875416B2 (en) | Medical guide system | |
| US7978891B2 (en) | Method and processor for generating a medical image using stored pan/zoom preferences | |
| JP5025423B2 (en) | Catheter insertion guide system and medical image diagnostic apparatus incorporating the system | |
| JP2017529116A (en) | Guide wire maneuver for sinus surgery | |
| CN110248603A (en) | 3D ultrasound and computer tomography are combined for guiding intervention medical protocol | |
| WO2015059932A1 (en) | Image processing device, method and program | |
| JPWO2021145413A5 (en) | Surgery support system, control device, and information processing method | |
| JP5947707B2 (en) | Virtual endoscopic image display apparatus and method, and program | |
| CN115484871A (en) | Visualization of vasculature | |
| JP5961504B2 (en) | Virtual endoscopic image generating apparatus, operating method thereof, and program | |
| JP6270026B2 (en) | Endoscopic observation support device | |
| CN105078402B (en) | X-ray diagnostic apparatus | |
| US20230215059A1 (en) | Three-dimensional model reconstruction | |
| JP6304737B2 (en) | Medical observation support apparatus and medical observation support program | |
| US10085705B2 (en) | Medical observation system | |
| JP5930539B2 (en) | MEDICAL IMAGE DISPLAY DEVICE, METHOD, AND PROGRAM | |
| JP2017108934A (en) | Medical image processing apparatus, control method thereof, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160830 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170619 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170907 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180213 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180301 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6304737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |