[go: up one dir, main page]

JP2009112468A - Image alignment apparatus and method, and image alignment program - Google Patents

Image alignment apparatus and method, and image alignment program Download PDF

Info

Publication number
JP2009112468A
JP2009112468A JP2007287846A JP2007287846A JP2009112468A JP 2009112468 A JP2009112468 A JP 2009112468A JP 2007287846 A JP2007287846 A JP 2007287846A JP 2007287846 A JP2007287846 A JP 2007287846A JP 2009112468 A JP2009112468 A JP 2009112468A
Authority
JP
Japan
Prior art keywords
image data
alignment
region
reference image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007287846A
Other languages
Japanese (ja)
Other versions
JP5835680B2 (en
Inventor
Asahiko Kihara
朝彦 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2007287846A priority Critical patent/JP5835680B2/en
Publication of JP2009112468A publication Critical patent/JP2009112468A/en
Application granted granted Critical
Publication of JP5835680B2 publication Critical patent/JP5835680B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】超音波画像同士や超音波画像と他のモダリティ画像とのような超音波画像データを含む3次元の参照画像データと三次元の対象画像データとの位置合わせを良好すること。
【解決手段】例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとにおいて解剖学的に特徴的な画像を有するところに位置合わせ候補の各小領域E、Eを領域設定部15により設定し、これら小領域E、E間の画像類似度を求め、この画像類似度が最も大きくなるように治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとの位置合わせを位置合わせ部16により行う。
【選択図】図1
To improve the alignment between three-dimensional reference image data and three-dimensional target image data including ultrasonic image data such as ultrasonic images or ultrasonic images and other modality images.
For example, reference image data R such as US image data 19-1 before treatment and target image data F such as US image data 19-2 after treatment have anatomically characteristic images. The sub-regions E 1 and E 2 of the alignment candidates are set by the region setting unit 15, the image similarity between the small regions E 1 and E 2 is obtained, and the pre-treatment is set so that the image similarity is maximized. The alignment unit 16 aligns the reference image data R such as the US image data 19-1 and the target image data F such as the US image data 19-2 after the treatment.
[Selection] Figure 1

Description

本発明は、例えば患者等の被検体を撮影して取得した超音波画像データを含む3次元の参照画像データと三次元の対象画像データとの位置合わせを行う画像位置合わせ装置及びその方法並びに画像位置合わせプログラムに関する。   The present invention relates to an image alignment apparatus and method for aligning 3D reference image data including ultrasonic image data acquired by imaging a subject such as a patient and 3D target image data, and an image thereof. It relates to an alignment program.

超音波画像群の自動的な空間的位置合わせは、CT画像やMR画像に比べて難しいことが一般的に知られている。この理由は、超音波画像がCT画像やMR画像よりも撮影条件の多様性やゲインの不均一性、又画像の分解能とS/Nとが劣ることからである。
超音波画像を用いて病変の経時変化や治療効果を判定するためには、撮影時刻や手技の異なる超音波画像が対象になる。例えば、手術前に撮影した超音波画像と手術後に撮影した超音波画像とを比較して病変の経時変化や治療効果を判定する。これら手術前に撮影した超音波画像と手術後に撮影した超音波画像とでは、それぞれ撮影したときの患者等の被検体の体位の違いや、造影の有無の相違があり、さらには治療や病状の進行による被検体の形態そのものの変化がある。これらの要因により超音波画像を自動的に空間的位置合わせすることが難しくなっている。
It is generally known that automatic spatial alignment of ultrasound image groups is more difficult than CT images and MR images. This is because the ultrasonic image is inferior to the CT image or MR image in the variety of imaging conditions, the non-uniformity of the gain, and the image resolution and S / N are inferior.
In order to determine a change with time and a therapeutic effect of a lesion using an ultrasound image, ultrasound images with different imaging times and procedures are targeted. For example, an ultrasonic image taken before the operation and an ultrasonic image taken after the operation are compared to determine the temporal change of the lesion and the therapeutic effect. There is a difference in the position of the subject such as the patient at the time of imaging, and the presence or absence of contrast enhancement between the ultrasound image taken before the surgery and the ultrasound image taken after the surgery. There is a change in the shape of the subject itself due to progress. These factors make it difficult to automatically spatially align ultrasound images.

超音波画像と他のモダリティ画像、例えばX線CT画像、超音波Bモード画像、造影剤動脈相画像、造影剤静脈相画像、MR画像などの画像との画像位置合わせでは、それぞれの画像生成機序が異なるために画素値間に一対一の関係が存在せず、さらに空間的位置合わせが難しくなっている。   In image alignment between images such as an ultrasound image and other modality images such as an X-ray CT image, an ultrasound B-mode image, a contrast agent arterial phase image, a contrast agent vein phase image, and an MR image, each image generator Since the order is different, there is no one-to-one relationship between pixel values, and spatial alignment is more difficult.

位置合わせの対象となる画像、すなわち参照画像に対して位置合わせする対象画像の種類が増えれば増えるほど、例えば対象画像の種類がX線CT画像、超音波Bモード画像、造影剤動脈相、造影剤静脈相画像等のように増加すると、これら画像間で共通に観察できる領域や解剖学的特徴が少なくなることも解決すべき課題である。   As the types of images to be aligned, that is, the types of target images to be aligned with respect to the reference image increase, for example, the types of target images include X-ray CT images, ultrasound B-mode images, contrast agent arterial phases, and contrast media. It is a problem to be solved that if the number of the venous phase images increases, the area and anatomical features that can be commonly observed between these images are reduced.

モダリティの異なる各画像間の類似度指標として相互情報量が報告されている。この相互情報量は、特にCT画像やMR画像において比較的良好な結果が報告されている。各画像間の位置合わせが成功する相対初期位置の正解からのズレは、キャプチャーレンジと呼ばれる。このキャプチャーレンジは、(1)分解能が良好なことに加え、体表を含めた体全体を撮影するので頭部、脳、体幹部等の共通な解剖学的特徴領域を決定し易いこと、(2)撮影するときの被検体の体位の標準化が進んでいることからキャプチャーレンジ内に初期位置を設定しやすいことが挙げられる。これにより、CT画像やMR画像の各画像間の位置合わせにおいて比較的良好な結果が得られている。但し、一般に画像類似度の計算領域が大きくなり、そのため計算時間が長く掛かる。   Mutual information is reported as a similarity index between images with different modalities. This mutual information amount has been reported to be relatively good particularly in CT images and MR images. The deviation from the correct answer of the relative initial position where the alignment between each image is successful is called a capture range. This capture range has (1) good resolution, and since the entire body including the body surface is imaged, it is easy to determine common anatomical feature regions such as the head, brain, and trunk, 2) It is easy to set the initial position within the capture range since the standardization of the body position of the subject at the time of imaging is progressing. Thereby, comparatively good results are obtained in the alignment between the CT images and the MR images. However, in general, the image similarity calculation area becomes large, and therefore it takes a long calculation time.

超音波画像同士の位置合わせも幾つか試みられているが、他のモダリティに比べてその数は少ない。これは、先に述べた超音波画像の特性に加えて、(1)超音波プローブをマニュアルで操作して撮影すること、(2)例えば被検体の肝臓を撮影するときに肋骨の存在のために超音波画像を撮影する視野が限定されること、(3)被検体の撮影体位に自由度がありその標準化が進んでいないこと、(4)得られた超音波画像は被検体の体内の一部を切り取った形、例えば四角錘状の領域として得られこの外側は視野外となること、などの理由で超音波画像間の相対的なオリエンテーションを認識することが難しく、相対初期位置をキャプチャーレンジ内に設定することが難しいこともその一因であると考えられる。   Some attempts have been made to align ultrasonic images, but the number is smaller than other modalities. This is because, in addition to the characteristics of the ultrasound image described above, (1) imaging by manually operating the ultrasound probe, (2) due to the presence of ribs when imaging the liver of the subject, for example. (3) The subject's imaging position is flexible and its standardization has not progressed, and (4) the obtained ultrasound image is in the body of the subject. It is difficult to recognize the relative orientation between the ultrasound images because the part is cut out, for example, it is obtained as a quadrangular pyramid area and the outside is outside the field of view. One of the reasons is considered to be difficult to set within the range.

超音波画像間に特有の位置合わせの問題として、超音波画像には、超音波プローブによる患部等の被検体に対する圧迫や、撮影時の患者等の被検体の体位に起因した臓器の変形が本質的に含まれる。例えば、病変の経時変化や治療効果を判定するために手術前と手術後とにおいて、患部等の被検体に超音波プローブを当てて超音波画像を取得する場合、手術前と手術後とでは、被検体の体位の状態、例えば体位を横方向にしたときのねじれの度合いを同一にすることが難しく、かつ超音波プローブを被検体に当てる方向も同一にすることが難しい。そもそも被検体の体位や超音波プローブを当てる方向に正しい位置が存在せず、仮にCT画像やMR画像と同程度にオリエンテーションを合わせたとしてもても、CT画像やMR画像の場合と同じ効果を期待することは出来ない。
J.P.W.Pluim, J.B.A.Maintz, “Mutual-Information-Based Registration of Medical Images: A Survey”, IEEE Trans. Med.Imag., vol.22, pp. 986-1004, August 2003 R.Shekhar, and V.Zagrodsky, “Mutual Information-Based Rigid and Nonrigid Regitration of Ultrasound Volumes”, IEEE Trans. Med.Imag., vol.21, pp. 9-22, January 2002 R.Shekhar, V.Zagrodsky, J.Garcia, and D.Thomas, “Registration of Real-Time 3-D Ultrasound Images of the Heart for Novel 3-D Stress Echocardiography”, IEEE Med.Imag., vol.23, pp. 1141-114, September 2004
As positioning problems peculiar to the ultrasound images, the ultrasound images include the compression of the subject such as the affected area by the ultrasound probe and the deformation of the organ due to the posture of the subject such as the patient at the time of imaging. Is included. For example, in order to determine the temporal change of the lesion and the treatment effect before and after surgery, when acquiring an ultrasound image by applying an ultrasound probe to a subject such as an affected part, before and after surgery, It is difficult to make the posture state of the subject, for example, the degree of twisting when the posture is in the horizontal direction, and to make the direction in which the ultrasonic probe is applied to the subject the same. In the first place, there is no correct position in the body position of the subject or the direction in which the ultrasound probe is applied, and even if the orientation is adjusted to the same extent as the CT image or MR image, the same effect as in the case of the CT image or MR image is obtained. I can't expect.
JPWPluim, JBAMaintz, “Mutual-Information-Based Registration of Medical Images: A Survey”, IEEE Trans. Med. Imag., Vol. 22, pp. 986-1004, August 2003 R.Shekhar, and V.Zagrodsky, “Mutual Information-Based Rigid and Nonrigid Regitration of Ultrasound Volumes”, IEEE Trans. Med. Imag., Vol. 21, pp. 9-22, January 2002 R.Shekhar, V.Zagrodsky, J.Garcia, and D.Thomas, “Registration of Real-Time 3-D Ultrasound Images of the Heart for Novel 3-D Stress Echocardiography”, IEEE Med.Imag., Vol.23, pp. 1141-114, September 2004

本発明の目的は、超音波画像同士や超音波画像と他のモダリティ画像とのような超音波画像データを含む3次元の参照画像データと三次元の対象画像データとの位置合わせを良好にできる画像位置合わせ装置及びその方法並びに画像位置合わせプログラムを提供することにある。   An object of the present invention is to make it possible to satisfactorily align three-dimensional target image data with three-dimensional reference image data including ultrasonic image data such as ultrasonic images or ultrasonic images and other modality images. An image alignment apparatus and method, and an image alignment program are provided.

本発明の請求項1記載の画像位置合わせ装置は、三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定する領域設定部と、領域設定部により設定された各領域間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行う位置合わせ部と、位置合わせ部により位置合わせした参照画像データと対象画像データとをディスプレイに表示する表示部とを具備する。   The image registration apparatus according to claim 1 of the present invention selects feature points on the three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data. A region setting unit that sets each region of the alignment candidate formed in a required size, and an image similarity between the regions set by the region setting unit is obtained, and the reference image is maximized. An alignment unit that performs alignment between the data and the target image data, and a display unit that displays the reference image data and the target image data aligned by the alignment unit on a display.

本発明の請求項28記載の画像位置合わせ方法は、三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定し、設定された各領域間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行い、位置合わせした参照画像データと対象画像データとをディスプレイに表示する。   According to a 28th aspect of the present invention, in the image registration method, feature points are selected on the three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data. Each region of the alignment candidate formed in the required size is set, the image similarity between the set regions is obtained, and the position of the reference image data and the target image data is maximized so that the image similarity is maximized. The registered reference image data and target image data are displayed on the display.

本発明の請求項29記載の画像位置合わせプログラムは、三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定させ、設定された各領域間の画像類似度を求めさせ、この画像類似度が最も大きくなるように参照画像データと対象画像データとを位置合わせさせ、位置合わせした参照画像データと対象画像データとをディスプレイに表示させる。   An image registration program according to a twenty-ninth aspect of the present invention selects a feature point on three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data. Each area of the alignment candidate formed in the required size is set, and the image similarity between the set areas is obtained, and the reference image data and the target image data are set so that the image similarity is maximized. The registered reference image data and target image data are displayed on the display.

本発明によれば、超音波画像同士や超音波画像と他のモダリティ画像とのような超音波画像データを含む3次元の参照画像データと三次元の対象画像データとの位置合わせを良好にできる画像位置合わせ装置及びその方法並びに画像位置合わせプログラムを提供できる。   According to the present invention, it is possible to satisfactorily align the three-dimensional target image data with the three-dimensional reference image data including the ultrasonic image data such as the ultrasonic images or between the ultrasonic image and another modality image. An image alignment apparatus and method, and an image alignment program can be provided.

以下、本発明の一実施の形態について図面を参照して説明する。
図1は画像位置合わせ装置のブロック構成図を示す。画像位置合わせ装置1には、ネットワーク2を介して複数のモダリティ、例えば超音波診断装置(以下、US診断装置と称する)3、X線CT装置4、MR装置5等が接続されている。
画像位置合わせ装置1は、CPU等から成る主制御部6を有する。この主制御部6には、プログラムメモリ7と、データメモリ8と、画像データベース9と、伝送部10と、ディスプレイ11と、操作部12とが接続されている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of an image alignment apparatus. A plurality of modalities, for example, an ultrasonic diagnostic apparatus (hereinafter referred to as US diagnostic apparatus) 3, an X-ray CT apparatus 4, an MR apparatus 5 and the like are connected to the image alignment apparatus 1 via a network 2.
The image alignment apparatus 1 has a main control unit 6 composed of a CPU or the like. A program memory 7, a data memory 8, an image database 9, a transmission unit 10, a display 11, and an operation unit 12 are connected to the main control unit 6.

プログラムメモリ7には、例えば治療前の三次元(3D)のUS画像データ(USボリュームデータとも称する)と治療後の三次元のUS画像データ、又は三次元のUS画像データと他の三次元のモダリティ画像、例えばX線CT画像データ(CTボリュームデータとも称する)、MR画像データ(MRボリュームデータとも称する)との位置合わせを行わせる画像位置合わせプログラムが記憶されている。この画像位置合わせプログラムは、例えば治療前のUS画像データ等の三次元の参照画像データ上とこの参照画像データに対して位置合わせする治療後の少なくとも1つのUS画像データ等の三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各小領域をそれぞれ設定させ、この設定された各小領域間の画像類似度を求めさせ、この画像類似度が最も大きくなるように参照画像データと対象画像データとを位置合わせさせ、この位置合わせした参照画像データと対象画像データとをディスプレイ11に表示させる。   The program memory 7 stores, for example, three-dimensional (3D) US image data (also referred to as US volume data) before treatment and three-dimensional US image data after treatment, or three-dimensional US image data and other three-dimensional US image data. An image alignment program for performing alignment with modality images, for example, X-ray CT image data (also referred to as CT volume data) and MR image data (also referred to as MR volume data) is stored. The image registration program is, for example, a three-dimensional target image such as at least one US image data after registration on the three-dimensional reference image data such as US image data before treatment and the reference image data. In the data, each small region of the alignment candidate formed to the size required for selecting the feature point is set, and the image similarity between the set small regions is obtained. The reference image data and the target image data are aligned so as to increase, and the aligned reference image data and target image data are displayed on the display 11.

データメモリ8には、参照画像データと対象画像データとを位置合わせ処理するときに必要なデータが一時記憶される。
画像データベース9には、US診断装置3やX線CT装置4、MR装置5等からネットワーク2を通して受け取った各モダリティの画像データが記憶される。これらモダリティの画像データは、例えば治療前のUS画像データ、治療後のUS画像データ、US造影画像データ、治療前のCT画像データ、MR画像データ等である。
伝送部10は、US診断装置3やX線CT装置4、MR装置5等からの各モダリティの画像データをネットワーク2を介して受け取る。
ディスプレイ11は、位置合わせ前の例えば治療前のUS画像データと治療後のUS画像データとを表示したり、位置合わせ後の例えば治療前のUS画像データと治療後のUS画像データとを表示する。
操作部12は、例えばキーボード、マウス等である。
The data memory 8 temporarily stores data necessary when the reference image data and the target image data are aligned.
The image database 9 stores image data of each modality received from the US diagnostic apparatus 3, the X-ray CT apparatus 4, the MR apparatus 5 and the like through the network 2. The image data of these modalities is, for example, US image data before treatment, US image data after treatment, US contrast image data, CT image data before treatment, MR image data, and the like.
The transmission unit 10 receives image data of each modality from the US diagnostic apparatus 3, the X-ray CT apparatus 4, the MR apparatus 5, and the like via the network 2.
The display 11 displays, for example, pre-treatment US image data and post-treatment US image data before alignment, or after alignment, for example, pre-treatment US image data and post-treatment US image data. .
The operation unit 12 is, for example, a keyboard or a mouse.

主制御部6は、プログラムメモリ7に記憶されている画像位置合わせプログラムを実行することによりデータ読出部13と、データ属性変更部14と、領域設定部15と、位置合わせ部16と、表示部17と、画像保存部18との機能を有する。
データ読出部13は、例えば画像データベース9に記憶されている各モダリティの画像データから例えば治療前のUS画像データ、治療後のUS画像データ、US造影画像データ、治療前のCT画像データ、MR画像データ等を読み出す。これら画像データのうち位置合わせの基準とする画像データを参照画像データとし、この参照画像データに対して位置合わせする対象の画像データを対象画像データとする。例えば、治療前のUS画像データを参照画像データとし、治療後のUS画像データを対象画像データとする。
The main control unit 6 executes an image registration program stored in the program memory 7 to thereby execute a data reading unit 13, a data attribute changing unit 14, a region setting unit 15, a registration unit 16, and a display unit. 17 and the image storage unit 18.
The data reading unit 13 uses, for example, US image data before treatment, US image data after treatment, US contrast image data, CT image data before treatment, MR image from image data of each modality stored in the image database 9. Read data etc. Of these image data, image data that serves as a reference for alignment is referred to as reference image data, and image data to be aligned with respect to this reference image data is referred to as target image data. For example, US image data before treatment is set as reference image data, and US image data after treatment is set as target image data.

このデータ読出部13は、US診断装置3やX線CT装置4、MR装置5等からの各モダリティから直接例えば治療前のUS画像データ、治療後のUS画像データ、US造影画像データ、治療前のCT画像データ、MR画像データ等を読み出してもよい。この場合、データ読出部13は、伝送部10に対してデータ読み出しの指示を送出することにより、伝送部10を通してUS診断装置3やX線CT装置4、MR装置5等の各モダリティから直接画像データを読み出す。なお、読み出された画像データは、表示部17によってディスプレイ11に表示される。図2はディスプレイ11に表示された例えば肝臓の治療前のUS画像データ19−1と、肝臓の治療後のUS画像データ19−2との表示例を示す。これらUS画像データ19−1、19−2は、例えば肝臓の断面画像である。   The data reading unit 13 directly receives, for example, US image data before treatment, US image data after treatment, US contrast image data, pre-treatment from each modality from the US diagnostic device 3, the X-ray CT device 4, the MR device 5, and the like. CT image data, MR image data, and the like may be read out. In this case, the data reading unit 13 sends an image reading instruction to the transmission unit 10, and directly transmits images from the modalities such as the US diagnostic apparatus 3, the X-ray CT apparatus 4, and the MR apparatus 5 through the transmission unit 10. Read data. The read image data is displayed on the display 11 by the display unit 17. FIG. 2 shows a display example of US image data 19-1 before treatment of the liver and US image data 19-2 after treatment of the liver displayed on the display 11, for example. These US image data 19-1 and 19-2 are, for example, liver cross-sectional images.

なお、治療前と治療後の各US画像データ19−1、19−2は、それぞれ解剖学的に特徴部分を選択している。なお、治療前と治療後の各US画像データ19−1、19−2は、超音波プローブを患者等の被検体に当てて撮影したときの空間的な撮影方向等が異なっている。   In addition, each US image data 19-1 and 19-2 before treatment and after treatment respectively select characteristic portions anatomically. The pre-treatment and post-treatment US image data 19-1 and 19-2 differ in the spatial imaging direction when the ultrasonic probe is applied to a subject such as a patient.

データ読出部13は、例えば画像データベース9から同一又は異なるモダリティにより取得された参照画像データと対象画像データとを読み出す。データ読出部13は、例えば画像データベース9から参照画像データと対象画像データとのうち少なくとも一方を超音波画像データとして読み出す。データ読出部13は、例えば画像データベース9から互いに画素サイズの異なる参照画像データと対象画像データとを読み出す。   The data reading unit 13 reads, for example, reference image data and target image data acquired from the image database 9 with the same or different modalities. For example, the data reading unit 13 reads at least one of the reference image data and the target image data from the image database 9 as ultrasonic image data. For example, the data reading unit 13 reads reference image data and target image data having different pixel sizes from the image database 9.

具体的に、データ読出部13は、三次元のUS画像データや他の三次元のモダリティ画像、例えばX線CT画像データ、MR画像データ等の複数のボリュームの異なる各画像データを同時に位置合わせ対象として読み出す。例えば、超音波穿刺による肝癌の治療判定のためには、治療前のX線CT画像データ又はMR画像データ、治療前のUS画像データ、治療後のUS画像データとUS造影画像データを比較参照したい要望がある。そのため、一度に取り扱うボリュームデータは、2つのボリュームデータで充分ではなく、通常4つ、場合によってはそれ以上の種類のボリュームデータが必要になることがある。   Specifically, the data reading unit 13 simultaneously aligns image data having different volumes such as 3D US image data and other 3D modality images such as X-ray CT image data and MR image data. Read as. For example, in order to determine the treatment of liver cancer by ultrasonic puncture, it is desirable to compare and reference X-ray CT image data or MR image data before treatment, US image data before treatment, US image data after treatment, and US contrast image data. There is a request. For this reason, two volume data are not sufficient for volume data to be handled at one time, and usually four or more types of volume data may be required in some cases.

データ読出部13により読み出された画像データ、例えば治療前のUS画像データ、治療後のUS画像データ、治療前のX線CT画像データ又はMR画像データ、US造影画像データは、表示部17によってディスプレイ11に表示される。図3は治療前のUS画像データ19−1と、治療後のUS画像データ19−2と、治療前のX線CT画像データ20と、US造影画像データ21との表示例を示す。これら画像データ19−1、19−2、20、21は、それぞれ例えば画素サイズ256×256の表示ウィンドウでディスプレイ11に表示される。   Image data read by the data reading unit 13, for example, US image data before treatment, US image data after treatment, X-ray CT image data or MR image data before treatment, and US contrast image data are displayed by the display unit 17. It is displayed on the display 11. FIG. 3 shows a display example of US image data 19-1 before treatment, US image data 19-2 after treatment, X-ray CT image data 20 before treatment, and US contrast image data 21. These image data 19-1, 19-2, 20, 21 are displayed on the display 11 in a display window having a pixel size of 256 × 256, for example.

データ読出部13は、図3に示す治療前のUS画像データ19−1と、治療後のUS画像データ19−2と、治療前のX線CT画像データ20と、US造影画像データ21とのように画素サイズの異なるボリュームデータを同時に読み出す。これら画像データ19−1、19−2、20、21は、それぞれ例えば画素サイズ512x512の表示ウィンドウを設定し、この表示ウィンドウでディスプレイ11に表示する。例えばUS診断装置3、X線CT装置4、MR装置5等の各モダリティの違いにより、これらモダリティから生成される各ボリュームデータの画素サイズが異なるのは一般的である。これら異なる画素サイズのデータを取り扱うために、例えば、X線CT装置4及びMR装置5であれば画素サイズ512×512、診断装置3であれば画素サイズ256×256の各表示ウィンドウを用いる。   The data reading unit 13 includes the pre-treatment US image data 19-1, the post-treatment US image data 19-2, the pre-treatment X-ray CT image data 20, and the US contrast image data 21 shown in FIG. As described above, volume data having different pixel sizes are read out simultaneously. Each of these image data 19-1, 19-2, 20, and 21 sets a display window having a pixel size of 512 × 512, for example, and displays it on the display 11 with this display window. For example, the pixel size of each volume data generated from these modalities is generally different depending on the modalities of the US diagnostic apparatus 3, the X-ray CT apparatus 4, the MR apparatus 5, and the like. In order to handle data of these different pixel sizes, for example, display windows having a pixel size of 512 × 512 for the X-ray CT apparatus 4 and the MR apparatus 5 and a pixel size of 256 × 256 for the diagnostic apparatus 3 are used.

データ属性変更部14は、データ読出部13により読み出された参照画像データと対象画像データとに対して少なくとも回転、平行移動に関する属性を変更してディスプレイ11に表示する。
データ属性変更部14は、例えばUS診断装置3、X線CT装置4、MR装置5等の各モダリティで使用される輝度値設定機能により変換されたデータを位置合わせアルゴリズム(画像位置合わせプログラム)で取り扱え可能なデータにする。各モダリティで使用される輝度値設定機能を説明すると、例えばCT画像データの輝度情報は16ビットで表現されている。診断に際しては、医師等のオペレータがWC(ウインドウセンタ)、WW(ウインドウ幅)というパラメータを用いて設定した範囲のデータを8ビットの輝度値に設定している。医師等のオペレータは、操作部12のキーボードやマウスを操作して輝度値設定機能により所望の輝度を有するCT画像データに調節する。
The data attribute changing unit 14 changes at least attributes relating to rotation and translation with respect to the reference image data and target image data read by the data reading unit 13 and displays them on the display 11.
The data attribute changing unit 14 uses, for example, an alignment algorithm (image alignment program) for data converted by the brightness value setting function used in each modality such as the US diagnostic apparatus 3, the X-ray CT apparatus 4, and the MR apparatus 5. Make it manageable data. The brightness value setting function used in each modality will be described. For example, the brightness information of CT image data is expressed by 16 bits. In diagnosis, data in a range set by an operator such as a doctor using parameters such as WC (window center) and WW (window width) is set to an 8-bit luminance value. An operator such as a doctor operates the keyboard and mouse of the operation unit 12 to adjust the CT image data having a desired luminance by the luminance value setting function.

すなわち、位置合わせアルゴリズムでは、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とのような2種類のボリュームデータからジョイント・ヒストグラムを生成し、このジョイント・ヒストグラムから推定した確率密度関数を用いて位置合わせ指標を算出する。CT画像データのオリジナル画像データをそのまま用いるとスパースなヒストグラムとなってしまい、確率密度関数を適切に推定できない。このため、何らかの方法でレンジを圧縮する必要がある。医師等のオペレータが診断のために所望した輝度値の設定を流用するのが妥当である。   That is, in the registration algorithm, a joint histogram is generated from two types of volume data such as US image data 19-1 before treatment and US image data 19-2 after treatment, and estimated from the joint histogram. An alignment index is calculated using the probability density function. If the original image data of the CT image data is used as it is, a sparse histogram is formed, and the probability density function cannot be estimated appropriately. For this reason, it is necessary to compress the range by some method. It is appropriate that an operator such as a doctor diverts a desired brightness value setting for diagnosis.

データ属性変更部14は、読み出した画像データ、例えば治療前のUS画像データ19−1、治療後のUS画像データ19−2、治療前のX線CT画像データ20又はMR画像データ、US造影画像データ21のボリューム名、撮影日付、及びピクセルサイズ等の画像判別データ22を例えば図2及び図3に示すようにディスプレイ11上に表示し、医師等のオペレータに明示する。これら画像判別データ22の各表示位置は、例えばUS画像データ19−1と、治療後のUS画像データ19−2と、治療前のX線CT画像データ20と、US造影画像データ21との各左斜め上方である。すなわち、ボリューム名は、各画像データの特定のために必要である。日付は、診断履歴の判別のために必要である。ピクセルサイズは、後述する基準画像サイズの決定のために必要である。   The data attribute changing unit 14 reads out image data, for example, US image data 19-1 before treatment, US image data 19-2 after treatment, X-ray CT image data 20 or MR image data before treatment, US contrast image Image discrimination data 22 such as volume name, photographing date, and pixel size of the data 21 is displayed on the display 11 as shown in FIGS. 2 and 3, for example, and is clearly shown to an operator such as a doctor. The display positions of these image discrimination data 22 are, for example, US image data 19-1, US image data 19-2 after treatment, X-ray CT image data 20 before treatment, and US contrast image data 21, respectively. It is diagonally upward to the left. That is, the volume name is necessary for specifying each image data. The date is necessary for determining the diagnosis history. The pixel size is necessary for determining the reference image size described later.

データ属性変更部14は、データ読出部13により読み出された複数の画像データ(ボリュームデータ)、例えば治療前のUS画像データ19−1、治療後のUS画像データ19−2、治療前のX線CT画像データ20又はMR画像データ、US造影画像データ21間の画素サイズを合わせる。データ属性変更部14は、複数の画像データ(ボリュームデータ)間の画素サイズを合わせるときの基準となる画素サイズを決定する。
具体的にデータ属性変更部14は、次の各手法のいずれかにより基準となる画素サイズを決定する。すなわち、データ属性変更部14は、例えば治療前のUS画像データ19−1と治療前のX線CT画像データ20とを位置合わせ中に基準とする画素サイズのボリュームデータを選択する。データ属性変更部14は、例えば治療前のUS画像データ19−1と治療前のX線CT画像データ20との位置合わせ中に操作部12に対して医師等のオペレータによりマニュアル操作された画素サイズを入力する。データ属性変更部14は、プリセット機能により基準とする画素サイズの画像データ、例えば治療前のUS画像データ19−1を予め設定する。この場合、例えば治療前のUS画像データ19−1の画素サイズに他の画像データの画素サイズを合わせる。データ属性変更部14は、プリセット機能により予め基準とする画素サイズを設定する。
The data attribute changing unit 14 is a plurality of image data (volume data) read by the data reading unit 13, for example, US image data 19-1 before treatment, US image data 19-2 after treatment, X before treatment. The pixel sizes between the line CT image data 20 or the MR image data and the US contrast image data 21 are matched. The data attribute changing unit 14 determines a reference pixel size when matching pixel sizes between a plurality of image data (volume data).
Specifically, the data attribute changing unit 14 determines a reference pixel size by one of the following methods. In other words, the data attribute changing unit 14 selects, for example, volume data having a pixel size based on the alignment between the US image data 19-1 before treatment and the X-ray CT image data 20 before treatment. The data attribute changing unit 14 is, for example, a pixel size manually operated by an operator such as a doctor on the operation unit 12 during alignment of the US image data 19-1 before treatment and the X-ray CT image data 20 before treatment. Enter. The data attribute changing unit 14 presets image data having a reference pixel size, for example, US image data 19-1 before treatment, using a preset function. In this case, for example, the pixel size of the other image data is matched with the pixel size of the US image data 19-1 before treatment. The data attribute changing unit 14 sets a reference pixel size in advance by a preset function.

画素サイズの調整を行うときは、設定された画素サイズで処理用の一時データを作成しても良いし、位置合わせの演算の実行中に、毎回、画素サイズを考慮した計算を行っても良い。なお、データ属性変更部14は、例えば図3に示すように画素サイズ調整用のサイズ調整ボタン23をディスプレイ11上に表示する。このサイズ調整ボタン23が例えばマウスのクリック操作により指示されると、データ属性変更部14は、上記各手法のいずれかにより基準となる画素サイズを決定する。   When adjusting the pixel size, temporary data for processing may be created with the set pixel size, or calculation may be performed in consideration of the pixel size every time the alignment calculation is performed. . The data attribute changing unit 14 displays a size adjustment button 23 for adjusting the pixel size on the display 11 as shown in FIG. When the size adjustment button 23 is instructed by, for example, a mouse click operation, the data attribute changing unit 14 determines a reference pixel size by any of the above methods.

位置合わせで画素サイズは、重要な要素である。画素サイズは、異なるモダリティにより取得される各画像データ間のみならず、同一のモダリティにより取得される各画像データ間においても毎回の撮影条件に相違が生じることから異なる。位置合わせの対象となる画像データは、異なるモダリティや同一モダリティにおいても各撮影条件に複数存在する。従って、画素サイズをどの画像データの画素サイズに合わせるかを指定する必要がある。   Pixel size is an important factor in alignment. The pixel size differs not only between image data acquired with different modalities but also between image data acquired with the same modality because of differences in shooting conditions at each time. There are a plurality of image data to be aligned for each photographing condition even in different modalities or the same modality. Therefore, it is necessary to specify which image data is to be matched with the pixel size.

データ属性変更部14は、例えば図2に示すように画像サイズに応じたスケール24をディスプレイ11上に表示する。このスケール24は、実際の長さ、例えば2cmに対応する長さに形成されている。
データ属性変更部14は、例えば治療後のUS画像データ19−2等の対象画像データのボリュームの空間的な向き・方向を変更する。具体的にデータ属性変更部14は、例えばディスプレイ11上で左右方向に反転させる第1のミラー動作部と、上下方向で反転させる第2のミラー動作部と、奥行き方向の反転させるリバース部とを有する。データ属性変更部14は、対象画像データのボリュームに患者等の被検体の体位情報が正しく記録されていれば、この体位情報に基づいて対象画像データのボリュームの空間的な向き・方向の変更を自動的に行う。
この場合、データ属性変更部14は、例えば図3に示すようにディスプレイ11上に第1のミラー動作部の設定ボタン25と、第2のミラー動作部の設定ボタン26と、リバース部の設定ボタン27とを表示する。医師等のオペレータは、ディスプレイ11上に表示される対象画像データを観察しながらマニュアルで操作部12を操作し、各設定ボタン25、26、27のうちいずれかを選択して指示する。これにより、データ属性変更部14は、操作部12からの指示を受けて対象画像データのボリュームの空間的な向き・方向の変更を行う。
For example, as shown in FIG. 2, the data attribute changing unit 14 displays a scale 24 corresponding to the image size on the display 11. The scale 24 is formed to have an actual length, for example, a length corresponding to 2 cm.
The data attribute changing unit 14 changes the spatial orientation / direction of the volume of the target image data such as the US image data 19-2 after the treatment, for example. Specifically, the data attribute changing unit 14 includes, for example, a first mirror operation unit that is reversed in the left-right direction on the display 11, a second mirror operation unit that is reversed in the vertical direction, and a reverse unit that is reversed in the depth direction. Have. If the posture information of the subject such as a patient is correctly recorded in the volume of the target image data, the data attribute changing unit 14 changes the spatial orientation / direction of the volume of the target image data based on the posture information. Do it automatically.
In this case, for example, as shown in FIG. 3, the data attribute changing unit 14 has a first mirror operation unit setting button 25, a second mirror operation unit setting button 26, and a reverse unit setting button on the display 11. 27 is displayed. An operator such as a doctor manually operates the operation unit 12 while observing the target image data displayed on the display 11, and selects and instructs one of the setting buttons 25, 26, and 27. Thus, the data attribute changing unit 14 changes the spatial orientation / direction of the volume of the target image data in response to an instruction from the operation unit 12.

すなわち、異なるモダリティは勿論のこと、同一のモダリティにおいても患者等の被検体の体位や撮影方向に違いが生じる。しかるに、三次元のUS画像データや他の三次元のモダリティ画像、例えばX線CT画像データ、MR画像データ等は、それぞれボリュームデータの向き・方向が異なるのが一般的である。これら画像データ間の位置合わせは、対象とするボリュームデータの向き・方向を揃えてから行う必要がある。   That is, not only different modalities, but also the same modality causes differences in the posture of the subject such as a patient and the imaging direction. However, three-dimensional US image data and other three-dimensional modality images, such as X-ray CT image data and MR image data, generally have different volume data directions and directions. It is necessary to align these image data after aligning the direction and direction of the target volume data.

データ属性変更部14は、N個の対象画像データとなる三次元のUS画像データ等のボリュームデータから位置合わせを行う一組のボリュームデータ、すなわち参照画像データと対象画像データとを選択する。データ属性変更部14は、更に、位置合わせを行う一組のボリュームデータに対して参照画像データと対象画像データとを決定する。データ属性変更部14は、選択された参照画像データと対象画像データとが他のボリュームデータと区別可能である。例えば、データ属性変更部14は、参照画像データと対象画像データとの各画像表示枠の色をそれぞれ違う色にしてもよいし、表示しているボリューム名を変えてもよい。   The data attribute changing unit 14 selects a set of volume data to be aligned, that is, reference image data and target image data, from volume data such as three-dimensional US image data serving as N target image data. The data attribute changing unit 14 further determines reference image data and target image data for a set of volume data to be aligned. The data attribute changing unit 14 can distinguish the selected reference image data and target image data from other volume data. For example, the data attribute changing unit 14 may change the colors of the image display frames of the reference image data and the target image data, or may change the displayed volume name.

領域設定部15は、三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定する。図4は治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおいて位置合わせ候補の各小領域E、Eをそれぞれ設定した図を示す。位置合わせ候補の各小領域E、Eは、解剖学的に特徴のあるところであり、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおいて同一部位に設定される。 The region setting unit 15 includes, for example, the pre-treatment US image data 19-1 and the post-treatment US on the three-dimensional reference image data and at least one three-dimensional target image data to be aligned with the reference image data. In the image data 19-2, each region of the alignment candidate formed in a size required for selecting a feature point is set. FIG. 4 shows a diagram in which the small regions E 1 and E 2 of the alignment candidates are set in the US image data 19-1 before treatment and the US image data 19-2 after treatment, respectively. The small regions E 1 and E 2 of the alignment candidates are anatomically characteristic. For example, the US image data 19-1 before treatment and the US image data 19-2 after treatment are set to the same site. Is done.

位置合わせ候補の各小領域E、Eの設定には、マニュアル操作により設定と自動設定がある。先ず、位置合わせ候補の各小領域E、Eのマニュアル設定について説明する。
領域設定部15は、医師等のオペレータによる操作部12へのマニュアル操作を受け、このマニュアル操作に従って位置合わせを行う一組の参照画像データと対象画像データとをディスプレイ11上に表示し、これら一組の参照画像データと対象画像データとをディスプレイ11上でそれぞれX方向、Y方向、Z方向を中心軸として回転させ、又X方向、Y方向、Z方向にそれぞれ平行移動させる。
例えば図4に示す治療前のUS画像データ19−1と治療後のUS画像データ19−2とは、それぞれ3次元のボリュームデータである。従って、これら3次元のボリュームデータである治療前のUS画像データ19−1と治療後のUS画像データ19−2とからそれぞれ1枚すなわち2次元の治療前のUS画像データ19−1と治療後のUS画像データ19−2とを初期設定する。そして、領域設定部15は、位置合わせする参照画像データと対象画像データとを設定し、かつこれら参照画像データと対象画像データとの各情報を表示する。一組の参照画像データと対象画像データとは、例えば患者等の被検体の初期断層面である。なお、領域設定部15は、2次元の治療前のUS画像データ19−1と治療後のUS画像データ19−2とを初期設定に限らず、再度、一組の参照画像データと対象画像データとをディスプレイ11上でそれぞれX方向、Y方向、Z方向を中心軸として回転させ、又X方向、Y方向、Z方向にそれぞれ平行移動させて2次元の治療前のUS画像データ19−1と治療後のUS画像データ19−2とを設定してもよい。
The setting of the small areas E 1 and E 2 of the alignment candidates includes setting and automatic setting by manual operation. First, manual setting of each of the small regions E 1 and E 2 of the alignment candidates will be described.
The region setting unit 15 receives a manual operation on the operation unit 12 by an operator such as a doctor, and displays on the display 11 a set of reference image data and target image data to be aligned according to the manual operation. The pair of reference image data and target image data are rotated on the display 11 with the X, Y, and Z directions as the central axes, respectively, and translated in the X, Y, and Z directions, respectively.
For example, the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 shown in FIG. 4 are each three-dimensional volume data. Therefore, one piece of the US image data 19-1 before the treatment and the US image data 19-2 after the treatment, which are the three-dimensional volume data, that is, two-dimensional US image data 19-1 before the treatment and the post-treatment, respectively. The US image data 19-2 is initially set. Then, the region setting unit 15 sets reference image data and target image data to be aligned, and displays each information of the reference image data and target image data. The set of reference image data and target image data is an initial tomographic plane of a subject such as a patient. The region setting unit 15 is not limited to the initial setting of the two-dimensional pre-treatment US image data 19-1 and the post-treatment US image data 19-2, but again a set of reference image data and target image data. Are rotated about the X, Y, and Z directions on the display 11, respectively, and are translated in the X, Y, and Z directions, respectively. You may set the US image data 19-2 after a treatment.

領域設定部15は、予めプリセットした超音波プローブにより撮影方向・オフセット状態に例えばUS画像データの撮影方向を設定する。すなわち、X線CT画像データやMR画像データは、患者等の被検体の体軸に平行な断面の画像データである。これに対してUS画像データは、患者等の被検体の解剖学的制約により制限される撮影方向から撮影されることが多い。例えば、肝臓癌の診断の場合、US画像データは、例えば肋弓下や肋間などの特定の撮影方向から撮影されることが多い。   The region setting unit 15 sets, for example, the shooting direction of US image data in the shooting direction / offset state using a preset ultrasonic probe. That is, X-ray CT image data and MR image data are image data of a cross section parallel to the body axis of a subject such as a patient. On the other hand, US image data is often imaged from an imaging direction limited by anatomical restrictions of a subject such as a patient. For example, in the case of liver cancer diagnosis, US image data is often taken from a specific imaging direction, such as under the arch or between the intercostals.

従って、これら特定の撮影方向の体軸に垂直な座標系への相対位置が予めプリセットされて登録される。例えば肋弓下や肋間などの特定の撮影方向から撮影するときの撮影方向をプリセット可能である。特定の撮影方向の体軸に垂直な座標系への相対位置のプリセットは、例えば図3に示すようにディスプレイ11上にプリセット用ボタン28を表示し、このプリセットボタン28を医師等のオペレータによって操作部12のマウスをクリック操作することにより行われる。これにより、領域設定部15は、例えばUS画像データ等の1組の参照画像データと対象画像データとの各撮影方向を1回の処理で所定の位置ずれ範囲内の大まかな位置に揃えることができる。なお、領域設定部15は、予めプリセットして登録した特定の撮影方向の体軸に垂直な座標系への相対位置をリセット可能である。   Therefore, the relative position to the coordinate system perpendicular to the body axis in these specific photographing directions is preset and registered. For example, it is possible to preset the shooting direction when shooting from a specific shooting direction such as under the bow or between the eyelids. The preset of the relative position to the coordinate system perpendicular to the body axis in the specific imaging direction is performed by displaying a preset button 28 on the display 11 as shown in FIG. 3, for example, and operating the preset button 28 by an operator such as a doctor. This is done by clicking the mouse in the section 12. As a result, the region setting unit 15 can align the shooting directions of a set of reference image data such as US image data and target image data to a rough position within a predetermined misalignment range in one process. it can. Note that the region setting unit 15 can reset the relative position to the coordinate system perpendicular to the body axis in a specific photographing direction preset and registered in advance.

領域設定部15は、例えばUS画像データ19−1や治療後のUS画像データ19−2、治療前のX線CT画像データ20、US造影画像データ21等の各ボリュームデータの各画像表示モードを例えば通常のMPR(断面変換:multi-planar reconstruction)表示、厚み付き最大値表示、厚み付き最小値表示、厚み付きMPR表示、又はボリュームレンダリング表示に切り替える。これにより、位置合わせを開始するに当たって適切な画像データを選択する際に、より大きな領域にわたる画像構造の視認性が向上し、医師等のオペレータが同一の解剖学的特徴点の認識することを支援し利便性の向上を図ることができる。   The region setting unit 15 selects each image display mode of each volume data such as US image data 19-1, US image data 19-2 after treatment, X-ray CT image data 20 before treatment, US contrast image data 21, and the like. For example, switching to normal MPR (multi-planar reconstruction) display, maximum value display with thickness, minimum value display with thickness, MPR display with thickness, or volume rendering display is performed. This improves the visibility of the image structure over a larger area when selecting appropriate image data to start alignment, and helps doctors and other operators recognize the same anatomical feature points Therefore, the convenience can be improved.

領域設定部15は、医師等のオペレータによる操作部12のマウスに対するクリック操作を受け、初期設定した参照画像データと対象画像データ、例えば図4に示す治療前のUS画像データ19−1と治療後のUS画像データ19−2との各画像データ上に、位置合わせ候補の各小領域E、Eを設定する。いわゆる医師等のオペレータによるマニュアル操作によって位置合わせ候補の各小領域E、Eの設定ができる。 The region setting unit 15 receives a click operation on the mouse of the operation unit 12 by an operator such as a doctor, and initially sets reference image data and target image data, for example, US image data 19-1 before treatment and post-treatment shown in FIG. The small regions E 1 and E 2 of the alignment candidates are set on each image data with the US image data 19-2. Each of the small regions E 1 and E 2 of the alignment candidates can be set by a manual operation by a so-called operator such as a doctor.

領域設定部15は、例えば治療前のUS画像データ19−1等の参照画像データの上に、位置合わせに使用する基本領域を1個と補助領域を複数個とを医師等のオペレータによるマニュアル操作によって指定し、治療後のUS画像データ19−2等の対象画像データの上に基本領域に対応する領域を1つ指定する。   The area setting unit 15 is manually operated by an operator such as a doctor, with one basic area and a plurality of auxiliary areas used for alignment on the reference image data such as the US image data 19-1 before treatment. One area corresponding to the basic area is specified on the target image data such as the US image data 19-2 after the treatment.

領域設定部15は、位置合わせ候補の各小領域E、Eのサイズが例えば患者等の被検体の実寸で常に一定になるように対象画像データの画素サイズに応じて各小領域E、Eのサイズを調整する。具体的に領域設定部15は、設定したい実寸サイズをプリセットにより登録しておく。すなわち、対象画像データの画素サイズはそれぞれ異なる。一方、位置合わせに用いる解剖学的に特徴的な形態のサイズは、例えば患者等の被検体の実寸で2cm程度にしたいという要望がある。このような事から位置合わせに使用する各小領域E、Eのサイズが常に患者等の被検体の実寸で2cmとなるように自動調整する。 Region setting unit 15, positioning each small region depending always on the pixel size of the target image data to be constant in the actual size of the object in each subregion E 1, the size, for example, a patient, etc. E 2 candidate E 1 , to adjust the size of the E 2. Specifically, the area setting unit 15 registers the actual size size to be set by presetting. That is, the pixel sizes of the target image data are different. On the other hand, there is a demand for the size of an anatomically characteristic form used for alignment to be about 2 cm in actual size of a subject such as a patient. For this reason, the size of each of the small areas E 1 and E 2 used for alignment is automatically adjusted so that the actual size of the subject such as a patient is always 2 cm.

領域設定部15は、位置合わせ候補の各小領域E、Eの位置と大きさをその中心と領域境界として表示する。位置合わせ候補の各小領域E、Eは、例えば矩形に形成されている。この場合、各小領域E、Eは、例えば図5に示すように矩形の境界を実線「□」により表示し、この矩形中心をクロス「+」により表示する。これら小領域E、Eの形状は、矩形に限らず、円形等に形成してもよい。 The area setting unit 15 displays the position and size of each of the small areas E 1 and E 2 as alignment candidates as the center and the area boundary. Each of the small regions E 1 and E 2 that are candidates for alignment is formed in a rectangular shape, for example. In this case, in each of the small areas E 1 and E 2 , for example, as shown in FIG. 5, the boundary of the rectangle is displayed by a solid line “□”, and the center of the rectangle is displayed by a cross “+”. The shapes of these small regions E 1 and E 2 are not limited to a rectangle, and may be formed in a circle or the like.

領域設定部15は、位置合わせ候補の各小領域E、Eの位置を移動しないで、これら小領域E、Eのサイズをマニュアルにより変更する。すなわち、領域設定部15は、医師等のオペレータによる操作部12に対する操作を受けて小領域E、Eのサイズを変更する。位置合わせ候補の各小領域E、Eが矩形の場合、医師等のオペレータにより例えばマウスを操作してディスプレイ11上でポインタを小領域E、Eの矩形頂点に移動し、この矩形頂点でグリップしてサイズの変更を行う。 The area setting unit 15 manually changes the sizes of the small areas E 1 and E 2 without moving the positions of the small areas E 1 and E 2 of the alignment candidates. That is, the region setting unit 15 changes the sizes of the small regions E 1 and E 2 in response to an operation on the operation unit 12 by an operator such as a doctor. When each of the small regions E 1 and E 2 of the alignment candidate is rectangular, the operator operates a mouse, for example, by an operator such as a doctor and moves the pointer on the display 11 to the rectangular vertices of the small regions E 1 and E 2. Grip at the apex to change the size.

領域設定部15は、位置合わせ候補の各小領域E、Eのサイズを変更しないで、これら小領域E、Eの位置を変更する。位置合わせ候補の各小領域E、Eが矩形の場合、医師等のオペレータにより例えばマウスを操作してディスプレイ11上でポインタを小領域E、Eの矩形中心に移動し、この矩形中心でグリップしながら移動させて小領域E、Eの位置を変更する。 The area setting unit 15 changes the positions of the small areas E 1 and E 2 without changing the sizes of the small areas E 1 and E 2 of the alignment candidates. When each of the small regions E 1 and E 2 of the alignment candidates is a rectangle, the operator operates a mouse, for example, by a doctor or the like to move the pointer on the display 11 to the rectangular centers of the small regions E 1 and E 2. The position of the small areas E 1 and E 2 is changed by moving while gripping at the center.

次に、位置合わせ候補の各小領域E、Eの自動設定について説明する。
領域設定部15は、参照画像データと対象画像データ、例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2との画像類似度に基づいて位置合わせ候補の各小領域E、Eをそれぞれ自動設定する。位置合わせ候補の各小領域E、Eの自動設定には、次の各方法が用いられる。
Next, automatic setting of each of the small areas E 1 and E 2 of the alignment candidate will be described.
The area setting unit 15 sets each sub-area of the registration candidate based on the image similarity between the reference image data and the target image data, for example, the US image data 19-1 and the US image data 19-2 after treatment shown in FIG. E 1 and E 2 are set automatically. The following methods are used for automatic setting of the small areas E 1 and E 2 of the alignment candidates.

第1の方法は、エントロピーを最大にする正方形領域を検索する方法である。
参照位置を(x,y)としたとき、この参照位置(x,y)を中心とする一辺の長さlの正方形S(l)を考える。長さlをlmin≦l≦lmaxの範囲で変化させ、正方形S(l)内にある画素値iのヒストグラムから相対頻度Piを求めてエントロピーH(l)を次式(1)により算出する。

Figure 2009112468
The first method is a method of searching for a square region that maximizes entropy.
When the reference position is (x 0 , y 0 ), a square S (l) having a side length l centered on the reference position (x 0 , y 0 ) is considered. The length l is changed in the range of l min ≦ l ≦ l max , the relative frequency Pi is obtained from the histogram of the pixel value i in the square S (l), and the entropy H (l) is calculated by the following equation (1). To do.
Figure 2009112468

エントロピーH(l)が最大となる

Figure 2009112468
Entropy H (l) is maximized
Figure 2009112468

が各小領域E、Eの一辺とする。 Is one side of each of the small regions E 1 and E 2 .

位置合わせの対象となる領域は、解剖学的に特徴的な画像データを用いることが望ましい。解剖学的に特徴的な画像データの画素値は、一般に広範囲にわたって分布する。解剖学的に特徴的な画像データを有しない単調な画像データではヒストグラムが偏る。第1の方法は、解剖学的に特徴的な画像データを抽出する指標として画素値の頻度分布から算出するエントロピーH(l)を用いている。   It is desirable to use anatomically characteristic image data for the region to be aligned. The pixel values of anatomically characteristic image data are generally distributed over a wide range. In monotonous image data having no anatomically characteristic image data, the histogram is biased. The first method uses entropy H (l) calculated from the frequency distribution of pixel values as an index for extracting anatomically characteristic image data.

第2の方法は、周辺領域との平均値の差に基づく指標を用いる方法である。
一辺の長さlの正方形S(l)に隣接する例えば8個の正方形Sj(l)を考える。jは、1≦j≦8である。正方形S(l)内の画素値の平均値と分散をμとし、8個の正方形Sj(l)内の画素値の平均値と分散をμとする。
The second method is a method using an index based on a difference in average value from the surrounding area.
Consider, for example, eight squares Sj (l) adjacent to a square S (l) having a side length l. j is 1 ≦ j ≦ 8. The average value and variance of the pixel values in the square S (l) are μ, and the average value and variance of the pixel values in the eight squares Sj (l) are μ j .

特徴指数

Figure 2009112468
Feature index
Figure 2009112468

が最大になる

Figure 2009112468
Is maximized
Figure 2009112468

をlmin≦l≦lmaxから位置合わせに使用する各小領域E、Eの一辺を求める。
但し、最終的な長さlは、
l=a・lmax:1.5<a<3
とする。aは経験的に決める。第2の方法は、判別基準として周辺領域顕著な違いがある領域を特徴領域とするものである。
Is calculated from l min ≦ l ≦ l max to determine one side of each of the small regions E 1 and E 2 used for alignment.
However, the final length l is
l = a · l max : 1.5 <a <3
And a is determined empirically. In the second method, an area having a marked difference in the surrounding area as a discrimination criterion is used as a feature area.

領域設定部15は、一辺の長さlにおいて、ある区間lmin≦l≦lmaxでの最大値でなく、エントロピーH(l)、若しくは特徴指数の増加が最初に停まったときの値を持って各小領域E、E領域を決定する。
なお、参考文献として例えばT.Kadir and M.Brandy, “Saliency, scale and image description”, Int.J.Comput. Vision, Vol.45, no.2, 83-105, 2001と、G.Wu, F.Qi, and D.Shen, “Learning-Based Deformable Registration of MR Brain Images”, IEEE Trans. Med.Imag., vol.25, pp. 1145-1157, September. 2006とがある。
The region setting unit 15 is not the maximum value in a certain section l min ≦ l ≦ l max in the length l of one side, but the value when the increase in entropy H (l) or feature index first stops. Then, each of the small areas E 1 and E 2 is determined.
References include T. Kadir and M. Brandy, “Saliency, scale and image description”, Int. J. Comput. Vision, Vol. 45, no. 2, 83-105, 2001, and G. Wu, F.Qi, and D.Shen, “Learning-Based Deformable Registration of MR Brain Images”, IEEE Trans. Med. Imag., Vol. 25, pp. 1145-1157, September. 2006.

位置合わせ候補の各小領域E、Eを自動設定する領域設定部15は、例えば治療前のUS画像データ19−1等の参照画像データの上に、位置合わせに使用する基本領域を1個と補助領域を複数個とを自動的に決定し、治療後のUS画像データ19−2等の対象画像データの上に基本領域に対応する領域を1つ自動的に決定する。 The area setting unit 15 that automatically sets the small areas E 1 and E 2 of the alignment candidates includes, for example, 1 basic area used for alignment on the reference image data such as the US image data 19-1 before treatment. The individual and plural auxiliary regions are automatically determined, and one region corresponding to the basic region is automatically determined on the target image data such as the US image data 19-2 after the treatment.

領域設定部15は、次の手法により位置合わせ候補の各小領域E、Eを自動設定する。この領域設定部15は、位置合わせを行う一組の参照画像データと対象画像データ、例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2とについて、それぞれX方向、Y方向、Z方向の回転と平行移動とを行って初期の断層面画像データをマニュアルで決定した後に位置合わせ候補の各小領域E、Eを自動設定する。
この領域設定部15は、先ず、参照画像データである例えば治療前のUS画像データ19−1から位置合わせに用いる特徴的な画像データを有する小領域Eの中心を決定するステップと、次に、決定した小領域Eの中心に対して領域サイズを決定するステップと、次に、US画像データ19−1に設定した小領域Eとの間の画像類似度が最も大きな小領域Eを対象画像データである例えば治療後のUS画像データ19−2から探索するステップとから成る。
The area setting unit 15 automatically sets the small areas E 1 and E 2 as alignment candidates by the following method. The region setting unit 15 sets a set of reference image data and target image data for alignment, for example, US image data 19-1 and US image data 19-2 after treatment shown in FIG. After the initial tomographic plane image data is manually determined by rotating and translating in the Y and Z directions, the small areas E 1 and E 2 as alignment candidates are automatically set.
The region setting unit 15 first determines the center of the small region E 1 having characteristic image data used for alignment from the reference image data, for example, US image data 19-1 before treatment, and then , determining the area size with respect to the center of the determined small region E 1, then, the image similarity is greatest small region between the small area E 1 set in the US image data 19-1 E 2 Is searched from, for example, US image data 19-2 after treatment, which is target image data.

このうち、小領域Eの中心の決定は、上記領域設定部15により例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2との画像類似度に基づいて位置合わせ候補の各小領域E、Eをそれぞれ自動設定する手法を用いる。この手法では、第1の方法であるエントロピーを最大にする正方形領域を検索する方法、又は第2の方法である周辺領域との平均値の差に基づく指標を用いる方法を用いる。
例えば治療後のUS画像データ19−2からの小領域Eの探索は、後述する位置合わせ部16で用いる位置合わせアルゴリズムの手法が用いられる。
Among them, the center of the determination of the small area E 1 is aligned on the basis of the image similarity between US image data 19-2 after treatment with US image data 19-1 shown in FIG. 2, for example by the area setting unit 15 A method of automatically setting each of the candidate small regions E 1 and E 2 is used. In this method, a method of searching for a square region that maximizes entropy, which is the first method, or a method of using an index based on a difference in average value from the surrounding region, which is a second method, is used.
For example search small areas E 2 from the US image data 19-2 after treatment, the method of alignment algorithms used in the alignment unit 16 to be described later is used.

但し、位置合わせのパラメータが2D、つまりX方向、Y方向の各回転と各平行移動との4つ、さらにせん断方向を含めても高々6つであることが異なる。小領域Eの中心の決定については、画像データ中の特徴部分を抽出することが必要であるが、これにはコンピュータビジョンにおける画像特徴点の抽出で用いられるKitchen-Rosenfeld作用素、Hariss作用素、SUSAN作用素を基にしたその変形が有望である。一例としてMoravec作用素を領域に拡大したものを次に示す。得られた特徴画像データの中で最大値をとる画素を候補領域の中心に用いる。 However, the alignment parameters are 2D, that is, four rotations in the X and Y directions and each parallel movement, and six at most including the shear direction. For the determination of the center of the small region E 1, it is necessary to extract a characteristic portion in the image data, Kitchen-Rosenfeld operator used in this extraction of the image feature points in the computer vision, Hariss operator, SUSAN Its transformation based on operators is promising. As an example, the Moravec operator expanded to the region is shown below. The pixel having the maximum value in the obtained feature image data is used as the center of the candidate area.

周辺領域との平均値の差に基づく指標を用いる。
画像データ上の点(x,y)に対して、一辺の長さlの正方形S(x,y)を考える。この正方形S(x,y)に隣接する同じ大きさの例えば8個の正方形Sjを考える。Jは、1≦j≦8である。S、Sj内の画素値の平均値をそれぞれμ、μとし、次式を算出する。

Figure 2009112468
An index based on the difference in average value from the surrounding area is used.
Consider a square S (x 0 , y 0 ) having a side length l with respect to a point (x 0 , y 0 ) on the image data. Consider, for example, eight squares Sj of the same size adjacent to the square S (x 0 , y 0 ). J is 1 ≦ j ≦ 8. The average value of the pixel values in S and Sj is set to μ and μ j , respectively, and the following equation is calculated.
Figure 2009112468

この算出された値を点(x,y)の特徴量とする。このような特徴量の算出を例えばUS画像データ19−1等の参照画像データの全ての点について実行し、特徴画像データη(x,y)を求める。この特徴画像データη(x,y)が最大値となる点を位置合わせの小領域Eの中心とする。長さ1は経験的に求める。 This calculated value is used as the feature amount of the point (x 0 , y 0 ). Such feature amount calculation is executed for all points of the reference image data such as the US image data 19-1, for example, to obtain the feature image data η (x, y). The feature image data η (x, y) is the center of the small region E 1 alignment point of maximum value. Length 1 is determined empirically.

なお、参考文献として、例えば金澤靖, 金谷健一, 解説コンピュータビジョンのための画像の特徴点の抽出, 電子情報通信学会誌Vol.87, No.12, 2004と、[13] L. Kitchen and A. Rosenfeld, “Gray-level corner detection," Pattern Recognit. Lett., vol.1, no.2, pp.95-102, Dec. 1982.と、[19] C. Harris and M. Stephens, “A combined corner and edge detector," Proc. 4th Alvey Vision Conf., pp.147-151, Manchester, U.K., Aug. 1988.と、[2] S. M. Smith and J. M. Brady, “SUSAN|A New Approach to Low Level Image Processing," IJCV, 23(1), pp.45-78 (1997)と、[31] H.P. Moravec, “Towards automatic visual obstacle avoidance," Int. Joint Conf. Art. Intell., Cambridge, MA, USA, p.584, Aug. 1977.とがある。   References include, for example, Satoshi Kanazawa and Kenichi Kanaya, Extracting image feature points for explanatory computer vision, IEICE Vol.87, No.12, 2004, and [13] L. Kitchen and A Rosenfeld, “Gray-level corner detection,” Pattern Recognit. Lett., Vol.1, no.2, pp.95-102, Dec. 1982. and [19] C. Harris and M. Stephens, “A combined corner and edge detector, "Proc. 4th Alvey Vision Conf., pp.147-151, Manchester, UK, Aug. 1988. and [2] SM Smith and JM Brady,“ SUSAN | A New Approach to Low Level Image Processing, "IJCV, 23 (1), pp.45-78 (1997) and [31] HP Moravec,“ Towards automatic visual obstacle avoidance, ”Int. Joint Conf. Art. Intell., Cambridge, MA, USA, p.584, Aug. 1977.

以上のような位置合わせ候補の各小領域E、Eを自動設定する領域設定部15は、例えば治療前のUS画像データ19−1等の参照画像データに設定した特徴的な画像データを有する位置合わせ候補の小領域Eとの間の特徴量が極値を取る上位の複数の領域を例えば治療後のUS画像データ19−2等の対象画像データから探索する。そして、領域設定部15は、参照画像データ上の小領域Eと対を成す対象画像データ上で探索された複数の領域とのうち各領域の周囲の領域の画像類似度が最も大きくなる小領域Eを探索し、小領域Eと小領域Eとをペア(一対)とする。 The area setting unit 15 that automatically sets the small areas E 1 and E 2 of the alignment candidates as described above uses, for example, characteristic image data set in the reference image data such as the US image data 19-1 before treatment. feature amount between the small area E 1 of the alignment candidate is searched from the target image data of the US image data 19-2, etc. after a plurality of areas for example the treatment of upper take an extreme value with. The area setting unit 15, the small to image similarity areas around each area among the searched plurality of regions on the target image data constituting the small region E 1 and the pair of the reference image data becomes the largest The region E 2 is searched, and the small region E 1 and the small region E 2 are paired.

すなわち、領域設定部15は、位置合わせを行う例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データにおいてそれぞれ各特徴画像データを作成した後、これら特徴画像データが極値をとるものの中から大きいものを複数検出し、それらの間の画像類似度を算出して位置合わせ候補の各小領域E、Eを決定する。 That is, the region setting unit 15 creates each feature image data in the reference image data such as the US image data 19-1 before the treatment and the target image data such as the US image data 19-2 after the treatment for the alignment. After that, a plurality of large ones of these feature image data having extreme values are detected, and the image similarity between them is calculated to determine the small regions E 1 and E 2 of the alignment candidates.

この領域設定部15は、先ず、2枚の2次元の画像データにおける特徴画像データを作成するステップと、次に、それぞれの特徴画像データで特徴量が極値を取るものについて上位N個を選択するステップと、次に、2組の候補から1つのペアの特徴画像データを選択し、これら特徴画像データの周りの領域について画像類似度を算出し、その最大値をとるものをペアの特徴画像データを小領域E、Eとして決定する。 The region setting unit 15 first generates feature image data in two pieces of two-dimensional image data, and then selects the top N of the feature image data whose feature values have extreme values. And then selecting a pair of feature image data from the two sets of candidates, calculating an image similarity for a region around the feature image data, and taking the maximum value of the feature image data of the pair Data is determined as small areas E 1 and E 2 .

このようなペアの小領域E、Eを決定する領域設定部15は、1つのペアの小領域E、Eを決定するに限らず、複数のペアを選択し、予め設定された拘束条件に基づいて最適なペアを決定する。拘束条件は、例えばペアとして選択した点を結ぶ線分が交差しない、などである。本手法は、画像類似度を判定基準としたランダム投票と考えることが出来る。 The region setting unit 15 for determining such a pair of small regions E 1 and E 2 is not limited to determining one pair of small regions E 1 and E 2 , but selects a plurality of pairs and sets them in advance. An optimal pair is determined based on the constraint conditions. The constraint condition is, for example, that a line segment connecting points selected as a pair does not intersect. This method can be considered as random voting based on image similarity.

参考文献としては、例えばM. A. Fischler and R. C. Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography," Commun. ACM, no.24, vol.6, pp.381-395, June 1981.と、P.J. Rousseeuw and A.M. Leroy, Robust Regression and Outlier Detection, Wiley, New York, U.S.A., 1987.とがある。   References include MA Fischler and RC Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography,” Commun. ACM, no.24, vol.6, pp.381-395, June 1981. and PJ Rousseeuw and AM Leroy, Robust Regression and Outlier Detection, Wiley, New York, USA, 1987.

領域設定部15は、位置合わせを行なう例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとの2つのボリュームデータの画像属性を認識し、この画像属性に応じて位置合わせ領域決定のアルゴリズムを変更する。画像属性の認識は、画像データベース9に記憶されているUS画像データ19−1、19−2等の情報から自動的に取得する。画像属性の認識は、医師等のオペレータによるキーボード等の操作部12のマニュアル操作を受けて取得する。画像属性の認識は、これら自動的な取得とマニュアル操作を受けての取得との組み合わせで取得する。   The region setting unit 15 performs image alignment of two volume data, for example, reference image data such as US image data 19-1 before treatment and target image data such as US image data 19-2 after treatment. Recognize and change the algorithm for determining the alignment region according to the image attribute. Recognition of image attributes is automatically obtained from information such as US image data 19-1, 19-2 stored in the image database 9. The recognition of the image attribute is obtained by receiving a manual operation of the operation unit 12 such as a keyboard by an operator such as a doctor. Recognition of image attributes is obtained by a combination of these automatic acquisitions and acquisitions in response to manual operations.

画像データの属性情報は、大別して、モダリティや造影の有無などの画像データの生成に関する情報と、位置合わせに用いる解剖学的特徴点に関する情報との2つがある。例えば超音波穿刺による肝癌の治療判定では、最低でも例えば治療前のUS画像データと、治療後のUS画像データ及びUS造影画像データとを比較参照することを要する。このためには、通常のUS画像データ同士、造影US画像データ同士、通常のUS画像データと造影US画像データとの位置合わせが必要になる。これら画像データの組み合わせは、画像データベース9に記憶されている情報から知ることができる。   The attribute information of image data is roughly classified into two types: information related to generation of image data such as modality and presence / absence of contrast, and information related to anatomical feature points used for alignment. For example, in the treatment determination of liver cancer by ultrasonic puncture, it is necessary to compare and refer to, for example, US image data before treatment, US image data after treatment, and US contrast image data at least. For this purpose, it is necessary to align normal US image data, contrast US image data, and normal US image data and contrast US image data. The combination of these image data can be known from the information stored in the image database 9.

例えば「造影欠損による位置あわせ」という属性情報が既知の場合、領域設定部15は、次のアルゴリズムを使用する。すなわち領域設定部15は、参照画像データから以下の手順で造影欠損に伴う孤立した大きな低濃度領域を検出する。
先ず、領域設定部15は、画像データを2値化処理する。このとき、2値化処理の閾値は、例えば文献(大津展之, 判別および最小2乗法に基づく自動しきい値選定法,電子通信学会論文誌, J63-D-4 (1980-4), 349?356.)に記載されている方法を用いる。
次に、領域設定部15は、例えばClosing処理により大きな閉領域を形成する。次に、領域設定部15は、外周からの探索で周囲を埋める。
次に、領域設定部15は、残った孤立領域に対してラベリング処理を行い、この後、最も大きな孤立領域を決定する。
For example, when the attribute information “alignment due to contrast defect” is known, the region setting unit 15 uses the following algorithm. That is, the region setting unit 15 detects an isolated large low density region associated with a contrast defect from the reference image data in the following procedure.
First, the area setting unit 15 binarizes image data. At this time, the threshold value of the binarization processing is, for example, the literature (Nobuyuki Otsu, automatic threshold selection method based on discrimination and least squares method, IEICE Transactions, J63-D-4 (1980-4), 349 ? 356.) Is used.
Next, the region setting unit 15 forms a large closed region by, for example, a closing process. Next, the region setting unit 15 fills the periphery with a search from the outer periphery.
Next, the region setting unit 15 performs a labeling process on the remaining isolated region, and then determines the largest isolated region.

次に、領域設定部15は、孤立領域の重心を持って位置合わせ用の領域、例えば小領域Eの中心とする。
次に、領域設定部15は、上記同様に、決定した小領域Eの中心に対して領域サイズを決定し、US画像データ19−1に設定した小領域Eとの間の画像類似度が最も大きな小領域Eを対象画像データである例えば治療後のUS画像データ19−2から探索する。
Then, the area setting unit 15, a region for alignment with the center of gravity of the isolated region, for example the center of the small region E 1.
Next, the area setting unit 15 determines the area size with respect to the center of the determined small area E 1 as described above, and the image similarity with the small area E 1 set in the US image data 19-1. There exploring the most significant subregion E 2 after which for example the treatment the target image data from the US image data 19-2.

なお、造影US画像データ同士の場合、造影欠損部位を位置合わせ領域に用いるのが有望である。この場合、例えば図3に示すように造影欠損による位置合わせボタン29をディスプレイ11に表示する。医師等のオペレータは、操作部12のマウス等を操作して第1の位置合わせボタン29をクリックすれば、造影欠損部位を位置合わせ領域に基づいて造影US画像データ同士を位置合わせ可能になる。   In the case of contrasted US image data, it is promising to use a contrast defect site as an alignment region. In this case, for example, as shown in FIG. If an operator such as a doctor operates the mouse or the like of the operation unit 12 and clicks the first alignment button 29, the contrast US image data can be aligned with each other based on the alignment defect region.

位置合わせ部16は、領域設定部15により設定された例えば治療前のUS画像データ19−1等の参照画像データ上の小領域Eと、治療後のUS画像データ19−2等の対象画像データ上の小領域Eとの間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行う。
この場合、位置合わせ部16は、画像類似度として参照画像データと対象画像データとの間の相互情報量又はエントロピーを推定し、最適化処理を行って相互情報量又はエントロピーの極値に基づいて参照画像データと対象画像データとの相対位置を決定する。そして、位置合わせ部16は、参照画像データと対象画像データとの間の相互情報量を推定する際、参照画像データと対象画像データとに共存しない領域に位置合わせ候補の領域があると、当該領域を除いて相互情報量又はエントロピーを推定する。
Positioning unit 16 includes a small area E 1 of the reference image data in the US, such as image data 19-1 before being set, for example, treated by the area setting unit 15, after treatment US image data 19-2, etc. of the target image obtains an image similarity between the small regions E 2 on the data, the image similarity is to align the largest so as to reference image data and target image data.
In this case, the alignment unit 16 estimates the mutual information amount or entropy between the reference image data and the target image data as the image similarity, performs an optimization process, and based on the mutual information amount or the extreme value of the entropy. A relative position between the reference image data and the target image data is determined. When the registration unit 16 estimates the mutual information amount between the reference image data and the target image data, if there is a registration candidate region in a region that does not coexist in the reference image data and the target image data, Mutual information or entropy is estimated excluding the region.

なお、位置合わせ部16は、例えば図3に示すように第2の位置合わせボタン30をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作して第2の位置合わせボタン30をクリックすれば、位置合わせ部16は、上記のように画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行う。   The alignment unit 16 displays a second alignment button 30 on the display 11 as shown in FIG. When an operator such as a doctor operates the mouse or the like of the operation unit 12 and clicks the second alignment button 30, the alignment unit 16 sets the reference image data and the image data so that the image similarity is maximized as described above. Align with target image data.

相互情報量の推定法については、次の通りである。   The mutual information estimation method is as follows.

例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとの2つのボリュームデータ中に定義された対象領域をそれぞれR(x,y,z)、F(x,y,z)とし、2つの対象領域の同じ位置の画素値から生成される二次元ヒストグラムをhistgramRF(r,f)とする。 For example, target regions defined in two volume data of reference image data such as pre-treatment US image data 19-1 and the like and target image data such as post-treatment US image data 19-2 are represented by R (x, y , Z), F (x, y, z), and a two-dimensional histogram generated from pixel values at the same position in the two target regions is histgram RF (r, f).

このとき、対象領域の画素値がとる確率密度関数P(r),P(f),PRF(r,f)は、上記定義した二次元ヒストグラムhistgramRF(r,f)から次式により求められる。

Figure 2009112468
At this time, the probability density functions P R (r), P F (f), and P RF (r, f) taken by the pixel values of the target region are expressed by the following equation from the two-dimensional histogram histgram RF (r, f) defined above. It is calculated by.
Figure 2009112468

但し、Vは、対象領域R(x,y,z)、F(x,y,z)が共に存在する画素位置の総数である。
これらの確率密度関数から、相互情報量T(F;R)は以下のように定義される。

Figure 2009112468
V is the total number of pixel positions where both the target regions R (x, y, z) and F (x, y, z) exist.
From these probability density functions, the mutual information T (F; R) is defined as follows.
Figure 2009112468

ここで、対象画像の座標変換について説明する。対象画像に対して最低、X方向、Y方向、Z方向の回転と平行移動の6つのパラメータ、必要であれば3つのせん断方向も含めた9つのパラメータで座標変換する。この座標変換をαとおくと、座標変換後の対象画像はα(F)により表すことができる。   Here, the coordinate conversion of the target image will be described. The target image is coordinate-transformed using at least nine parameters including rotation and translation in the X, Y, and Z directions, and if necessary, nine parameters including three shear directions. If this coordinate transformation is α, the target image after coordinate transformation can be represented by α (F).

又、位置合わせ最適化の方法について説明すると、上記定義した座標変換後の対象画像α(F)と対象領域R(x,y,z)との相互情報量T(α(F);R)を最大にするα、つまり、

Figure 2009112468
Further, the alignment optimization method will be described. The mutual information amount T (α (F); R) between the target image α (F) after the coordinate transformation defined above and the target region R (x, y, z). Α that maximizes
Figure 2009112468

が求めたい座標変換である。
これは解析的に解くことができないので、何らかの最適化手法を用いて解く必要がある。この最適化手法は、例えばdownhill/symplex法やPowellの方法を用いる。
Is the coordinate transformation you want to find.
Since this cannot be solved analytically, it must be solved using some optimization technique. As this optimization method, for example, a downhill / symplex method or a Powell method is used.

参考文献としては、例えばF. Maes, “Multimodality Image Registration by Maximization of Mutual Information”, IEEE Trans. Med.Imag., vol.16, pp. 187-198, Apr. 1997と、Press WH, Teukolsky SA, Vetterling WT, 他著,円慶寺勝市、奥村晴彦、佐藤俊郎、他訳:C言語による数値計算のレシピ, pp.295-299, 技術評論社, 東京, (1993)とがある。   References include, for example, F. Maes, “Multimodality Image Registration by Maximization of Mutual Information”, IEEE Trans. Med. Imag., Vol. 16, pp. 187-198, Apr. 1997, Press WH, Teukolsky SA, Vetterling WT, et al., Masakazu Enkeiji, Haruhiko Okumura, Toshiro Sato, other translations: Recipe for numerical computation in C language, pp.295-299, Technical Review, Tokyo, (1993).

例えば図6に示すジョイント・ヒストグラムを参照して例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとを位置合わせについて概略的に説明する。ジョイント・ヒストグラムJは、参照画像データR上の点I(x,y)と、この点I(x,y)と一致する対象画像データF上の点I(x,y)とにより作成される。参照画像データRと対象画像データFとが位置合わせされてその各画像が一致していると、これら参照画像データRと対象画像データFとの間の相互情報量Tは、大きくなり、直線Lにより表される。従って、参照画像データRと対象画像データFとを位置合わせすることは、相互情報量Tを大きくし、直線Lにより表されるようにすることである。 For example, referring to the joint histogram shown in FIG. 6, for example, the reference image data R such as the US image data 19-1 before treatment and the target image data F such as the US image data 19-2 after treatment are roughly aligned. I will explain it. The joint histogram J includes a point I R (x, y) on the reference image data R and a point I F (x, y) on the target image data F that matches the point I R (x, y). Created. When the reference image data R and the target image data F are aligned and the images match, the mutual information amount T between the reference image data R and the target image data F increases, and the straight line L It is represented by Therefore, aligning the reference image data R and the target image data F is to increase the mutual information amount T so that it is represented by the straight line L.

このような位置合わせ部16は、対象領域R,Fから相互情報量T(α(F);R)を推定する際に、R,Fに含まれるボリュームデータ領域外を除外して推定する。この場合、位置合わせ部16は、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとのジョイント・ヒストグラムを生成するが、このジョイント・ヒストグラムの生成時に、例えばUSラスターデータ元データ等の元データの幾何学的情報とR,Fの空間情報とから毎回算出してもよい。   Such an alignment unit 16 estimates the mutual information amount T (α (F); R) from the target regions R and F by excluding the outside of the volume data region included in R and F. In this case, the alignment unit 16 generates a joint histogram between the reference image data such as the pre-treatment US image data 19-1 and the target image data such as the post-treatment US image data 19-2. When generating the joint histogram, it may be calculated every time from the geometric information of the original data such as US raster data original data and the spatial information of R and F, for example.

又、位置合わせ部16は、前処理の一部として全体のボリュームデータを予め生成する場合、これとは別に、領域内を1、領域外をゼロで表した配列を同時に生成してもよい。また、領域外を特定の画素値(例えば255)に設定し、輝度を0〜254により表現してもよい。
すなわち、CT画像データやMR画像データは、画像データの周辺が空気であり、非常に小さい値をとる。これに対して診断に使用するUS画像データは、元のデータがビームデータ又はラスター化されたデータに関わらず、映像化した患者等の被検体の体内情報の周りの視野外においてゼロとして生成される。ここで、考慮しなければならないのは、CT画像データやMR画像データの周辺における空気の部分の画像データと、US画像データにおける視野外に存在する非常に小さい値又はゼロの部分とである。これらCT画像データやMR画像データにおける空気の部分の画像データとUS画像データにおける小さい値又はゼロの部分とを位置合わせのデータに含めると、映像化した患者等の被検体の体内情報でない領域外同士を位置合わせしてしまうこととなり、正しい位置合わせができないことが多い。
In addition, when the entire volume data is generated in advance as part of the preprocessing, the alignment unit 16 may generate an array in which the inside of the area is represented by 1 and the outside of the area is represented by zero at the same time. Further, the outside of the area may be set to a specific pixel value (for example, 255), and the luminance may be expressed by 0 to 254.
That is, CT image data and MR image data take a very small value because the periphery of the image data is air. On the other hand, the US image data used for diagnosis is generated as zero outside the visual field around the in-vivo information of a subject such as a patient, regardless of whether the original data is beam data or rasterized data. The Here, what must be taken into consideration are the image data of the air portion around the CT image data and the MR image data, and the very small value or zero portion existing outside the visual field in the US image data. When the image data of the air portion in the CT image data and the MR image data and the small value or zero portion of the US image data are included in the alignment data, it is outside the region that is not the in-vivo information of the subject such as the imaged patient. As a result, they are aligned with each other, and correct alignment is often impossible.

例えば図7を参照して例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとを位置合わせする場合について概略的に説明する。参照画像データRは、本来のボリュームデータRaと、このボリュームデータRaの領域外(視野外)Rbとから成る。対象画像データFも本来のボリュームデータFaと、このボリュームデータFaの領域外(視野外)Fbとから成る。これら参照画像データRと対象画像データFとを位置合わせは、例えば各領域Sa、Sbとの間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データRと対象画像データFとを位置合わせする。
このとき、領域Sa内におけるボリュームデータRの領域外Rbと、領域Sb内におけるボリュームデータFの領域外Fbとは、除外される、すなわち視野外処理される。そして、各領域外Rb、Fbの除外された各領域Sa、Sbとの間の画像類似度が求められ、この画像類似度が最も大きくなるように参照画像データRと対象画像データFとが位置合わせされる。このように視野外処理されると、図6に示すように参照画像データRの本来のボリュームデータRaと対象画像データFの本来のボリュームデータFaとが一致する。これに対して視野外処理が無いと、同図に示すように参照画像データRの本来のボリュームデータRaと対象画像データFの本来のボリュームデータFaとは位置合わせされない。
For example, referring to FIG. 7, for example, the case where the reference image data R such as the US image data 19-1 before treatment and the target image data F such as the US image data 19-2 after treatment are aligned will be schematically described. To do. The reference image data R is composed of the original volume data Ra and an area outside the area (out-of-view) Rb of the volume data Ra. The target image data F is also composed of the original volume data Fa and an area outside the area (out-of-view) Fb of the volume data Fa. For the alignment of the reference image data R and the target image data F, for example, the image similarity between the regions Sa and Sb is obtained, and the reference image data R and the target image data are set so that the image similarity is maximized. Align with F.
At this time, the out-of-area Rb of the volume data R in the area Sa and the out-of-area Fb of the volume data F in the area Sb are excluded, that is, processed outside the field of view. Then, the image similarity between the regions Sa and Sb excluding the regions Rb and Fb is obtained, and the reference image data R and the target image data F are positioned so that the image similarity is maximized. To be combined. When the out-of-view processing is performed in this manner, the original volume data Ra of the reference image data R and the original volume data Fa of the target image data F match as shown in FIG. On the other hand, if there is no out-of-view processing, the original volume data Ra of the reference image data R and the original volume data Fa of the target image data F are not aligned as shown in FIG.

位置合わせ部16は、参照画像データRにおける本来の画像データ外の第1のサイズと対象画像データFとにおける本来の画像データ外の第2のサイズとを比較し、第1のサイズが第2のサイズよりも大きければ、参照画像データと対象画像データとを入れ替えて相互情報量T(α(F);R)、又は参照画像データRのエントロピーH(R)、対象画像データのエントロピーH(F)を推定する。   The alignment unit 16 compares the first size outside the original image data in the reference image data R with the second size outside the original image data in the target image data F, and the first size is the second size. Is larger than the reference image data and the target image data, the mutual information amount T (α (F); R), the entropy H (R) of the reference image data R, the entropy H ( F) is estimated.

すなわち、一般に、超音波診断装置により生成された三次元ボリュームデータであるUS画像データは、CT画像データやMR画像データと異なり、四角錘状の空間領域を占める。このようなUS画像データ同士の相対位置関係を調べるとき、2つのUS画像データに共通な空間領域が相対位置関係により変化することにより対象となるボクセル数が変化する。このため対象となる母数が変化する。   That is, generally, US image data, which is three-dimensional volume data generated by an ultrasonic diagnostic apparatus, occupies a quadrangular pyramidal space region unlike CT image data and MR image data. When the relative positional relationship between such US image data is examined, the number of voxels as a target changes due to a change in the spatial area common to the two US image data due to the relative positional relationship. For this reason, the target parameter changes.

特に、対象画像が本来のUS画像データの領域外(小さい値又はゼロの部分)付近にあるとき、確率密度分布が同じの場合、領域が小さい方がヒストグラムがスパースになり、結果として相互情報量T(α(F);R)が大きくなる。
対象画像データが領域外付近にあるときは、最適化により領域外に移動してしまい正しい極値に収束しない場合が多い。しかるに、周りに領域外のデータが存在する可能性の低い方、移動対象である対象画像データに切り替えるのが適切である。
In particular, when the target image is near the outside of the original US image data area (small value or zero part), if the probability density distribution is the same, the smaller area makes the histogram sparse, resulting in mutual information. T (α (F); R) increases.
When the target image data is near the outside of the region, it often moves outside the region due to the optimization and does not converge to the correct extreme value. However, it is appropriate to switch to the target image data that is the movement target, which is less likely to have data outside the area around it.

位置合わせ部16は、最適化が終了した時点で、表示部17に対して位置合わせ結果を表示する指令を送出する。
位置合わせ部16は、位置合わせ結果に満足が行かない場合、初期設定画像に戻る(UNDO機能)。この場合、位置合わせ部16は、例えば図3に示すようにやり直しスイッチ31をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作してやり直しスイッチ31をクリックすれば、位置合わせ部16は、初期設定画像に戻る。
位置合わせ部16は、位置合わせ結果から再度位置合わせを行うことを可能とする。
The alignment unit 16 sends a command to display the alignment result to the display unit 17 when the optimization is completed.
When the alignment unit 16 is not satisfied with the alignment result, it returns to the initial setting image (UNDO function). In this case, the alignment unit 16 displays a redo switch 31 on the display 11 as shown in FIG. When an operator such as a doctor operates the mouse or the like of the operation unit 12 and clicks the redo switch 31, the alignment unit 16 returns to the initial setting image.
The alignment unit 16 can perform alignment again from the alignment result.

位置合わせ部16は、上記のように例えば治療前のUS画像データ19−1等の参照画像データ上の小領域Eと、治療後のUS画像データ19−2等の対象画像データ上の小領域Eとの間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行う場合、位置合わせが大きくずれているときの画像類似度の基準と最適化が終了した時点での画像類似度の基準との比が経験的に得られている値より著しく小さいと、局所解に陥っているものとして判断し、この状態を初期値として再度最適化を行う。 Positioning unit 16 includes a small region E 1 on the reference image data such as, for example, pre-treatment of the US image data 19-1 as described above, the small on the target image data 19-2 such US image data after treatment obtains an image similarity between the region E 2, image similarity when this case the image similarity is to align the largest so as to reference image data and target image data, the alignment is deviated largely If the ratio between the image criterion and the image similarity criterion at the end of optimization is significantly smaller than the value obtained empirically, it is determined that a local solution has occurred, and this state is used as the initial value. Perform optimization again.

一般に、最適化は、画像類似度の基準の向上をそれ以上望めなくなった時点で終了とする。ところが、この終了時点で局所解に陥っている可能性がある。当然のことながら、このときの画像類似度基準は最適解のそれよりも小さく、大きく位置がずれているときの画像類似度基準との比を、経験的にわかっている最適解時のそれと比較することで判定することができる。もし、局所解に陥っていると判断した場合、その位置より、パラメータを少し変更して最適化を再度実行することで最適解に収束することが期待できる。パラメータの変更は、例えばdownhill・symplex法の場合であれば、初期設定するシンプレックスの位置を前回より大きくするなどで対応する。   In general, the optimization ends when it is no longer possible to improve the image similarity criterion. However, there is a possibility that it has fallen into a local solution at the end of this time. Naturally, the image similarity criterion at this time is smaller than that of the optimal solution, and the ratio with the image similarity criterion when the position is greatly shifted is compared with that of the optimal solution that is empirically known. It can be determined by doing. If it is determined that a local solution has fallen, it can be expected to converge to the optimal solution by changing the parameters a little from the position and executing the optimization again. For example, in the case of the downhill / symplex method, the parameter is changed by increasing the position of the simplex to be initialized from the previous time.

位置合わせ部16は、上記最適化を開始する前に、参照画像データ上に設定した初期位置の周りの複数の位置について画像類似度を算出し、より良い初期位置を探索した後、最適化を実行する。この最適化を開始する前の処理を行うには、位置合わせ部16は、例えば図3に示すように第3の位置合わせスイッチ32をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作して第3の位置合わせスイッチ32をクリックすれば、位置合わせ部16は、最適化を開始する前の処理を行う。   The alignment unit 16 calculates image similarity for a plurality of positions around the initial position set on the reference image data before starting the optimization, searches for a better initial position, and then performs optimization. Execute. In order to perform the process before starting the optimization, the alignment unit 16 displays a third alignment switch 32 on the display 11 as shown in FIG. 3, for example. If an operator such as a doctor operates the mouse or the like of the operation unit 12 and clicks the third alignment switch 32, the alignment unit 16 performs a process before starting optimization.

例えば1回の患者等の被検体に対する検査中に連続して収集したUS画像データ等の複数のボリュームデータの場合、これらボリュームデータ間の相対位置はさほど変化していないことが期待できる。これに対して撮影日時の異なる画像データや、異なるモダリティの画像データ間では、撮像される患者等の被検体の体位に大きな違いがあるのが一般的である。この場合、最適化が成功する範囲(キャプチャーレンジ)を外れて、初期位置が設定される場合がある。   For example, in the case of a plurality of volume data such as US image data collected continuously during a test on a subject such as a patient, it can be expected that the relative position between these volume data does not change much. On the other hand, generally, there is a great difference in the posture of a subject such as a patient to be imaged between image data having different photographing dates and times and image data having different modalities. In this case, the initial position may be set outside the range where the optimization succeeds (capture range).

これを解決するために、最適化を開始する前に、参照画像データ上に設定した初期位置の周りでより良い初期位置をラフに探索することによりキャプチャーレンジ内に絞り込む。例えば、三軸の回転と三軸の平行移動の都合例えば6個のパラメータに関し位置合わせを行う場合、一定間隔毎に、例えば回転については±30度の範囲を10度毎、平行移動であれば±30ピクセルの範囲を10ピクセル毎に、都合、例えば7^6個の仮の初期位置画像を作成し、参照画像データとの画像類似度を計算し、最も類似度の高い位置を初期位置とする。これは特に、平行移動に対して顕著に起きる。回転に関しては、少なくとも領域のオーバーラップが変化しないのに対し、平行移動ではオーバーラップする量が変化することに着目している。   In order to solve this, before the optimization is started, a better initial position is roughly searched around the initial position set on the reference image data, thereby narrowing down within the capture range. For example, when positioning is performed with respect to the rotation of the three axes and the translation of the three axes, for example, with respect to six parameters, for example, the range of ± 30 degrees for the rotation is every 10 degrees, for example, for the rotation. For example, 7 ^ 6 provisional initial position images are created for every 10 pixels within a range of ± 30 pixels, the image similarity with the reference image data is calculated, and the position with the highest similarity is defined as the initial position. To do. This is especially true for translation. Regarding the rotation, at least the overlap of the regions does not change, but attention is paid to the fact that the amount of overlap changes in the parallel movement.

位置合わせ部16は、参照画像データの上に設定された1つの基本領域と複数の補助領域について、対象画像データ上の対応する領域との間の画像類似度をそれぞれ算出し、それらを統合した指標で位置合わせを行う。統合手法としては、指標の積と、重み付き和とがある。   The alignment unit 16 calculates, for each of the basic region set on the reference image data and the plurality of auxiliary regions, the image similarity between the corresponding regions on the target image data and integrates them. Align with the indicator. Integration methods include index product and weighted sum.

参照画像データに設定された基本領域をR、複数個の補助領域をRiとする。iは、1〜nである。対象画像データ上に設定された1つの領域を基本領域に対応する領域Fとする。この領域Fの位置を基準にしてFiを決定する。これらの領域間で画像類似度指標T(F;R),T(F;R):i=1〜nを算出する。これらから統合された各指標T,Tを作成する。

Figure 2009112468
Let R B be the basic region set in the reference image data, and Ri be the plurality of auxiliary regions. i is 1 to n. And region F B corresponding to one area which is set on the target image data in the basic region. The position of this region F B with reference to determine Fi. These regions between the image similarity index T B (F B; R B ), T i (F i; R i): calculating a i = 1 to n. Each index T, T integrated from these is created.
Figure 2009112468

参考文献としては、例えばJ.P.W.Pluim, J.B.A.Maintz, M.A.Viergever, “Image Registration by Maximization of Combined Mutual Information and Gradient Information”, IEEE Trans. Med.Imag., vol.19, pp. 809-814, August 2000がある。   References include, for example, JPWPluim, JBAMaintz, MAViergever, “Image Registration by Maximization of Combined Mutual Information and Gradient Information”, IEEE Trans. Med. Imag., Vol. 19, pp. 809-814, August 2000. is there.

このような位置合わせ部16は、統合した指標で位置合わせを行うとき、基本領域のみを用いて位置合わせを行い、ある程度収束した時点で統合した指標を用いる。これは、補助領域の初期位置はずれている確率が高いことによる。   When the alignment unit 16 performs alignment using the integrated index, the alignment unit 16 performs alignment using only the basic region, and uses the integrated index when it converges to some extent. This is because there is a high probability that the initial position of the auxiliary area is shifted.

位置合わせ部16は、参照画像データRと対象画像データFとの間、例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとの間の相互情報量Tを推定する際、参照画像データRと対象画像データFとで重ならない領域が生じると、この重ならない領域のサイズに応じて相互情報量Tを補正する。この場合、位置合わせ部16は、次式(12)に示すように参照画像データRのエントロピーH(R)と、対象画像データのエントロピーH(F)と、参照画像データRと対象画像データFとに基づいて生成されるジョイント・ヒストグラムのエントロピーH(R,F)とに基づいて相互情報量Tを求め、かつこの相互情報量Tにおいてジョイント・ヒストグラムJのエントロピーH(R,F)に対して重ならない領域のサイズに応じた補正Mを行う。
T=H(R)+H(F)−H(R,F,M) …(12)
すなわち、例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとは、手術前と手術後とにおいて患部等の被検体に超音波プローブを当てて超音波画像を取得する場合、被検体の体位の状態、例えば体位を横方向にしたときのねじれの度合いを同一にすることが難しく、かつ超音波プローブを被検体に当てる方向も同一にすることが難しいことから図8に示すように参照画像データRと対象画像データFとで位置合わせしても重ならない領域Gが生じる。
The alignment unit 16 is provided between the reference image data R and the target image data F, for example, reference image data R such as US image data 19-1 before treatment and target image data such as US image data 19-2 after treatment. When the mutual information amount T between the reference image data R and the target image data F is estimated when the mutual information amount T with the F is estimated, the mutual information amount T is corrected according to the size of the non-overlapping region. In this case, as shown in the following equation (12), the registration unit 16 entropy H (R) of the reference image data R, entropy H (F) of the target image data, reference image data R, and target image data F The mutual information T is obtained based on the entropy H (R, F) of the joint histogram generated based on the above, and the entropy H (R, F) of the joint histogram J in the mutual information T Correction M according to the size of the non-overlapping area is performed.
T = H (R) + H (F) -H (R, F, M) (12)
That is, for example, the reference image data R such as the pre-treatment US image data 19-1 and the target image data F such as the post-treatment US image data 19-2 are given to the subject such as the affected part before and after the operation. When an ultrasound image is acquired by applying an ultrasonic probe, it is difficult to make the posture of the subject in the same position, for example, the degree of twist when the posture is in the horizontal direction, and the ultrasonic probe is applied to the subject. Since it is difficult to make the directions the same, a region G that does not overlap even if the reference image data R and the target image data F are aligned as shown in FIG.

これにより、重ならない領域Gが生じて位置合わせされた参照画像データRと対象画像データFとの間で位置の重なり合う画素数は、参照画像データRと対象画像データFとが完全に一致した場合の画素数よりも減少する。参照画像データRと対象画像データFとを位置合わせするときには、例えば図6に示すようなジョイント・ヒストグラムJを生成するが、参照画像データRと対象画像データFとの間で位置の重なり合う画素数が減少することは、ジョイント・ヒストグラムJを生成するときのサンプル数(参照画像データRと対象画像データFとの間で位置の重なり合う画素数)が減少することになる。そうすると、サンプル数の減少によりジョイント・ヒストグラムJのエントロピーH(R,F)は小さくなる。   As a result, when the reference image data R and the target image data F are completely coincident with each other, the reference image data R and the target image data F have the same number of overlapping pixels. Less than the number of pixels. When the reference image data R and the target image data F are aligned, for example, a joint histogram J as shown in FIG. 6 is generated, but the number of pixels whose positions overlap between the reference image data R and the target image data F The decrease in the number of samples means that the number of samples when generating the joint histogram J (the number of pixels whose positions overlap between the reference image data R and the target image data F) decreases. Then, the entropy H (R, F) of the joint histogram J becomes smaller due to the decrease in the number of samples.

参照画像データRと対象画像データFとを位置合わせするには、参照画像データRと対象画像データFとの間の相互情報量Tを大きくすることである。しかしながら、図8に示すように参照画像データRと対象画像データFとで位置合わせしても重ならない領域Gが生じ、これら参照画像データRと対象画像データFとの間で位置の重なり合う画素数が減少すると、相互情報量Tが小さくなる方向に推移する。このため、参照画像データRと対象画像データFとが位置合わせされない方向に推移してしまう。   In order to align the reference image data R and the target image data F, the mutual information amount T between the reference image data R and the target image data F is increased. However, as shown in FIG. 8, there is a region G that does not overlap even if the reference image data R and the target image data F are aligned, and the number of overlapping pixels between the reference image data R and the target image data F Decreases, the mutual information amount T decreases. For this reason, the reference image data R and the target image data F shift in a direction in which they are not aligned.

しかるに、相互情報量Tにおいてジョイント・ヒストグラムJのエントロピーH(R,F)に対して重ならない領域のサイズに応じた補正Mを行う。これにより、参照画像データRと対象画像データFとで位置合わせしても重ならない領域Gが生じても、参照画像データRと対象画像データFとを位置合わせできる。   However, the correction M is performed according to the size of the region that does not overlap with the entropy H (R, F) of the joint histogram J in the mutual information amount T. As a result, even if the region G that does not overlap even if the reference image data R and the target image data F are aligned, the reference image data R and the target image data F can be aligned.

表示部17は、位置合わせ部16により位置合わせした例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとの2つのボリュームデータをディスプレイ11に表示する。ディスプレイ11に表示されるUS画像データ19−1やUS画像データ19−2等は、患者等の被検体の断面画像データ又は3次元の断面画像データである。この表示部17は、位置合わせ部16により位置合わせした例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを少なくとも回転、平行移動を同期して行ってディスプレイ11に表示する。   The display unit 17 displays two volume data of reference image data such as the US image data 19-1 before treatment and target image data such as the US image data 19-2 after treatment, which are aligned by the alignment unit 16. Displayed on the display 11. The US image data 19-1, US image data 19-2, and the like displayed on the display 11 are cross-sectional image data or three-dimensional cross-sectional image data of a subject such as a patient. The display unit 17 rotates at least the reference image data such as the US image data 19-1 before the treatment and the target image data such as the US image data 19-2 after the treatment, which are aligned by the alignment unit 16, at least. The movement is performed synchronously and displayed on the display 11.

表示部17は、個別に位置合わせを行った複数組の画像データ、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2との2つのボリュームデータの位置合わせの結果や、治療前のX線CT画像データと治療後のUS画像データ19−2との位置合わせの結果、治療後のUS画像データ19−2とUS造影画像データとの位置合わせの結果等に基づいて、これら画像データに含まれる全てのボリュームデータの相対位置を統合して求める。   The display unit 17 includes a plurality of sets of image data individually aligned, for example, results of alignment of two volume data of US image data 19-1 before treatment and US image data 19-2 after treatment, Based on the result of alignment between the X-ray CT image data before treatment and the US image data 19-2 after treatment, the result of alignment between the US image data 19-2 after treatment and the US contrast image data, etc. Then, the relative positions of all the volume data included in the image data are obtained by integration.

例えば、4種類のボリュームデータA,B,C,Dを用いて位置合わせ、例えばボリュームデータAとB、ボリュームデータBとC、ボリュームデータCとDの各位置合わせをそれぞれ行い、これらの座標変換αAB、αBC、αCDが得られたとする。表示部17は、これら3つの座標変換αAB、αBC、αCDが得られた時点で、これら座標変換αAB、αBC、αCDを用いて座標変換αAC、αADを算出する。これによりボリュームデータAを基準としたボリュームデータB,C,Dの統合的な位置合わせができる。
このようなボリュームデータB,C,D等の統合的な位置合わせを行うには、表示部17は、例えば図3に示すように位置合わせ統合スイッチ33をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作して位置合わせ統合スイッチ33をクリックすれば、表示部17は、ボリュームデータB,C,D等の統合的な位置合わせを行う。
For example, alignment is performed using four types of volume data A, B, C, and D, for example, volume data A and B, volume data B and C, and volume data C and D are aligned, and their coordinate conversion is performed. It is assumed that α AB , α BC , and α CD are obtained. When these three coordinate transformations α AB , α BC , α CD are obtained, the display unit 17 calculates the coordinate transformations α AC , α AD using these coordinate transformations α AB , α BC , α CD . As a result, the volume data B, C, and D can be integratedly aligned based on the volume data A.
In order to perform integrated positioning of such volume data B, C, D, etc., the display unit 17 displays a positioning integration switch 33 on the display 11 as shown in FIG. When an operator such as a doctor operates the mouse of the operation unit 12 and clicks the alignment integration switch 33, the display unit 17 performs integrated alignment of the volume data B, C, D, and the like.

表示部17は、統合したN個のボリュームデータにおいてX方向、Y方向、Z方向の回転と平行移動による断面位置や3次元視線方向の変更を同期して行なう。この場合、表示部17は、同期して表示している断面位置の変更を行なうためのボリュームデータの取捨選択を行う。
表示部17は、ディスプレイ11に表示される位置合わせ後の複数の断面画像上、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2との各断面画像上に例えば格子状のスケールを表示する。図9は例えばUS画像データ19−1とUS画像データ19−2との各断面画像上に格子状のスケール34を表示した一例を示す。
The display unit 17 synchronously changes the cross-sectional position and the three-dimensional line-of-sight direction by rotating and translating in the X, Y, and Z directions in the integrated N volume data. In this case, the display unit 17 performs selection of volume data for changing the cross-sectional position displayed in synchronization.
The display unit 17 includes, for example, a grid on the plurality of cross-sectional images after alignment displayed on the display 11, for example, on the cross-sectional images of the US image data 19-1 before treatment and the US image data 19-2 after treatment. Display the scale. FIG. 9 shows an example in which a grid-like scale 34 is displayed on each cross-sectional image of US image data 19-1 and US image data 19-2, for example.

表示部17は、ディスプレイ11に表示される位置合わせ後の複数の断面画像上、例えば治療前のUS画像データ19−1上の点と、この点に対応する治療後のUS画像データ19−2上の点とにそれぞれカーソルを表示する。図10は例えばUS画像データ19−1とUS画像データ19−2との各断面画像上の対応する各点に例えば「+」形状の各カーソル35a、35bを表示した一例を示す。
表示部17は、例えば治療前のUS画像データ19−1上の点に対応する治療後のUS画像データ19−2上の点を表示するのに「+」形状の各カーソル35a、35bに限らず、例えば線分、矩形又は円等に形成されたカーソル等を表示してもよい。
The display unit 17 includes a point on the plurality of cross-sectional images after alignment displayed on the display 11, for example, a point on the US image data 19-1 before treatment, and the US image data 19-2 after treatment corresponding to this point. A cursor is displayed at each of the upper points. FIG. 10 shows an example in which, for example, “+” shaped cursors 35a and 35b are displayed at corresponding points on the cross-sectional images of the US image data 19-1 and the US image data 19-2.
The display unit 17 is not limited to the “+”-shaped cursors 35a and 35b, for example, to display the points on the US image data 19-2 after treatment corresponding to the points on the US image data 19-1 before treatment. Instead, for example, a cursor formed in a line segment, rectangle, circle, or the like may be displayed.

表示部17は、位置合わせ後の複数の画像データ、例えば複数の参照画像データと複数の対象画像データと各断面画像データからそれぞれ1枚を選択し、一方の画像データ上に他方画像データを重ねて表示する。表示部17は、例えば治療前のUS画像データ19−1等の参照画像データ上に治療後のUS画像データ19−2等の対象画像データを重ね合わせて表示する。重ね合わせの処理は、可変な閾値を用いて例えば対象画像データにおける閾値以上の部分を抽出し、この抽出した画像データを参照画像データ上に色を変えて透過的に重ねる。又、重ね合わせの処理は、可変な閾値を用いて例えば対象画像データから欠損部分等の輪郭領域のデータを抽出し、この抽出した欠損部分等の輪郭領域データを参照画像データ上に重ねる。重ね合わせた結果は、断面位置の変更に追従して変化する。   The display unit 17 selects one image from a plurality of image data after alignment, for example, a plurality of reference image data, a plurality of target image data, and each cross-sectional image data, and superimposes the other image data on one image data. To display. The display unit 17 displays the target image data such as the US image data 19-2 after treatment superimposed on the reference image data such as the US image data 19-1 before treatment, for example. In the superimposition process, for example, a portion of the target image data that is equal to or greater than the threshold is extracted using a variable threshold, and the extracted image data is transparently superimposed on the reference image data by changing the color. In the superimposition process, for example, contour region data such as a missing portion is extracted from the target image data using a variable threshold, and the extracted contour region data such as the missing portion is superimposed on the reference image data. The superimposed result changes following the change of the cross-sectional position.

表示部17は、位置合わせ後の複数の断面画像データ、例えば複数の参照画像データと複数の対象画像データと各断面画像データ、特にX線CT画像データ、US画像データ等のうち各視野を比較した場合、一方の視野が他方の視野よりも大きな2枚の画像データを選択し、視野が大きな画像データ、例えばX線CT画像データに視野の小さな画像データが占める視野輪郭を表示する。   The display unit 17 compares each field of view among a plurality of cross-sectional image data after alignment, for example, a plurality of reference image data, a plurality of target image data, each cross-sectional image data, in particular, X-ray CT image data, US image data, and the like. In this case, two pieces of image data in which one field of view is larger than the other field of view are selected, and a field contour occupied by image data having a small field of view is displayed in image data having a large field of view, for example, X-ray CT image data.

表示部17は、同一条件で撮影された視野の異なる複数のボリュームデータ、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とを仮想的に1つのボリュームデータとみなし、X方向、Y方向、Z方向の回転と平行移動による断面位置変更に応じて1つのウィンドウ中に合成して表示する。図11はUS画像データ19−1とUS画像データ19−2とを合成した表示例を示す。ある座標の画素値の候補として複数の候補がある場合には、1つのボリュームデータの画素を選ぶ、又は平均値などコンパウンドする。   The display unit 17 regards a plurality of volume data with different fields of view taken under the same conditions, for example, US image data 19-1 before treatment and US image data 19-2 after treatment as virtually one volume data. , X direction, Y direction, and Z direction are combined and displayed in one window in accordance with the cross-sectional position change by rotation and translation. FIG. 11 shows a display example in which US image data 19-1 and US image data 19-2 are combined. When there are a plurality of candidates as pixel value candidates at a certain coordinate, a pixel of one volume data is selected, or an average value is compounded.

この場合、表示部17は、複数の画像データ間の境界領域、例えばUS画像データ19−1等の参照画像データとUS画像データ19−2等の対象画像データとの境界領域36を検出し、この境界領域36の画素値を複数のボリュームデータ、例えばUS画像データ19−1とUS画像データ19−2とから決定する。そして、表示部17は、例えば、参照画像データを使用する領域、対象画像データを使用する領域、その境界領域を決定し、境界領域ではそれぞれの領域に近いほど大きな重みで2つの画像データ間を補間する。これにより、複数の画像データ間の境界領域、例えばUS画像データ19−1とUS画像データ19−2と境界領域36である継ぎ目が目立たなくなる。   In this case, the display unit 17 detects a boundary region between a plurality of image data, for example, a boundary region 36 between reference image data such as US image data 19-1 and target image data such as US image data 19-2, The pixel value of the boundary region 36 is determined from a plurality of volume data, for example, US image data 19-1 and US image data 19-2. Then, the display unit 17 determines, for example, a region using the reference image data, a region using the target image data, and a boundary region thereof. In the boundary region, the closer to each region, the larger the weight between the two image data. Interpolate. As a result, the boundary area between the plurality of image data, for example, the seam that is the US image data 19-1, the US image data 19-2, and the boundary area 36 becomes inconspicuous.

参考文献としては、例えばA.H.Gee, G.M.Treece, R.W.Prager, C.j.C.Cash and L.Berman, “Rapid Registration for Wide Field of View Freehand Three-Dimensional Ultrasound”, IEEE Trans. Med.Imag., vol.22, pp. 1344-1357, November 2003と、G.Xiao, J.M.Brady, J.A.Noble, M.Burcher, and R.English, “ Non-rigid Registration of 3D- Free-Hand Ultrasound Images of the Breast”, IEEE Trans. Med.Imag., vol.21, pp. 405-412, April 2002とがある。   References include AHGee, GMTreece, RWPrager, CjCCash and L. Berman, “Rapid Registration for Wide Field of View Freehand Three-Dimensional Ultrasound”, IEEE Trans. Med. Imag., Vol. 22, pp. 1344-1357, November 2003 and G.Xiao, JMBrady, JANoble, M. Burcher, and R. English, “Non-rigid Registration of 3D- Free-Hand Ultrasound Images of the Breast”, IEEE Trans. Med .Imag., Vol.21, pp. 405-412, April 2002.

画像保存部18は、位置合わせされた複数の画像データ、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを画像データベース9に保存する。このとき、画像保存部18は、複数の画像データの保存と共に、これら画像データのデータ名、ミラーやリバースの有無、統合画素サイズ、画像サイズ基準データ名、ボリュームデータ相対位置情報等を画像データベース9に保存する。画像保存部18は、例えば図3に示すように画像保存ボタン37をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作して画像保存ボタン37をクリックすれば、画像保存部18は、位置合わせされた複数の画像データ画像データベース9に保存する。   The image storage unit 18 displays a plurality of aligned image data, for example, reference image data such as US image data 19-1 before treatment and target image data such as US image data 19-2 after treatment, in the image database 9. Save to. At this time, the image storage unit 18 stores a plurality of image data, and also stores the data names of these image data, presence / absence of mirror and reverse, integrated pixel size, image size reference data name, volume data relative position information, and the like. Save to. The image storage unit 18 displays an image storage button 37 on the display 11 as shown in FIG. When an operator such as a doctor operates the mouse of the operation unit 12 and clicks the image storage button 37, the image storage unit 18 stores the image data in the plurality of aligned image data image databases 9.

画像保存部18は、画像データベース9に保存されている位置合わせされた複数の画像データ、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを読み出し、これら参照画像データと対象画像データとに対してミラーやリバース、画素サイズ調整等の必要な処理を実行し、保存時の相対位置を再現する。画像保存部18は、例えば図3に示すように再現ボタン38をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作して再現ボタン38をクリックすれば、画像保存部18は、参照画像データと対象画像データとに対してミラーやリバース、画素サイズ調整等の必要な処理を実行し、保存時の相対位置を再現する。
画像保存部18は、位置合わせした例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2等の複数のボリュームデータを仮想的な1つのボリュームとして保存・再生する。
The image storage unit 18 includes a plurality of registered image data stored in the image database 9, for example, reference image data such as US image data 19-1 before treatment and US image data 19-2 after treatment. The target image data is read out, and necessary processing such as mirroring, reverse, and pixel size adjustment is executed on the reference image data and the target image data to reproduce the relative position at the time of storage. The image storage unit 18 displays a reproduction button 38 on the display 11, for example, as shown in FIG. When an operator such as a doctor operates the mouse of the operation unit 12 and clicks the reproduction button 38, the image storage unit 18 needs to perform mirror, reverse, pixel size adjustment, etc. on the reference image data and the target image data. Execute the process and reproduce the relative position at the time of storage.
The image storage unit 18 stores and reproduces a plurality of volume data such as the aligned US image data 19-1 before treatment and the US image data 19-2 after treatment as one virtual volume.

次に、上記の如く構成された装置による画像データの位置合わせ動作について説明する。
画像位置合わせ装置1は、ネットワーク2を介して複数のモダリティ、例えばUS診断装置3、X線CT装置4、MR装置5等からそれぞれUS画像データ等の複数の画像データを取り込み、これら画像データを画像データベース9に記憶する。
例えば超音波穿刺による肝癌の治療判定では、最低でも例えば治療前のUS画像データと、治療後のUS画像データ及びUS造影画像データとを比較参照することを要する。このうち治療前のUS画像データと治療後のUS画像データとでは、それぞれ撮影したときの患者等の被検体の体位の違いや、造影の有無の相違があり、さらには治療や病状の進行による被検体の形態そのものの変化がある。これらの要因により治療前と治療後との各US画像データを空間的位置合わせすることが必要になる。なお、治療前のUS画像データと治療後のUS造影画像データ、又は他のモダリティのX線CT画像データとを比較参照するときもこれら画像データ間を空間的位置合わせすることが必要になる。
Next, an image data alignment operation performed by the apparatus configured as described above will be described.
The image alignment apparatus 1 takes in a plurality of image data such as US image data from a plurality of modalities, for example, the US diagnostic apparatus 3, the X-ray CT apparatus 4, the MR apparatus 5 and the like, via the network 2, and stores these image data. Store in the image database 9.
For example, in the treatment determination of liver cancer by ultrasonic puncture, it is necessary to compare and refer to, for example, US image data before treatment, US image data after treatment, and US contrast image data at least. Of these, the pre-treatment US image data and the post-treatment US image data have a difference in the position of the subject such as a patient at the time of photographing, a difference in the presence or absence of imaging, and further due to the progress of treatment or medical condition There is a change in the shape of the subject itself. These factors make it necessary to spatially align each US image data before and after treatment. In addition, when comparing and referring to US image data before treatment and US contrast image data after treatment, or X-ray CT image data of other modalities, it is necessary to spatially align these image data.

医師等のオペレータが操作部12のマウス等を操作することにより読み出される画像データが指示されると、データ読出部13は、例えば画像データベース9に記憶されている各モダリティの画像データから例えば患者等の被検体における肝臓の治療前のUS画像データ19−1と、肝臓の治療後のUS画像データ19−2とを読み出す。これらUS画像データ19−1、19−2は、例えば肝臓の断面画像である。これら治療前のUS画像データ19−1と治療後のUS画像データ19−2とは、図2に示すように表示部17によってディスプレイ11に表示される。   When an image data read out by an operator such as a doctor operating the mouse of the operation unit 12 is instructed, the data reading unit 13 reads, for example, a patient or the like from the image data of each modality stored in the image database 9, for example. US image data 19-1 before the liver treatment and US image data 19-2 after the liver treatment are read out. These US image data 19-1 and 19-2 are, for example, liver cross-sectional images. The pre-treatment US image data 19-1 and post-treatment US image data 19-2 are displayed on the display 11 by the display unit 17 as shown in FIG. 2.

次に、データ属性変更部14は、データ読出部13により読み出された治療前のUS画像データ19−1と治療後のUS画像データ19−2とに対して少なくとも回転、平行移動に関する属性を変更してディスプレイ11に表示する。これら治療前のUS画像データ19−1と治療後のUS画像データ19−2との回転、平行移動等は、例えば医師等のオペレータが操作部12のマウス等を操作することにより指示される。なお、例えば医師等のオペレータが操作部12のマウス等を操作することによりデータ属性変更部14は、治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおける輝度値を調整したり、画素サイズを合わせたり、空間的な向き・方向を変更したりする。   Next, the data attribute changing unit 14 sets at least attributes relating to rotation and translation with respect to the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 read by the data reading unit 13. Change and display on the display 11. The rotation, parallel movement, and the like of the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 are instructed by an operator such as a doctor operating the mouse or the like of the operation unit 12, for example. For example, when an operator such as a doctor operates the mouse or the like of the operation unit 12, the data attribute changing unit 14 sets the luminance values in the US image data 19-1 before treatment and the US image data 19-2 after treatment. Adjust, adjust the pixel size, or change the spatial orientation / direction.

次に、治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおいて例えば図4に示すように位置合わせ候補の各小領域E、Eの設定がマニュアル操作又は自動的により行われる。
先ず、位置合わせ候補の各小領域E、Eのマニュアル設定について説明する。
領域設定部15は、医師等のオペレータによる操作部12へのマニュアル操作を受け、このマニュアル操作に従って位置合わせを行う一組の治療前のUS画像データ19−1と治療後のUS画像データ19−2とをディスプレイ11上に表示し、これら一組の治療前のUS画像データ19−1と治療後のUS画像データ19−2とをディスプレイ11上でそれぞれX方向、Y方向、Z方向を中心軸として回転させ、又X方向、Y方向、Z方向にそれぞれ平行移動させて初期設定する。
Next, in the US image data 19-1 before treatment and the US image data 19-2 after treatment, for example, as shown in FIG. 4, the setting of the small regions E 1 and E 2 of the alignment candidates is set by manual operation or automatically. It is done by the target.
First, manual setting of each of the small regions E 1 and E 2 of the alignment candidates will be described.
The region setting unit 15 receives a manual operation on the operation unit 12 by an operator such as a doctor and performs a pair of pre-treatment US image data 19-1 and post-treatment US image data 19- 2 is displayed on the display 11, and the set of US image data 19-1 before treatment and US image data 19-2 after treatment are centered on the display 11, respectively in the X direction, the Y direction, and the Z direction. The initial setting is performed by rotating the shaft as an axis and translating in the X, Y, and Z directions.

US画像データは、患者等の被検体の解剖学的制約により制限される撮影方向から撮影されることが多い。例えば、肝臓癌の診断の場合、US画像データは、例えば肋弓下や肋間などの特定の撮影方向から撮影されることが多い。従って、これら特定の撮影方向の体軸に垂直な座標系への相対位置が予めプリセットされて登録されている。例えば肋弓下や肋間などの特定の撮影方向から撮影するときの撮影方向がプリセットされている。このような場合、例えば図3に示すようにディスプレイ11上に表示されているプリセット用ボタン28を医師等のオペレータが操作部12のマウスをクリック操作すれば、領域設定部15は、プリセットされている撮影方向に治療前のUS画像データ19−1と治療後のUS画像データ19−2との各撮影方向を1回の処理で所定の位置ずれ範囲内の大まかな位置に揃えることができる。   US image data is often taken from an imaging direction that is limited by anatomical restrictions of a subject such as a patient. For example, in the case of liver cancer diagnosis, US image data is often taken from a specific imaging direction, such as under the arch or between the intercostals. Therefore, the relative position to the coordinate system perpendicular to the body axis in these specific photographing directions is preset and registered. For example, the shooting direction when shooting from a specific shooting direction such as under the bow or between the eyelids is preset. In such a case, for example, if an operator such as a doctor clicks the mouse of the operation unit 12 on the preset button 28 displayed on the display 11 as shown in FIG. 3, the region setting unit 15 is preset. The imaging directions of the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 can be aligned to a rough position within a predetermined misalignment range in a single process.

又、領域設定部15は、治療前のUS画像データ19−1と治療後のUS画像データ19−2との各画像表示モードを例えば通常のMPR表示、厚み付き最大値表示、厚み付き最小値表示、厚み付きMPR表示、又はボリュームレンダリング表示に切り替えることができる。   In addition, the region setting unit 15 displays each image display mode of the US image data 19-1 before treatment and the US image data 19-2 after treatment, for example, normal MPR display, maximum value display with thickness, and minimum value with thickness. It can be switched to display, MPR display with thickness, or volume rendering display.

次に、領域設定部15は、医師等のオペレータによる操作部12のマウスに対するクリック操作を受け、初期設定した参照画像データと対象画像データ、例えば図4に示す治療前のUS画像データ19−1と治療後のUS画像データ19−2との各画像データ上に、位置合わせ候補の各小領域E、Eを設定する。いわゆる医師等のオペレータによるマニュアル操作によって位置合わせ候補の各小領域E、Eの設定ができる。この領域設定部15は、位置合わせ候補の各小領域E、Eは、例えば図5に示すように矩形の境界を実線「□」により表示し、この矩形中心をクロス「+」により表示する。これら位置合わせ候補の各小領域E、Eの設定されるところは、例えば解剖学的に特徴的な形態を有するところである。 Next, the region setting unit 15 receives a click operation on the mouse of the operation unit 12 by an operator such as a doctor, and initially sets reference image data and target image data, for example, US image data 19-1 before treatment shown in FIG. And the sub-regions E 1 and E 2 of the alignment candidates are set on each image data of the US image data 19-2 after treatment. Each of the small regions E 1 and E 2 of the alignment candidates can be set by a manual operation by a so-called operator such as a doctor. The area setting unit 15 displays each rectangular area E 1 , E 2 as an alignment candidate by displaying a rectangular boundary with a solid line “□” as shown in FIG. 5, for example, and displaying this rectangular center with a cross “+”. To do. The small areas E 1 and E 2 of the alignment candidates are set, for example, having an anatomically characteristic form.

なお、領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E、Eのサイズが例えば患者等の被検体の実寸で常に一定になるように対象画像データの画素サイズに応じて各小領域E、Eのサイズを調整する。領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E、Eの位置を移動しないで、これら小領域E、Eのサイズをマニュアルにより変更する。領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E、Eのサイズを変更しないで、これら小領域E、Eの位置を変更する。 The region setting unit 15 receives an operation on the operation unit 12 by an operator such as a doctor so that the sizes of the small regions E 1 and E 2 of the alignment candidates are always constant at the actual size of the subject such as a patient. In addition, the sizes of the small areas E 1 and E 2 are adjusted according to the pixel size of the target image data. The region setting unit 15 receives an operation on the operation unit 12 by an operator such as a doctor, and manually adjusts the sizes of the small regions E 1 and E 2 without moving the positions of the small regions E 1 and E 2 as alignment candidates. To change. The region setting unit 15 receives an operation on the operation unit 12 by an operator such as a doctor and changes the positions of the small regions E 1 and E 2 without changing the sizes of the small regions E 1 and E 2 of the alignment candidates. To do.

一方、位置合わせ候補の各小領域E、Eの自動設定について説明する。
領域設定部15は、参照画像データと対象画像データ、例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2との画像類似度に基づいて位置合わせ候補の各小領域E、Eをそれぞれ自動設定する。位置合わせ候補の各小領域E、Eの自動設定には、上記のようにエントロピーを最大にする正方形領域を検索する第1の方法、又は周辺領域との平均値の差に基づく指標を用いる第2の方法である。
On the other hand, automatic setting of the small areas E 1 and E 2 of the alignment candidates will be described.
The area setting unit 15 sets each sub-area of the registration candidate based on the image similarity between the reference image data and the target image data, for example, the US image data 19-1 shown in FIG. 2 and the US image data 19-2 after treatment. E 1 and E 2 are set automatically. For the automatic setting of each of the sub-regions E 1 and E 2 of the alignment candidates, the first method for searching for a square region that maximizes entropy as described above, or an index based on the difference in average value from surrounding regions is used. This is the second method used.

この領域設定部15は、例えば次の手法により位置合わせ候補の各小領域E、Eを自動設定する。この領域設定部15は、位置合わせを行う一組の例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2とについて、それぞれX方向、Y方向、Z方向の回転と平行移動とを行って初期の断層面画像データをマニュアルで決定した後に位置合わせ候補の各小領域E、Eを自動設定する。この場合、領域設定部15は、先ず、治療前のUS画像データ19−1から位置合わせに用いる特徴的な画像データを有する小領域Eの中心を決定する。次に、領域設定部15は、決定した小領域Eの中心に対して領域サイズを決定する。次に、領域設定部15は、US画像データ19−1に設定した小領域Eとの間の画像類似度が最も大きな小領域Eを例えば治療後のUS画像データ19−2から探索する。 The area setting unit 15 automatically sets the small areas E 1 and E 2 as alignment candidates by the following method, for example. This region setting unit 15 performs rotation in the X direction, Y direction, and Z direction, respectively, for a set of US image data 19-1 and US image data 19-2 after treatment shown in FIG. After performing the parallel movement and manually determining the initial tomographic plane image data, the small areas E 1 and E 2 as the alignment candidates are automatically set. In this case, the region setting unit 15 first determines the center of the small region E 1 having characteristic image data used for alignment from the pre-treatment US image data 19-1. Then, the area setting unit 15 determines the area size with respect to the center of the determined small region E 1. Then, the area setting unit 15 searches from the US image data 19-2 image similarity is the largest small area E 2, for example after treatment between the small regions E 1 set in the US image data 19-1 .

このうち、小領域Eの中心の決定は、上記領域設定部15により例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2との画像類似度に基づいて位置合わせ候補の各小領域E、Eをそれぞれ自動設定する手法を用いる。この手法は、第1の方法であるエントロピーを最大にする正方形領域を検索する方法、又は第2の方法である周辺領域との平均値の差に基づく指標を用いる方法を用いる。 Among them, the center of the determination of the small area E 1 is aligned on the basis of the image similarity between US image data 19-2 after treatment with US image data 19-1 shown in FIG. 2, for example by the area setting unit 15 A method of automatically setting each of the candidate small regions E 1 and E 2 is used. This method uses a first method that searches for a square region that maximizes entropy, or a second method that uses an index based on a difference in average value from a surrounding region.

次に、位置合わせ部16は、領域設定部15により設定された例えば治療前のUS画像データ19−1上の小領域Eと、治療後のUS画像データ19−2上の小領域Eとの間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行う。この場合、位置合わせ部16は、画像類似度として治療前のUS画像データ19−1と治療後のUS画像データ19−2との間の相互情報量Tを推定し、最適化処理を行って相互情報量Tの極値に基づいて治療前のUS画像データ19−1と治療後のUS画像データ19−2との相対位置を決定する。 Next, the alignment unit 16, a small region E 1 on the set for example to pre-treatment US image data 19-1 by the region setting unit 15, a small area on the US image data 19-2 after treatment E 2 The image similarity between the reference image data and the target image data is adjusted so that the image similarity is maximized. In this case, the alignment unit 16 estimates the mutual information amount T between the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 as an image similarity, and performs an optimization process. Based on the extreme value of the mutual information amount T, the relative position between the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 is determined.

例えば図6に示すジョイント・ヒストグラムを参照して例えば治療前のUS画像データ19−1の参照画像データRと治療後のUS画像データ19−2の対象画像データFとを位置合わせについて説明すると、このジョイント・ヒストグラムJは、参照画像データR上の点I(x,y)と、この点I(x,y)と一致する対象画像データF上の点I(x,y)とにより作成される。参照画像データRと対象画像データFとが位置合わせされてその各画像が一致していると、これら参照画像データRと対象画像データFとの間の相互情報量Tは、大きくなり、直線Lにより表される。従って、参照画像データRと対象画像データFとを位置合わせすることは、相互情報量Tを大きくし、直線Lにより表されるようにすることである。 For example, referring to the joint histogram shown in FIG. 6, for example, the registration of the reference image data R of the US image data 19-1 before treatment and the target image data F of the US image data 19-2 after treatment will be described. The joint histogram J includes a point I R (x, y) on the reference image data R, a point I F (x, y) on the target image data F that matches the point I R (x, y), and Created by. When the reference image data R and the target image data F are aligned and the images match, the mutual information amount T between the reference image data R and the target image data F increases, and the straight line L It is represented by Therefore, aligning the reference image data R and the target image data F is to increase the mutual information amount T so that it is represented by the straight line L.

そして、位置合わせ部16は、治療前のUS画像データ19−1と治療後のUS画像データ19−2との間の相互情報量Tを推定する際、治療前のUS画像データ19−1と治療後のUS画像データ19−2とに共存しない領域に位置合わせ候補の領域があると、当該領域を除いて相互情報量T推定する。なお、相互情報量Tの推定法については、上記の説明通りである。例えば図7に示すように参照画像データRと対象画像データFとを位置合わせは、例えば各領域Sa、Sbとの間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データRと対象画像データFとを位置合わせするとき、領域Sa内におけるボリュームデータRの領域外Rbと、領域Sb内におけるボリュームデータFの領域外Fbとは、除外される。そして、各領域外Rb、Fbの除外された各領域Sa、Sbとの間の画像類似度が求められ、この画像類似度が最も大きくなるように参照画像データRと対象画像データFとが位置合わせされる。
この結果、位置合わせ部16は、治療前のUS画像データ19−1と治療後のUS画像データ19−2との相対位置を決定すると、例えば図12に示すように参照画像データである治療前のUS画像データ19−1を移動させず、治療後のUS画像データ19−2を例えば各移動方向f、fにそれぞれ平行移動し、かつ回転方向f方向に回転させる。これにより、位置合わせ部16は、例えば図9に示すように治療前のUS画像データ19−1と治療後のUS画像データ19−2とを位置合わせする。この位置合わせ部16は、最適化が終了した時点で、表示部17に対して位置合わせ結果を表示する指令を送出する。
And when the alignment part 16 estimates the mutual information amount T between the US image data 19-1 before treatment and the US image data 19-2 after treatment, the US image data 19-1 before treatment and If there is an alignment candidate area in an area that does not coexist with the US image data 19-2 after treatment, the mutual information amount T is estimated except for the area. The method for estimating the mutual information amount T is as described above. For example, as shown in FIG. 7, the reference image data R and the target image data F are aligned, for example, the image similarity between the areas Sa and Sb is obtained, and the reference image is maximized. When the data R and the target image data F are aligned, the outside area Rb of the volume data R in the area Sa and the outside area Fb of the volume data F in the area Sb are excluded. Then, the image similarity between the regions Sa and Sb excluding the regions Rb and Fb is obtained, and the reference image data R and the target image data F are positioned so that the image similarity is maximized. To be combined.
As a result, when the registration unit 16 determines the relative position between the pre-treatment US image data 19-1 and the post-treatment US image data 19-2, for example, as shown in FIG. The US image data 19-2 after treatment is translated in, for example, the respective movement directions f 1 and f 2 and rotated in the rotation direction f 3 without moving the US image data 19-1. Thereby, the alignment unit 16 aligns the US image data 19-1 before treatment and the US image data 19-2 after treatment, for example, as shown in FIG. The alignment unit 16 sends a command for displaying the alignment result to the display unit 17 when the optimization is completed.

次に、表示部17は、位置合わせ部16により位置合わせした例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2との2つのボリュームデータをディスプレイ11に表示する。この表示部17は、ディスプレイ11に表示される位置合わせ後の複数の断面画像上、例えば図9に示すように治療前のUS画像データ19−1と治療後のUS画像データ19−2との各断面画像上に例えば格子状のスケール34を表示する。又、表示部17は、ディスプレイ11に表示される例えば治療前のUS画像データ19−1上の点と、この点に対応する治療後のUS画像データ19−2上の点とにそれぞれ例えば図10に示すように「+」形状の各カーソル35a、35bを表示する。又、表示部17は、図11に示すようにUS画像データ19−1とUS画像データ19−2とを合成して表示する。この場合、表示部17は、US画像データ19−1とUS画像データ19−2との境界領域36を検出し、この境界領域36の画素値を複数のボリュームデータ、例えばUS画像データ19−1とUS画像データ19−2とから決定し、境界領域36においてそれぞれの領域に近いほど大きな重みで2つのUS画像データ19−1とUS画像データ19−2との間を補間する。   Next, the display unit 17 displays, on the display 11, two volume data, for example, the US image data 19-1 before treatment and the US image data 19-2 after treatment, which are aligned by the alignment unit 16. For example, as shown in FIG. 9, the display unit 17 includes, on the plurality of cross-sectional images after alignment displayed on the display 11, the US image data 19-1 before treatment and the US image data 19-2 after treatment. For example, a grid-like scale 34 is displayed on each cross-sectional image. The display unit 17 displays, for example, a point on the US image data 19-1 before treatment displayed on the display 11 and a point on the US image data 19-2 after treatment corresponding to this point. As shown in FIG. 10, the cursors 35a and 35b having a “+” shape are displayed. Further, the display unit 17 synthesizes and displays the US image data 19-1 and the US image data 19-2 as shown in FIG. In this case, the display unit 17 detects a boundary region 36 between the US image data 19-1 and the US image data 19-2, and the pixel value of the boundary region 36 is set to a plurality of volume data, for example, US image data 19-1. And the US image data 19-2, and the boundary region 36 interpolates between the two US image data 19-1 and the US image data 19-2 with a larger weight as it is closer to each region.

次に、画像保存部18は、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とを画像データベース9に保存する。このとき、画像保存部18は、これら治療前のUS画像データ19−1と治療後のUS画像データ19−2とを画像データベース9に保存すると共に、これら治療前のUS画像データ19−1と治療後のUS画像データ19−2とのデータ名、ミラーやリバースの有無、統合画素サイズ、画像サイズ基準データ名、ボリュームデータ相対位置情報等を画像データベース9に保存する。なお、画像データの保存は、例えば図3に示すようにディスプレイ11に表示されている画像保存ボタン37を医師等のオペレータが操作部12のマウス等をクリック操作することにより行われる。   Next, the image storage unit 18 stores, for example, the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 in the image database 9. At this time, the image storage unit 18 stores the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 in the image database 9, and the pre-treatment US image data 19-1. The data name with the US image data 19-2 after treatment, presence or absence of mirror or reverse, integrated pixel size, image size reference data name, volume data relative position information, etc. are stored in the image database 9. Note that the image data is stored, for example, when an operator such as a doctor clicks the mouse or the like of the operation unit 12 on an image storage button 37 displayed on the display 11 as shown in FIG.

医師等のオペレータが操作部12のマウス等を操作して再現ボタン38をクリックすると、画像保存部18は、画像データベース9に保存されている位置合わせされた複数の画像データ、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを読み出し、これら参照画像データと対象画像データとに対してミラーやリバース、画素サイズ調整等の必要な処理を実行し、保存時の相対位置を再現する。   When an operator such as a doctor operates the mouse or the like of the operation unit 12 and clicks the reproduction button 38, the image storage unit 18 stores a plurality of aligned image data stored in the image database 9, for example, US before treatment. The reference image data such as the image data 19-1 and the target image data such as the US image data 19-2 after the treatment are read out, and the reference image data and the target image data are subjected to mirror, reverse, pixel size adjustment, etc. Perform the necessary processing and reproduce the relative position at the time of storage.

一方、例えば治療前のUS画像データ19−1の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとは、手術前と手術後とにおいて患部等の被検体に超音波プローブを当てて超音波画像を取得する場合、被検体の体位の状態、例えば体位を横方向にしたときのねじれの度合いを同一にすることが難しく、かつ超音波プローブを被検体に当てる方向も同一にすることが難しいことから図8に示すように参照画像データRと対象画像データFとで位置合わせしても重ならない領域Gが生じる。   On the other hand, for example, the reference image data R of the US image data 19-1 before the treatment and the target image data F such as the US image data 19-2 after the treatment are more than the subject such as the affected part before and after the operation. When acquiring an ultrasound image by applying an ultrasonic probe, it is difficult to make the posture of the subject to be in the same state, for example, the degree of twisting when the posture is in the horizontal direction, and the direction in which the ultrasonic probe is applied to the subject. Since it is difficult to make them identical, a region G that does not overlap even if the reference image data R and the target image data F are aligned as shown in FIG.

この場合、位置合わせ部16は、参照画像データRと対象画像データFとの間、例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとの間の相互情報量Tを推定する際、参照画像データRと対象画像データFとで重ならない領域が生じると、この重ならない領域のサイズに応じて相互情報量Tを補正する。このとき、位置合わせ部16は、上記式(12)を算出して参照画像データRと対象画像データFとの相互情報量Tを求め、この相互情報量Tにおいてジョイント・ヒストグラムJのエントロピーH(R,F)に対して重ならない領域のサイズに応じた補正Mを行う。これにより、参照画像データRと対象画像データFとで位置合わせしても重ならない領域Gが生じても、参照画像データRと対象画像データFとを位置合わせできる。   In this case, the alignment unit 16 is configured such that the reference image data R between the reference image data R and the target image data F, for example, the reference image data R such as the US image data 19-1 before treatment and the US image data 19-2 after treatment, When the mutual information amount T between the target image data F and the target image data F is estimated, if a region where the reference image data R and the target image data F do not overlap is generated, the mutual information amount T is corrected according to the size of the non-overlapping region. To do. At this time, the alignment unit 16 calculates the above equation (12) to obtain the mutual information amount T between the reference image data R and the target image data F, and the entropy H ( Correction M is performed according to the size of the region that does not overlap R, F). As a result, even if the region G that does not overlap even if the reference image data R and the target image data F are aligned, the reference image data R and the target image data F can be aligned.

このように上記一実施の形態によれば、例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとにおいて解剖学的に特徴的な画像を有するところに位置合わせ候補の各小領域E、Eを設定し、これら小領域E、E間の画像類似度を求め、この画像類似度が最も大きくなるように治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとの位置合わせを行う。これにより、US画像データ同士やUS画像データと他のモダリティの画像データとの位置合わせが短時間で正確にできる。 As described above, according to the embodiment, for example, the reference image data R such as the US image data 19-1 before treatment and the target image data F such as the US image data 19-2 after treatment are anatomically analyzed. The sub-regions E 1 and E 2 of the alignment candidates are set where the characteristic image is present, the image similarity between the small regions E 1 and E 2 is obtained, and the image similarity is maximized. The reference image data R such as the US image data 19-1 before treatment and the target image data F such as the US image data 19-2 after treatment are aligned. As a result, alignment between US image data and between US image data and image data of other modalities can be accurately performed in a short time.

例えば超音波穿刺による肝癌の治療判定では、最低でも例えば治療前のUS画像データと、治療後のUS画像データ及びUS造影画像データとを比較参照することを要する。このうち治療前のUS画像データと治療後のUS画像データとでは、それぞれ撮影したときの患者等の被検体の体位の違いや、造影の有無の相違があり、さらには治療や病状の進行による被検体の形態そのものの変化がある。これらの要因により治療前と治療後との各US画像データを空間的位置合わせすることが必要になる。なお、治療前のUS画像データと治療後のUS造影画像データ、又は他のモダリティのX線CT画像データとを比較参照するときもこれら画像データ間を空間的位置合わせすることが必要になる。このようなUS画像データ同士やUS画像データと他のモダリティの画像データ、例えばX線CT画像データとの位置合わせでも短時間で正確にできる。   For example, in the treatment determination of liver cancer by ultrasonic puncture, it is necessary to compare and refer to, for example, US image data before treatment, US image data after treatment, and US contrast image data at least. Of these, the pre-treatment US image data and the post-treatment US image data have a difference in the position of the subject such as a patient at the time of photographing, a difference in the presence or absence of imaging, and further due to the progress of treatment or medical condition There is a change in the shape of the subject itself. These factors make it necessary to spatially align each US image data before and after treatment. In addition, when comparing and referring to US image data before treatment and US contrast image data after treatment, or X-ray CT image data of other modalities, it is necessary to spatially align these image data. Such alignment between US image data or between US image data and image data of other modalities, for example, X-ray CT image data can be accurately performed in a short time.

しかるに、US診断装置3、X線CT装置4、MR装置5等のマルチモダリティで利用ができる。
又、領域設定部15により治療前のUS画像データ19−1と治療後のUS画像データ19−2とをディスプレイ11上でそれぞれX方向、Y方向、Z方向を中心軸として回転させ、又X方向、Y方向、Z方向にそれぞれ平行移動させて初期設定するので、厳密な初期位置設定が不要である。
患部等の被検体に体位の捩れ等により変形により、画像データ中に消失があってもよく、又、数多くの画像データの位置合わせする際に全てに共通な特徴部分を必要としない。
However, it can be used in multi-modalities such as the US diagnostic apparatus 3, the X-ray CT apparatus 4, the MR apparatus 5, and the like.
The region setting unit 15 rotates the pre-treatment US image data 19-1 and post-treatment US image data 19-2 on the display 11 with the X, Y, and Z directions as the central axes, respectively. Since the initial setting is performed by parallel movement in each of the direction, the Y direction, and the Z direction, strict initial position setting is not required.
A subject such as an affected part may be lost in the image data due to deformation due to torsion of the body position or the like, and a common characteristic part is not required for alignment of many image data.

位置合わせ候補の各小領域E、E間の画像類似度を求め、この画像類似度が最も大きくなるように治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとを位置合わせするので、このときのCPU等の主制御部6による演算処理は、各小領域E、E内の少ないデータだけでよく、処理速度を大幅に改善できる。すなわち、治療前のUS画像データ19−1及び治療後のUS画像データ19−2の全体のデータを演算処理しないので、処理速度を高速化できる。例えば、参照画像データR上に指定された位置を中心に、経験的に予め決めておいた解剖学的な特徴を反映する小さな小領域E、例えば、肝臓の血管の場合であれば、例えば一辺2cm程度の立方体、ボクセルの大きさが0.5mmであれば40×40×40ボクセルの領域を設定し、これを基準画像として用いる。なお、位置合わせ候補の各小領域E、Eを小さな領域に設定するので、位置合わせに用いる空間的な変換は剛体変形と仮定できる。 The image similarity between the small regions E 1 and E 2 of the alignment candidates is obtained, and the reference image data R such as the US image data 19-1 before the treatment and the US after the treatment so that the image similarity becomes the largest. Since the target image data F such as the image data 19-2 is aligned, the arithmetic processing by the main control unit 6 such as the CPU at this time may be only a small amount of data in each of the small areas E 1 and E 2 . Speed can be greatly improved. That is, since the entire data of the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 is not processed, the processing speed can be increased. For example, in the case of a small small area E 1 that reflects an anatomical feature that has been determined empirically around the position specified on the reference image data R, for example, in the case of a blood vessel in the liver, If the cube is about 2 cm on a side and the size of the voxel is 0.5 mm 3 , an area of 40 × 40 × 40 voxels is set and used as a reference image. Since sets each subregion E 1, E 2 alignment candidate in a small area, the spatial transformation used for alignment can be assumed to be rigid deformation.

医師等のオペレータは、マニュアルにより操作部12のマウスをクリック操作等することにより、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおいて同一の解剖学的特徴点を有する小領域E、Eが認められる断面画像データをラフに選択できる。
さらに、領域設定部15は、例えば図2に示す治療前のUS画像データ19−1と治療後のUS画像データ19−2との画像類似度に基づいて解剖学的同一点である位置合わせ候補の各小領域E、Eをそれぞれ自動設定できる。
An operator such as a doctor performs the same anatomical feature point in, for example, the US image data 19-1 before treatment and the US image data 19-2 after treatment by clicking the mouse of the operation unit 12 manually. It is possible to roughly select cross-sectional image data in which small regions E 1 and E 2 having are recognized.
Furthermore, the region setting unit 15 is a registration candidate that is an anatomical identical point based on, for example, the image similarity between the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 shown in FIG. Each of the small areas E 1 and E 2 can be automatically set.

領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E、Eのサイズが例えば患者等の被検体の実寸で常に一定になるように対象画像データの画素サイズに応じて各小領域E、Eのサイズを調整できる。又、領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E、Eの位置を移動しないで、これら小領域E、Eのサイズをマニュアルにより変更できる。領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E、Eのサイズを変更しないで、これら小領域E、Eの位置を変更できる。 The region setting unit 15 receives an operation on the operation unit 12 by an operator such as a doctor, and targets the size of each of the small regions E 1 and E 2 of the alignment candidates to be always constant at the actual size of the subject such as a patient. The sizes of the small areas E 1 and E 2 can be adjusted according to the pixel size of the image data. In addition, the region setting unit 15 receives an operation on the operation unit 12 by an operator such as a doctor, and does not move the position of each of the small regions E 1 and E 2 that are candidates for alignment, and the size of these small regions E 1 and E 2 . Can be changed manually. The region setting unit 15 receives an operation on the operation unit 12 by an operator such as a doctor and changes the positions of the small regions E 1 and E 2 without changing the sizes of the small regions E 1 and E 2 of the alignment candidates. it can.

探索を始める前に初期位置の周りを適当な間隔でしらみつぶしに調べ、画像類似度が最大になる位置を初期位置として最適化するオプションを持つ。これにより、位置合わせを行う2つの三次元画像データ、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2との相対差が比較的大きな場合を考慮して、治療後のUS画像データ19−2等の対象画像データ上に指定された位置を中心に、その位置合わせパラメータ、例えば三軸の回転と三軸の平行移動の都合6個のパラメータに関し、限定した範囲について、例えば回転については±30度の範囲を10度ごと、平行移動であれば±30ピクセルの範囲を10ピクセルごとに、参照画像データと対象画像データとの間の画像類似度を計算する。このような場合、例えば7^6個の探索を行い、最も類似度の高い相対位置を初期値とする。小さな比較領域が持つ平行移動量の変位に対して不利な点を、初期位置の周りでラフに探索することによりキャプチャーレンジ内に絞り込むことが出来る。   Before starting the search, the area around the initial position is squeezed at appropriate intervals, and an option to optimize the position where the image similarity is maximized as the initial position is provided. Thus, in consideration of the case where the relative difference between the two three-dimensional image data to be aligned, for example, the US image data 19-1 before treatment and the US image data 19-2 after treatment is relatively large, With respect to the alignment parameters, for example, six parameters of three-axis rotation and three-axis translation about the position designated on the target image data such as US image data 19-2, a limited range For example, for rotation, the image similarity between the reference image data and the target image data is calculated every 10 degrees for a range of ± 30 degrees and for every 10 pixels for a range of ± 30 pixels for translation. In such a case, for example, 7 ^ 6 searches are performed, and the relative position with the highest similarity is set as the initial value. It is possible to narrow down the point that is disadvantageous to the displacement of the translation amount of the small comparison area within the capture range by roughly searching around the initial position.

画像保存部18は、位置合わせされた複数の画像データ、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを画像データベース9に保存する。このとき、画像保存部18は、複数の画像データの保存と共に、これら画像データのデータ名、ミラーやリバースの有無、統合画素サイズ、画像サイズ基準データ名、ボリュームデータ相対位置情報等を画像データベース9に保存する。この状態で、医師等のオペレータが操作部12のマウス等を操作して再現ボタン38をクリックすると、画像保存部18は、画像データベース9に保存されている位置合わせされた複数の画像データ、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを読み出し、これら参照画像データと対象画像データとに対してミラーやリバース、画素サイズ調整等の必要な処理を実行し、保存時の相対位置を再現できる。   The image storage unit 18 displays a plurality of aligned image data, for example, reference image data such as US image data 19-1 before treatment and target image data such as US image data 19-2 after treatment, in the image database 9. Save to. At this time, the image storage unit 18 stores a plurality of image data, and also stores the data names of these image data, presence / absence of mirror and reverse, integrated pixel size, image size reference data name, volume data relative position information, and the like. Save to. In this state, when an operator such as a doctor operates the mouse of the operation unit 12 and clicks the reproduction button 38, the image storage unit 18 stores a plurality of aligned image data stored in the image database 9, for example, Read out the reference image data such as the US image data 19-1 before treatment and the target image data such as the US image data 19-2 after treatment, and perform mirror, reverse, and pixel on the reference image data and the target image data. Necessary processing such as size adjustment can be executed, and the relative position at the time of storage can be reproduced.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明に係る画像位置合わせ装置の一実施の形態を示すブロック構成図。1 is a block configuration diagram showing an embodiment of an image alignment apparatus according to the present invention. 同装置におけるディスプレイに表示された治療前後の各US画像データを示す図。The figure which shows each US image data before and after the treatment displayed on the display in the apparatus. 同装置におけるディスプレイに表示された治療前と治療後の各US画像データと治療前のX線CT画像データとUS造影画像データとの表示例を示す図。The figure which shows the example of a display of each US image data before and after treatment displayed on the display in the same apparatus, X-ray CT image data before treatment, and US contrast image data. 同装置におけるディスプレイに表示された治療前と治療後の各US画像データに設定された位置合わせ候補の各領域を示す図。The figure which shows each area | region of the alignment candidate set to each US image data before and after the treatment displayed on the display in the apparatus. 同装置における領域設定部により設定される位置合わせ候補の小領域の形状の一例を示す図。The figure which shows an example of the shape of the small area | region of the alignment candidate set by the area | region setting part in the same apparatus. 同装置における位置合わせ部による参照画像データと対象画像データとの位置合わせに用いるジョイント・ヒストグラムを示す図。The figure which shows the joint histogram used for position alignment with the reference image data by the position alignment part in the same apparatus, and object image data. 同装置における位置合わせ部による視野外が存在する参照画像データと対象画像データとの位置合わせを示す概念図。The conceptual diagram which shows the position alignment with the reference image data in which the position alignment part in the same apparatus exists, and object image data. 同装置における位置合わせ部による参照画像データと対象画像データとで重ならない領域が生じたときの位置合わせを示す図。The figure which shows the alignment when the area | region which the reference image data and the target image data do not overlap by the alignment part in the same apparatus arises. 同装置における表示部によりスケールを表示したUS画像データ一例を示す図。The figure which shows an example of US image data which displayed the scale by the display part in the same apparatus. 同装置における表示部によりカーソルを表示したUS画像データ一例を示す図。The figure which shows an example of US image data which displayed the cursor by the display part in the same apparatus. 同装置における表示部により各US画像データを合成した表示例を示す図。The figure which shows the example of a display which synthesize | combined each US image data by the display part in the same apparatus. 同装置における位置合わせ部による治療前のUS画像データと治療後のUS画像データとの位置合わせ動作を示す図。The figure which shows the alignment operation | movement with the US image data before a treatment by the position alignment part in the same apparatus, and the US image data after a treatment.

符号の説明Explanation of symbols

1:画像位置合わせ装置、2:ネットワーク、3:US診断装置、4:X線CT装置、5:MR装置、6:主制御部、7:プログラムメモリ、8:データメモリ、9:画像データベース、10:伝送部、11:ディスプレイ、12:操作部、13:データ読出部、14:データ属性変更部、15:領域設定部、16:位置合わせ部、17:表示部、18:画像保存部、19−1:治療前のUS画像データ、19−2:治療後のUS画像データ、20:治療前のX線CT画像データ、21:US造影画像データ、22:画像判別データ、23:サイズ調整ボタン、24:スケール、25:第1のミラー動作部の設定ボタン、26:第2のミラー動作部の設定ボタン、27:リバース部の設定ボタン、28:プリセットボタン、29:第1の位置合わせボタン、30:第2の位置合わせボタン、31:やり直しスイッチ、32:第3の位置合わせスイッチ、33:位置合わせ統合スイッチ、34:スケール、35a,35b:カーソル、36:境界領域、37:画像保存ボタン、38:再現ボタン、E,E:位置合わせ候補の小領域。 1: image alignment device, 2: network, 3: US diagnostic device, 4: X-ray CT device, 5: MR device, 6: main control unit, 7: program memory, 8: data memory, 9: image database, 10: Transmission unit, 11: Display, 12: Operation unit, 13: Data reading unit, 14: Data attribute changing unit, 15: Area setting unit, 16: Positioning unit, 17: Display unit, 18: Image storage unit, 19-1: US image data before treatment, 19-2: US image data after treatment, 20: X-ray CT image data before treatment, 21: US contrast image data, 22: Image discrimination data, 23: Size adjustment Buttons, 24: scale, 25: first mirror operation unit setting button, 26: second mirror operation unit setting button, 27: reverse unit setting button, 28: preset button, 29: first position Adjustment button, 30: second alignment button, 31: redo switch, 32: third alignment switch, 33: alignment alignment switch, 34: scale, 35a, 35b: cursor, 36: boundary region, 37: Image save button, 38: Reproduction button, E 1 , E 2 : Small region of alignment candidates.

Claims (29)

三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定する領域設定部と、
前記領域設定部により設定された前記各領域間の画像類似度を求め、この画像類似度が最も大きくなるように前記参照画像データと前記対象画像データとの位置合わせを行う位置合わせ部と、
前記位置合わせ部により位置合わせした前記参照画像データと前記対象画像データとをディスプレイに表示する表示部と、
を具備することを特徴とする画像位置合わせ装置。
Each region of the alignment candidate formed in the size required to select the feature point on the three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data, respectively An area setting section to be set;
An alignment unit that obtains an image similarity between the regions set by the region setting unit and aligns the reference image data and the target image data so that the image similarity is maximized;
A display unit for displaying the reference image data and the target image data aligned by the alignment unit on a display;
An image alignment apparatus comprising:
前記参照画像データと前記対象画像データとを読み出すデータ読出部と、
前記データ読出部により読み出された前記参照画像データと前記対象画像データとに対して少なくとも回転、平行移動に関する属性を変更して前記ディスプレイに表示するデータ属性変更部と、
を具備することを特徴とする請求項1記載の画像位置合わせ装置。
A data reading unit for reading the reference image data and the target image data;
A data attribute changing unit for changing at least the attribute relating to rotation and translation with respect to the reference image data and the target image data read by the data reading unit and displaying them on the display;
The image alignment apparatus according to claim 1, further comprising:
前記データ読出部は、同一又は異なるモダリティにより取得された前記参照画像データと前記対象画像データとを読み出すことを特徴とする請求項2記載の画像位置合わせ装置。   The image alignment apparatus according to claim 2, wherein the data reading unit reads the reference image data and the target image data acquired by the same or different modalities. 前記データ読出部は、前記参照画像データと前記対象画像データとのうち少なくとも一方を超音波画像データとして読み出すことを特徴とする請求項2記載の画像位置合わせ装置。   The image alignment apparatus according to claim 2, wherein the data reading unit reads at least one of the reference image data and the target image data as ultrasonic image data. 前記データ読出部は、互いに画素サイズの異なる前記参照画像データと前記対象画像データとを読み出すことを特徴とする請求項2記載の画像位置合わせ装置。   The image alignment apparatus according to claim 2, wherein the data reading unit reads the reference image data and the target image data having different pixel sizes. 前記データ属性変更部は、互いに画素サイズの異なる前記参照画像データと前記対象画像データとの少なくとも前記画素サイズを合わせることを特徴とする請求項2記載の画像位置合わせ装置。   The image alignment apparatus according to claim 2, wherein the data attribute changing unit matches at least the pixel sizes of the reference image data and the target image data having different pixel sizes. 前記データ属性変更部は、前記参照画像データと前記対象画像データとの少なくとも空間的な方向を変更することを特徴とする請求項2記載の画像位置合わせ装置。   The image alignment apparatus according to claim 2, wherein the data attribute changing unit changes at least a spatial direction of the reference image data and the target image data. 前記位置合わせ部により位置合わせした前記参照画像データと前記対象画像データとを保存する画像保存部、
を具備することを特徴とする請求項1記載の画像位置合わせ装置。
An image storage unit for storing the reference image data and the target image data aligned by the alignment unit;
The image alignment apparatus according to claim 1, further comprising:
前記領域設定部は、前記位置合わせ候補の前記領域のサイズを前記対象画像データの画素サイズに応じて調整することを特徴とする請求項1記載の画像位置合わせ装置。   The image registration device according to claim 1, wherein the region setting unit adjusts the size of the region of the alignment candidate according to a pixel size of the target image data. 前記領域設定部は、前記参照画像データと前記対象画像データとの画素の頻度分布から求められるエントロピーを最大にするように前記領域のサイズを調整することを特徴とする請求項9記載の画像位置合わせ装置。   The image position according to claim 9, wherein the region setting unit adjusts the size of the region so as to maximize entropy obtained from a frequency distribution of pixels of the reference image data and the target image data. Alignment device. 前記領域設定部は、前記位置合わせ候補の前記領域と当該領域の周辺領域との画素値の平均値の差に基づいて前記領域のサイズを調整することを特徴とする請求項9記載の画像位置合わせ装置。   The image position according to claim 9, wherein the area setting unit adjusts the size of the area based on a difference between average values of pixel values of the area of the alignment candidate and a peripheral area of the area. Alignment device. 前記領域設定部は、前記位置合わせ候補の前記領域の中心と境界とを前記ディスプレイ上に表示することを特徴とする請求項1記載の画像位置合わせ装置。   The image registration device according to claim 1, wherein the region setting unit displays a center and a boundary of the region of the registration candidate on the display. 前記領域設定部は、前記位置合わせ候補の前記領域のマニュアル選択操作を受けて、前記参照画像データ上と前記対象画像データ上とにおける前記位置合わせ候補の前記領域をそれぞれ設定することを特徴とする請求項1記載の画像位置合わせ装置。   The region setting unit is configured to set the regions of the alignment candidates on the reference image data and the target image data in response to a manual selection operation of the regions of the alignment candidates. The image alignment apparatus according to claim 1. 前記参照画像データと前記対象画像データとは、前記ディスプレイ上に表示され、前記ディスプレイの画面上で前記位置合わせ候補の前記領域の前記マニュアル選択操作が行われると、
前記領域設定部は、前記マニュアル選択操作を受けて、前記参照画像データ上と前記対象画像データ上とにおける前記位置合わせ候補の前記領域をそれぞれ設定する、
ことを特徴とする請求項13記載の画像位置合わせ装置。
The reference image data and the target image data are displayed on the display, and when the manual selection operation of the region of the alignment candidate is performed on the display screen,
The region setting unit receives the manual selection operation and sets the regions of the alignment candidates on the reference image data and the target image data, respectively.
The image alignment apparatus according to claim 13.
前記領域設定部は、前記参照画像データと前記対象画像データとの画像類似度に基づいて前記位置合わせ候補の前記領域をそれぞれ自動設定することを特徴とする請求項1記載の画像位置合わせ装置。   The image registration device according to claim 1, wherein the region setting unit automatically sets the regions of the alignment candidates based on an image similarity between the reference image data and the target image data. 前記領域設定部は、前記参照画像データから前記位置合わせに用いる特徴的な画像を有する前記領域の中心を決定し、この決定した前記領域の中心に対して領域サイズを決定し、前記参照画像データに設定した前記領域との間の前記画像類似度が最も大きな前記領域を前記対象画像データから探索することを特徴とする請求項15記載の画像位置合わせ装置。   The region setting unit determines a center of the region having a characteristic image used for the alignment from the reference image data, determines a region size with respect to the determined center of the region, and the reference image data The image registration device according to claim 15, wherein the region having the largest image similarity with the region set to is searched from the target image data. 前記領域設定部は、前記参照画像データに設定した前記特徴的な画像を有する前記位置合わせ候補の前記領域との間の特徴量が極値を取る上位の複数の領域を前記対象画像データから探索し、前記参照画像データ上の前記領域と対を成す前記対象画像データ上で前記探索された複数の前記領域とのうち前記各領域の周囲の領域の前記画像類似度が最も大きくなる一対の前記領域を探索することを特徴とする請求項16記載の画像位置合わせ装置。   The region setting unit searches the target image data for a plurality of upper regions where feature amounts between the regions of the alignment candidates having the characteristic image set in the reference image data have extreme values. A pair of the image similarity of the regions surrounding each region among the plurality of the searched regions on the target image data paired with the region on the reference image data. The image registration apparatus according to claim 16, wherein an area is searched. 前記位置合わせ部は、前記画像類似度として前記参照画像データと前記対象画像データとの間の相互情報量又はエントロピーを推定し、最適化処理を行って相互情報量又はエントロピーの極値に基づいて前記参照画像データと前記対象画像データとの相対位置を決定することを特徴とする請求項1記載の画像位置合わせ装置。   The alignment unit estimates a mutual information amount or entropy between the reference image data and the target image data as the image similarity, performs an optimization process, and based on an extreme value of the mutual information amount or entropy The image alignment apparatus according to claim 1, wherein a relative position between the reference image data and the target image data is determined. 前記位置合わせ部は、前記参照画像データと前記対象画像データとの間の前記相互情報量を推定する際、前記参照画像データと前記対象画像データとに共存しない領域に前記位置合わせ候補の領域があると、当該領域を除いて前記相互情報量又は前記エントロピーを推定することを特徴とする請求項18記載の画像位置合わせ装置。   When the alignment unit estimates the mutual information amount between the reference image data and the target image data, the alignment candidate region is in a region that does not coexist in the reference image data and the target image data. The image registration apparatus according to claim 18, wherein if there is, the mutual information amount or the entropy is estimated by excluding the region. 前記位置合わせ部は、前記参照画像データにおける本来の画像データ外の第1のサイズと前記対象画像データとにおける本来の画像データ外の第2のサイズとを比較し、前記第1のサイズが前記第2のサイズよりも大きければ、前記参照画像データと前記対象画像データとを入れ替えて前記相互情報量又は前記エントロピーを推定することを特徴とする請求項19記載の画像位置合わせ装置。   The alignment unit compares a first size outside the original image data in the reference image data with a second size outside the original image data in the target image data, and the first size is 20. The image registration device according to claim 19, wherein if the size is larger than a second size, the reference image data and the target image data are exchanged to estimate the mutual information amount or the entropy. 前記位置合わせ部は、前記参照画像データと前記対象画像データとの相対位置がずれていると、再度、前記画像類似度として前記参照画像データと前記対象画像データとの間の相互情報量又はエントロピーを推定し、最適化処理を行って相互情報量又はエントロピーの極値に基づいて前記参照画像データと前記対象画像データとの相対位置を決定する
ことを特徴とする請求項18記載の画像位置合わせ装置。
When the relative position between the reference image data and the target image data is shifted, the alignment unit again determines the mutual information amount or entropy between the reference image data and the target image data as the image similarity. 19. The image registration according to claim 18, wherein the relative position between the reference image data and the target image data is determined based on a mutual information amount or an extreme value of entropy by performing estimation and performing optimization processing. apparatus.
前記位置合わせ部は、前記最適化処理を行う前に、前記参照画像データ上に設定した前記位置合わせ候補の前記領域の周囲の複数の領域に対する前記各画像類似度を求め、これら画像類似度のうち最も高い前記画像類似度に対応する前記領域を探索し、この探索された前記領域について前記最適化処理を行うことを特徴とする請求項18記載の画像位置合わせ装置。   Before performing the optimization process, the alignment unit obtains each image similarity with respect to a plurality of regions around the region of the alignment candidate set on the reference image data, and determines the image similarity 19. The image registration apparatus according to claim 18, wherein the region corresponding to the highest image similarity is searched, and the optimization processing is performed on the searched region. 前記位置合わせ部は、前記参照画像データ上に設定した前記位置合わせ候補の主となる前記主領域と補助となる複数の補助領域とを設定し、これら主領域と複数の補助領域とに対応する各領域を前記対象画像データ上に設定し、前記参照画像データ上の前記主領域と前記複数の補助領域とに対応する前記対象画像データ上の各領域との間の前記各画像類似度をそれぞれ求め、これら画像類似度を統合した指標により前記参照画像データと前記対象画像データとの相対位置を決定することを特徴とする請求項1記載の画像位置合わせ装置。   The alignment unit sets the main region that is the main alignment candidate set on the reference image data and a plurality of auxiliary regions, and corresponds to the main region and the plurality of auxiliary regions. Each area is set on the target image data, and each image similarity between each area on the target image data corresponding to the main area on the reference image data and the plurality of auxiliary areas is set respectively. 2. The image alignment apparatus according to claim 1, wherein the relative position between the reference image data and the target image data is determined by an index obtained by integrating the image similarity. 前記位置合わせ部は、先ず、前記主領域のみを用い、次に、ある程度収束した時点で統合した前記指標を用いて前記参照画像データと前記対象画像データとの相対位置を決定することを特徴とする請求項23記載の画像位置合わせ装置。   The alignment unit first uses only the main region, and then determines a relative position between the reference image data and the target image data using the index that is integrated when it has converged to some extent. The image alignment apparatus according to claim 23. 前記位置合わせ部は、前記参照画像データと前記対象画像データとの間の前記相互情報量を推定する際、前記参照画像データと前記対象画像データとで重ならない領域が生じると、この重ならない領域のサイズに応じて前記相互情報量を補正することを特徴とする請求項18記載の画像位置合わせ装置。   When the registration unit estimates the mutual information amount between the reference image data and the target image data, an area that does not overlap the reference image data and the target image data is generated. The image registration apparatus according to claim 18, wherein the mutual information is corrected according to a size of the image. 前記位置合わせ部は、前記参照画像データのエントロピーと、前記対象画像データのエントロピーと、前記参照画像データと前記対象画像データとに基づいて生成されるジョイント・ヒストグラムのエントロピーとに基づいて前記相互情報量を求め、かつジョイント・ヒストグラムのエントロピーに対して前記重ならない領域のサイズに応じた補正を行うことを特徴とする請求項25記載の画像位置合わせ装置。   The registration unit includes the mutual information based on entropy of the reference image data, entropy of the target image data, and entropy of a joint histogram generated based on the reference image data and the target image data. 26. The image registration apparatus according to claim 25, wherein an amount is obtained, and correction according to the size of the non-overlapping region is performed on the entropy of the joint histogram. 前記表示部は、前記位置合わせ部により位置合わせした前記参照画像データと前記対象画像データとの少なくとも回転、平行移動を同期して行って前記ディスプレイに表示することを特徴とする請求項1記載の画像位置合わせ装置。   2. The display unit according to claim 1, wherein at least rotation and translation of the reference image data and the target image data aligned by the alignment unit are synchronized and displayed on the display. Image alignment device. 三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定し、
前記設定された前記各領域間の画像類似度を求め、この画像類似度が最も大きくなるように前記参照画像データと前記対象画像データとの位置合わせを行い、
前記位置合わせした前記参照画像データと前記対象画像データとをディスプレイに表示する、
ことを特徴とする画像位置合わせ方法。
Each region of the alignment candidate formed in the size required to select the feature point on the three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data, respectively Set,
Obtaining the image similarity between the set areas, aligning the reference image data and the target image data so that the image similarity is maximized,
Displaying the aligned reference image data and the target image data on a display;
An image alignment method characterized by the above.
三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定させ、
前記設定された前記各領域間の画像類似度を求めさせ、この画像類似度が最も大きくなるように前記参照画像データと前記対象画像データとを位置合わせさせ、
前記位置合わせした前記参照画像データと前記対象画像データとをディスプレイに表示させる、
ことを特徴とする画像位置合わせプログラム。
Each region of the alignment candidate formed in the size required to select the feature point on the three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data, respectively Let me set
The image similarity between the set regions is obtained, and the reference image data and the target image data are aligned so that the image similarity is maximized,
Displaying the aligned reference image data and the target image data on a display;
An image alignment program characterized by that.
JP2007287846A 2007-11-05 2007-11-05 Image alignment device Active JP5835680B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007287846A JP5835680B2 (en) 2007-11-05 2007-11-05 Image alignment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007287846A JP5835680B2 (en) 2007-11-05 2007-11-05 Image alignment device

Publications (2)

Publication Number Publication Date
JP2009112468A true JP2009112468A (en) 2009-05-28
JP5835680B2 JP5835680B2 (en) 2015-12-24

Family

ID=40780306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007287846A Active JP5835680B2 (en) 2007-11-05 2007-11-05 Image alignment device

Country Status (1)

Country Link
JP (1) JP5835680B2 (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274043A (en) * 2009-06-01 2010-12-09 Toshiba Corp Ultrasonic diagnostic apparatus and ultrasonic image processing program
JP2010284204A (en) * 2009-06-09 2010-12-24 Toshiba Corp Medical image display device
JP2011031045A (en) * 2009-08-03 2011-02-17 Medison Co Ltd System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image
JP2011031040A (en) * 2009-07-31 2011-02-17 Medison Co Ltd System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image
JP2011047863A (en) * 2009-08-28 2011-03-10 Konica Minolta Sensing Inc Three-dimensional shape data processing apparatus, three-dimensional shape data processing system, and three-dimensional shape measurement system
JP2011078440A (en) * 2009-10-02 2011-04-21 Ge Medical Systems Global Technology Co Llc Medical image diagnostic apparatus
JP2011125568A (en) * 2009-12-18 2011-06-30 Canon Inc Image processor, image processing method, program and image processing system
JP2011142974A (en) * 2010-01-13 2011-07-28 Fujifilm Corp Medical image display apparatus, method, and program
JP2012125297A (en) * 2010-12-13 2012-07-05 Toshiba Corp Ultrasonic diagnostic apparatus, image processor, and program
WO2013018575A1 (en) * 2011-08-03 2013-02-07 株式会社日立メディコ Image diagnostic device and image correction method
JP2013527848A (en) * 2010-04-30 2013-07-04 コンプリート・ゲノミックス・インコーポレーテッド Method and system for accurate alignment and registration of DNA sequencing arrays
KR101323334B1 (en) 2012-05-14 2013-10-29 삼성메디슨 주식회사 Apparatus and method for generating volume image
JP2013223674A (en) * 2012-04-23 2013-10-31 Hitachi Ltd Image processor, and image processing method
JP2015021824A (en) * 2013-07-18 2015-02-02 三菱電機株式会社 Classification and identification filter generator and target classification and identification device
JP2015110045A (en) * 2015-02-17 2015-06-18 株式会社東芝 Medical image diagnostic apparatus and medical image processing apparatus
JP2016025940A (en) * 2015-09-29 2016-02-12 キヤノン株式会社 Image processing apparatus, image processing method, program, and image processing system
JP2016047217A (en) * 2014-08-28 2016-04-07 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Image processing method and apparatus, and program
KR20160043470A (en) * 2014-10-13 2016-04-21 삼성전자주식회사 An ultrasonic imaging apparatus and a method for controlling the same
JP2016147046A (en) * 2015-02-12 2016-08-18 東芝メディカルシステムズ株式会社 Medical image processing device, medical image processing method, medical image processing system, and medical image processing program
CN106725564A (en) * 2015-11-25 2017-05-31 东芝医疗系统株式会社 Image processing apparatus and image processing method
EP3192447A1 (en) * 2016-01-12 2017-07-19 Samsung Medison Co., Ltd. Ultrasound imaging apparatus and control method for the same
JP2017225544A (en) * 2016-06-21 2017-12-28 東芝メディカルシステムズ株式会社 Ultrasonic diagnostic apparatus and medical image processing apparatus
JP2017225835A (en) * 2017-08-09 2017-12-28 キヤノン株式会社 Image processing device
JP2018057428A (en) * 2016-09-30 2018-04-12 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnosis apparatus and ultrasonic diagnosis support program
JP2018121841A (en) * 2017-01-31 2018-08-09 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnostic apparatus and ultrasonic diagnostic support program
WO2018230409A1 (en) * 2017-06-15 2018-12-20 キヤノン株式会社 Information processing device, information processing method, and program
JP2019217264A (en) * 2018-06-19 2019-12-26 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, medical image diagnostic apparatus, and medical image processing method
US11369348B2 (en) 2018-07-31 2022-06-28 Canon Medical Systems Corporation Ultrasound diagnostic apparatus, image processing apparatus, and image processing method
EP3547674B1 (en) * 2016-11-24 2024-06-19 Nikon Corporation Image processing device, microscope system, image processing method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153877A (en) * 2001-11-22 2003-05-27 Ge Medical Systems Global Technology Co Llc Image diagnosis support system and image processing method
JP2004509723A (en) * 2000-09-29 2004-04-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image registration system and method with cross entropy optimization
JP2004229958A (en) * 2003-01-31 2004-08-19 Aloka Co Ltd Ultrasonic image processing device
JP2006350724A (en) * 2005-06-16 2006-12-28 Matsumoto Shika Univ Image processing method, image processing apparatus, and image processing program
JP2007037781A (en) * 2005-08-03 2007-02-15 Toshiba Corp Image processing apparatus and image processing system
JP2007054636A (en) * 2005-08-24 2007-03-08 Siemens Corporate Res Inc Method for positioning a pair of images and program storing apparatus for executing above method by realizing program comprised of command executed by computer
JP2007265389A (en) * 2006-03-03 2007-10-11 Fuji Xerox Co Ltd Image processing device and image processing program
JP2007272568A (en) * 2006-03-31 2007-10-18 Secom Co Ltd Biometric information verification device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004509723A (en) * 2000-09-29 2004-04-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image registration system and method with cross entropy optimization
JP2003153877A (en) * 2001-11-22 2003-05-27 Ge Medical Systems Global Technology Co Llc Image diagnosis support system and image processing method
JP2004229958A (en) * 2003-01-31 2004-08-19 Aloka Co Ltd Ultrasonic image processing device
JP2006350724A (en) * 2005-06-16 2006-12-28 Matsumoto Shika Univ Image processing method, image processing apparatus, and image processing program
JP2007037781A (en) * 2005-08-03 2007-02-15 Toshiba Corp Image processing apparatus and image processing system
JP2007054636A (en) * 2005-08-24 2007-03-08 Siemens Corporate Res Inc Method for positioning a pair of images and program storing apparatus for executing above method by realizing program comprised of command executed by computer
JP2007265389A (en) * 2006-03-03 2007-10-11 Fuji Xerox Co Ltd Image processing device and image processing program
JP2007272568A (en) * 2006-03-31 2007-10-18 Secom Co Ltd Biometric information verification device

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274043A (en) * 2009-06-01 2010-12-09 Toshiba Corp Ultrasonic diagnostic apparatus and ultrasonic image processing program
JP2010284204A (en) * 2009-06-09 2010-12-24 Toshiba Corp Medical image display device
JP2011031040A (en) * 2009-07-31 2011-02-17 Medison Co Ltd System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image
US9186062B2 (en) 2009-08-03 2015-11-17 Samsung Medison Co., Ltd. System and method for providing 2-dimensional computerized- tomography image corresponding to 2-dimensional ultrasound image
JP2011031045A (en) * 2009-08-03 2011-02-17 Medison Co Ltd System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image
JP2011047863A (en) * 2009-08-28 2011-03-10 Konica Minolta Sensing Inc Three-dimensional shape data processing apparatus, three-dimensional shape data processing system, and three-dimensional shape measurement system
JP2011078440A (en) * 2009-10-02 2011-04-21 Ge Medical Systems Global Technology Co Llc Medical image diagnostic apparatus
JP2011125568A (en) * 2009-12-18 2011-06-30 Canon Inc Image processor, image processing method, program and image processing system
US9179893B2 (en) 2009-12-18 2015-11-10 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing system, and program
JP2011142974A (en) * 2010-01-13 2011-07-28 Fujifilm Corp Medical image display apparatus, method, and program
JP2013527848A (en) * 2010-04-30 2013-07-04 コンプリート・ゲノミックス・インコーポレーテッド Method and system for accurate alignment and registration of DNA sequencing arrays
JP2012125297A (en) * 2010-12-13 2012-07-05 Toshiba Corp Ultrasonic diagnostic apparatus, image processor, and program
US9165363B2 (en) 2011-08-03 2015-10-20 Hitachi Medical Corporation Image diagnostic device and image correction method
WO2013018575A1 (en) * 2011-08-03 2013-02-07 株式会社日立メディコ Image diagnostic device and image correction method
JP2013223674A (en) * 2012-04-23 2013-10-31 Hitachi Ltd Image processor, and image processing method
WO2013161112A1 (en) * 2012-04-23 2013-10-31 株式会社日立製作所 Image processing device and image processing method
KR101323334B1 (en) 2012-05-14 2013-10-29 삼성메디슨 주식회사 Apparatus and method for generating volume image
US9255990B2 (en) 2012-05-14 2016-02-09 Samsung Medison Co., Ltd. Method and apparatus for generating volume image
JP2015021824A (en) * 2013-07-18 2015-02-02 三菱電機株式会社 Classification and identification filter generator and target classification and identification device
US10405811B2 (en) 2014-08-28 2019-09-10 General Electric Company Image processing method and apparatus, and program
JP2016047217A (en) * 2014-08-28 2016-04-07 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Image processing method and apparatus, and program
KR20160043470A (en) * 2014-10-13 2016-04-21 삼성전자주식회사 An ultrasonic imaging apparatus and a method for controlling the same
KR102329113B1 (en) 2014-10-13 2021-11-19 삼성전자주식회사 An ultrasonic imaging apparatus and a method for controlling the same
JP2016147046A (en) * 2015-02-12 2016-08-18 東芝メディカルシステムズ株式会社 Medical image processing device, medical image processing method, medical image processing system, and medical image processing program
JP2015110045A (en) * 2015-02-17 2015-06-18 株式会社東芝 Medical image diagnostic apparatus and medical image processing apparatus
JP2016025940A (en) * 2015-09-29 2016-02-12 キヤノン株式会社 Image processing apparatus, image processing method, program, and image processing system
JP2017097836A (en) * 2015-11-25 2017-06-01 東芝メディカルシステムズ株式会社 Image processor, image processing method, and ultrasonic diagnostic apparatus
CN106725564A (en) * 2015-11-25 2017-05-31 东芝医疗系统株式会社 Image processing apparatus and image processing method
KR20170084435A (en) * 2016-01-12 2017-07-20 삼성메디슨 주식회사 Ultrasound imaging apparatus and control method for the same
EP3192447A1 (en) * 2016-01-12 2017-07-19 Samsung Medison Co., Ltd. Ultrasound imaging apparatus and control method for the same
KR102607013B1 (en) * 2016-01-12 2023-11-29 삼성메디슨 주식회사 Ultrasound imaging apparatus and control method for the same
US10799207B2 (en) 2016-01-12 2020-10-13 Samsung Medison Co., Ltd. Ultrasound imaging apparatus and control method for the same
JP7027029B2 (en) 2016-06-21 2022-03-01 キヤノンメディカルシステムズ株式会社 Ultrasound diagnostic equipment and medical image processing equipment
JP2017225544A (en) * 2016-06-21 2017-12-28 東芝メディカルシステムズ株式会社 Ultrasonic diagnostic apparatus and medical image processing apparatus
JP2018057428A (en) * 2016-09-30 2018-04-12 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnosis apparatus and ultrasonic diagnosis support program
EP3547674B1 (en) * 2016-11-24 2024-06-19 Nikon Corporation Image processing device, microscope system, image processing method, and program
JP2018121841A (en) * 2017-01-31 2018-08-09 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnostic apparatus and ultrasonic diagnostic support program
WO2018230409A1 (en) * 2017-06-15 2018-12-20 キヤノン株式会社 Information processing device, information processing method, and program
JP2017225835A (en) * 2017-08-09 2017-12-28 キヤノン株式会社 Image processing device
JP2019217264A (en) * 2018-06-19 2019-12-26 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, medical image diagnostic apparatus, and medical image processing method
US11369348B2 (en) 2018-07-31 2022-06-28 Canon Medical Systems Corporation Ultrasound diagnostic apparatus, image processing apparatus, and image processing method

Also Published As

Publication number Publication date
JP5835680B2 (en) 2015-12-24

Similar Documents

Publication Publication Date Title
JP5835680B2 (en) Image alignment device
EP3652747B1 (en) Methods and systems for guidance in cardiac resynchronization therapy
JP6267707B2 (en) Integrated segmentation in 3D normal and contrast-enhanced ultrasound images
JP4918048B2 (en) Image processing apparatus and method
JP5538861B2 (en) Information processing apparatus, information processing method, information processing system, and program
CN104517303B (en) Medical image-processing apparatus and medical image processing method
CN107194909B (en) Medical image processing apparatus and medical image processing method
US20240127578A1 (en) Image processing device, correct answer data generation device, similar image search device, image processing method, and program
JP2020049204A (en) Method, device and system for dynamic analysis from sequences of volumetric images
JP2011125568A (en) Image processor, image processing method, program and image processing system
US20120287131A1 (en) Image processing apparatus and image registration method
US10019804B2 (en) Medical image processing apparatus, method, and program
JP6383483B2 (en) Ultrasonic imaging apparatus and image processing apparatus
JP6429958B2 (en) Image processing apparatus, image processing method, and program
JP7537432B2 (en) Image-Based Device Tracking
JP5923067B2 (en) Diagnosis support apparatus, diagnosis support method, and diagnosis support program
US20150043809A1 (en) Automatic Segmentation of Articulated Structures
JP2005136594A (en) Image processing apparatus and control method thereof
Morais et al. Automated segmentation of the atrial region and fossa ovalis towards computer-aided planning of inter-atrial wall interventions
US10299864B1 (en) Co-localization of multiple internal organs based on images obtained during surgery
JP2011182946A (en) Medical image display and medical image display method
JP6391544B2 (en) Medical image processing apparatus, medical image processing method, and program
US20250299348A1 (en) Image processing apparatus, image processing method, and image processing program
JP2025145532A (en) Image processing device, image processing method, and image processing program
Shanmuganathan Two-Step Rigid and Non-Rigid Image Registration for the Alignment of Multi-View Three-Dimensional Echocardiography Sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101025

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140701

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140709

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140808

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20141226

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151023

R150 Certificate of patent or registration of utility model

Ref document number: 5835680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350