JP2009112468A - Image alignment apparatus and method, and image alignment program - Google Patents
Image alignment apparatus and method, and image alignment program Download PDFInfo
- Publication number
- JP2009112468A JP2009112468A JP2007287846A JP2007287846A JP2009112468A JP 2009112468 A JP2009112468 A JP 2009112468A JP 2007287846 A JP2007287846 A JP 2007287846A JP 2007287846 A JP2007287846 A JP 2007287846A JP 2009112468 A JP2009112468 A JP 2009112468A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- alignment
- region
- reference image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
【課題】超音波画像同士や超音波画像と他のモダリティ画像とのような超音波画像データを含む3次元の参照画像データと三次元の対象画像データとの位置合わせを良好すること。
【解決手段】例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとにおいて解剖学的に特徴的な画像を有するところに位置合わせ候補の各小領域E1、E2を領域設定部15により設定し、これら小領域E1、E2間の画像類似度を求め、この画像類似度が最も大きくなるように治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとの位置合わせを位置合わせ部16により行う。
【選択図】図1To improve the alignment between three-dimensional reference image data and three-dimensional target image data including ultrasonic image data such as ultrasonic images or ultrasonic images and other modality images.
For example, reference image data R such as US image data 19-1 before treatment and target image data F such as US image data 19-2 after treatment have anatomically characteristic images. The sub-regions E 1 and E 2 of the alignment candidates are set by the region setting unit 15, the image similarity between the small regions E 1 and E 2 is obtained, and the pre-treatment is set so that the image similarity is maximized. The alignment unit 16 aligns the reference image data R such as the US image data 19-1 and the target image data F such as the US image data 19-2 after the treatment.
[Selection] Figure 1
Description
本発明は、例えば患者等の被検体を撮影して取得した超音波画像データを含む3次元の参照画像データと三次元の対象画像データとの位置合わせを行う画像位置合わせ装置及びその方法並びに画像位置合わせプログラムに関する。 The present invention relates to an image alignment apparatus and method for aligning 3D reference image data including ultrasonic image data acquired by imaging a subject such as a patient and 3D target image data, and an image thereof. It relates to an alignment program.
超音波画像群の自動的な空間的位置合わせは、CT画像やMR画像に比べて難しいことが一般的に知られている。この理由は、超音波画像がCT画像やMR画像よりも撮影条件の多様性やゲインの不均一性、又画像の分解能とS/Nとが劣ることからである。
超音波画像を用いて病変の経時変化や治療効果を判定するためには、撮影時刻や手技の異なる超音波画像が対象になる。例えば、手術前に撮影した超音波画像と手術後に撮影した超音波画像とを比較して病変の経時変化や治療効果を判定する。これら手術前に撮影した超音波画像と手術後に撮影した超音波画像とでは、それぞれ撮影したときの患者等の被検体の体位の違いや、造影の有無の相違があり、さらには治療や病状の進行による被検体の形態そのものの変化がある。これらの要因により超音波画像を自動的に空間的位置合わせすることが難しくなっている。
It is generally known that automatic spatial alignment of ultrasound image groups is more difficult than CT images and MR images. This is because the ultrasonic image is inferior to the CT image or MR image in the variety of imaging conditions, the non-uniformity of the gain, and the image resolution and S / N are inferior.
In order to determine a change with time and a therapeutic effect of a lesion using an ultrasound image, ultrasound images with different imaging times and procedures are targeted. For example, an ultrasonic image taken before the operation and an ultrasonic image taken after the operation are compared to determine the temporal change of the lesion and the therapeutic effect. There is a difference in the position of the subject such as the patient at the time of imaging, and the presence or absence of contrast enhancement between the ultrasound image taken before the surgery and the ultrasound image taken after the surgery. There is a change in the shape of the subject itself due to progress. These factors make it difficult to automatically spatially align ultrasound images.
超音波画像と他のモダリティ画像、例えばX線CT画像、超音波Bモード画像、造影剤動脈相画像、造影剤静脈相画像、MR画像などの画像との画像位置合わせでは、それぞれの画像生成機序が異なるために画素値間に一対一の関係が存在せず、さらに空間的位置合わせが難しくなっている。 In image alignment between images such as an ultrasound image and other modality images such as an X-ray CT image, an ultrasound B-mode image, a contrast agent arterial phase image, a contrast agent vein phase image, and an MR image, each image generator Since the order is different, there is no one-to-one relationship between pixel values, and spatial alignment is more difficult.
位置合わせの対象となる画像、すなわち参照画像に対して位置合わせする対象画像の種類が増えれば増えるほど、例えば対象画像の種類がX線CT画像、超音波Bモード画像、造影剤動脈相、造影剤静脈相画像等のように増加すると、これら画像間で共通に観察できる領域や解剖学的特徴が少なくなることも解決すべき課題である。 As the types of images to be aligned, that is, the types of target images to be aligned with respect to the reference image increase, for example, the types of target images include X-ray CT images, ultrasound B-mode images, contrast agent arterial phases, and contrast media. It is a problem to be solved that if the number of the venous phase images increases, the area and anatomical features that can be commonly observed between these images are reduced.
モダリティの異なる各画像間の類似度指標として相互情報量が報告されている。この相互情報量は、特にCT画像やMR画像において比較的良好な結果が報告されている。各画像間の位置合わせが成功する相対初期位置の正解からのズレは、キャプチャーレンジと呼ばれる。このキャプチャーレンジは、(1)分解能が良好なことに加え、体表を含めた体全体を撮影するので頭部、脳、体幹部等の共通な解剖学的特徴領域を決定し易いこと、(2)撮影するときの被検体の体位の標準化が進んでいることからキャプチャーレンジ内に初期位置を設定しやすいことが挙げられる。これにより、CT画像やMR画像の各画像間の位置合わせにおいて比較的良好な結果が得られている。但し、一般に画像類似度の計算領域が大きくなり、そのため計算時間が長く掛かる。 Mutual information is reported as a similarity index between images with different modalities. This mutual information amount has been reported to be relatively good particularly in CT images and MR images. The deviation from the correct answer of the relative initial position where the alignment between each image is successful is called a capture range. This capture range has (1) good resolution, and since the entire body including the body surface is imaged, it is easy to determine common anatomical feature regions such as the head, brain, and trunk, 2) It is easy to set the initial position within the capture range since the standardization of the body position of the subject at the time of imaging is progressing. Thereby, comparatively good results are obtained in the alignment between the CT images and the MR images. However, in general, the image similarity calculation area becomes large, and therefore it takes a long calculation time.
超音波画像同士の位置合わせも幾つか試みられているが、他のモダリティに比べてその数は少ない。これは、先に述べた超音波画像の特性に加えて、(1)超音波プローブをマニュアルで操作して撮影すること、(2)例えば被検体の肝臓を撮影するときに肋骨の存在のために超音波画像を撮影する視野が限定されること、(3)被検体の撮影体位に自由度がありその標準化が進んでいないこと、(4)得られた超音波画像は被検体の体内の一部を切り取った形、例えば四角錘状の領域として得られこの外側は視野外となること、などの理由で超音波画像間の相対的なオリエンテーションを認識することが難しく、相対初期位置をキャプチャーレンジ内に設定することが難しいこともその一因であると考えられる。 Some attempts have been made to align ultrasonic images, but the number is smaller than other modalities. This is because, in addition to the characteristics of the ultrasound image described above, (1) imaging by manually operating the ultrasound probe, (2) due to the presence of ribs when imaging the liver of the subject, for example. (3) The subject's imaging position is flexible and its standardization has not progressed, and (4) the obtained ultrasound image is in the body of the subject. It is difficult to recognize the relative orientation between the ultrasound images because the part is cut out, for example, it is obtained as a quadrangular pyramid area and the outside is outside the field of view. One of the reasons is considered to be difficult to set within the range.
超音波画像間に特有の位置合わせの問題として、超音波画像には、超音波プローブによる患部等の被検体に対する圧迫や、撮影時の患者等の被検体の体位に起因した臓器の変形が本質的に含まれる。例えば、病変の経時変化や治療効果を判定するために手術前と手術後とにおいて、患部等の被検体に超音波プローブを当てて超音波画像を取得する場合、手術前と手術後とでは、被検体の体位の状態、例えば体位を横方向にしたときのねじれの度合いを同一にすることが難しく、かつ超音波プローブを被検体に当てる方向も同一にすることが難しい。そもそも被検体の体位や超音波プローブを当てる方向に正しい位置が存在せず、仮にCT画像やMR画像と同程度にオリエンテーションを合わせたとしてもても、CT画像やMR画像の場合と同じ効果を期待することは出来ない。
本発明の目的は、超音波画像同士や超音波画像と他のモダリティ画像とのような超音波画像データを含む3次元の参照画像データと三次元の対象画像データとの位置合わせを良好にできる画像位置合わせ装置及びその方法並びに画像位置合わせプログラムを提供することにある。 An object of the present invention is to make it possible to satisfactorily align three-dimensional target image data with three-dimensional reference image data including ultrasonic image data such as ultrasonic images or ultrasonic images and other modality images. An image alignment apparatus and method, and an image alignment program are provided.
本発明の請求項1記載の画像位置合わせ装置は、三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定する領域設定部と、領域設定部により設定された各領域間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行う位置合わせ部と、位置合わせ部により位置合わせした参照画像データと対象画像データとをディスプレイに表示する表示部とを具備する。 The image registration apparatus according to claim 1 of the present invention selects feature points on the three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data. A region setting unit that sets each region of the alignment candidate formed in a required size, and an image similarity between the regions set by the region setting unit is obtained, and the reference image is maximized. An alignment unit that performs alignment between the data and the target image data, and a display unit that displays the reference image data and the target image data aligned by the alignment unit on a display.
本発明の請求項28記載の画像位置合わせ方法は、三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定し、設定された各領域間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行い、位置合わせした参照画像データと対象画像データとをディスプレイに表示する。 According to a 28th aspect of the present invention, in the image registration method, feature points are selected on the three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data. Each region of the alignment candidate formed in the required size is set, the image similarity between the set regions is obtained, and the position of the reference image data and the target image data is maximized so that the image similarity is maximized. The registered reference image data and target image data are displayed on the display.
本発明の請求項29記載の画像位置合わせプログラムは、三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定させ、設定された各領域間の画像類似度を求めさせ、この画像類似度が最も大きくなるように参照画像データと対象画像データとを位置合わせさせ、位置合わせした参照画像データと対象画像データとをディスプレイに表示させる。 An image registration program according to a twenty-ninth aspect of the present invention selects a feature point on three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data. Each area of the alignment candidate formed in the required size is set, and the image similarity between the set areas is obtained, and the reference image data and the target image data are set so that the image similarity is maximized. The registered reference image data and target image data are displayed on the display.
本発明によれば、超音波画像同士や超音波画像と他のモダリティ画像とのような超音波画像データを含む3次元の参照画像データと三次元の対象画像データとの位置合わせを良好にできる画像位置合わせ装置及びその方法並びに画像位置合わせプログラムを提供できる。 According to the present invention, it is possible to satisfactorily align the three-dimensional target image data with the three-dimensional reference image data including the ultrasonic image data such as the ultrasonic images or between the ultrasonic image and another modality image. An image alignment apparatus and method, and an image alignment program can be provided.
以下、本発明の一実施の形態について図面を参照して説明する。
図1は画像位置合わせ装置のブロック構成図を示す。画像位置合わせ装置1には、ネットワーク2を介して複数のモダリティ、例えば超音波診断装置(以下、US診断装置と称する)3、X線CT装置4、MR装置5等が接続されている。
画像位置合わせ装置1は、CPU等から成る主制御部6を有する。この主制御部6には、プログラムメモリ7と、データメモリ8と、画像データベース9と、伝送部10と、ディスプレイ11と、操作部12とが接続されている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of an image alignment apparatus. A plurality of modalities, for example, an ultrasonic diagnostic apparatus (hereinafter referred to as US diagnostic apparatus) 3, an
The image alignment apparatus 1 has a
プログラムメモリ7には、例えば治療前の三次元(3D)のUS画像データ(USボリュームデータとも称する)と治療後の三次元のUS画像データ、又は三次元のUS画像データと他の三次元のモダリティ画像、例えばX線CT画像データ(CTボリュームデータとも称する)、MR画像データ(MRボリュームデータとも称する)との位置合わせを行わせる画像位置合わせプログラムが記憶されている。この画像位置合わせプログラムは、例えば治療前のUS画像データ等の三次元の参照画像データ上とこの参照画像データに対して位置合わせする治療後の少なくとも1つのUS画像データ等の三次元の対象画像データ上とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各小領域をそれぞれ設定させ、この設定された各小領域間の画像類似度を求めさせ、この画像類似度が最も大きくなるように参照画像データと対象画像データとを位置合わせさせ、この位置合わせした参照画像データと対象画像データとをディスプレイ11に表示させる。
The
データメモリ8には、参照画像データと対象画像データとを位置合わせ処理するときに必要なデータが一時記憶される。
画像データベース9には、US診断装置3やX線CT装置4、MR装置5等からネットワーク2を通して受け取った各モダリティの画像データが記憶される。これらモダリティの画像データは、例えば治療前のUS画像データ、治療後のUS画像データ、US造影画像データ、治療前のCT画像データ、MR画像データ等である。
伝送部10は、US診断装置3やX線CT装置4、MR装置5等からの各モダリティの画像データをネットワーク2を介して受け取る。
ディスプレイ11は、位置合わせ前の例えば治療前のUS画像データと治療後のUS画像データとを表示したり、位置合わせ後の例えば治療前のUS画像データと治療後のUS画像データとを表示する。
操作部12は、例えばキーボード、マウス等である。
The
The
The
The
The
主制御部6は、プログラムメモリ7に記憶されている画像位置合わせプログラムを実行することによりデータ読出部13と、データ属性変更部14と、領域設定部15と、位置合わせ部16と、表示部17と、画像保存部18との機能を有する。
データ読出部13は、例えば画像データベース9に記憶されている各モダリティの画像データから例えば治療前のUS画像データ、治療後のUS画像データ、US造影画像データ、治療前のCT画像データ、MR画像データ等を読み出す。これら画像データのうち位置合わせの基準とする画像データを参照画像データとし、この参照画像データに対して位置合わせする対象の画像データを対象画像データとする。例えば、治療前のUS画像データを参照画像データとし、治療後のUS画像データを対象画像データとする。
The
The
このデータ読出部13は、US診断装置3やX線CT装置4、MR装置5等からの各モダリティから直接例えば治療前のUS画像データ、治療後のUS画像データ、US造影画像データ、治療前のCT画像データ、MR画像データ等を読み出してもよい。この場合、データ読出部13は、伝送部10に対してデータ読み出しの指示を送出することにより、伝送部10を通してUS診断装置3やX線CT装置4、MR装置5等の各モダリティから直接画像データを読み出す。なお、読み出された画像データは、表示部17によってディスプレイ11に表示される。図2はディスプレイ11に表示された例えば肝臓の治療前のUS画像データ19−1と、肝臓の治療後のUS画像データ19−2との表示例を示す。これらUS画像データ19−1、19−2は、例えば肝臓の断面画像である。
The
なお、治療前と治療後の各US画像データ19−1、19−2は、それぞれ解剖学的に特徴部分を選択している。なお、治療前と治療後の各US画像データ19−1、19−2は、超音波プローブを患者等の被検体に当てて撮影したときの空間的な撮影方向等が異なっている。 In addition, each US image data 19-1 and 19-2 before treatment and after treatment respectively select characteristic portions anatomically. The pre-treatment and post-treatment US image data 19-1 and 19-2 differ in the spatial imaging direction when the ultrasonic probe is applied to a subject such as a patient.
データ読出部13は、例えば画像データベース9から同一又は異なるモダリティにより取得された参照画像データと対象画像データとを読み出す。データ読出部13は、例えば画像データベース9から参照画像データと対象画像データとのうち少なくとも一方を超音波画像データとして読み出す。データ読出部13は、例えば画像データベース9から互いに画素サイズの異なる参照画像データと対象画像データとを読み出す。
The
具体的に、データ読出部13は、三次元のUS画像データや他の三次元のモダリティ画像、例えばX線CT画像データ、MR画像データ等の複数のボリュームの異なる各画像データを同時に位置合わせ対象として読み出す。例えば、超音波穿刺による肝癌の治療判定のためには、治療前のX線CT画像データ又はMR画像データ、治療前のUS画像データ、治療後のUS画像データとUS造影画像データを比較参照したい要望がある。そのため、一度に取り扱うボリュームデータは、2つのボリュームデータで充分ではなく、通常4つ、場合によってはそれ以上の種類のボリュームデータが必要になることがある。
Specifically, the
データ読出部13により読み出された画像データ、例えば治療前のUS画像データ、治療後のUS画像データ、治療前のX線CT画像データ又はMR画像データ、US造影画像データは、表示部17によってディスプレイ11に表示される。図3は治療前のUS画像データ19−1と、治療後のUS画像データ19−2と、治療前のX線CT画像データ20と、US造影画像データ21との表示例を示す。これら画像データ19−1、19−2、20、21は、それぞれ例えば画素サイズ256×256の表示ウィンドウでディスプレイ11に表示される。
Image data read by the
データ読出部13は、図3に示す治療前のUS画像データ19−1と、治療後のUS画像データ19−2と、治療前のX線CT画像データ20と、US造影画像データ21とのように画素サイズの異なるボリュームデータを同時に読み出す。これら画像データ19−1、19−2、20、21は、それぞれ例えば画素サイズ512x512の表示ウィンドウを設定し、この表示ウィンドウでディスプレイ11に表示する。例えばUS診断装置3、X線CT装置4、MR装置5等の各モダリティの違いにより、これらモダリティから生成される各ボリュームデータの画素サイズが異なるのは一般的である。これら異なる画素サイズのデータを取り扱うために、例えば、X線CT装置4及びMR装置5であれば画素サイズ512×512、診断装置3であれば画素サイズ256×256の各表示ウィンドウを用いる。
The
データ属性変更部14は、データ読出部13により読み出された参照画像データと対象画像データとに対して少なくとも回転、平行移動に関する属性を変更してディスプレイ11に表示する。
データ属性変更部14は、例えばUS診断装置3、X線CT装置4、MR装置5等の各モダリティで使用される輝度値設定機能により変換されたデータを位置合わせアルゴリズム(画像位置合わせプログラム)で取り扱え可能なデータにする。各モダリティで使用される輝度値設定機能を説明すると、例えばCT画像データの輝度情報は16ビットで表現されている。診断に際しては、医師等のオペレータがWC(ウインドウセンタ)、WW(ウインドウ幅)というパラメータを用いて設定した範囲のデータを8ビットの輝度値に設定している。医師等のオペレータは、操作部12のキーボードやマウスを操作して輝度値設定機能により所望の輝度を有するCT画像データに調節する。
The data attribute changing unit 14 changes at least attributes relating to rotation and translation with respect to the reference image data and target image data read by the
The data attribute changing unit 14 uses, for example, an alignment algorithm (image alignment program) for data converted by the brightness value setting function used in each modality such as the US
すなわち、位置合わせアルゴリズムでは、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とのような2種類のボリュームデータからジョイント・ヒストグラムを生成し、このジョイント・ヒストグラムから推定した確率密度関数を用いて位置合わせ指標を算出する。CT画像データのオリジナル画像データをそのまま用いるとスパースなヒストグラムとなってしまい、確率密度関数を適切に推定できない。このため、何らかの方法でレンジを圧縮する必要がある。医師等のオペレータが診断のために所望した輝度値の設定を流用するのが妥当である。 That is, in the registration algorithm, a joint histogram is generated from two types of volume data such as US image data 19-1 before treatment and US image data 19-2 after treatment, and estimated from the joint histogram. An alignment index is calculated using the probability density function. If the original image data of the CT image data is used as it is, a sparse histogram is formed, and the probability density function cannot be estimated appropriately. For this reason, it is necessary to compress the range by some method. It is appropriate that an operator such as a doctor diverts a desired brightness value setting for diagnosis.
データ属性変更部14は、読み出した画像データ、例えば治療前のUS画像データ19−1、治療後のUS画像データ19−2、治療前のX線CT画像データ20又はMR画像データ、US造影画像データ21のボリューム名、撮影日付、及びピクセルサイズ等の画像判別データ22を例えば図2及び図3に示すようにディスプレイ11上に表示し、医師等のオペレータに明示する。これら画像判別データ22の各表示位置は、例えばUS画像データ19−1と、治療後のUS画像データ19−2と、治療前のX線CT画像データ20と、US造影画像データ21との各左斜め上方である。すなわち、ボリューム名は、各画像データの特定のために必要である。日付は、診断履歴の判別のために必要である。ピクセルサイズは、後述する基準画像サイズの決定のために必要である。
The data attribute changing unit 14 reads out image data, for example, US image data 19-1 before treatment, US image data 19-2 after treatment, X-ray
データ属性変更部14は、データ読出部13により読み出された複数の画像データ(ボリュームデータ)、例えば治療前のUS画像データ19−1、治療後のUS画像データ19−2、治療前のX線CT画像データ20又はMR画像データ、US造影画像データ21間の画素サイズを合わせる。データ属性変更部14は、複数の画像データ(ボリュームデータ)間の画素サイズを合わせるときの基準となる画素サイズを決定する。
具体的にデータ属性変更部14は、次の各手法のいずれかにより基準となる画素サイズを決定する。すなわち、データ属性変更部14は、例えば治療前のUS画像データ19−1と治療前のX線CT画像データ20とを位置合わせ中に基準とする画素サイズのボリュームデータを選択する。データ属性変更部14は、例えば治療前のUS画像データ19−1と治療前のX線CT画像データ20との位置合わせ中に操作部12に対して医師等のオペレータによりマニュアル操作された画素サイズを入力する。データ属性変更部14は、プリセット機能により基準とする画素サイズの画像データ、例えば治療前のUS画像データ19−1を予め設定する。この場合、例えば治療前のUS画像データ19−1の画素サイズに他の画像データの画素サイズを合わせる。データ属性変更部14は、プリセット機能により予め基準とする画素サイズを設定する。
The data attribute changing unit 14 is a plurality of image data (volume data) read by the
Specifically, the data attribute changing unit 14 determines a reference pixel size by one of the following methods. In other words, the data attribute changing unit 14 selects, for example, volume data having a pixel size based on the alignment between the US image data 19-1 before treatment and the X-ray
画素サイズの調整を行うときは、設定された画素サイズで処理用の一時データを作成しても良いし、位置合わせの演算の実行中に、毎回、画素サイズを考慮した計算を行っても良い。なお、データ属性変更部14は、例えば図3に示すように画素サイズ調整用のサイズ調整ボタン23をディスプレイ11上に表示する。このサイズ調整ボタン23が例えばマウスのクリック操作により指示されると、データ属性変更部14は、上記各手法のいずれかにより基準となる画素サイズを決定する。
When adjusting the pixel size, temporary data for processing may be created with the set pixel size, or calculation may be performed in consideration of the pixel size every time the alignment calculation is performed. . The data attribute changing unit 14 displays a
位置合わせで画素サイズは、重要な要素である。画素サイズは、異なるモダリティにより取得される各画像データ間のみならず、同一のモダリティにより取得される各画像データ間においても毎回の撮影条件に相違が生じることから異なる。位置合わせの対象となる画像データは、異なるモダリティや同一モダリティにおいても各撮影条件に複数存在する。従って、画素サイズをどの画像データの画素サイズに合わせるかを指定する必要がある。 Pixel size is an important factor in alignment. The pixel size differs not only between image data acquired with different modalities but also between image data acquired with the same modality because of differences in shooting conditions at each time. There are a plurality of image data to be aligned for each photographing condition even in different modalities or the same modality. Therefore, it is necessary to specify which image data is to be matched with the pixel size.
データ属性変更部14は、例えば図2に示すように画像サイズに応じたスケール24をディスプレイ11上に表示する。このスケール24は、実際の長さ、例えば2cmに対応する長さに形成されている。
データ属性変更部14は、例えば治療後のUS画像データ19−2等の対象画像データのボリュームの空間的な向き・方向を変更する。具体的にデータ属性変更部14は、例えばディスプレイ11上で左右方向に反転させる第1のミラー動作部と、上下方向で反転させる第2のミラー動作部と、奥行き方向の反転させるリバース部とを有する。データ属性変更部14は、対象画像データのボリュームに患者等の被検体の体位情報が正しく記録されていれば、この体位情報に基づいて対象画像データのボリュームの空間的な向き・方向の変更を自動的に行う。
この場合、データ属性変更部14は、例えば図3に示すようにディスプレイ11上に第1のミラー動作部の設定ボタン25と、第2のミラー動作部の設定ボタン26と、リバース部の設定ボタン27とを表示する。医師等のオペレータは、ディスプレイ11上に表示される対象画像データを観察しながらマニュアルで操作部12を操作し、各設定ボタン25、26、27のうちいずれかを選択して指示する。これにより、データ属性変更部14は、操作部12からの指示を受けて対象画像データのボリュームの空間的な向き・方向の変更を行う。
For example, as shown in FIG. 2, the data attribute changing unit 14 displays a
The data attribute changing unit 14 changes the spatial orientation / direction of the volume of the target image data such as the US image data 19-2 after the treatment, for example. Specifically, the data attribute changing unit 14 includes, for example, a first mirror operation unit that is reversed in the left-right direction on the
In this case, for example, as shown in FIG. 3, the data attribute changing unit 14 has a first mirror operation
すなわち、異なるモダリティは勿論のこと、同一のモダリティにおいても患者等の被検体の体位や撮影方向に違いが生じる。しかるに、三次元のUS画像データや他の三次元のモダリティ画像、例えばX線CT画像データ、MR画像データ等は、それぞれボリュームデータの向き・方向が異なるのが一般的である。これら画像データ間の位置合わせは、対象とするボリュームデータの向き・方向を揃えてから行う必要がある。 That is, not only different modalities, but also the same modality causes differences in the posture of the subject such as a patient and the imaging direction. However, three-dimensional US image data and other three-dimensional modality images, such as X-ray CT image data and MR image data, generally have different volume data directions and directions. It is necessary to align these image data after aligning the direction and direction of the target volume data.
データ属性変更部14は、N個の対象画像データとなる三次元のUS画像データ等のボリュームデータから位置合わせを行う一組のボリュームデータ、すなわち参照画像データと対象画像データとを選択する。データ属性変更部14は、更に、位置合わせを行う一組のボリュームデータに対して参照画像データと対象画像データとを決定する。データ属性変更部14は、選択された参照画像データと対象画像データとが他のボリュームデータと区別可能である。例えば、データ属性変更部14は、参照画像データと対象画像データとの各画像表示枠の色をそれぞれ違う色にしてもよいし、表示しているボリューム名を変えてもよい。 The data attribute changing unit 14 selects a set of volume data to be aligned, that is, reference image data and target image data, from volume data such as three-dimensional US image data serving as N target image data. The data attribute changing unit 14 further determines reference image data and target image data for a set of volume data to be aligned. The data attribute changing unit 14 can distinguish the selected reference image data and target image data from other volume data. For example, the data attribute changing unit 14 may change the colors of the image display frames of the reference image data and the target image data, or may change the displayed volume name.
領域設定部15は、三次元の参照画像データ上とこの参照画像データに対して位置合わせする少なくとも1つの三次元の対象画像データ上、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおいて特徴点を選択するに要するサイズに形成された位置合わせ候補の各領域をそれぞれ設定する。図4は治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおいて位置合わせ候補の各小領域E1、E2をそれぞれ設定した図を示す。位置合わせ候補の各小領域E1、E2は、解剖学的に特徴のあるところであり、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおいて同一部位に設定される。 The region setting unit 15 includes, for example, the pre-treatment US image data 19-1 and the post-treatment US on the three-dimensional reference image data and at least one three-dimensional target image data to be aligned with the reference image data. In the image data 19-2, each region of the alignment candidate formed in a size required for selecting a feature point is set. FIG. 4 shows a diagram in which the small regions E 1 and E 2 of the alignment candidates are set in the US image data 19-1 before treatment and the US image data 19-2 after treatment, respectively. The small regions E 1 and E 2 of the alignment candidates are anatomically characteristic. For example, the US image data 19-1 before treatment and the US image data 19-2 after treatment are set to the same site. Is done.
位置合わせ候補の各小領域E1、E2の設定には、マニュアル操作により設定と自動設定がある。先ず、位置合わせ候補の各小領域E1、E2のマニュアル設定について説明する。
領域設定部15は、医師等のオペレータによる操作部12へのマニュアル操作を受け、このマニュアル操作に従って位置合わせを行う一組の参照画像データと対象画像データとをディスプレイ11上に表示し、これら一組の参照画像データと対象画像データとをディスプレイ11上でそれぞれX方向、Y方向、Z方向を中心軸として回転させ、又X方向、Y方向、Z方向にそれぞれ平行移動させる。
例えば図4に示す治療前のUS画像データ19−1と治療後のUS画像データ19−2とは、それぞれ3次元のボリュームデータである。従って、これら3次元のボリュームデータである治療前のUS画像データ19−1と治療後のUS画像データ19−2とからそれぞれ1枚すなわち2次元の治療前のUS画像データ19−1と治療後のUS画像データ19−2とを初期設定する。そして、領域設定部15は、位置合わせする参照画像データと対象画像データとを設定し、かつこれら参照画像データと対象画像データとの各情報を表示する。一組の参照画像データと対象画像データとは、例えば患者等の被検体の初期断層面である。なお、領域設定部15は、2次元の治療前のUS画像データ19−1と治療後のUS画像データ19−2とを初期設定に限らず、再度、一組の参照画像データと対象画像データとをディスプレイ11上でそれぞれX方向、Y方向、Z方向を中心軸として回転させ、又X方向、Y方向、Z方向にそれぞれ平行移動させて2次元の治療前のUS画像データ19−1と治療後のUS画像データ19−2とを設定してもよい。
The setting of the small areas E 1 and E 2 of the alignment candidates includes setting and automatic setting by manual operation. First, manual setting of each of the small regions E 1 and E 2 of the alignment candidates will be described.
The region setting unit 15 receives a manual operation on the
For example, the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 shown in FIG. 4 are each three-dimensional volume data. Therefore, one piece of the US image data 19-1 before the treatment and the US image data 19-2 after the treatment, which are the three-dimensional volume data, that is, two-dimensional US image data 19-1 before the treatment and the post-treatment, respectively. The US image data 19-2 is initially set. Then, the region setting unit 15 sets reference image data and target image data to be aligned, and displays each information of the reference image data and target image data. The set of reference image data and target image data is an initial tomographic plane of a subject such as a patient. The region setting unit 15 is not limited to the initial setting of the two-dimensional pre-treatment US image data 19-1 and the post-treatment US image data 19-2, but again a set of reference image data and target image data. Are rotated about the X, Y, and Z directions on the
領域設定部15は、予めプリセットした超音波プローブにより撮影方向・オフセット状態に例えばUS画像データの撮影方向を設定する。すなわち、X線CT画像データやMR画像データは、患者等の被検体の体軸に平行な断面の画像データである。これに対してUS画像データは、患者等の被検体の解剖学的制約により制限される撮影方向から撮影されることが多い。例えば、肝臓癌の診断の場合、US画像データは、例えば肋弓下や肋間などの特定の撮影方向から撮影されることが多い。 The region setting unit 15 sets, for example, the shooting direction of US image data in the shooting direction / offset state using a preset ultrasonic probe. That is, X-ray CT image data and MR image data are image data of a cross section parallel to the body axis of a subject such as a patient. On the other hand, US image data is often imaged from an imaging direction limited by anatomical restrictions of a subject such as a patient. For example, in the case of liver cancer diagnosis, US image data is often taken from a specific imaging direction, such as under the arch or between the intercostals.
従って、これら特定の撮影方向の体軸に垂直な座標系への相対位置が予めプリセットされて登録される。例えば肋弓下や肋間などの特定の撮影方向から撮影するときの撮影方向をプリセット可能である。特定の撮影方向の体軸に垂直な座標系への相対位置のプリセットは、例えば図3に示すようにディスプレイ11上にプリセット用ボタン28を表示し、このプリセットボタン28を医師等のオペレータによって操作部12のマウスをクリック操作することにより行われる。これにより、領域設定部15は、例えばUS画像データ等の1組の参照画像データと対象画像データとの各撮影方向を1回の処理で所定の位置ずれ範囲内の大まかな位置に揃えることができる。なお、領域設定部15は、予めプリセットして登録した特定の撮影方向の体軸に垂直な座標系への相対位置をリセット可能である。
Therefore, the relative position to the coordinate system perpendicular to the body axis in these specific photographing directions is preset and registered. For example, it is possible to preset the shooting direction when shooting from a specific shooting direction such as under the bow or between the eyelids. The preset of the relative position to the coordinate system perpendicular to the body axis in the specific imaging direction is performed by displaying a
領域設定部15は、例えばUS画像データ19−1や治療後のUS画像データ19−2、治療前のX線CT画像データ20、US造影画像データ21等の各ボリュームデータの各画像表示モードを例えば通常のMPR(断面変換:multi-planar reconstruction)表示、厚み付き最大値表示、厚み付き最小値表示、厚み付きMPR表示、又はボリュームレンダリング表示に切り替える。これにより、位置合わせを開始するに当たって適切な画像データを選択する際に、より大きな領域にわたる画像構造の視認性が向上し、医師等のオペレータが同一の解剖学的特徴点の認識することを支援し利便性の向上を図ることができる。
The region setting unit 15 selects each image display mode of each volume data such as US image data 19-1, US image data 19-2 after treatment, X-ray
領域設定部15は、医師等のオペレータによる操作部12のマウスに対するクリック操作を受け、初期設定した参照画像データと対象画像データ、例えば図4に示す治療前のUS画像データ19−1と治療後のUS画像データ19−2との各画像データ上に、位置合わせ候補の各小領域E1、E2を設定する。いわゆる医師等のオペレータによるマニュアル操作によって位置合わせ候補の各小領域E1、E2の設定ができる。
The region setting unit 15 receives a click operation on the mouse of the
領域設定部15は、例えば治療前のUS画像データ19−1等の参照画像データの上に、位置合わせに使用する基本領域を1個と補助領域を複数個とを医師等のオペレータによるマニュアル操作によって指定し、治療後のUS画像データ19−2等の対象画像データの上に基本領域に対応する領域を1つ指定する。 The area setting unit 15 is manually operated by an operator such as a doctor, with one basic area and a plurality of auxiliary areas used for alignment on the reference image data such as the US image data 19-1 before treatment. One area corresponding to the basic area is specified on the target image data such as the US image data 19-2 after the treatment.
領域設定部15は、位置合わせ候補の各小領域E1、E2のサイズが例えば患者等の被検体の実寸で常に一定になるように対象画像データの画素サイズに応じて各小領域E1、E2のサイズを調整する。具体的に領域設定部15は、設定したい実寸サイズをプリセットにより登録しておく。すなわち、対象画像データの画素サイズはそれぞれ異なる。一方、位置合わせに用いる解剖学的に特徴的な形態のサイズは、例えば患者等の被検体の実寸で2cm程度にしたいという要望がある。このような事から位置合わせに使用する各小領域E1、E2のサイズが常に患者等の被検体の実寸で2cmとなるように自動調整する。 Region setting unit 15, positioning each small region depending always on the pixel size of the target image data to be constant in the actual size of the object in each subregion E 1, the size, for example, a patient, etc. E 2 candidate E 1 , to adjust the size of the E 2. Specifically, the area setting unit 15 registers the actual size size to be set by presetting. That is, the pixel sizes of the target image data are different. On the other hand, there is a demand for the size of an anatomically characteristic form used for alignment to be about 2 cm in actual size of a subject such as a patient. For this reason, the size of each of the small areas E 1 and E 2 used for alignment is automatically adjusted so that the actual size of the subject such as a patient is always 2 cm.
領域設定部15は、位置合わせ候補の各小領域E1、E2の位置と大きさをその中心と領域境界として表示する。位置合わせ候補の各小領域E1、E2は、例えば矩形に形成されている。この場合、各小領域E1、E2は、例えば図5に示すように矩形の境界を実線「□」により表示し、この矩形中心をクロス「+」により表示する。これら小領域E1、E2の形状は、矩形に限らず、円形等に形成してもよい。 The area setting unit 15 displays the position and size of each of the small areas E 1 and E 2 as alignment candidates as the center and the area boundary. Each of the small regions E 1 and E 2 that are candidates for alignment is formed in a rectangular shape, for example. In this case, in each of the small areas E 1 and E 2 , for example, as shown in FIG. 5, the boundary of the rectangle is displayed by a solid line “□”, and the center of the rectangle is displayed by a cross “+”. The shapes of these small regions E 1 and E 2 are not limited to a rectangle, and may be formed in a circle or the like.
領域設定部15は、位置合わせ候補の各小領域E1、E2の位置を移動しないで、これら小領域E1、E2のサイズをマニュアルにより変更する。すなわち、領域設定部15は、医師等のオペレータによる操作部12に対する操作を受けて小領域E1、E2のサイズを変更する。位置合わせ候補の各小領域E1、E2が矩形の場合、医師等のオペレータにより例えばマウスを操作してディスプレイ11上でポインタを小領域E1、E2の矩形頂点に移動し、この矩形頂点でグリップしてサイズの変更を行う。
The area setting unit 15 manually changes the sizes of the small areas E 1 and E 2 without moving the positions of the small areas E 1 and E 2 of the alignment candidates. That is, the region setting unit 15 changes the sizes of the small regions E 1 and E 2 in response to an operation on the
領域設定部15は、位置合わせ候補の各小領域E1、E2のサイズを変更しないで、これら小領域E1、E2の位置を変更する。位置合わせ候補の各小領域E1、E2が矩形の場合、医師等のオペレータにより例えばマウスを操作してディスプレイ11上でポインタを小領域E1、E2の矩形中心に移動し、この矩形中心でグリップしながら移動させて小領域E1、E2の位置を変更する。
The area setting unit 15 changes the positions of the small areas E 1 and E 2 without changing the sizes of the small areas E 1 and E 2 of the alignment candidates. When each of the small regions E 1 and E 2 of the alignment candidates is a rectangle, the operator operates a mouse, for example, by a doctor or the like to move the pointer on the
次に、位置合わせ候補の各小領域E1、E2の自動設定について説明する。
領域設定部15は、参照画像データと対象画像データ、例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2との画像類似度に基づいて位置合わせ候補の各小領域E1、E2をそれぞれ自動設定する。位置合わせ候補の各小領域E1、E2の自動設定には、次の各方法が用いられる。
Next, automatic setting of each of the small areas E 1 and E 2 of the alignment candidate will be described.
The area setting unit 15 sets each sub-area of the registration candidate based on the image similarity between the reference image data and the target image data, for example, the US image data 19-1 and the US image data 19-2 after treatment shown in FIG. E 1 and E 2 are set automatically. The following methods are used for automatic setting of the small areas E 1 and E 2 of the alignment candidates.
第1の方法は、エントロピーを最大にする正方形領域を検索する方法である。
参照位置を(x0,y0)としたとき、この参照位置(x0,y0)を中心とする一辺の長さlの正方形S(l)を考える。長さlをlmin≦l≦lmaxの範囲で変化させ、正方形S(l)内にある画素値iのヒストグラムから相対頻度Piを求めてエントロピーH(l)を次式(1)により算出する。
When the reference position is (x 0 , y 0 ), a square S (l) having a side length l centered on the reference position (x 0 , y 0 ) is considered. The length l is changed in the range of l min ≦ l ≦ l max , the relative frequency Pi is obtained from the histogram of the pixel value i in the square S (l), and the entropy H (l) is calculated by the following equation (1). To do.
エントロピーH(l)が最大となる
が各小領域E1、E2の一辺とする。 Is one side of each of the small regions E 1 and E 2 .
位置合わせの対象となる領域は、解剖学的に特徴的な画像データを用いることが望ましい。解剖学的に特徴的な画像データの画素値は、一般に広範囲にわたって分布する。解剖学的に特徴的な画像データを有しない単調な画像データではヒストグラムが偏る。第1の方法は、解剖学的に特徴的な画像データを抽出する指標として画素値の頻度分布から算出するエントロピーH(l)を用いている。 It is desirable to use anatomically characteristic image data for the region to be aligned. The pixel values of anatomically characteristic image data are generally distributed over a wide range. In monotonous image data having no anatomically characteristic image data, the histogram is biased. The first method uses entropy H (l) calculated from the frequency distribution of pixel values as an index for extracting anatomically characteristic image data.
第2の方法は、周辺領域との平均値の差に基づく指標を用いる方法である。
一辺の長さlの正方形S(l)に隣接する例えば8個の正方形Sj(l)を考える。jは、1≦j≦8である。正方形S(l)内の画素値の平均値と分散をμとし、8個の正方形Sj(l)内の画素値の平均値と分散をμjとする。
The second method is a method using an index based on a difference in average value from the surrounding area.
Consider, for example, eight squares Sj (l) adjacent to a square S (l) having a side length l. j is 1 ≦ j ≦ 8. The average value and variance of the pixel values in the square S (l) are μ, and the average value and variance of the pixel values in the eight squares Sj (l) are μ j .
特徴指数
が最大になる
をlmin≦l≦lmaxから位置合わせに使用する各小領域E1、E2の一辺を求める。
但し、最終的な長さlは、
l=a・lmax:1.5<a<3
とする。aは経験的に決める。第2の方法は、判別基準として周辺領域顕著な違いがある領域を特徴領域とするものである。
Is calculated from l min ≦ l ≦ l max to determine one side of each of the small regions E 1 and E 2 used for alignment.
However, the final length l is
l = a · l max : 1.5 <a <3
And a is determined empirically. In the second method, an area having a marked difference in the surrounding area as a discrimination criterion is used as a feature area.
領域設定部15は、一辺の長さlにおいて、ある区間lmin≦l≦lmaxでの最大値でなく、エントロピーH(l)、若しくは特徴指数の増加が最初に停まったときの値を持って各小領域E1、E2領域を決定する。
なお、参考文献として例えばT.Kadir and M.Brandy, “Saliency, scale and image description”, Int.J.Comput. Vision, Vol.45, no.2, 83-105, 2001と、G.Wu, F.Qi, and D.Shen, “Learning-Based Deformable Registration of MR Brain Images”, IEEE Trans. Med.Imag., vol.25, pp. 1145-1157, September. 2006とがある。
The region setting unit 15 is not the maximum value in a certain section l min ≦ l ≦ l max in the length l of one side, but the value when the increase in entropy H (l) or feature index first stops. Then, each of the small areas E 1 and E 2 is determined.
References include T. Kadir and M. Brandy, “Saliency, scale and image description”, Int. J. Comput. Vision, Vol. 45, no. 2, 83-105, 2001, and G. Wu, F.Qi, and D.Shen, “Learning-Based Deformable Registration of MR Brain Images”, IEEE Trans. Med. Imag., Vol. 25, pp. 1145-1157, September. 2006.
位置合わせ候補の各小領域E1、E2を自動設定する領域設定部15は、例えば治療前のUS画像データ19−1等の参照画像データの上に、位置合わせに使用する基本領域を1個と補助領域を複数個とを自動的に決定し、治療後のUS画像データ19−2等の対象画像データの上に基本領域に対応する領域を1つ自動的に決定する。 The area setting unit 15 that automatically sets the small areas E 1 and E 2 of the alignment candidates includes, for example, 1 basic area used for alignment on the reference image data such as the US image data 19-1 before treatment. The individual and plural auxiliary regions are automatically determined, and one region corresponding to the basic region is automatically determined on the target image data such as the US image data 19-2 after the treatment.
領域設定部15は、次の手法により位置合わせ候補の各小領域E1、E2を自動設定する。この領域設定部15は、位置合わせを行う一組の参照画像データと対象画像データ、例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2とについて、それぞれX方向、Y方向、Z方向の回転と平行移動とを行って初期の断層面画像データをマニュアルで決定した後に位置合わせ候補の各小領域E1、E2を自動設定する。
この領域設定部15は、先ず、参照画像データである例えば治療前のUS画像データ19−1から位置合わせに用いる特徴的な画像データを有する小領域E1の中心を決定するステップと、次に、決定した小領域E1の中心に対して領域サイズを決定するステップと、次に、US画像データ19−1に設定した小領域E1との間の画像類似度が最も大きな小領域E2を対象画像データである例えば治療後のUS画像データ19−2から探索するステップとから成る。
The area setting unit 15 automatically sets the small areas E 1 and E 2 as alignment candidates by the following method. The region setting unit 15 sets a set of reference image data and target image data for alignment, for example, US image data 19-1 and US image data 19-2 after treatment shown in FIG. After the initial tomographic plane image data is manually determined by rotating and translating in the Y and Z directions, the small areas E 1 and E 2 as alignment candidates are automatically set.
The region setting unit 15 first determines the center of the small region E 1 having characteristic image data used for alignment from the reference image data, for example, US image data 19-1 before treatment, and then , determining the area size with respect to the center of the determined small region E 1, then, the image similarity is greatest small region between the small area E 1 set in the US image data 19-1 E 2 Is searched from, for example, US image data 19-2 after treatment, which is target image data.
このうち、小領域E1の中心の決定は、上記領域設定部15により例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2との画像類似度に基づいて位置合わせ候補の各小領域E1、E2をそれぞれ自動設定する手法を用いる。この手法では、第1の方法であるエントロピーを最大にする正方形領域を検索する方法、又は第2の方法である周辺領域との平均値の差に基づく指標を用いる方法を用いる。
例えば治療後のUS画像データ19−2からの小領域E2の探索は、後述する位置合わせ部16で用いる位置合わせアルゴリズムの手法が用いられる。
Among them, the center of the determination of the small area E 1 is aligned on the basis of the image similarity between US image data 19-2 after treatment with US image data 19-1 shown in FIG. 2, for example by the area setting unit 15 A method of automatically setting each of the candidate small regions E 1 and E 2 is used. In this method, a method of searching for a square region that maximizes entropy, which is the first method, or a method of using an index based on a difference in average value from the surrounding region, which is a second method, is used.
For example search small areas E 2 from the US image data 19-2 after treatment, the method of alignment algorithms used in the alignment unit 16 to be described later is used.
但し、位置合わせのパラメータが2D、つまりX方向、Y方向の各回転と各平行移動との4つ、さらにせん断方向を含めても高々6つであることが異なる。小領域E1の中心の決定については、画像データ中の特徴部分を抽出することが必要であるが、これにはコンピュータビジョンにおける画像特徴点の抽出で用いられるKitchen-Rosenfeld作用素、Hariss作用素、SUSAN作用素を基にしたその変形が有望である。一例としてMoravec作用素を領域に拡大したものを次に示す。得られた特徴画像データの中で最大値をとる画素を候補領域の中心に用いる。 However, the alignment parameters are 2D, that is, four rotations in the X and Y directions and each parallel movement, and six at most including the shear direction. For the determination of the center of the small region E 1, it is necessary to extract a characteristic portion in the image data, Kitchen-Rosenfeld operator used in this extraction of the image feature points in the computer vision, Hariss operator, SUSAN Its transformation based on operators is promising. As an example, the Moravec operator expanded to the region is shown below. The pixel having the maximum value in the obtained feature image data is used as the center of the candidate area.
周辺領域との平均値の差に基づく指標を用いる。
画像データ上の点(x0,y0)に対して、一辺の長さlの正方形S(x0,y0)を考える。この正方形S(x0,y0)に隣接する同じ大きさの例えば8個の正方形Sjを考える。Jは、1≦j≦8である。S、Sj内の画素値の平均値をそれぞれμ、μjとし、次式を算出する。
Consider a square S (x 0 , y 0 ) having a side length l with respect to a point (x 0 , y 0 ) on the image data. Consider, for example, eight squares Sj of the same size adjacent to the square S (x 0 , y 0 ). J is 1 ≦ j ≦ 8. The average value of the pixel values in S and Sj is set to μ and μ j , respectively, and the following equation is calculated.
この算出された値を点(x0,y0)の特徴量とする。このような特徴量の算出を例えばUS画像データ19−1等の参照画像データの全ての点について実行し、特徴画像データη(x,y)を求める。この特徴画像データη(x,y)が最大値となる点を位置合わせの小領域E1の中心とする。長さ1は経験的に求める。 This calculated value is used as the feature amount of the point (x 0 , y 0 ). Such feature amount calculation is executed for all points of the reference image data such as the US image data 19-1, for example, to obtain the feature image data η (x, y). The feature image data η (x, y) is the center of the small region E 1 alignment point of maximum value. Length 1 is determined empirically.
なお、参考文献として、例えば金澤靖, 金谷健一, 解説コンピュータビジョンのための画像の特徴点の抽出, 電子情報通信学会誌Vol.87, No.12, 2004と、[13] L. Kitchen and A. Rosenfeld, “Gray-level corner detection," Pattern Recognit. Lett., vol.1, no.2, pp.95-102, Dec. 1982.と、[19] C. Harris and M. Stephens, “A combined corner and edge detector," Proc. 4th Alvey Vision Conf., pp.147-151, Manchester, U.K., Aug. 1988.と、[2] S. M. Smith and J. M. Brady, “SUSAN|A New Approach to Low Level Image Processing," IJCV, 23(1), pp.45-78 (1997)と、[31] H.P. Moravec, “Towards automatic visual obstacle avoidance," Int. Joint Conf. Art. Intell., Cambridge, MA, USA, p.584, Aug. 1977.とがある。 References include, for example, Satoshi Kanazawa and Kenichi Kanaya, Extracting image feature points for explanatory computer vision, IEICE Vol.87, No.12, 2004, and [13] L. Kitchen and A Rosenfeld, “Gray-level corner detection,” Pattern Recognit. Lett., Vol.1, no.2, pp.95-102, Dec. 1982. and [19] C. Harris and M. Stephens, “A combined corner and edge detector, "Proc. 4th Alvey Vision Conf., pp.147-151, Manchester, UK, Aug. 1988. and [2] SM Smith and JM Brady,“ SUSAN | A New Approach to Low Level Image Processing, "IJCV, 23 (1), pp.45-78 (1997) and [31] HP Moravec,“ Towards automatic visual obstacle avoidance, ”Int. Joint Conf. Art. Intell., Cambridge, MA, USA, p.584, Aug. 1977.
以上のような位置合わせ候補の各小領域E1、E2を自動設定する領域設定部15は、例えば治療前のUS画像データ19−1等の参照画像データに設定した特徴的な画像データを有する位置合わせ候補の小領域E1との間の特徴量が極値を取る上位の複数の領域を例えば治療後のUS画像データ19−2等の対象画像データから探索する。そして、領域設定部15は、参照画像データ上の小領域E1と対を成す対象画像データ上で探索された複数の領域とのうち各領域の周囲の領域の画像類似度が最も大きくなる小領域E2を探索し、小領域E1と小領域E2とをペア(一対)とする。 The area setting unit 15 that automatically sets the small areas E 1 and E 2 of the alignment candidates as described above uses, for example, characteristic image data set in the reference image data such as the US image data 19-1 before treatment. feature amount between the small area E 1 of the alignment candidate is searched from the target image data of the US image data 19-2, etc. after a plurality of areas for example the treatment of upper take an extreme value with. The area setting unit 15, the small to image similarity areas around each area among the searched plurality of regions on the target image data constituting the small region E 1 and the pair of the reference image data becomes the largest The region E 2 is searched, and the small region E 1 and the small region E 2 are paired.
すなわち、領域設定部15は、位置合わせを行う例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データにおいてそれぞれ各特徴画像データを作成した後、これら特徴画像データが極値をとるものの中から大きいものを複数検出し、それらの間の画像類似度を算出して位置合わせ候補の各小領域E1、E2を決定する。 That is, the region setting unit 15 creates each feature image data in the reference image data such as the US image data 19-1 before the treatment and the target image data such as the US image data 19-2 after the treatment for the alignment. After that, a plurality of large ones of these feature image data having extreme values are detected, and the image similarity between them is calculated to determine the small regions E 1 and E 2 of the alignment candidates.
この領域設定部15は、先ず、2枚の2次元の画像データにおける特徴画像データを作成するステップと、次に、それぞれの特徴画像データで特徴量が極値を取るものについて上位N個を選択するステップと、次に、2組の候補から1つのペアの特徴画像データを選択し、これら特徴画像データの周りの領域について画像類似度を算出し、その最大値をとるものをペアの特徴画像データを小領域E1、E2として決定する。 The region setting unit 15 first generates feature image data in two pieces of two-dimensional image data, and then selects the top N of the feature image data whose feature values have extreme values. And then selecting a pair of feature image data from the two sets of candidates, calculating an image similarity for a region around the feature image data, and taking the maximum value of the feature image data of the pair Data is determined as small areas E 1 and E 2 .
このようなペアの小領域E1、E2を決定する領域設定部15は、1つのペアの小領域E1、E2を決定するに限らず、複数のペアを選択し、予め設定された拘束条件に基づいて最適なペアを決定する。拘束条件は、例えばペアとして選択した点を結ぶ線分が交差しない、などである。本手法は、画像類似度を判定基準としたランダム投票と考えることが出来る。 The region setting unit 15 for determining such a pair of small regions E 1 and E 2 is not limited to determining one pair of small regions E 1 and E 2 , but selects a plurality of pairs and sets them in advance. An optimal pair is determined based on the constraint conditions. The constraint condition is, for example, that a line segment connecting points selected as a pair does not intersect. This method can be considered as random voting based on image similarity.
参考文献としては、例えばM. A. Fischler and R. C. Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography," Commun. ACM, no.24, vol.6, pp.381-395, June 1981.と、P.J. Rousseeuw and A.M. Leroy, Robust Regression and Outlier Detection, Wiley, New York, U.S.A., 1987.とがある。 References include MA Fischler and RC Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography,” Commun. ACM, no.24, vol.6, pp.381-395, June 1981. and PJ Rousseeuw and AM Leroy, Robust Regression and Outlier Detection, Wiley, New York, USA, 1987.
領域設定部15は、位置合わせを行なう例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとの2つのボリュームデータの画像属性を認識し、この画像属性に応じて位置合わせ領域決定のアルゴリズムを変更する。画像属性の認識は、画像データベース9に記憶されているUS画像データ19−1、19−2等の情報から自動的に取得する。画像属性の認識は、医師等のオペレータによるキーボード等の操作部12のマニュアル操作を受けて取得する。画像属性の認識は、これら自動的な取得とマニュアル操作を受けての取得との組み合わせで取得する。
The region setting unit 15 performs image alignment of two volume data, for example, reference image data such as US image data 19-1 before treatment and target image data such as US image data 19-2 after treatment. Recognize and change the algorithm for determining the alignment region according to the image attribute. Recognition of image attributes is automatically obtained from information such as US image data 19-1, 19-2 stored in the
画像データの属性情報は、大別して、モダリティや造影の有無などの画像データの生成に関する情報と、位置合わせに用いる解剖学的特徴点に関する情報との2つがある。例えば超音波穿刺による肝癌の治療判定では、最低でも例えば治療前のUS画像データと、治療後のUS画像データ及びUS造影画像データとを比較参照することを要する。このためには、通常のUS画像データ同士、造影US画像データ同士、通常のUS画像データと造影US画像データとの位置合わせが必要になる。これら画像データの組み合わせは、画像データベース9に記憶されている情報から知ることができる。
The attribute information of image data is roughly classified into two types: information related to generation of image data such as modality and presence / absence of contrast, and information related to anatomical feature points used for alignment. For example, in the treatment determination of liver cancer by ultrasonic puncture, it is necessary to compare and refer to, for example, US image data before treatment, US image data after treatment, and US contrast image data at least. For this purpose, it is necessary to align normal US image data, contrast US image data, and normal US image data and contrast US image data. The combination of these image data can be known from the information stored in the
例えば「造影欠損による位置あわせ」という属性情報が既知の場合、領域設定部15は、次のアルゴリズムを使用する。すなわち領域設定部15は、参照画像データから以下の手順で造影欠損に伴う孤立した大きな低濃度領域を検出する。
先ず、領域設定部15は、画像データを2値化処理する。このとき、2値化処理の閾値は、例えば文献(大津展之, 判別および最小2乗法に基づく自動しきい値選定法,電子通信学会論文誌, J63-D-4 (1980-4), 349?356.)に記載されている方法を用いる。
次に、領域設定部15は、例えばClosing処理により大きな閉領域を形成する。次に、領域設定部15は、外周からの探索で周囲を埋める。
次に、領域設定部15は、残った孤立領域に対してラベリング処理を行い、この後、最も大きな孤立領域を決定する。
For example, when the attribute information “alignment due to contrast defect” is known, the region setting unit 15 uses the following algorithm. That is, the region setting unit 15 detects an isolated large low density region associated with a contrast defect from the reference image data in the following procedure.
First, the area setting unit 15 binarizes image data. At this time, the threshold value of the binarization processing is, for example, the literature (Nobuyuki Otsu, automatic threshold selection method based on discrimination and least squares method, IEICE Transactions, J63-D-4 (1980-4), 349 ? 356.) Is used.
Next, the region setting unit 15 forms a large closed region by, for example, a closing process. Next, the region setting unit 15 fills the periphery with a search from the outer periphery.
Next, the region setting unit 15 performs a labeling process on the remaining isolated region, and then determines the largest isolated region.
次に、領域設定部15は、孤立領域の重心を持って位置合わせ用の領域、例えば小領域E1の中心とする。
次に、領域設定部15は、上記同様に、決定した小領域E1の中心に対して領域サイズを決定し、US画像データ19−1に設定した小領域E1との間の画像類似度が最も大きな小領域E2を対象画像データである例えば治療後のUS画像データ19−2から探索する。
Then, the area setting unit 15, a region for alignment with the center of gravity of the isolated region, for example the center of the small region E 1.
Next, the area setting unit 15 determines the area size with respect to the center of the determined small area E 1 as described above, and the image similarity with the small area E 1 set in the US image data 19-1. There exploring the most significant subregion E 2 after which for example the treatment the target image data from the US image data 19-2.
なお、造影US画像データ同士の場合、造影欠損部位を位置合わせ領域に用いるのが有望である。この場合、例えば図3に示すように造影欠損による位置合わせボタン29をディスプレイ11に表示する。医師等のオペレータは、操作部12のマウス等を操作して第1の位置合わせボタン29をクリックすれば、造影欠損部位を位置合わせ領域に基づいて造影US画像データ同士を位置合わせ可能になる。
In the case of contrasted US image data, it is promising to use a contrast defect site as an alignment region. In this case, for example, as shown in FIG. If an operator such as a doctor operates the mouse or the like of the
位置合わせ部16は、領域設定部15により設定された例えば治療前のUS画像データ19−1等の参照画像データ上の小領域E1と、治療後のUS画像データ19−2等の対象画像データ上の小領域E2との間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行う。
この場合、位置合わせ部16は、画像類似度として参照画像データと対象画像データとの間の相互情報量又はエントロピーを推定し、最適化処理を行って相互情報量又はエントロピーの極値に基づいて参照画像データと対象画像データとの相対位置を決定する。そして、位置合わせ部16は、参照画像データと対象画像データとの間の相互情報量を推定する際、参照画像データと対象画像データとに共存しない領域に位置合わせ候補の領域があると、当該領域を除いて相互情報量又はエントロピーを推定する。
Positioning unit 16 includes a small area E 1 of the reference image data in the US, such as image data 19-1 before being set, for example, treated by the area setting unit 15, after treatment US image data 19-2, etc. of the target image obtains an image similarity between the small regions E 2 on the data, the image similarity is to align the largest so as to reference image data and target image data.
In this case, the alignment unit 16 estimates the mutual information amount or entropy between the reference image data and the target image data as the image similarity, performs an optimization process, and based on the mutual information amount or the extreme value of the entropy. A relative position between the reference image data and the target image data is determined. When the registration unit 16 estimates the mutual information amount between the reference image data and the target image data, if there is a registration candidate region in a region that does not coexist in the reference image data and the target image data, Mutual information or entropy is estimated excluding the region.
なお、位置合わせ部16は、例えば図3に示すように第2の位置合わせボタン30をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作して第2の位置合わせボタン30をクリックすれば、位置合わせ部16は、上記のように画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行う。
The alignment unit 16 displays a
相互情報量の推定法については、次の通りである。 The mutual information estimation method is as follows.
例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとの2つのボリュームデータ中に定義された対象領域をそれぞれR(x,y,z)、F(x,y,z)とし、2つの対象領域の同じ位置の画素値から生成される二次元ヒストグラムをhistgramRF(r,f)とする。 For example, target regions defined in two volume data of reference image data such as pre-treatment US image data 19-1 and the like and target image data such as post-treatment US image data 19-2 are represented by R (x, y , Z), F (x, y, z), and a two-dimensional histogram generated from pixel values at the same position in the two target regions is histgram RF (r, f).
このとき、対象領域の画素値がとる確率密度関数PR(r),PF(f),PRF(r,f)は、上記定義した二次元ヒストグラムhistgramRF(r,f)から次式により求められる。
但し、Vは、対象領域R(x,y,z)、F(x,y,z)が共に存在する画素位置の総数である。
これらの確率密度関数から、相互情報量T(F;R)は以下のように定義される。
From these probability density functions, the mutual information T (F; R) is defined as follows.
ここで、対象画像の座標変換について説明する。対象画像に対して最低、X方向、Y方向、Z方向の回転と平行移動の6つのパラメータ、必要であれば3つのせん断方向も含めた9つのパラメータで座標変換する。この座標変換をαとおくと、座標変換後の対象画像はα(F)により表すことができる。 Here, the coordinate conversion of the target image will be described. The target image is coordinate-transformed using at least nine parameters including rotation and translation in the X, Y, and Z directions, and if necessary, nine parameters including three shear directions. If this coordinate transformation is α, the target image after coordinate transformation can be represented by α (F).
又、位置合わせ最適化の方法について説明すると、上記定義した座標変換後の対象画像α(F)と対象領域R(x,y,z)との相互情報量T(α(F);R)を最大にするα、つまり、
が求めたい座標変換である。
これは解析的に解くことができないので、何らかの最適化手法を用いて解く必要がある。この最適化手法は、例えばdownhill/symplex法やPowellの方法を用いる。
Is the coordinate transformation you want to find.
Since this cannot be solved analytically, it must be solved using some optimization technique. As this optimization method, for example, a downhill / symplex method or a Powell method is used.
参考文献としては、例えばF. Maes, “Multimodality Image Registration by Maximization of Mutual Information”, IEEE Trans. Med.Imag., vol.16, pp. 187-198, Apr. 1997と、Press WH, Teukolsky SA, Vetterling WT, 他著,円慶寺勝市、奥村晴彦、佐藤俊郎、他訳:C言語による数値計算のレシピ, pp.295-299, 技術評論社, 東京, (1993)とがある。 References include, for example, F. Maes, “Multimodality Image Registration by Maximization of Mutual Information”, IEEE Trans. Med. Imag., Vol. 16, pp. 187-198, Apr. 1997, Press WH, Teukolsky SA, Vetterling WT, et al., Masakazu Enkeiji, Haruhiko Okumura, Toshiro Sato, other translations: Recipe for numerical computation in C language, pp.295-299, Technical Review, Tokyo, (1993).
例えば図6に示すジョイント・ヒストグラムを参照して例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとを位置合わせについて概略的に説明する。ジョイント・ヒストグラムJは、参照画像データR上の点IR(x,y)と、この点IR(x,y)と一致する対象画像データF上の点IF(x,y)とにより作成される。参照画像データRと対象画像データFとが位置合わせされてその各画像が一致していると、これら参照画像データRと対象画像データFとの間の相互情報量Tは、大きくなり、直線Lにより表される。従って、参照画像データRと対象画像データFとを位置合わせすることは、相互情報量Tを大きくし、直線Lにより表されるようにすることである。 For example, referring to the joint histogram shown in FIG. 6, for example, the reference image data R such as the US image data 19-1 before treatment and the target image data F such as the US image data 19-2 after treatment are roughly aligned. I will explain it. The joint histogram J includes a point I R (x, y) on the reference image data R and a point I F (x, y) on the target image data F that matches the point I R (x, y). Created. When the reference image data R and the target image data F are aligned and the images match, the mutual information amount T between the reference image data R and the target image data F increases, and the straight line L It is represented by Therefore, aligning the reference image data R and the target image data F is to increase the mutual information amount T so that it is represented by the straight line L.
このような位置合わせ部16は、対象領域R,Fから相互情報量T(α(F);R)を推定する際に、R,Fに含まれるボリュームデータ領域外を除外して推定する。この場合、位置合わせ部16は、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとのジョイント・ヒストグラムを生成するが、このジョイント・ヒストグラムの生成時に、例えばUSラスターデータ元データ等の元データの幾何学的情報とR,Fの空間情報とから毎回算出してもよい。 Such an alignment unit 16 estimates the mutual information amount T (α (F); R) from the target regions R and F by excluding the outside of the volume data region included in R and F. In this case, the alignment unit 16 generates a joint histogram between the reference image data such as the pre-treatment US image data 19-1 and the target image data such as the post-treatment US image data 19-2. When generating the joint histogram, it may be calculated every time from the geometric information of the original data such as US raster data original data and the spatial information of R and F, for example.
又、位置合わせ部16は、前処理の一部として全体のボリュームデータを予め生成する場合、これとは別に、領域内を1、領域外をゼロで表した配列を同時に生成してもよい。また、領域外を特定の画素値(例えば255)に設定し、輝度を0〜254により表現してもよい。
すなわち、CT画像データやMR画像データは、画像データの周辺が空気であり、非常に小さい値をとる。これに対して診断に使用するUS画像データは、元のデータがビームデータ又はラスター化されたデータに関わらず、映像化した患者等の被検体の体内情報の周りの視野外においてゼロとして生成される。ここで、考慮しなければならないのは、CT画像データやMR画像データの周辺における空気の部分の画像データと、US画像データにおける視野外に存在する非常に小さい値又はゼロの部分とである。これらCT画像データやMR画像データにおける空気の部分の画像データとUS画像データにおける小さい値又はゼロの部分とを位置合わせのデータに含めると、映像化した患者等の被検体の体内情報でない領域外同士を位置合わせしてしまうこととなり、正しい位置合わせができないことが多い。
In addition, when the entire volume data is generated in advance as part of the preprocessing, the alignment unit 16 may generate an array in which the inside of the area is represented by 1 and the outside of the area is represented by zero at the same time. Further, the outside of the area may be set to a specific pixel value (for example, 255), and the luminance may be expressed by 0 to 254.
That is, CT image data and MR image data take a very small value because the periphery of the image data is air. On the other hand, the US image data used for diagnosis is generated as zero outside the visual field around the in-vivo information of a subject such as a patient, regardless of whether the original data is beam data or rasterized data. The Here, what must be taken into consideration are the image data of the air portion around the CT image data and the MR image data, and the very small value or zero portion existing outside the visual field in the US image data. When the image data of the air portion in the CT image data and the MR image data and the small value or zero portion of the US image data are included in the alignment data, it is outside the region that is not the in-vivo information of the subject such as the imaged patient. As a result, they are aligned with each other, and correct alignment is often impossible.
例えば図7を参照して例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとを位置合わせする場合について概略的に説明する。参照画像データRは、本来のボリュームデータRaと、このボリュームデータRaの領域外(視野外)Rbとから成る。対象画像データFも本来のボリュームデータFaと、このボリュームデータFaの領域外(視野外)Fbとから成る。これら参照画像データRと対象画像データFとを位置合わせは、例えば各領域Sa、Sbとの間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データRと対象画像データFとを位置合わせする。
このとき、領域Sa内におけるボリュームデータRの領域外Rbと、領域Sb内におけるボリュームデータFの領域外Fbとは、除外される、すなわち視野外処理される。そして、各領域外Rb、Fbの除外された各領域Sa、Sbとの間の画像類似度が求められ、この画像類似度が最も大きくなるように参照画像データRと対象画像データFとが位置合わせされる。このように視野外処理されると、図6に示すように参照画像データRの本来のボリュームデータRaと対象画像データFの本来のボリュームデータFaとが一致する。これに対して視野外処理が無いと、同図に示すように参照画像データRの本来のボリュームデータRaと対象画像データFの本来のボリュームデータFaとは位置合わせされない。
For example, referring to FIG. 7, for example, the case where the reference image data R such as the US image data 19-1 before treatment and the target image data F such as the US image data 19-2 after treatment are aligned will be schematically described. To do. The reference image data R is composed of the original volume data Ra and an area outside the area (out-of-view) Rb of the volume data Ra. The target image data F is also composed of the original volume data Fa and an area outside the area (out-of-view) Fb of the volume data Fa. For the alignment of the reference image data R and the target image data F, for example, the image similarity between the regions Sa and Sb is obtained, and the reference image data R and the target image data are set so that the image similarity is maximized. Align with F.
At this time, the out-of-area Rb of the volume data R in the area Sa and the out-of-area Fb of the volume data F in the area Sb are excluded, that is, processed outside the field of view. Then, the image similarity between the regions Sa and Sb excluding the regions Rb and Fb is obtained, and the reference image data R and the target image data F are positioned so that the image similarity is maximized. To be combined. When the out-of-view processing is performed in this manner, the original volume data Ra of the reference image data R and the original volume data Fa of the target image data F match as shown in FIG. On the other hand, if there is no out-of-view processing, the original volume data Ra of the reference image data R and the original volume data Fa of the target image data F are not aligned as shown in FIG.
位置合わせ部16は、参照画像データRにおける本来の画像データ外の第1のサイズと対象画像データFとにおける本来の画像データ外の第2のサイズとを比較し、第1のサイズが第2のサイズよりも大きければ、参照画像データと対象画像データとを入れ替えて相互情報量T(α(F);R)、又は参照画像データRのエントロピーH(R)、対象画像データのエントロピーH(F)を推定する。 The alignment unit 16 compares the first size outside the original image data in the reference image data R with the second size outside the original image data in the target image data F, and the first size is the second size. Is larger than the reference image data and the target image data, the mutual information amount T (α (F); R), the entropy H (R) of the reference image data R, the entropy H ( F) is estimated.
すなわち、一般に、超音波診断装置により生成された三次元ボリュームデータであるUS画像データは、CT画像データやMR画像データと異なり、四角錘状の空間領域を占める。このようなUS画像データ同士の相対位置関係を調べるとき、2つのUS画像データに共通な空間領域が相対位置関係により変化することにより対象となるボクセル数が変化する。このため対象となる母数が変化する。 That is, generally, US image data, which is three-dimensional volume data generated by an ultrasonic diagnostic apparatus, occupies a quadrangular pyramidal space region unlike CT image data and MR image data. When the relative positional relationship between such US image data is examined, the number of voxels as a target changes due to a change in the spatial area common to the two US image data due to the relative positional relationship. For this reason, the target parameter changes.
特に、対象画像が本来のUS画像データの領域外(小さい値又はゼロの部分)付近にあるとき、確率密度分布が同じの場合、領域が小さい方がヒストグラムがスパースになり、結果として相互情報量T(α(F);R)が大きくなる。
対象画像データが領域外付近にあるときは、最適化により領域外に移動してしまい正しい極値に収束しない場合が多い。しかるに、周りに領域外のデータが存在する可能性の低い方、移動対象である対象画像データに切り替えるのが適切である。
In particular, when the target image is near the outside of the original US image data area (small value or zero part), if the probability density distribution is the same, the smaller area makes the histogram sparse, resulting in mutual information. T (α (F); R) increases.
When the target image data is near the outside of the region, it often moves outside the region due to the optimization and does not converge to the correct extreme value. However, it is appropriate to switch to the target image data that is the movement target, which is less likely to have data outside the area around it.
位置合わせ部16は、最適化が終了した時点で、表示部17に対して位置合わせ結果を表示する指令を送出する。
位置合わせ部16は、位置合わせ結果に満足が行かない場合、初期設定画像に戻る(UNDO機能)。この場合、位置合わせ部16は、例えば図3に示すようにやり直しスイッチ31をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作してやり直しスイッチ31をクリックすれば、位置合わせ部16は、初期設定画像に戻る。
位置合わせ部16は、位置合わせ結果から再度位置合わせを行うことを可能とする。
The alignment unit 16 sends a command to display the alignment result to the
When the alignment unit 16 is not satisfied with the alignment result, it returns to the initial setting image (UNDO function). In this case, the alignment unit 16 displays a
The alignment unit 16 can perform alignment again from the alignment result.
位置合わせ部16は、上記のように例えば治療前のUS画像データ19−1等の参照画像データ上の小領域E1と、治療後のUS画像データ19−2等の対象画像データ上の小領域E2との間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行う場合、位置合わせが大きくずれているときの画像類似度の基準と最適化が終了した時点での画像類似度の基準との比が経験的に得られている値より著しく小さいと、局所解に陥っているものとして判断し、この状態を初期値として再度最適化を行う。 Positioning unit 16 includes a small region E 1 on the reference image data such as, for example, pre-treatment of the US image data 19-1 as described above, the small on the target image data 19-2 such US image data after treatment obtains an image similarity between the region E 2, image similarity when this case the image similarity is to align the largest so as to reference image data and target image data, the alignment is deviated largely If the ratio between the image criterion and the image similarity criterion at the end of optimization is significantly smaller than the value obtained empirically, it is determined that a local solution has occurred, and this state is used as the initial value. Perform optimization again.
一般に、最適化は、画像類似度の基準の向上をそれ以上望めなくなった時点で終了とする。ところが、この終了時点で局所解に陥っている可能性がある。当然のことながら、このときの画像類似度基準は最適解のそれよりも小さく、大きく位置がずれているときの画像類似度基準との比を、経験的にわかっている最適解時のそれと比較することで判定することができる。もし、局所解に陥っていると判断した場合、その位置より、パラメータを少し変更して最適化を再度実行することで最適解に収束することが期待できる。パラメータの変更は、例えばdownhill・symplex法の場合であれば、初期設定するシンプレックスの位置を前回より大きくするなどで対応する。 In general, the optimization ends when it is no longer possible to improve the image similarity criterion. However, there is a possibility that it has fallen into a local solution at the end of this time. Naturally, the image similarity criterion at this time is smaller than that of the optimal solution, and the ratio with the image similarity criterion when the position is greatly shifted is compared with that of the optimal solution that is empirically known. It can be determined by doing. If it is determined that a local solution has fallen, it can be expected to converge to the optimal solution by changing the parameters a little from the position and executing the optimization again. For example, in the case of the downhill / symplex method, the parameter is changed by increasing the position of the simplex to be initialized from the previous time.
位置合わせ部16は、上記最適化を開始する前に、参照画像データ上に設定した初期位置の周りの複数の位置について画像類似度を算出し、より良い初期位置を探索した後、最適化を実行する。この最適化を開始する前の処理を行うには、位置合わせ部16は、例えば図3に示すように第3の位置合わせスイッチ32をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作して第3の位置合わせスイッチ32をクリックすれば、位置合わせ部16は、最適化を開始する前の処理を行う。
The alignment unit 16 calculates image similarity for a plurality of positions around the initial position set on the reference image data before starting the optimization, searches for a better initial position, and then performs optimization. Execute. In order to perform the process before starting the optimization, the alignment unit 16 displays a
例えば1回の患者等の被検体に対する検査中に連続して収集したUS画像データ等の複数のボリュームデータの場合、これらボリュームデータ間の相対位置はさほど変化していないことが期待できる。これに対して撮影日時の異なる画像データや、異なるモダリティの画像データ間では、撮像される患者等の被検体の体位に大きな違いがあるのが一般的である。この場合、最適化が成功する範囲(キャプチャーレンジ)を外れて、初期位置が設定される場合がある。 For example, in the case of a plurality of volume data such as US image data collected continuously during a test on a subject such as a patient, it can be expected that the relative position between these volume data does not change much. On the other hand, generally, there is a great difference in the posture of a subject such as a patient to be imaged between image data having different photographing dates and times and image data having different modalities. In this case, the initial position may be set outside the range where the optimization succeeds (capture range).
これを解決するために、最適化を開始する前に、参照画像データ上に設定した初期位置の周りでより良い初期位置をラフに探索することによりキャプチャーレンジ内に絞り込む。例えば、三軸の回転と三軸の平行移動の都合例えば6個のパラメータに関し位置合わせを行う場合、一定間隔毎に、例えば回転については±30度の範囲を10度毎、平行移動であれば±30ピクセルの範囲を10ピクセル毎に、都合、例えば7^6個の仮の初期位置画像を作成し、参照画像データとの画像類似度を計算し、最も類似度の高い位置を初期位置とする。これは特に、平行移動に対して顕著に起きる。回転に関しては、少なくとも領域のオーバーラップが変化しないのに対し、平行移動ではオーバーラップする量が変化することに着目している。 In order to solve this, before the optimization is started, a better initial position is roughly searched around the initial position set on the reference image data, thereby narrowing down within the capture range. For example, when positioning is performed with respect to the rotation of the three axes and the translation of the three axes, for example, with respect to six parameters, for example, the range of ± 30 degrees for the rotation is every 10 degrees, for example, for the rotation. For example, 7 ^ 6 provisional initial position images are created for every 10 pixels within a range of ± 30 pixels, the image similarity with the reference image data is calculated, and the position with the highest similarity is defined as the initial position. To do. This is especially true for translation. Regarding the rotation, at least the overlap of the regions does not change, but attention is paid to the fact that the amount of overlap changes in the parallel movement.
位置合わせ部16は、参照画像データの上に設定された1つの基本領域と複数の補助領域について、対象画像データ上の対応する領域との間の画像類似度をそれぞれ算出し、それらを統合した指標で位置合わせを行う。統合手法としては、指標の積と、重み付き和とがある。 The alignment unit 16 calculates, for each of the basic region set on the reference image data and the plurality of auxiliary regions, the image similarity between the corresponding regions on the target image data and integrates them. Align with the indicator. Integration methods include index product and weighted sum.
参照画像データに設定された基本領域をRB、複数個の補助領域をRiとする。iは、1〜nである。対象画像データ上に設定された1つの領域を基本領域に対応する領域FBとする。この領域FBの位置を基準にしてFiを決定する。これらの領域間で画像類似度指標TB(FB;RB),Ti(Fi;Ri):i=1〜nを算出する。これらから統合された各指標T,Tを作成する。
参考文献としては、例えばJ.P.W.Pluim, J.B.A.Maintz, M.A.Viergever, “Image Registration by Maximization of Combined Mutual Information and Gradient Information”, IEEE Trans. Med.Imag., vol.19, pp. 809-814, August 2000がある。 References include, for example, JPWPluim, JBAMaintz, MAViergever, “Image Registration by Maximization of Combined Mutual Information and Gradient Information”, IEEE Trans. Med. Imag., Vol. 19, pp. 809-814, August 2000. is there.
このような位置合わせ部16は、統合した指標で位置合わせを行うとき、基本領域のみを用いて位置合わせを行い、ある程度収束した時点で統合した指標を用いる。これは、補助領域の初期位置はずれている確率が高いことによる。 When the alignment unit 16 performs alignment using the integrated index, the alignment unit 16 performs alignment using only the basic region, and uses the integrated index when it converges to some extent. This is because there is a high probability that the initial position of the auxiliary area is shifted.
位置合わせ部16は、参照画像データRと対象画像データFとの間、例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとの間の相互情報量Tを推定する際、参照画像データRと対象画像データFとで重ならない領域が生じると、この重ならない領域のサイズに応じて相互情報量Tを補正する。この場合、位置合わせ部16は、次式(12)に示すように参照画像データRのエントロピーH(R)と、対象画像データのエントロピーH(F)と、参照画像データRと対象画像データFとに基づいて生成されるジョイント・ヒストグラムのエントロピーH(R,F)とに基づいて相互情報量Tを求め、かつこの相互情報量Tにおいてジョイント・ヒストグラムJのエントロピーH(R,F)に対して重ならない領域のサイズに応じた補正Mを行う。
T=H(R)+H(F)−H(R,F,M) …(12)
すなわち、例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとは、手術前と手術後とにおいて患部等の被検体に超音波プローブを当てて超音波画像を取得する場合、被検体の体位の状態、例えば体位を横方向にしたときのねじれの度合いを同一にすることが難しく、かつ超音波プローブを被検体に当てる方向も同一にすることが難しいことから図8に示すように参照画像データRと対象画像データFとで位置合わせしても重ならない領域Gが生じる。
The alignment unit 16 is provided between the reference image data R and the target image data F, for example, reference image data R such as US image data 19-1 before treatment and target image data such as US image data 19-2 after treatment. When the mutual information amount T between the reference image data R and the target image data F is estimated when the mutual information amount T with the F is estimated, the mutual information amount T is corrected according to the size of the non-overlapping region. In this case, as shown in the following equation (12), the registration unit 16 entropy H (R) of the reference image data R, entropy H (F) of the target image data, reference image data R, and target image data F The mutual information T is obtained based on the entropy H (R, F) of the joint histogram generated based on the above, and the entropy H (R, F) of the joint histogram J in the mutual information T Correction M according to the size of the non-overlapping area is performed.
T = H (R) + H (F) -H (R, F, M) (12)
That is, for example, the reference image data R such as the pre-treatment US image data 19-1 and the target image data F such as the post-treatment US image data 19-2 are given to the subject such as the affected part before and after the operation. When an ultrasound image is acquired by applying an ultrasonic probe, it is difficult to make the posture of the subject in the same position, for example, the degree of twist when the posture is in the horizontal direction, and the ultrasonic probe is applied to the subject. Since it is difficult to make the directions the same, a region G that does not overlap even if the reference image data R and the target image data F are aligned as shown in FIG.
これにより、重ならない領域Gが生じて位置合わせされた参照画像データRと対象画像データFとの間で位置の重なり合う画素数は、参照画像データRと対象画像データFとが完全に一致した場合の画素数よりも減少する。参照画像データRと対象画像データFとを位置合わせするときには、例えば図6に示すようなジョイント・ヒストグラムJを生成するが、参照画像データRと対象画像データFとの間で位置の重なり合う画素数が減少することは、ジョイント・ヒストグラムJを生成するときのサンプル数(参照画像データRと対象画像データFとの間で位置の重なり合う画素数)が減少することになる。そうすると、サンプル数の減少によりジョイント・ヒストグラムJのエントロピーH(R,F)は小さくなる。 As a result, when the reference image data R and the target image data F are completely coincident with each other, the reference image data R and the target image data F have the same number of overlapping pixels. Less than the number of pixels. When the reference image data R and the target image data F are aligned, for example, a joint histogram J as shown in FIG. 6 is generated, but the number of pixels whose positions overlap between the reference image data R and the target image data F The decrease in the number of samples means that the number of samples when generating the joint histogram J (the number of pixels whose positions overlap between the reference image data R and the target image data F) decreases. Then, the entropy H (R, F) of the joint histogram J becomes smaller due to the decrease in the number of samples.
参照画像データRと対象画像データFとを位置合わせするには、参照画像データRと対象画像データFとの間の相互情報量Tを大きくすることである。しかしながら、図8に示すように参照画像データRと対象画像データFとで位置合わせしても重ならない領域Gが生じ、これら参照画像データRと対象画像データFとの間で位置の重なり合う画素数が減少すると、相互情報量Tが小さくなる方向に推移する。このため、参照画像データRと対象画像データFとが位置合わせされない方向に推移してしまう。 In order to align the reference image data R and the target image data F, the mutual information amount T between the reference image data R and the target image data F is increased. However, as shown in FIG. 8, there is a region G that does not overlap even if the reference image data R and the target image data F are aligned, and the number of overlapping pixels between the reference image data R and the target image data F Decreases, the mutual information amount T decreases. For this reason, the reference image data R and the target image data F shift in a direction in which they are not aligned.
しかるに、相互情報量Tにおいてジョイント・ヒストグラムJのエントロピーH(R,F)に対して重ならない領域のサイズに応じた補正Mを行う。これにより、参照画像データRと対象画像データFとで位置合わせしても重ならない領域Gが生じても、参照画像データRと対象画像データFとを位置合わせできる。 However, the correction M is performed according to the size of the region that does not overlap with the entropy H (R, F) of the joint histogram J in the mutual information amount T. As a result, even if the region G that does not overlap even if the reference image data R and the target image data F are aligned, the reference image data R and the target image data F can be aligned.
表示部17は、位置合わせ部16により位置合わせした例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとの2つのボリュームデータをディスプレイ11に表示する。ディスプレイ11に表示されるUS画像データ19−1やUS画像データ19−2等は、患者等の被検体の断面画像データ又は3次元の断面画像データである。この表示部17は、位置合わせ部16により位置合わせした例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを少なくとも回転、平行移動を同期して行ってディスプレイ11に表示する。
The
表示部17は、個別に位置合わせを行った複数組の画像データ、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2との2つのボリュームデータの位置合わせの結果や、治療前のX線CT画像データと治療後のUS画像データ19−2との位置合わせの結果、治療後のUS画像データ19−2とUS造影画像データとの位置合わせの結果等に基づいて、これら画像データに含まれる全てのボリュームデータの相対位置を統合して求める。
The
例えば、4種類のボリュームデータA,B,C,Dを用いて位置合わせ、例えばボリュームデータAとB、ボリュームデータBとC、ボリュームデータCとDの各位置合わせをそれぞれ行い、これらの座標変換αAB、αBC、αCDが得られたとする。表示部17は、これら3つの座標変換αAB、αBC、αCDが得られた時点で、これら座標変換αAB、αBC、αCDを用いて座標変換αAC、αADを算出する。これによりボリュームデータAを基準としたボリュームデータB,C,Dの統合的な位置合わせができる。
このようなボリュームデータB,C,D等の統合的な位置合わせを行うには、表示部17は、例えば図3に示すように位置合わせ統合スイッチ33をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作して位置合わせ統合スイッチ33をクリックすれば、表示部17は、ボリュームデータB,C,D等の統合的な位置合わせを行う。
For example, alignment is performed using four types of volume data A, B, C, and D, for example, volume data A and B, volume data B and C, and volume data C and D are aligned, and their coordinate conversion is performed. It is assumed that α AB , α BC , and α CD are obtained. When these three coordinate transformations α AB , α BC , α CD are obtained, the
In order to perform integrated positioning of such volume data B, C, D, etc., the
表示部17は、統合したN個のボリュームデータにおいてX方向、Y方向、Z方向の回転と平行移動による断面位置や3次元視線方向の変更を同期して行なう。この場合、表示部17は、同期して表示している断面位置の変更を行なうためのボリュームデータの取捨選択を行う。
表示部17は、ディスプレイ11に表示される位置合わせ後の複数の断面画像上、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2との各断面画像上に例えば格子状のスケールを表示する。図9は例えばUS画像データ19−1とUS画像データ19−2との各断面画像上に格子状のスケール34を表示した一例を示す。
The
The
表示部17は、ディスプレイ11に表示される位置合わせ後の複数の断面画像上、例えば治療前のUS画像データ19−1上の点と、この点に対応する治療後のUS画像データ19−2上の点とにそれぞれカーソルを表示する。図10は例えばUS画像データ19−1とUS画像データ19−2との各断面画像上の対応する各点に例えば「+」形状の各カーソル35a、35bを表示した一例を示す。
表示部17は、例えば治療前のUS画像データ19−1上の点に対応する治療後のUS画像データ19−2上の点を表示するのに「+」形状の各カーソル35a、35bに限らず、例えば線分、矩形又は円等に形成されたカーソル等を表示してもよい。
The
The
表示部17は、位置合わせ後の複数の画像データ、例えば複数の参照画像データと複数の対象画像データと各断面画像データからそれぞれ1枚を選択し、一方の画像データ上に他方画像データを重ねて表示する。表示部17は、例えば治療前のUS画像データ19−1等の参照画像データ上に治療後のUS画像データ19−2等の対象画像データを重ね合わせて表示する。重ね合わせの処理は、可変な閾値を用いて例えば対象画像データにおける閾値以上の部分を抽出し、この抽出した画像データを参照画像データ上に色を変えて透過的に重ねる。又、重ね合わせの処理は、可変な閾値を用いて例えば対象画像データから欠損部分等の輪郭領域のデータを抽出し、この抽出した欠損部分等の輪郭領域データを参照画像データ上に重ねる。重ね合わせた結果は、断面位置の変更に追従して変化する。
The
表示部17は、位置合わせ後の複数の断面画像データ、例えば複数の参照画像データと複数の対象画像データと各断面画像データ、特にX線CT画像データ、US画像データ等のうち各視野を比較した場合、一方の視野が他方の視野よりも大きな2枚の画像データを選択し、視野が大きな画像データ、例えばX線CT画像データに視野の小さな画像データが占める視野輪郭を表示する。
The
表示部17は、同一条件で撮影された視野の異なる複数のボリュームデータ、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とを仮想的に1つのボリュームデータとみなし、X方向、Y方向、Z方向の回転と平行移動による断面位置変更に応じて1つのウィンドウ中に合成して表示する。図11はUS画像データ19−1とUS画像データ19−2とを合成した表示例を示す。ある座標の画素値の候補として複数の候補がある場合には、1つのボリュームデータの画素を選ぶ、又は平均値などコンパウンドする。
The
この場合、表示部17は、複数の画像データ間の境界領域、例えばUS画像データ19−1等の参照画像データとUS画像データ19−2等の対象画像データとの境界領域36を検出し、この境界領域36の画素値を複数のボリュームデータ、例えばUS画像データ19−1とUS画像データ19−2とから決定する。そして、表示部17は、例えば、参照画像データを使用する領域、対象画像データを使用する領域、その境界領域を決定し、境界領域ではそれぞれの領域に近いほど大きな重みで2つの画像データ間を補間する。これにより、複数の画像データ間の境界領域、例えばUS画像データ19−1とUS画像データ19−2と境界領域36である継ぎ目が目立たなくなる。
In this case, the
参考文献としては、例えばA.H.Gee, G.M.Treece, R.W.Prager, C.j.C.Cash and L.Berman, “Rapid Registration for Wide Field of View Freehand Three-Dimensional Ultrasound”, IEEE Trans. Med.Imag., vol.22, pp. 1344-1357, November 2003と、G.Xiao, J.M.Brady, J.A.Noble, M.Burcher, and R.English, “ Non-rigid Registration of 3D- Free-Hand Ultrasound Images of the Breast”, IEEE Trans. Med.Imag., vol.21, pp. 405-412, April 2002とがある。 References include AHGee, GMTreece, RWPrager, CjCCash and L. Berman, “Rapid Registration for Wide Field of View Freehand Three-Dimensional Ultrasound”, IEEE Trans. Med. Imag., Vol. 22, pp. 1344-1357, November 2003 and G.Xiao, JMBrady, JANoble, M. Burcher, and R. English, “Non-rigid Registration of 3D- Free-Hand Ultrasound Images of the Breast”, IEEE Trans. Med .Imag., Vol.21, pp. 405-412, April 2002.
画像保存部18は、位置合わせされた複数の画像データ、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを画像データベース9に保存する。このとき、画像保存部18は、複数の画像データの保存と共に、これら画像データのデータ名、ミラーやリバースの有無、統合画素サイズ、画像サイズ基準データ名、ボリュームデータ相対位置情報等を画像データベース9に保存する。画像保存部18は、例えば図3に示すように画像保存ボタン37をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作して画像保存ボタン37をクリックすれば、画像保存部18は、位置合わせされた複数の画像データ画像データベース9に保存する。
The image storage unit 18 displays a plurality of aligned image data, for example, reference image data such as US image data 19-1 before treatment and target image data such as US image data 19-2 after treatment, in the
画像保存部18は、画像データベース9に保存されている位置合わせされた複数の画像データ、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを読み出し、これら参照画像データと対象画像データとに対してミラーやリバース、画素サイズ調整等の必要な処理を実行し、保存時の相対位置を再現する。画像保存部18は、例えば図3に示すように再現ボタン38をディスプレイ11に表示する。医師等のオペレータが操作部12のマウス等を操作して再現ボタン38をクリックすれば、画像保存部18は、参照画像データと対象画像データとに対してミラーやリバース、画素サイズ調整等の必要な処理を実行し、保存時の相対位置を再現する。
画像保存部18は、位置合わせした例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2等の複数のボリュームデータを仮想的な1つのボリュームとして保存・再生する。
The image storage unit 18 includes a plurality of registered image data stored in the
The image storage unit 18 stores and reproduces a plurality of volume data such as the aligned US image data 19-1 before treatment and the US image data 19-2 after treatment as one virtual volume.
次に、上記の如く構成された装置による画像データの位置合わせ動作について説明する。
画像位置合わせ装置1は、ネットワーク2を介して複数のモダリティ、例えばUS診断装置3、X線CT装置4、MR装置5等からそれぞれUS画像データ等の複数の画像データを取り込み、これら画像データを画像データベース9に記憶する。
例えば超音波穿刺による肝癌の治療判定では、最低でも例えば治療前のUS画像データと、治療後のUS画像データ及びUS造影画像データとを比較参照することを要する。このうち治療前のUS画像データと治療後のUS画像データとでは、それぞれ撮影したときの患者等の被検体の体位の違いや、造影の有無の相違があり、さらには治療や病状の進行による被検体の形態そのものの変化がある。これらの要因により治療前と治療後との各US画像データを空間的位置合わせすることが必要になる。なお、治療前のUS画像データと治療後のUS造影画像データ、又は他のモダリティのX線CT画像データとを比較参照するときもこれら画像データ間を空間的位置合わせすることが必要になる。
Next, an image data alignment operation performed by the apparatus configured as described above will be described.
The image alignment apparatus 1 takes in a plurality of image data such as US image data from a plurality of modalities, for example, the US
For example, in the treatment determination of liver cancer by ultrasonic puncture, it is necessary to compare and refer to, for example, US image data before treatment, US image data after treatment, and US contrast image data at least. Of these, the pre-treatment US image data and the post-treatment US image data have a difference in the position of the subject such as a patient at the time of photographing, a difference in the presence or absence of imaging, and further due to the progress of treatment or medical condition There is a change in the shape of the subject itself. These factors make it necessary to spatially align each US image data before and after treatment. In addition, when comparing and referring to US image data before treatment and US contrast image data after treatment, or X-ray CT image data of other modalities, it is necessary to spatially align these image data.
医師等のオペレータが操作部12のマウス等を操作することにより読み出される画像データが指示されると、データ読出部13は、例えば画像データベース9に記憶されている各モダリティの画像データから例えば患者等の被検体における肝臓の治療前のUS画像データ19−1と、肝臓の治療後のUS画像データ19−2とを読み出す。これらUS画像データ19−1、19−2は、例えば肝臓の断面画像である。これら治療前のUS画像データ19−1と治療後のUS画像データ19−2とは、図2に示すように表示部17によってディスプレイ11に表示される。
When an image data read out by an operator such as a doctor operating the mouse of the
次に、データ属性変更部14は、データ読出部13により読み出された治療前のUS画像データ19−1と治療後のUS画像データ19−2とに対して少なくとも回転、平行移動に関する属性を変更してディスプレイ11に表示する。これら治療前のUS画像データ19−1と治療後のUS画像データ19−2との回転、平行移動等は、例えば医師等のオペレータが操作部12のマウス等を操作することにより指示される。なお、例えば医師等のオペレータが操作部12のマウス等を操作することによりデータ属性変更部14は、治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおける輝度値を調整したり、画素サイズを合わせたり、空間的な向き・方向を変更したりする。
Next, the data attribute changing unit 14 sets at least attributes relating to rotation and translation with respect to the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 read by the
次に、治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおいて例えば図4に示すように位置合わせ候補の各小領域E1、E2の設定がマニュアル操作又は自動的により行われる。
先ず、位置合わせ候補の各小領域E1、E2のマニュアル設定について説明する。
領域設定部15は、医師等のオペレータによる操作部12へのマニュアル操作を受け、このマニュアル操作に従って位置合わせを行う一組の治療前のUS画像データ19−1と治療後のUS画像データ19−2とをディスプレイ11上に表示し、これら一組の治療前のUS画像データ19−1と治療後のUS画像データ19−2とをディスプレイ11上でそれぞれX方向、Y方向、Z方向を中心軸として回転させ、又X方向、Y方向、Z方向にそれぞれ平行移動させて初期設定する。
Next, in the US image data 19-1 before treatment and the US image data 19-2 after treatment, for example, as shown in FIG. 4, the setting of the small regions E 1 and E 2 of the alignment candidates is set by manual operation or automatically. It is done by the target.
First, manual setting of each of the small regions E 1 and E 2 of the alignment candidates will be described.
The region setting unit 15 receives a manual operation on the
US画像データは、患者等の被検体の解剖学的制約により制限される撮影方向から撮影されることが多い。例えば、肝臓癌の診断の場合、US画像データは、例えば肋弓下や肋間などの特定の撮影方向から撮影されることが多い。従って、これら特定の撮影方向の体軸に垂直な座標系への相対位置が予めプリセットされて登録されている。例えば肋弓下や肋間などの特定の撮影方向から撮影するときの撮影方向がプリセットされている。このような場合、例えば図3に示すようにディスプレイ11上に表示されているプリセット用ボタン28を医師等のオペレータが操作部12のマウスをクリック操作すれば、領域設定部15は、プリセットされている撮影方向に治療前のUS画像データ19−1と治療後のUS画像データ19−2との各撮影方向を1回の処理で所定の位置ずれ範囲内の大まかな位置に揃えることができる。
US image data is often taken from an imaging direction that is limited by anatomical restrictions of a subject such as a patient. For example, in the case of liver cancer diagnosis, US image data is often taken from a specific imaging direction, such as under the arch or between the intercostals. Therefore, the relative position to the coordinate system perpendicular to the body axis in these specific photographing directions is preset and registered. For example, the shooting direction when shooting from a specific shooting direction such as under the bow or between the eyelids is preset. In such a case, for example, if an operator such as a doctor clicks the mouse of the
又、領域設定部15は、治療前のUS画像データ19−1と治療後のUS画像データ19−2との各画像表示モードを例えば通常のMPR表示、厚み付き最大値表示、厚み付き最小値表示、厚み付きMPR表示、又はボリュームレンダリング表示に切り替えることができる。 In addition, the region setting unit 15 displays each image display mode of the US image data 19-1 before treatment and the US image data 19-2 after treatment, for example, normal MPR display, maximum value display with thickness, and minimum value with thickness. It can be switched to display, MPR display with thickness, or volume rendering display.
次に、領域設定部15は、医師等のオペレータによる操作部12のマウスに対するクリック操作を受け、初期設定した参照画像データと対象画像データ、例えば図4に示す治療前のUS画像データ19−1と治療後のUS画像データ19−2との各画像データ上に、位置合わせ候補の各小領域E1、E2を設定する。いわゆる医師等のオペレータによるマニュアル操作によって位置合わせ候補の各小領域E1、E2の設定ができる。この領域設定部15は、位置合わせ候補の各小領域E1、E2は、例えば図5に示すように矩形の境界を実線「□」により表示し、この矩形中心をクロス「+」により表示する。これら位置合わせ候補の各小領域E1、E2の設定されるところは、例えば解剖学的に特徴的な形態を有するところである。
Next, the region setting unit 15 receives a click operation on the mouse of the
なお、領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E1、E2のサイズが例えば患者等の被検体の実寸で常に一定になるように対象画像データの画素サイズに応じて各小領域E1、E2のサイズを調整する。領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E1、E2の位置を移動しないで、これら小領域E1、E2のサイズをマニュアルにより変更する。領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E1、E2のサイズを変更しないで、これら小領域E1、E2の位置を変更する。
The region setting unit 15 receives an operation on the
一方、位置合わせ候補の各小領域E1、E2の自動設定について説明する。
領域設定部15は、参照画像データと対象画像データ、例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2との画像類似度に基づいて位置合わせ候補の各小領域E1、E2をそれぞれ自動設定する。位置合わせ候補の各小領域E1、E2の自動設定には、上記のようにエントロピーを最大にする正方形領域を検索する第1の方法、又は周辺領域との平均値の差に基づく指標を用いる第2の方法である。
On the other hand, automatic setting of the small areas E 1 and E 2 of the alignment candidates will be described.
The area setting unit 15 sets each sub-area of the registration candidate based on the image similarity between the reference image data and the target image data, for example, the US image data 19-1 shown in FIG. 2 and the US image data 19-2 after treatment. E 1 and E 2 are set automatically. For the automatic setting of each of the sub-regions E 1 and E 2 of the alignment candidates, the first method for searching for a square region that maximizes entropy as described above, or an index based on the difference in average value from surrounding regions is used. This is the second method used.
この領域設定部15は、例えば次の手法により位置合わせ候補の各小領域E1、E2を自動設定する。この領域設定部15は、位置合わせを行う一組の例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2とについて、それぞれX方向、Y方向、Z方向の回転と平行移動とを行って初期の断層面画像データをマニュアルで決定した後に位置合わせ候補の各小領域E1、E2を自動設定する。この場合、領域設定部15は、先ず、治療前のUS画像データ19−1から位置合わせに用いる特徴的な画像データを有する小領域E1の中心を決定する。次に、領域設定部15は、決定した小領域E1の中心に対して領域サイズを決定する。次に、領域設定部15は、US画像データ19−1に設定した小領域E1との間の画像類似度が最も大きな小領域E2を例えば治療後のUS画像データ19−2から探索する。 The area setting unit 15 automatically sets the small areas E 1 and E 2 as alignment candidates by the following method, for example. This region setting unit 15 performs rotation in the X direction, Y direction, and Z direction, respectively, for a set of US image data 19-1 and US image data 19-2 after treatment shown in FIG. After performing the parallel movement and manually determining the initial tomographic plane image data, the small areas E 1 and E 2 as the alignment candidates are automatically set. In this case, the region setting unit 15 first determines the center of the small region E 1 having characteristic image data used for alignment from the pre-treatment US image data 19-1. Then, the area setting unit 15 determines the area size with respect to the center of the determined small region E 1. Then, the area setting unit 15 searches from the US image data 19-2 image similarity is the largest small area E 2, for example after treatment between the small regions E 1 set in the US image data 19-1 .
このうち、小領域E1の中心の決定は、上記領域設定部15により例えば図2に示すUS画像データ19−1と治療後のUS画像データ19−2との画像類似度に基づいて位置合わせ候補の各小領域E1、E2をそれぞれ自動設定する手法を用いる。この手法は、第1の方法であるエントロピーを最大にする正方形領域を検索する方法、又は第2の方法である周辺領域との平均値の差に基づく指標を用いる方法を用いる。 Among them, the center of the determination of the small area E 1 is aligned on the basis of the image similarity between US image data 19-2 after treatment with US image data 19-1 shown in FIG. 2, for example by the area setting unit 15 A method of automatically setting each of the candidate small regions E 1 and E 2 is used. This method uses a first method that searches for a square region that maximizes entropy, or a second method that uses an index based on a difference in average value from a surrounding region.
次に、位置合わせ部16は、領域設定部15により設定された例えば治療前のUS画像データ19−1上の小領域E1と、治療後のUS画像データ19−2上の小領域E2との間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データと対象画像データとの位置合わせを行う。この場合、位置合わせ部16は、画像類似度として治療前のUS画像データ19−1と治療後のUS画像データ19−2との間の相互情報量Tを推定し、最適化処理を行って相互情報量Tの極値に基づいて治療前のUS画像データ19−1と治療後のUS画像データ19−2との相対位置を決定する。 Next, the alignment unit 16, a small region E 1 on the set for example to pre-treatment US image data 19-1 by the region setting unit 15, a small area on the US image data 19-2 after treatment E 2 The image similarity between the reference image data and the target image data is adjusted so that the image similarity is maximized. In this case, the alignment unit 16 estimates the mutual information amount T between the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 as an image similarity, and performs an optimization process. Based on the extreme value of the mutual information amount T, the relative position between the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 is determined.
例えば図6に示すジョイント・ヒストグラムを参照して例えば治療前のUS画像データ19−1の参照画像データRと治療後のUS画像データ19−2の対象画像データFとを位置合わせについて説明すると、このジョイント・ヒストグラムJは、参照画像データR上の点IR(x,y)と、この点IR(x,y)と一致する対象画像データF上の点IF(x,y)とにより作成される。参照画像データRと対象画像データFとが位置合わせされてその各画像が一致していると、これら参照画像データRと対象画像データFとの間の相互情報量Tは、大きくなり、直線Lにより表される。従って、参照画像データRと対象画像データFとを位置合わせすることは、相互情報量Tを大きくし、直線Lにより表されるようにすることである。 For example, referring to the joint histogram shown in FIG. 6, for example, the registration of the reference image data R of the US image data 19-1 before treatment and the target image data F of the US image data 19-2 after treatment will be described. The joint histogram J includes a point I R (x, y) on the reference image data R, a point I F (x, y) on the target image data F that matches the point I R (x, y), and Created by. When the reference image data R and the target image data F are aligned and the images match, the mutual information amount T between the reference image data R and the target image data F increases, and the straight line L It is represented by Therefore, aligning the reference image data R and the target image data F is to increase the mutual information amount T so that it is represented by the straight line L.
そして、位置合わせ部16は、治療前のUS画像データ19−1と治療後のUS画像データ19−2との間の相互情報量Tを推定する際、治療前のUS画像データ19−1と治療後のUS画像データ19−2とに共存しない領域に位置合わせ候補の領域があると、当該領域を除いて相互情報量T推定する。なお、相互情報量Tの推定法については、上記の説明通りである。例えば図7に示すように参照画像データRと対象画像データFとを位置合わせは、例えば各領域Sa、Sbとの間の画像類似度を求め、この画像類似度が最も大きくなるように参照画像データRと対象画像データFとを位置合わせするとき、領域Sa内におけるボリュームデータRの領域外Rbと、領域Sb内におけるボリュームデータFの領域外Fbとは、除外される。そして、各領域外Rb、Fbの除外された各領域Sa、Sbとの間の画像類似度が求められ、この画像類似度が最も大きくなるように参照画像データRと対象画像データFとが位置合わせされる。
この結果、位置合わせ部16は、治療前のUS画像データ19−1と治療後のUS画像データ19−2との相対位置を決定すると、例えば図12に示すように参照画像データである治療前のUS画像データ19−1を移動させず、治療後のUS画像データ19−2を例えば各移動方向f1、f2にそれぞれ平行移動し、かつ回転方向f3方向に回転させる。これにより、位置合わせ部16は、例えば図9に示すように治療前のUS画像データ19−1と治療後のUS画像データ19−2とを位置合わせする。この位置合わせ部16は、最適化が終了した時点で、表示部17に対して位置合わせ結果を表示する指令を送出する。
And when the alignment part 16 estimates the mutual information amount T between the US image data 19-1 before treatment and the US image data 19-2 after treatment, the US image data 19-1 before treatment and If there is an alignment candidate area in an area that does not coexist with the US image data 19-2 after treatment, the mutual information amount T is estimated except for the area. The method for estimating the mutual information amount T is as described above. For example, as shown in FIG. 7, the reference image data R and the target image data F are aligned, for example, the image similarity between the areas Sa and Sb is obtained, and the reference image is maximized. When the data R and the target image data F are aligned, the outside area Rb of the volume data R in the area Sa and the outside area Fb of the volume data F in the area Sb are excluded. Then, the image similarity between the regions Sa and Sb excluding the regions Rb and Fb is obtained, and the reference image data R and the target image data F are positioned so that the image similarity is maximized. To be combined.
As a result, when the registration unit 16 determines the relative position between the pre-treatment US image data 19-1 and the post-treatment US image data 19-2, for example, as shown in FIG. The US image data 19-2 after treatment is translated in, for example, the respective movement directions f 1 and f 2 and rotated in the rotation direction f 3 without moving the US image data 19-1. Thereby, the alignment unit 16 aligns the US image data 19-1 before treatment and the US image data 19-2 after treatment, for example, as shown in FIG. The alignment unit 16 sends a command for displaying the alignment result to the
次に、表示部17は、位置合わせ部16により位置合わせした例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2との2つのボリュームデータをディスプレイ11に表示する。この表示部17は、ディスプレイ11に表示される位置合わせ後の複数の断面画像上、例えば図9に示すように治療前のUS画像データ19−1と治療後のUS画像データ19−2との各断面画像上に例えば格子状のスケール34を表示する。又、表示部17は、ディスプレイ11に表示される例えば治療前のUS画像データ19−1上の点と、この点に対応する治療後のUS画像データ19−2上の点とにそれぞれ例えば図10に示すように「+」形状の各カーソル35a、35bを表示する。又、表示部17は、図11に示すようにUS画像データ19−1とUS画像データ19−2とを合成して表示する。この場合、表示部17は、US画像データ19−1とUS画像データ19−2との境界領域36を検出し、この境界領域36の画素値を複数のボリュームデータ、例えばUS画像データ19−1とUS画像データ19−2とから決定し、境界領域36においてそれぞれの領域に近いほど大きな重みで2つのUS画像データ19−1とUS画像データ19−2との間を補間する。
Next, the
次に、画像保存部18は、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とを画像データベース9に保存する。このとき、画像保存部18は、これら治療前のUS画像データ19−1と治療後のUS画像データ19−2とを画像データベース9に保存すると共に、これら治療前のUS画像データ19−1と治療後のUS画像データ19−2とのデータ名、ミラーやリバースの有無、統合画素サイズ、画像サイズ基準データ名、ボリュームデータ相対位置情報等を画像データベース9に保存する。なお、画像データの保存は、例えば図3に示すようにディスプレイ11に表示されている画像保存ボタン37を医師等のオペレータが操作部12のマウス等をクリック操作することにより行われる。
Next, the image storage unit 18 stores, for example, the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 in the
医師等のオペレータが操作部12のマウス等を操作して再現ボタン38をクリックすると、画像保存部18は、画像データベース9に保存されている位置合わせされた複数の画像データ、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを読み出し、これら参照画像データと対象画像データとに対してミラーやリバース、画素サイズ調整等の必要な処理を実行し、保存時の相対位置を再現する。
When an operator such as a doctor operates the mouse or the like of the
一方、例えば治療前のUS画像データ19−1の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとは、手術前と手術後とにおいて患部等の被検体に超音波プローブを当てて超音波画像を取得する場合、被検体の体位の状態、例えば体位を横方向にしたときのねじれの度合いを同一にすることが難しく、かつ超音波プローブを被検体に当てる方向も同一にすることが難しいことから図8に示すように参照画像データRと対象画像データFとで位置合わせしても重ならない領域Gが生じる。 On the other hand, for example, the reference image data R of the US image data 19-1 before the treatment and the target image data F such as the US image data 19-2 after the treatment are more than the subject such as the affected part before and after the operation. When acquiring an ultrasound image by applying an ultrasonic probe, it is difficult to make the posture of the subject to be in the same state, for example, the degree of twisting when the posture is in the horizontal direction, and the direction in which the ultrasonic probe is applied to the subject. Since it is difficult to make them identical, a region G that does not overlap even if the reference image data R and the target image data F are aligned as shown in FIG.
この場合、位置合わせ部16は、参照画像データRと対象画像データFとの間、例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとの間の相互情報量Tを推定する際、参照画像データRと対象画像データFとで重ならない領域が生じると、この重ならない領域のサイズに応じて相互情報量Tを補正する。このとき、位置合わせ部16は、上記式(12)を算出して参照画像データRと対象画像データFとの相互情報量Tを求め、この相互情報量Tにおいてジョイント・ヒストグラムJのエントロピーH(R,F)に対して重ならない領域のサイズに応じた補正Mを行う。これにより、参照画像データRと対象画像データFとで位置合わせしても重ならない領域Gが生じても、参照画像データRと対象画像データFとを位置合わせできる。 In this case, the alignment unit 16 is configured such that the reference image data R between the reference image data R and the target image data F, for example, the reference image data R such as the US image data 19-1 before treatment and the US image data 19-2 after treatment, When the mutual information amount T between the target image data F and the target image data F is estimated, if a region where the reference image data R and the target image data F do not overlap is generated, the mutual information amount T is corrected according to the size of the non-overlapping region. To do. At this time, the alignment unit 16 calculates the above equation (12) to obtain the mutual information amount T between the reference image data R and the target image data F, and the entropy H ( Correction M is performed according to the size of the region that does not overlap R, F). As a result, even if the region G that does not overlap even if the reference image data R and the target image data F are aligned, the reference image data R and the target image data F can be aligned.
このように上記一実施の形態によれば、例えば治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとにおいて解剖学的に特徴的な画像を有するところに位置合わせ候補の各小領域E1、E2を設定し、これら小領域E1、E2間の画像類似度を求め、この画像類似度が最も大きくなるように治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとの位置合わせを行う。これにより、US画像データ同士やUS画像データと他のモダリティの画像データとの位置合わせが短時間で正確にできる。 As described above, according to the embodiment, for example, the reference image data R such as the US image data 19-1 before treatment and the target image data F such as the US image data 19-2 after treatment are anatomically analyzed. The sub-regions E 1 and E 2 of the alignment candidates are set where the characteristic image is present, the image similarity between the small regions E 1 and E 2 is obtained, and the image similarity is maximized. The reference image data R such as the US image data 19-1 before treatment and the target image data F such as the US image data 19-2 after treatment are aligned. As a result, alignment between US image data and between US image data and image data of other modalities can be accurately performed in a short time.
例えば超音波穿刺による肝癌の治療判定では、最低でも例えば治療前のUS画像データと、治療後のUS画像データ及びUS造影画像データとを比較参照することを要する。このうち治療前のUS画像データと治療後のUS画像データとでは、それぞれ撮影したときの患者等の被検体の体位の違いや、造影の有無の相違があり、さらには治療や病状の進行による被検体の形態そのものの変化がある。これらの要因により治療前と治療後との各US画像データを空間的位置合わせすることが必要になる。なお、治療前のUS画像データと治療後のUS造影画像データ、又は他のモダリティのX線CT画像データとを比較参照するときもこれら画像データ間を空間的位置合わせすることが必要になる。このようなUS画像データ同士やUS画像データと他のモダリティの画像データ、例えばX線CT画像データとの位置合わせでも短時間で正確にできる。 For example, in the treatment determination of liver cancer by ultrasonic puncture, it is necessary to compare and refer to, for example, US image data before treatment, US image data after treatment, and US contrast image data at least. Of these, the pre-treatment US image data and the post-treatment US image data have a difference in the position of the subject such as a patient at the time of photographing, a difference in the presence or absence of imaging, and further due to the progress of treatment or medical condition There is a change in the shape of the subject itself. These factors make it necessary to spatially align each US image data before and after treatment. In addition, when comparing and referring to US image data before treatment and US contrast image data after treatment, or X-ray CT image data of other modalities, it is necessary to spatially align these image data. Such alignment between US image data or between US image data and image data of other modalities, for example, X-ray CT image data can be accurately performed in a short time.
しかるに、US診断装置3、X線CT装置4、MR装置5等のマルチモダリティで利用ができる。
又、領域設定部15により治療前のUS画像データ19−1と治療後のUS画像データ19−2とをディスプレイ11上でそれぞれX方向、Y方向、Z方向を中心軸として回転させ、又X方向、Y方向、Z方向にそれぞれ平行移動させて初期設定するので、厳密な初期位置設定が不要である。
患部等の被検体に体位の捩れ等により変形により、画像データ中に消失があってもよく、又、数多くの画像データの位置合わせする際に全てに共通な特徴部分を必要としない。
However, it can be used in multi-modalities such as the US
The region setting unit 15 rotates the pre-treatment US image data 19-1 and post-treatment US image data 19-2 on the
A subject such as an affected part may be lost in the image data due to deformation due to torsion of the body position or the like, and a common characteristic part is not required for alignment of many image data.
位置合わせ候補の各小領域E1、E2間の画像類似度を求め、この画像類似度が最も大きくなるように治療前のUS画像データ19−1等の参照画像データRと治療後のUS画像データ19−2等の対象画像データFとを位置合わせするので、このときのCPU等の主制御部6による演算処理は、各小領域E1、E2内の少ないデータだけでよく、処理速度を大幅に改善できる。すなわち、治療前のUS画像データ19−1及び治療後のUS画像データ19−2の全体のデータを演算処理しないので、処理速度を高速化できる。例えば、参照画像データR上に指定された位置を中心に、経験的に予め決めておいた解剖学的な特徴を反映する小さな小領域E1、例えば、肝臓の血管の場合であれば、例えば一辺2cm程度の立方体、ボクセルの大きさが0.5mm3であれば40×40×40ボクセルの領域を設定し、これを基準画像として用いる。なお、位置合わせ候補の各小領域E1、E2を小さな領域に設定するので、位置合わせに用いる空間的な変換は剛体変形と仮定できる。
The image similarity between the small regions E 1 and E 2 of the alignment candidates is obtained, and the reference image data R such as the US image data 19-1 before the treatment and the US after the treatment so that the image similarity becomes the largest. Since the target image data F such as the image data 19-2 is aligned, the arithmetic processing by the
医師等のオペレータは、マニュアルにより操作部12のマウスをクリック操作等することにより、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2とにおいて同一の解剖学的特徴点を有する小領域E1、E2が認められる断面画像データをラフに選択できる。
さらに、領域設定部15は、例えば図2に示す治療前のUS画像データ19−1と治療後のUS画像データ19−2との画像類似度に基づいて解剖学的同一点である位置合わせ候補の各小領域E1、E2をそれぞれ自動設定できる。
An operator such as a doctor performs the same anatomical feature point in, for example, the US image data 19-1 before treatment and the US image data 19-2 after treatment by clicking the mouse of the
Furthermore, the region setting unit 15 is a registration candidate that is an anatomical identical point based on, for example, the image similarity between the pre-treatment US image data 19-1 and the post-treatment US image data 19-2 shown in FIG. Each of the small areas E 1 and E 2 can be automatically set.
領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E1、E2のサイズが例えば患者等の被検体の実寸で常に一定になるように対象画像データの画素サイズに応じて各小領域E1、E2のサイズを調整できる。又、領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E1、E2の位置を移動しないで、これら小領域E1、E2のサイズをマニュアルにより変更できる。領域設定部15は、医師等のオペレータによる操作部12に対する操作を受け、位置合わせ候補の各小領域E1、E2のサイズを変更しないで、これら小領域E1、E2の位置を変更できる。
The region setting unit 15 receives an operation on the
探索を始める前に初期位置の周りを適当な間隔でしらみつぶしに調べ、画像類似度が最大になる位置を初期位置として最適化するオプションを持つ。これにより、位置合わせを行う2つの三次元画像データ、例えば治療前のUS画像データ19−1と治療後のUS画像データ19−2との相対差が比較的大きな場合を考慮して、治療後のUS画像データ19−2等の対象画像データ上に指定された位置を中心に、その位置合わせパラメータ、例えば三軸の回転と三軸の平行移動の都合6個のパラメータに関し、限定した範囲について、例えば回転については±30度の範囲を10度ごと、平行移動であれば±30ピクセルの範囲を10ピクセルごとに、参照画像データと対象画像データとの間の画像類似度を計算する。このような場合、例えば7^6個の探索を行い、最も類似度の高い相対位置を初期値とする。小さな比較領域が持つ平行移動量の変位に対して不利な点を、初期位置の周りでラフに探索することによりキャプチャーレンジ内に絞り込むことが出来る。 Before starting the search, the area around the initial position is squeezed at appropriate intervals, and an option to optimize the position where the image similarity is maximized as the initial position is provided. Thus, in consideration of the case where the relative difference between the two three-dimensional image data to be aligned, for example, the US image data 19-1 before treatment and the US image data 19-2 after treatment is relatively large, With respect to the alignment parameters, for example, six parameters of three-axis rotation and three-axis translation about the position designated on the target image data such as US image data 19-2, a limited range For example, for rotation, the image similarity between the reference image data and the target image data is calculated every 10 degrees for a range of ± 30 degrees and for every 10 pixels for a range of ± 30 pixels for translation. In such a case, for example, 7 ^ 6 searches are performed, and the relative position with the highest similarity is set as the initial value. It is possible to narrow down the point that is disadvantageous to the displacement of the translation amount of the small comparison area within the capture range by roughly searching around the initial position.
画像保存部18は、位置合わせされた複数の画像データ、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを画像データベース9に保存する。このとき、画像保存部18は、複数の画像データの保存と共に、これら画像データのデータ名、ミラーやリバースの有無、統合画素サイズ、画像サイズ基準データ名、ボリュームデータ相対位置情報等を画像データベース9に保存する。この状態で、医師等のオペレータが操作部12のマウス等を操作して再現ボタン38をクリックすると、画像保存部18は、画像データベース9に保存されている位置合わせされた複数の画像データ、例えば治療前のUS画像データ19−1等の参照画像データと治療後のUS画像データ19−2等の対象画像データとを読み出し、これら参照画像データと対象画像データとに対してミラーやリバース、画素サイズ調整等の必要な処理を実行し、保存時の相対位置を再現できる。
The image storage unit 18 displays a plurality of aligned image data, for example, reference image data such as US image data 19-1 before treatment and target image data such as US image data 19-2 after treatment, in the
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
1:画像位置合わせ装置、2:ネットワーク、3:US診断装置、4:X線CT装置、5:MR装置、6:主制御部、7:プログラムメモリ、8:データメモリ、9:画像データベース、10:伝送部、11:ディスプレイ、12:操作部、13:データ読出部、14:データ属性変更部、15:領域設定部、16:位置合わせ部、17:表示部、18:画像保存部、19−1:治療前のUS画像データ、19−2:治療後のUS画像データ、20:治療前のX線CT画像データ、21:US造影画像データ、22:画像判別データ、23:サイズ調整ボタン、24:スケール、25:第1のミラー動作部の設定ボタン、26:第2のミラー動作部の設定ボタン、27:リバース部の設定ボタン、28:プリセットボタン、29:第1の位置合わせボタン、30:第2の位置合わせボタン、31:やり直しスイッチ、32:第3の位置合わせスイッチ、33:位置合わせ統合スイッチ、34:スケール、35a,35b:カーソル、36:境界領域、37:画像保存ボタン、38:再現ボタン、E1,E2:位置合わせ候補の小領域。 1: image alignment device, 2: network, 3: US diagnostic device, 4: X-ray CT device, 5: MR device, 6: main control unit, 7: program memory, 8: data memory, 9: image database, 10: Transmission unit, 11: Display, 12: Operation unit, 13: Data reading unit, 14: Data attribute changing unit, 15: Area setting unit, 16: Positioning unit, 17: Display unit, 18: Image storage unit, 19-1: US image data before treatment, 19-2: US image data after treatment, 20: X-ray CT image data before treatment, 21: US contrast image data, 22: Image discrimination data, 23: Size adjustment Buttons, 24: scale, 25: first mirror operation unit setting button, 26: second mirror operation unit setting button, 27: reverse unit setting button, 28: preset button, 29: first position Adjustment button, 30: second alignment button, 31: redo switch, 32: third alignment switch, 33: alignment alignment switch, 34: scale, 35a, 35b: cursor, 36: boundary region, 37: Image save button, 38: Reproduction button, E 1 , E 2 : Small region of alignment candidates.
Claims (29)
前記領域設定部により設定された前記各領域間の画像類似度を求め、この画像類似度が最も大きくなるように前記参照画像データと前記対象画像データとの位置合わせを行う位置合わせ部と、
前記位置合わせ部により位置合わせした前記参照画像データと前記対象画像データとをディスプレイに表示する表示部と、
を具備することを特徴とする画像位置合わせ装置。 Each region of the alignment candidate formed in the size required to select the feature point on the three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data, respectively An area setting section to be set;
An alignment unit that obtains an image similarity between the regions set by the region setting unit and aligns the reference image data and the target image data so that the image similarity is maximized;
A display unit for displaying the reference image data and the target image data aligned by the alignment unit on a display;
An image alignment apparatus comprising:
前記データ読出部により読み出された前記参照画像データと前記対象画像データとに対して少なくとも回転、平行移動に関する属性を変更して前記ディスプレイに表示するデータ属性変更部と、
を具備することを特徴とする請求項1記載の画像位置合わせ装置。 A data reading unit for reading the reference image data and the target image data;
A data attribute changing unit for changing at least the attribute relating to rotation and translation with respect to the reference image data and the target image data read by the data reading unit and displaying them on the display;
The image alignment apparatus according to claim 1, further comprising:
を具備することを特徴とする請求項1記載の画像位置合わせ装置。 An image storage unit for storing the reference image data and the target image data aligned by the alignment unit;
The image alignment apparatus according to claim 1, further comprising:
前記領域設定部は、前記マニュアル選択操作を受けて、前記参照画像データ上と前記対象画像データ上とにおける前記位置合わせ候補の前記領域をそれぞれ設定する、
ことを特徴とする請求項13記載の画像位置合わせ装置。 The reference image data and the target image data are displayed on the display, and when the manual selection operation of the region of the alignment candidate is performed on the display screen,
The region setting unit receives the manual selection operation and sets the regions of the alignment candidates on the reference image data and the target image data, respectively.
The image alignment apparatus according to claim 13.
ことを特徴とする請求項18記載の画像位置合わせ装置。 When the relative position between the reference image data and the target image data is shifted, the alignment unit again determines the mutual information amount or entropy between the reference image data and the target image data as the image similarity. 19. The image registration according to claim 18, wherein the relative position between the reference image data and the target image data is determined based on a mutual information amount or an extreme value of entropy by performing estimation and performing optimization processing. apparatus.
前記設定された前記各領域間の画像類似度を求め、この画像類似度が最も大きくなるように前記参照画像データと前記対象画像データとの位置合わせを行い、
前記位置合わせした前記参照画像データと前記対象画像データとをディスプレイに表示する、
ことを特徴とする画像位置合わせ方法。 Each region of the alignment candidate formed in the size required to select the feature point on the three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data, respectively Set,
Obtaining the image similarity between the set areas, aligning the reference image data and the target image data so that the image similarity is maximized,
Displaying the aligned reference image data and the target image data on a display;
An image alignment method characterized by the above.
前記設定された前記各領域間の画像類似度を求めさせ、この画像類似度が最も大きくなるように前記参照画像データと前記対象画像データとを位置合わせさせ、
前記位置合わせした前記参照画像データと前記対象画像データとをディスプレイに表示させる、
ことを特徴とする画像位置合わせプログラム。 Each region of the alignment candidate formed in the size required to select the feature point on the three-dimensional reference image data and on at least one three-dimensional target image data to be aligned with the reference image data, respectively Let me set
The image similarity between the set regions is obtained, and the reference image data and the target image data are aligned so that the image similarity is maximized,
Displaying the aligned reference image data and the target image data on a display;
An image alignment program characterized by that.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007287846A JP5835680B2 (en) | 2007-11-05 | 2007-11-05 | Image alignment device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007287846A JP5835680B2 (en) | 2007-11-05 | 2007-11-05 | Image alignment device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2009112468A true JP2009112468A (en) | 2009-05-28 |
| JP5835680B2 JP5835680B2 (en) | 2015-12-24 |
Family
ID=40780306
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007287846A Active JP5835680B2 (en) | 2007-11-05 | 2007-11-05 | Image alignment device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5835680B2 (en) |
Cited By (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010274043A (en) * | 2009-06-01 | 2010-12-09 | Toshiba Corp | Ultrasonic diagnostic apparatus and ultrasonic image processing program |
| JP2010284204A (en) * | 2009-06-09 | 2010-12-24 | Toshiba Corp | Medical image display device |
| JP2011031045A (en) * | 2009-08-03 | 2011-02-17 | Medison Co Ltd | System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image |
| JP2011031040A (en) * | 2009-07-31 | 2011-02-17 | Medison Co Ltd | System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image |
| JP2011047863A (en) * | 2009-08-28 | 2011-03-10 | Konica Minolta Sensing Inc | Three-dimensional shape data processing apparatus, three-dimensional shape data processing system, and three-dimensional shape measurement system |
| JP2011078440A (en) * | 2009-10-02 | 2011-04-21 | Ge Medical Systems Global Technology Co Llc | Medical image diagnostic apparatus |
| JP2011125568A (en) * | 2009-12-18 | 2011-06-30 | Canon Inc | Image processor, image processing method, program and image processing system |
| JP2011142974A (en) * | 2010-01-13 | 2011-07-28 | Fujifilm Corp | Medical image display apparatus, method, and program |
| JP2012125297A (en) * | 2010-12-13 | 2012-07-05 | Toshiba Corp | Ultrasonic diagnostic apparatus, image processor, and program |
| WO2013018575A1 (en) * | 2011-08-03 | 2013-02-07 | 株式会社日立メディコ | Image diagnostic device and image correction method |
| JP2013527848A (en) * | 2010-04-30 | 2013-07-04 | コンプリート・ゲノミックス・インコーポレーテッド | Method and system for accurate alignment and registration of DNA sequencing arrays |
| KR101323334B1 (en) | 2012-05-14 | 2013-10-29 | 삼성메디슨 주식회사 | Apparatus and method for generating volume image |
| JP2013223674A (en) * | 2012-04-23 | 2013-10-31 | Hitachi Ltd | Image processor, and image processing method |
| JP2015021824A (en) * | 2013-07-18 | 2015-02-02 | 三菱電機株式会社 | Classification and identification filter generator and target classification and identification device |
| JP2015110045A (en) * | 2015-02-17 | 2015-06-18 | 株式会社東芝 | Medical image diagnostic apparatus and medical image processing apparatus |
| JP2016025940A (en) * | 2015-09-29 | 2016-02-12 | キヤノン株式会社 | Image processing apparatus, image processing method, program, and image processing system |
| JP2016047217A (en) * | 2014-08-28 | 2016-04-07 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | Image processing method and apparatus, and program |
| KR20160043470A (en) * | 2014-10-13 | 2016-04-21 | 삼성전자주식회사 | An ultrasonic imaging apparatus and a method for controlling the same |
| JP2016147046A (en) * | 2015-02-12 | 2016-08-18 | 東芝メディカルシステムズ株式会社 | Medical image processing device, medical image processing method, medical image processing system, and medical image processing program |
| CN106725564A (en) * | 2015-11-25 | 2017-05-31 | 东芝医疗系统株式会社 | Image processing apparatus and image processing method |
| EP3192447A1 (en) * | 2016-01-12 | 2017-07-19 | Samsung Medison Co., Ltd. | Ultrasound imaging apparatus and control method for the same |
| JP2017225544A (en) * | 2016-06-21 | 2017-12-28 | 東芝メディカルシステムズ株式会社 | Ultrasonic diagnostic apparatus and medical image processing apparatus |
| JP2017225835A (en) * | 2017-08-09 | 2017-12-28 | キヤノン株式会社 | Image processing device |
| JP2018057428A (en) * | 2016-09-30 | 2018-04-12 | キヤノンメディカルシステムズ株式会社 | Ultrasonic diagnosis apparatus and ultrasonic diagnosis support program |
| JP2018121841A (en) * | 2017-01-31 | 2018-08-09 | キヤノンメディカルシステムズ株式会社 | Ultrasonic diagnostic apparatus and ultrasonic diagnostic support program |
| WO2018230409A1 (en) * | 2017-06-15 | 2018-12-20 | キヤノン株式会社 | Information processing device, information processing method, and program |
| JP2019217264A (en) * | 2018-06-19 | 2019-12-26 | キヤノンメディカルシステムズ株式会社 | Medical image processing apparatus, medical image diagnostic apparatus, and medical image processing method |
| US11369348B2 (en) | 2018-07-31 | 2022-06-28 | Canon Medical Systems Corporation | Ultrasound diagnostic apparatus, image processing apparatus, and image processing method |
| EP3547674B1 (en) * | 2016-11-24 | 2024-06-19 | Nikon Corporation | Image processing device, microscope system, image processing method, and program |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003153877A (en) * | 2001-11-22 | 2003-05-27 | Ge Medical Systems Global Technology Co Llc | Image diagnosis support system and image processing method |
| JP2004509723A (en) * | 2000-09-29 | 2004-04-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image registration system and method with cross entropy optimization |
| JP2004229958A (en) * | 2003-01-31 | 2004-08-19 | Aloka Co Ltd | Ultrasonic image processing device |
| JP2006350724A (en) * | 2005-06-16 | 2006-12-28 | Matsumoto Shika Univ | Image processing method, image processing apparatus, and image processing program |
| JP2007037781A (en) * | 2005-08-03 | 2007-02-15 | Toshiba Corp | Image processing apparatus and image processing system |
| JP2007054636A (en) * | 2005-08-24 | 2007-03-08 | Siemens Corporate Res Inc | Method for positioning a pair of images and program storing apparatus for executing above method by realizing program comprised of command executed by computer |
| JP2007265389A (en) * | 2006-03-03 | 2007-10-11 | Fuji Xerox Co Ltd | Image processing device and image processing program |
| JP2007272568A (en) * | 2006-03-31 | 2007-10-18 | Secom Co Ltd | Biometric information verification device |
-
2007
- 2007-11-05 JP JP2007287846A patent/JP5835680B2/en active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004509723A (en) * | 2000-09-29 | 2004-04-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image registration system and method with cross entropy optimization |
| JP2003153877A (en) * | 2001-11-22 | 2003-05-27 | Ge Medical Systems Global Technology Co Llc | Image diagnosis support system and image processing method |
| JP2004229958A (en) * | 2003-01-31 | 2004-08-19 | Aloka Co Ltd | Ultrasonic image processing device |
| JP2006350724A (en) * | 2005-06-16 | 2006-12-28 | Matsumoto Shika Univ | Image processing method, image processing apparatus, and image processing program |
| JP2007037781A (en) * | 2005-08-03 | 2007-02-15 | Toshiba Corp | Image processing apparatus and image processing system |
| JP2007054636A (en) * | 2005-08-24 | 2007-03-08 | Siemens Corporate Res Inc | Method for positioning a pair of images and program storing apparatus for executing above method by realizing program comprised of command executed by computer |
| JP2007265389A (en) * | 2006-03-03 | 2007-10-11 | Fuji Xerox Co Ltd | Image processing device and image processing program |
| JP2007272568A (en) * | 2006-03-31 | 2007-10-18 | Secom Co Ltd | Biometric information verification device |
Cited By (41)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010274043A (en) * | 2009-06-01 | 2010-12-09 | Toshiba Corp | Ultrasonic diagnostic apparatus and ultrasonic image processing program |
| JP2010284204A (en) * | 2009-06-09 | 2010-12-24 | Toshiba Corp | Medical image display device |
| JP2011031040A (en) * | 2009-07-31 | 2011-02-17 | Medison Co Ltd | System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image |
| US9186062B2 (en) | 2009-08-03 | 2015-11-17 | Samsung Medison Co., Ltd. | System and method for providing 2-dimensional computerized- tomography image corresponding to 2-dimensional ultrasound image |
| JP2011031045A (en) * | 2009-08-03 | 2011-02-17 | Medison Co Ltd | System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image |
| JP2011047863A (en) * | 2009-08-28 | 2011-03-10 | Konica Minolta Sensing Inc | Three-dimensional shape data processing apparatus, three-dimensional shape data processing system, and three-dimensional shape measurement system |
| JP2011078440A (en) * | 2009-10-02 | 2011-04-21 | Ge Medical Systems Global Technology Co Llc | Medical image diagnostic apparatus |
| JP2011125568A (en) * | 2009-12-18 | 2011-06-30 | Canon Inc | Image processor, image processing method, program and image processing system |
| US9179893B2 (en) | 2009-12-18 | 2015-11-10 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, image processing system, and program |
| JP2011142974A (en) * | 2010-01-13 | 2011-07-28 | Fujifilm Corp | Medical image display apparatus, method, and program |
| JP2013527848A (en) * | 2010-04-30 | 2013-07-04 | コンプリート・ゲノミックス・インコーポレーテッド | Method and system for accurate alignment and registration of DNA sequencing arrays |
| JP2012125297A (en) * | 2010-12-13 | 2012-07-05 | Toshiba Corp | Ultrasonic diagnostic apparatus, image processor, and program |
| US9165363B2 (en) | 2011-08-03 | 2015-10-20 | Hitachi Medical Corporation | Image diagnostic device and image correction method |
| WO2013018575A1 (en) * | 2011-08-03 | 2013-02-07 | 株式会社日立メディコ | Image diagnostic device and image correction method |
| JP2013223674A (en) * | 2012-04-23 | 2013-10-31 | Hitachi Ltd | Image processor, and image processing method |
| WO2013161112A1 (en) * | 2012-04-23 | 2013-10-31 | 株式会社日立製作所 | Image processing device and image processing method |
| KR101323334B1 (en) | 2012-05-14 | 2013-10-29 | 삼성메디슨 주식회사 | Apparatus and method for generating volume image |
| US9255990B2 (en) | 2012-05-14 | 2016-02-09 | Samsung Medison Co., Ltd. | Method and apparatus for generating volume image |
| JP2015021824A (en) * | 2013-07-18 | 2015-02-02 | 三菱電機株式会社 | Classification and identification filter generator and target classification and identification device |
| US10405811B2 (en) | 2014-08-28 | 2019-09-10 | General Electric Company | Image processing method and apparatus, and program |
| JP2016047217A (en) * | 2014-08-28 | 2016-04-07 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | Image processing method and apparatus, and program |
| KR20160043470A (en) * | 2014-10-13 | 2016-04-21 | 삼성전자주식회사 | An ultrasonic imaging apparatus and a method for controlling the same |
| KR102329113B1 (en) | 2014-10-13 | 2021-11-19 | 삼성전자주식회사 | An ultrasonic imaging apparatus and a method for controlling the same |
| JP2016147046A (en) * | 2015-02-12 | 2016-08-18 | 東芝メディカルシステムズ株式会社 | Medical image processing device, medical image processing method, medical image processing system, and medical image processing program |
| JP2015110045A (en) * | 2015-02-17 | 2015-06-18 | 株式会社東芝 | Medical image diagnostic apparatus and medical image processing apparatus |
| JP2016025940A (en) * | 2015-09-29 | 2016-02-12 | キヤノン株式会社 | Image processing apparatus, image processing method, program, and image processing system |
| JP2017097836A (en) * | 2015-11-25 | 2017-06-01 | 東芝メディカルシステムズ株式会社 | Image processor, image processing method, and ultrasonic diagnostic apparatus |
| CN106725564A (en) * | 2015-11-25 | 2017-05-31 | 东芝医疗系统株式会社 | Image processing apparatus and image processing method |
| KR20170084435A (en) * | 2016-01-12 | 2017-07-20 | 삼성메디슨 주식회사 | Ultrasound imaging apparatus and control method for the same |
| EP3192447A1 (en) * | 2016-01-12 | 2017-07-19 | Samsung Medison Co., Ltd. | Ultrasound imaging apparatus and control method for the same |
| KR102607013B1 (en) * | 2016-01-12 | 2023-11-29 | 삼성메디슨 주식회사 | Ultrasound imaging apparatus and control method for the same |
| US10799207B2 (en) | 2016-01-12 | 2020-10-13 | Samsung Medison Co., Ltd. | Ultrasound imaging apparatus and control method for the same |
| JP7027029B2 (en) | 2016-06-21 | 2022-03-01 | キヤノンメディカルシステムズ株式会社 | Ultrasound diagnostic equipment and medical image processing equipment |
| JP2017225544A (en) * | 2016-06-21 | 2017-12-28 | 東芝メディカルシステムズ株式会社 | Ultrasonic diagnostic apparatus and medical image processing apparatus |
| JP2018057428A (en) * | 2016-09-30 | 2018-04-12 | キヤノンメディカルシステムズ株式会社 | Ultrasonic diagnosis apparatus and ultrasonic diagnosis support program |
| EP3547674B1 (en) * | 2016-11-24 | 2024-06-19 | Nikon Corporation | Image processing device, microscope system, image processing method, and program |
| JP2018121841A (en) * | 2017-01-31 | 2018-08-09 | キヤノンメディカルシステムズ株式会社 | Ultrasonic diagnostic apparatus and ultrasonic diagnostic support program |
| WO2018230409A1 (en) * | 2017-06-15 | 2018-12-20 | キヤノン株式会社 | Information processing device, information processing method, and program |
| JP2017225835A (en) * | 2017-08-09 | 2017-12-28 | キヤノン株式会社 | Image processing device |
| JP2019217264A (en) * | 2018-06-19 | 2019-12-26 | キヤノンメディカルシステムズ株式会社 | Medical image processing apparatus, medical image diagnostic apparatus, and medical image processing method |
| US11369348B2 (en) | 2018-07-31 | 2022-06-28 | Canon Medical Systems Corporation | Ultrasound diagnostic apparatus, image processing apparatus, and image processing method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5835680B2 (en) | 2015-12-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5835680B2 (en) | Image alignment device | |
| EP3652747B1 (en) | Methods and systems for guidance in cardiac resynchronization therapy | |
| JP6267707B2 (en) | Integrated segmentation in 3D normal and contrast-enhanced ultrasound images | |
| JP4918048B2 (en) | Image processing apparatus and method | |
| JP5538861B2 (en) | Information processing apparatus, information processing method, information processing system, and program | |
| CN104517303B (en) | Medical image-processing apparatus and medical image processing method | |
| CN107194909B (en) | Medical image processing apparatus and medical image processing method | |
| US20240127578A1 (en) | Image processing device, correct answer data generation device, similar image search device, image processing method, and program | |
| JP2020049204A (en) | Method, device and system for dynamic analysis from sequences of volumetric images | |
| JP2011125568A (en) | Image processor, image processing method, program and image processing system | |
| US20120287131A1 (en) | Image processing apparatus and image registration method | |
| US10019804B2 (en) | Medical image processing apparatus, method, and program | |
| JP6383483B2 (en) | Ultrasonic imaging apparatus and image processing apparatus | |
| JP6429958B2 (en) | Image processing apparatus, image processing method, and program | |
| JP7537432B2 (en) | Image-Based Device Tracking | |
| JP5923067B2 (en) | Diagnosis support apparatus, diagnosis support method, and diagnosis support program | |
| US20150043809A1 (en) | Automatic Segmentation of Articulated Structures | |
| JP2005136594A (en) | Image processing apparatus and control method thereof | |
| Morais et al. | Automated segmentation of the atrial region and fossa ovalis towards computer-aided planning of inter-atrial wall interventions | |
| US10299864B1 (en) | Co-localization of multiple internal organs based on images obtained during surgery | |
| JP2011182946A (en) | Medical image display and medical image display method | |
| JP6391544B2 (en) | Medical image processing apparatus, medical image processing method, and program | |
| US20250299348A1 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP2025145532A (en) | Image processing device, image processing method, and image processing program | |
| Shanmuganathan | Two-Step Rigid and Non-Rigid Image Registration for the Alignment of Multi-View Three-Dimensional Echocardiography Sequences |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101025 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120529 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120621 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120703 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120903 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130604 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130805 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131212 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140401 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140701 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140709 |
|
| A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20140808 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20141226 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20150216 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150218 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150831 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151023 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5835680 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |