JP2008093213A - Medical image processing apparatus and medical image processing method - Google Patents
Medical image processing apparatus and medical image processing method Download PDFInfo
- Publication number
- JP2008093213A JP2008093213A JP2006279236A JP2006279236A JP2008093213A JP 2008093213 A JP2008093213 A JP 2008093213A JP 2006279236 A JP2006279236 A JP 2006279236A JP 2006279236 A JP2006279236 A JP 2006279236A JP 2008093213 A JP2008093213 A JP 2008093213A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- dimensional model
- edge
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】2次元画像から3次元画像を精度よく構築し、局所的な隆起形状を有する病変を検出する場合の検出精度を向上させる。
【解決手段】本実施例の内視鏡システムは、医療用観察装置と、医療用画像処理装置と、モニタとを有して要部が構成されている。医療用画像処理装置のCPU22は、3次元モデル推定部22a、検出対象領域設定部22b、形状特徴量算出手段としての形状特徴量算出部22c、モデル補正部22d、3次元形状検出部22e、ポリープ決定部22fの各機能部からなる。
【選択図】図2An object of the present invention is to accurately construct a three-dimensional image from a two-dimensional image and improve detection accuracy when detecting a lesion having a local raised shape.
An endoscope system according to the present embodiment includes a medical observation apparatus, a medical image processing apparatus, and a monitor, and a main part is configured. The CPU 22 of the medical image processing apparatus includes a three-dimensional model estimation unit 22a, a detection target region setting unit 22b, a shape feature amount calculation unit 22c as a shape feature amount calculation unit, a model correction unit 22d, a three-dimensional shape detection unit 22e, and a polyp. It consists of each function part of the determination part 22f.
[Selection] Figure 2
Description
本発明は、医療用画像処理装置及び医療用画像処理方法に関し、特に、生体組織の像の2次元画像データに基づき、該生体組織の3次元モデルデータを推定する医療用画像処理装置及び医療用画像処理方法に関する。 The present invention relates to a medical image processing apparatus and a medical image processing method, and in particular, a medical image processing apparatus and a medical use for estimating three-dimensional model data of a living tissue based on two-dimensional image data of a living tissue image. The present invention relates to an image processing method.
従来、医療分野において、X線診断装置、CT、MRI、超音波観測装置及び内視鏡装置等の画像撮像機器を用いた観察が広く行われている。このような画像撮像機器のうち、内視鏡装置は、例えば、体腔内に挿入可能な挿入部を有し、該挿入部の先端部に配置された対物光学系により結像した体腔内の像を固体撮像素子等の撮像手段により撮像して撮像信号として出力し、該撮像信号に基づいてモニタ等の表示手段に体腔内の像の画像を表示するという作用及び構成を有する。そして、ユーザは、モニタ等の表示手段に表示された体腔内の像の画像に基づき、例えば、体腔内における臓器等の観察を行う。 Conventionally, in the medical field, observation using an image pickup device such as an X-ray diagnostic apparatus, CT, MRI, ultrasonic observation apparatus, and endoscope apparatus has been widely performed. Among such imaging devices, an endoscope apparatus has an insertion part that can be inserted into a body cavity, for example, and an image inside the body cavity formed by an objective optical system arranged at the distal end of the insertion part Is picked up by an image pickup means such as a solid-state image pickup device and output as an image pickup signal, and based on the image pickup signal, an image of the image in the body cavity is displayed on a display means such as a monitor. Then, based on the image of the image in the body cavity displayed on the display unit such as a monitor, the user observes an organ or the like in the body cavity, for example.
また、内視鏡装置は、消化管粘膜の像を直接的に撮像することが可能である。そのため、ユーザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な構造等を総合的に観察することができる。 In addition, the endoscope apparatus can directly capture an image of the digestive tract mucosa. Therefore, the user can comprehensively observe, for example, the color tone of the mucous membrane, the shape of the lesion, and the fine structure of the mucosal surface.
さらに、内視鏡装置は、局所的な隆起形状を有する病変が存在する所定の画像を検出可能な画像処理方法として、例えば、特開2005−192880号公報(特許文献1)等に記載されている画像処理方法を用いることにより、ポリープ等の病変部位が含まれる画像を検出することもまた可能である。 Furthermore, the endoscope apparatus is described in, for example, Japanese Patent Application Laid-Open No. 2005-192880 (Patent Document 1) as an image processing method capable of detecting a predetermined image in which a lesion having a local raised shape exists. It is also possible to detect an image including a lesion site such as a polyp by using the existing image processing method.
この特許文献1に記載されている画像処理方法は、入力された画像が有する輪郭を抽出するとともに、該輪郭の形状に基づき、該画像における局所的な隆起形状を有する病変を検出することができる。
The image processing method described in
また、従来、大腸ポリープ検出処理においては、2次元画像から3次元データを推定し、3次元特徴量(Shape Index/Curvedness)を用いて大腸ポリープを検出している(非特許文献1)。この3次元特徴量は、参照点における偏微分係数を3次元データから算出して、偏微分係数を使用して算出することにより実現する。そして、大腸ポリープ検出処理では、3次元特徴量を閾値処理することにより、ポリープ候補を検出する。
しかしながら、従来より3次元データの推定手法として使用される”Shape From Shading“法は、2次元画像でエッジとして画像化される部分では、精度が悪化するといった問題がある。 However, the “Shape From Shading” method, which has been conventionally used as a method for estimating three-dimensional data, has a problem that accuracy is deteriorated in a portion imaged as an edge in a two-dimensional image.
詳細には、ポリープ等の3次元像を内視鏡にて撮像する場合、3次元像上の曲面の境や可視範囲とオクルージョン(可視隠蔽or不可視)範囲との境に、境界として、エッジ領域が発生する。2次元画像から3次元データを推定する”Shape From Shading“法は、2次元画像の画素値を元にして3次元位置を推定する手法である。このエッジ領域の画素値は、隣接する領域の画素値と比べ低い値となるため、”Shape From Shading“法では、このエッジ領域に「溝(凹)」が存在するかのごとく、3次元位置の推定値を算出してしまう。 Specifically, when a three-dimensional image such as a polyp is picked up by an endoscope, an edge region is defined as a boundary at the boundary between a curved surface on the three-dimensional image or a boundary between a visible range and an occlusion (visible hiding or invisible) range. Will occur. The “Shape From Shading” method for estimating three-dimensional data from a two-dimensional image is a method for estimating a three-dimensional position based on pixel values of the two-dimensional image. Since the pixel value of the edge region is lower than the pixel value of the adjacent region, the “Shape From Shading” method uses a three-dimensional position as if a “groove (concave)” exists in the edge region. The estimated value is calculated.
例えば、図26に示すようなポリープ500を撮像対象とする大腸内視鏡画像に対して、”Shape From Shading“法により3次元データ点の座標を推定し、3次元データ点から3次元サーフェイスを生成する場合、理想的には、図27に示すような3次元画像を生成すべきである。
For example, with respect to a large intestine endoscopic image having a
しかし、平面x=x0(図26における点線位置)にて実際に”Shape From Shading“法により3次元サーフェイスを切り出す時の断面は、図28に示すように、2次元画像データのエッジ領域部分にて、あらかも「溝(凹)」が存在するかのごとく推定されてしまう。腸管においては、このような「溝(凹)」が存在することがないため、従来の”Shape From Shading“法による推定では、存在しない「溝(凹)」を3次元データとして推定してしまうため、3次元画像の推定の精度が悪化するといった問題があり、3次元画像推定を利用した従来の大腸ポリープ検出処理は、検出精度の低下及び誤検出の発生といった課題を有している。 However, the cross section when the three-dimensional surface is actually cut out by the “Shape From Shading” method at the plane x = x0 (dotted line position in FIG. 26) is shown in the edge region portion of the two-dimensional image data as shown in FIG. Thus, it is estimated as if “grooves (concaves)” exist. In the intestinal tract, such “grooves (concaves)” do not exist. Therefore, the conventional “Shape From Shading” method estimates nonexistent “grooves (concaves)” as three-dimensional data. Therefore, there is a problem that the accuracy of estimation of the three-dimensional image is deteriorated, and the conventional colon polyp detection processing using the three-dimensional image estimation has problems such as a decrease in detection accuracy and occurrence of erroneous detection.
本発明は、上記事情に鑑みてなされたものであり、2次元画像から3次元画像を精度よく構築し、局所的な隆起形状を有する病変を検出する場合の検出精度を向上させることのできる医療用画像処理装置及び医療用画像処理方法を提供することを目的としている。 The present invention has been made in view of the above circumstances, and can accurately construct a three-dimensional image from a two-dimensional image and improve the detection accuracy when detecting a lesion having a local raised shape. An object is to provide a medical image processing apparatus and a medical image processing method.
本発明の医療用画像処理装置は、
医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定手段と、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出手段と、
前記画像境界線の線幅を算出する線幅算出手段と、
前記線幅に基づき、前記3次元モデル推定手段における、前記画像境界線の3次元モデルの推定結果を補正する補正手段と、
とを備えて構成される。
The medical image processing apparatus of the present invention is
Three-dimensional model estimation means for estimating a three-dimensional model of the living tissue from a two-dimensional image of the image of the living tissue in the body cavity input from the medical imaging device;
Image boundary detection means for detecting an image boundary of an image area constituting the two-dimensional image,
A line width calculating means for calculating a line width of the image boundary line;
Correction means for correcting the estimation result of the three-dimensional model of the image boundary line in the three-dimensional model estimation means based on the line width;
And is configured.
また、本発明の医療用画像処理方法は、
医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定ステップと、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出ステップと、
前記画像境界線の線幅を算出する線幅算出ステップと、
前記線幅に基づき、前記3次元モデル推定ステップにおける、前記画像境界線の3次元モデルの推定結果を補正する補正ステップと、
とを備えて構成される。
Moreover, the medical image processing method of the present invention includes:
A three-dimensional model estimation step for estimating a three-dimensional model of the living tissue from a two-dimensional image of the image of the living tissue in the body cavity input from the medical imaging device;
An image boundary detection step for detecting an image boundary of an image region constituting the two-dimensional image image;
A line width calculating step of calculating a line width of the image boundary line;
A correction step of correcting an estimation result of the three-dimensional model of the image boundary line in the three-dimensional model estimation step based on the line width;
And is configured.
本発明によれば、2次元画像から3次元画像を精度よく構築し、局所的な隆起形状を有する病変を検出する場合の検出精度を向上させることができるという効果がある。 According to the present invention, there is an effect that a three-dimensional image is accurately constructed from a two-dimensional image, and the detection accuracy in detecting a lesion having a local raised shape can be improved.
以下、図面を参照しながら本発明の実施例について述べる。 Embodiments of the present invention will be described below with reference to the drawings.
図1ないし図16は本発明の実施例1に係わり、図1は医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図、図2は図1のCPUの機能構成を示す機能ブロック図、図3は図1のハードディスクの格納情報構成を示す図、図4は図2のCPUの処理の流れを示すフローチャート、図5は図4の3次元モデルデータの補正処理の流れを示すフローチャート、図6は図1の処理を説明する第1の図、図7は図1の処理を説明する第2の図、図8は図1の処理を説明する第3の図、図9は図1の処理を説明する第4の図、図10は図5のエッジ領域としてエッジ端点間の3次元点列データの補正処理の流れを示すフローチャート、図11は図1の処理を説明する第5の図、図12は図1の処理を説明する第6の図、図13は図10の第1の変形例の処理の流れを示すフローチャート、図14は図10の第2の変形例の処理の流れを示すフローチャート、図15は図14の処理を説明する第1の図、図16は図14の処理を説明する第2の図である。 1 to 16 relate to a first embodiment of the present invention, FIG. 1 is a diagram showing an example of the overall configuration of an endoscope system in which a medical image processing apparatus is used, and FIG. 2 is a functional configuration of the CPU of FIG. FIG. 3 is a diagram showing a storage information configuration of the hard disk in FIG. 1, FIG. 4 is a flowchart showing a processing flow of the CPU in FIG. 2, and FIG. 5 is a flow of correction processing of the three-dimensional model data in FIG. 6 is a first diagram for explaining the processing of FIG. 1, FIG. 7 is a second diagram for explaining the processing of FIG. 1, and FIG. 8 is a third diagram for explaining the processing of FIG. 9 is a fourth diagram for explaining the processing of FIG. 1, FIG. 10 is a flowchart showing the flow of correction processing of three-dimensional point sequence data between edge end points as the edge region of FIG. 5, and FIG. 11 is for explaining the processing of FIG. FIG. 12 is a sixth diagram illustrating the process of FIG. 1, and FIG. FIG. 14 is a flowchart showing the processing flow of the second modification of FIG. 10, FIG. 15 is a first diagram for explaining the processing of FIG. 16 is a second diagram for explaining the processing of FIG.
図1に示すように、本実施例の内視鏡システム1は、医療用観察装置2と、医療用画像処理装置3と、モニタ4とを有して要部が構成されている。
As shown in FIG. 1, the
前記医療用観察装置2は、被写体を撮像するとともに、該被写体の像の2次元画像を出力する観察装置である。また、医療用画像処理装置3は、パーソナルコンピュータ等により構成され、医療用観察装置2から出力される2次元画像の映像信号に対して画像処理を行うと共に、該画像処理を行った後の映像信号を画像信号として出力する画像処理装置である。さらにモニタ4は、医療用画像処理装置3から出力される画像信号に基づく画像を表示する表示装置である。
The
前記医療用観察装置2は、内視鏡6と、光源装置7と、カメラコントロールユニット(以降、CCUと略記する)8と、モニタ9とを有して要部が構成されている。
The
前記内視鏡6は、被検体の体腔内に挿入されると共に、該体腔内に存在する生体組織等の被写体を撮像して撮像信号として出力するものである。前記光源装置7は、内視鏡6により撮像される被写体を照明するための照明光を供給するものである。前記CCU8は、内視鏡6に対する各種制御を行うと共に、内視鏡6から出力される撮像信号に対して信号処理を行い、2次元画像の映像信号として出力するものである。前記モニタ9は、CCU8から出力される2次元画像の映像信号に基づき、内視鏡6により撮像された被写体の像を画像表示するものである。
The
前記内視鏡6は、体腔内に挿入される挿入部11と、挿入部11の基端側に設けられた操作部12とを有して構成されている。また、挿入部11内の基端側から、挿入部11内の先端側の先端部14にかけての部分には、光源装置7から供給される照明光を伝送するためのライトガイド13が挿通されている。
The
前記ライトガイド13は、先端側が内視鏡6の先端部14に配置されると共に、後端側が前記光源装置7に接続される。
The
ライトガイド13がこのような構成を有することにより、光源装置7から供給される照明光は、ライトガイド13により伝送された後、挿入部11の先端部14の先端面に設けられた、図示しない照明窓から出射される。そして、図示しない照明窓から照明光が出射されることにより、被写体としての生体組織等が照明される。
Since the
内視鏡6の先端部14には、図示しない照明窓に隣接する図示しない観察窓に取り付けられた対物光学系15と、対物光学系15の結像位置に配置され、例えば、CCD(電荷結合素子)等により構成される撮像素子16とを有する撮像部17が設けられている。このような構成により、対物光学系15により結像された被写体の像は、撮像素子16により撮像された後、撮像信号として出力される。なお、撮像素子16は、CCDに限らず、例えばC−MOSセンサにより構成してもよい。
At the
前記撮像素子16は、信号線を介してCCU8に接続されている。そして、撮像素子16は、CCU8から出力される駆動信号に基づいて駆動すると共に、CCU8に対し、撮像した被写体の像に応じた撮像信号を出力する。
The
また、CCU8に入力された撮像信号は、CCU8の内部に設けられた図示しない信号処理回路において信号処理されることにより、2次元画像の映像信号として変換されて出力される。CCU8から出力された2次元画像の映像信号は、モニタ9及び医療用画像処理装置3に対して出力される。これにより、モニタ9は、CCU8から出力される映像信号に基づく被写体の像を2次元画像として表示する。
In addition, the image pickup signal input to the
医療用画像処理装置3は、医療用観察装置2から出力される2次元画像の映像信号に対し、A/D変換を行って出力する画像入力部21と、画像入力部21から出力される映像信号に対して画像処理を行う、中央演算処理装置としてのCPU22と、該画像処理に関する処理プログラムが書き込まれた処理プログラム記憶部23と、画像入力部21から出力される映像信号等を記憶する画像記憶部24と、CPU22が行う画像処理における演算結果等を記憶する解析情報記憶部25とを有して構成される。
The medical
また、医療用画像処理装置3は、記憶装置インターフェース(I/F)26と、記憶装置I/F26を介してCPU22の画像処理結果としての画像データ、CPU22が画像処理にて使用する各種データ等を記憶する、記憶装置としてのハードディスク27と、CPU22の画像処理結果としての画像データに基づき、該画像データをモニタ4に画像表示するための表示処理を行うと共に、該表示処理を行った後の画像データを画像信号として出力する表示処理部28と、CPU22が行う画像処理におけるパラメータ及び医療用画像処理装置3に対する操作指示をユーザが入力可能な、キーボードあるいはマウス等のポインティングデバイス等により構成される入力操作部29とを有する。そして、モニタ4は、表示処理部28から出力される画像信号に基づく画像を表示する。
The medical
なお、医療用画像処理装置3の画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、解析情報記憶部25、記憶装置インターフェース26、表示処理部28及び入力操作部29のそれぞれは、データバス30を介して相互に接続されている。
Each of the
図2に示すように、CPU22は、3次元モデル推定手段としての3次元モデル推定部22a、検出対象領域設定部22b、形状特徴量算出部22c、線幅算出手段及び補正手段としてのモデル補正部22d、3次元形状検出部22e、ポリープ決定部22fの各機能部からなる。
As shown in FIG. 2, the
なお、本実施例では、これら機能部は、CPU22が行うソフトウエアにて実現される。また、これら機能部の詳細な作用については後述する。
In the present embodiment, these functional units are realized by software executed by the
また、図3に示すように、ハードディスク27は、CPU22が行う各処理により生成される各種データを記憶する、複数の格納領域を有している。具体的にはハードディスク27は、エッジ画像格納領域27a,エッジ細線化画像格納領域27b,3次元点列データ格納領域27c,対応テーブル格納領域27d,検出病変部格納領域27eを有している。これら各格納領域に格納されているデータの詳細は、後述する。
Further, as shown in FIG. 3, the
次に、このように構成された、本実施例の内視鏡システム1の作用について、図4、図5及び図10のフローチャートを用い、図6〜図9及び図11、図12を参照して説明する。
Next, regarding the operation of the
まず、ユーザは、内視鏡システム1が有する各部の電源を投入した後、被検体の体腔内の、例えば大腸内に内視鏡6の挿入部11を挿入する。
First, after the user turns on the power of each part of the
そして、ユーザにより挿入部11が被検体の大腸内に挿入されると、例えば、該大腸内に存在する生体組織等である被写体、例えば図26に示したポリープ500の像が、先端部14に設けられた撮像部17により撮像される。そして、撮像部17により撮像された被写体の像は、撮像信号としてCCU8に対して出力される。
When the
CCU8は、図示しない信号処理回路において、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより、該撮像信号を2次元画像の映像信号として変換して出力する。そして、モニタ9は、CCU8から出力される映像信号に基づき、撮像部17により撮像された被写体の像を2次元画像として表示する。また、CCU8は、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより得られた2次元画像の映像信号を、医療用画像処理装置3に対して出力する。
The
医療用画像処理装置3に対して出力された2次元画像の映像信号は、画像入力部21においてA/D変換された後、CPU22に入力される。
The two-dimensional image video signal output to the medical
そして、図4に示すように、CPU22の3次元モデル推定部22aは、ステップS1にて画像入力部21から出力される2次元画像に対し、例えば、“Shape From Shading“法等を用い、該2次元画像の輝度情報等に基づく幾何学的な変換等の処理を施すことにより、該2次元画像に応じた3次元モデルを推定する。このとき、3次元モデル推定部22aは、大腸の腸管表面を示す3次元データ点列と、2次元画像データとを対応させた対応テーブルを生成し、ハードディスク27の対応テーブル格納領域27dに格納する。
Then, as shown in FIG. 4, the three-dimensional
そして、CPU22のモデル補正部22dにより、ステップS2にて推定した3次元モデルに対して、後述するモデル補正処理を施し、補正した3次元モデルの各データ点の座標を記憶装置I/F26を介してハードディスク27の3次元点列データ格納領域27cに格納する。
Then, the
次に、CPU22の検出対象領域設定部22bは、ステップS3にて画像入力部21から出力される2次元画像の色調変化と、ステップS2の処理により補正した3次元モデルの隆起性変化とを検出することにより、該3次元モデルにおける隆起形状を有する病変を検出するための処理の適用対象となる領域としての、検出対象領域である対象領域を設定する。
Next, the detection target
具体的には、CPU22の検出対象領域設定部22bは、例えば、画像入力部21から出力される2次元画像を、R(赤)画像、G(緑)画像及びB(青)画像の各プレーン画像に分離した後、該R画像に応じて推定した3次元モデルのデータに基づいて隆起性変化を検出するとともに、該R画像及びG画像の色度に基づいて色調変化を検出する。そして、CPU22の検出対象領域設定部22bは、前記隆起性変化の検出結果及び前記色調変化の検出結果に基づき、前記隆起性変化及び前記色調変化の両方が検出された領域を、前記対象領域として設定する。
Specifically, the detection target
その後、CPU22の形状特徴量算出部22cは、ステップS4にて対象領域の局所偏微分係数を算出する。具体的には、CPU22の形状特徴量算出部22cは、算出された3次元形状に対して、注目する3次元位置(x、y、z)を含む局所領域(曲面)におけるそのR画素値fにおける1階偏微分係数fx、fy、fz、及び2階偏微分係数fxx,fyy,fzz,fxy,fyz,fxzを算出する。
Thereafter, the shape feature
さらに、CPU22の形状特徴量算出部22cは、ステップS5にて3次元モデルの処理対象領域に存在する各データ点に対し、(3次元形状)の形状特徴量として、局所偏微分係数に基づき、Shape Index値及びCurvedness値を算出する処理を行う。
Further, the shape feature
すなわち、これらの局所偏微分係数を用いて、CPU22の形状特徴量算出部22cは、ガウス曲率K,平均曲率Hを算出する。
That is, using these local partial differential coefficients, the shape feature
一方、曲面の主曲率k1,k2(k1≧k2)は、ガウス曲率Kと、平均曲率Hを用いて
k1=H+(H2−K)1/2 k2=H−(H2−K)1/2 (1)
と表される。
On the other hand, the principal curvatures k1 and k2 (k1 ≧ k2) of the curved surface are expressed as follows using the Gaussian curvature K and the average curvature H: k1 = H + (H 2 −K) 1/2 k2 = H− (H 2 −K) 1 / 2 (1)
It is expressed.
また、この場合における曲面形状を表す特徴量であるShape IndexSI及びCurvednessCVは、それぞれ
SI=1/2−(1/π)arc tan[(k1+k2)/(k1−k2)] (2)
CV=((k12+k22)/2)1/2 (3)
となる。
In addition, Shape Index SI and Curvedness CV, which are feature quantities representing the curved surface shape in this case, are SI = 1 / 2− (1 / π) arc tan [(k1 + k2) / (k1−k2)] (2)
CV = ((k1 2 + k2 2 ) / 2) 1/2 (3)
It becomes.
CPU22の形状特徴量算出部22cは、このようにして、3次元の各曲面におけるShape IndexSI及びCurvednessCVを3次元形状情報として算出し、解析情報記憶部25に格納する。
In this way, the shape feature
前述したShape Index値は、3次元モデルが有する各データ点における凹凸の状態を示すための値であり、0以上1以下の範囲内の数値として示される。具体的には、3次元モデル内に存在する個々のデータ点において、Shape Index値が0に近い場合には凹型形状の存在が示唆され、また、Shape Index値が1に近い場合には凸型形状の存在が示唆される。 The above-described Shape Index value is a value for indicating the state of unevenness at each data point of the three-dimensional model, and is indicated as a numerical value in the range of 0 to 1. Specifically, at each data point existing in the three-dimensional model, when the Shape Index value is close to 0, the presence of a concave shape is suggested, and when the Shape Index value is close to 1, the convex shape The existence of a shape is suggested.
また、前述したCurvedness値は、3次元モデルが有する各データ点における曲率を示すための値である。具体的には、3次元モデル内に存在する個々のデータ点において、Curvedness値が小さければ小さい程鋭く曲がった曲面の存在が示唆され、また、Curvedness値が大きければ大きい程鈍く曲がった曲面の存在が示唆される。 The above-mentioned Curvedness value is a value for indicating the curvature at each data point of the three-dimensional model. Specifically, at each data point in the 3D model, the smaller the Curvedness value, the more sharply curved surface is suggested, and the larger the Curvedness value, the more gently curved surface. Is suggested.
次に、CPU22の3次元形状検出部22dは、ステップS6にて3次元モデルの対象領域に存在する各データ点において、Shape Index値及びCurvedness値の各値と、予め設定されている所定の閾値T1,T2との比較処理を行うことにより、該各データ点のうち、隆起形状を有するデータ群として検出する。具体的には、CPU22は、3次元モデルの処理対象領域に存在する各データ点のうち、例えば、Shape Index値が閾値T1より大きく、かつ、Curvedness値が閾値T2より大きい複数のデータ点を、隆起形状を有するデータ群として検出する。
Next, in step S6, the three-dimensional
そして、CPU22のポリープ決定部22fは、ステップS7にて3次元モデルにおいて隆起形状を有するデータ群として検出した複数のデータ点各々が、ポリープ等の病変に由来する隆起形状に該当するデータ点であるかを判別する隆起形状判別処理を行う。
Then, the
その後、CPU22のポリープ決定部22fは、ステップS8にて病変に由来する隆起形状に該当するデータ点からなるデータ群を有する領域をポリープ領域として決定し、病変領域であるポリープを検出する。
Thereafter, the
そして、CPU22は、その検出結果を、例えば図1のハードディスク27の検出病変部格納領域27eに検出対象の内視鏡画像と関連付けて格納すると共に、表示処理部28を経てモニタ4に、例えば検出対象の内視鏡画像と並べて表示する。
Then, the
これにより、モニタ4には、ポリープ等の病変に由来する隆起形状が存在する位置をユーザが容易に認識可能であるような、被写体の3次元モデルが画像表示される。
As a result, a three-dimensional model of the subject is displayed on the
次に、上記のステップS2における、モデル補正部22dによるモデル補正処理について説明する。図5に示すように、CPU22のモデル補正部22dは、ステップS21にて、入力された2次元画像に対してエッジ抽出処理を実施しエッジ画像を生成し、ハードディスク27のエッジ画像格納領域27aに格納する。また、モデル補正部22dは、ステップS21にて、生成したエッジ画像に対して細線化処理を施しエッジ細線化画像を生成し、ハードディスク27のエッジ細線化画像格納領域27bに格納する。
Next, the model correction process by the
なお、2次元のエッジ画像が図6とすると、エッジ細線化画像は、細線化処理によりエッジ画像の各エッジ領域を線幅1画素に細線化した画像となる。 If the two-dimensional edge image is shown in FIG. 6, the edge thinned image is an image obtained by thinning each edge region of the edge image to a line width of 1 pixel by thinning processing.
次に、CPU22のモデル補正部22dは、ステップS23にてパラメータi,jをそれぞれ1にセットする。続いて、CPU22のモデル補正部22dは、ステップS24にてエッジ細線化画像の第i番目のエッジ線Liを取得し、ステップS25にて第i番目エッジ線Li上の第j番目の(注目点である)エッジ点Pi,jを取得する。
Next, the
そして、CPU22のモデル補正部22dは、ステップS26にて第j番目エッジ点Pi,jを通る、第i番目エッジ線Liに直交するエッジ直交線Hi,jを生成する。続いて、CPU22のモデル補正部22dは、ステップS27にてエッジ直交線Hi,j上の2次元画像上の各点(xi,j,yi,j,zi,j)に対応する3次元データ点列を対応テーブルから取得する。なお、この対応テーブルは、上述したように、ステップS1にてCPU22の3次元モデル推定部22aによりハードディスク27の対応テーブル格納領域27dに格納されている。
Then, the
そして、CPU22のモデル補正部22dは、ステップS28にてエッジ直交線Hi,j上のエッジの端点Ai,j,Bi,j(図6の拡大図参照)を決定する。具体的には、本実施例では、図7に示すように、2次元画像上の各点に対応する画素値を取得し、その画素値が所定の閾値tよりも小さい値をエッジ上の点とする判定処理を用いて、上記の細線化したエッジ上の各点から双方向に1点づつ判定を行うことにより、エッジの端点Ai,j,Bi,jを求める。
Then, the
次に、CPU22のモデル補正部22dは、ステップS29にてエッジの端点Ai,j,Bi,j間の距離Di,jを求める。そして、CPU22のモデル補正部22dは、ステップS30にてエッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0よりも小さい(Di,j<D0)かどうか判定する。
Next, the
エッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0よりも小さい(Di,j<D0)と判定すると、CPU22のモデル補正部22dはステップS31にてエッジの端点Ai,j,Bi,j間はエッジ領域として表現される部分と判断して3次元点列データの補正を行い、ステップS33に進む。なお、ステップS31における3次元点列データの補正処理の詳細は後述する。
If it is determined that the distance Di, j between the edge endpoints Ai, j, Bi, j is smaller than the predetermined value D0 (Di, j <D0), the
また、エッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0以上と判定すると、CPU22のモデル補正部22dはステップS32にてエッジの端点Ai,j,Bi,j間はオクルージョン領域として表現される部分と判断して、エッジの端点Ai,j,Bi,j間の3次元点列データを消去し、ステップS33に進む。具体的には、モデル補正部22dは、ステップS32において、図8に示すように、エッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0以上と判定すると、腸管表面を示す3次元点列データ線上から、エッジの端点Ai,j,Bi,j間の3次元点列データを、図9に示すように消去して、オクルージョン領域として補正した3次元点列データ線を生成する。
If the distance Di, j between the edge points Ai, j, Bi, j is determined to be equal to or greater than the predetermined value D0, the
そして、CPU22のモデル補正部22dはステップS33にてパラメータjがエッジ線Li上のすべての点数Nj未満かどうか判断し、パラメータjがエッジ線Li上のすべての点数Nj未満の場合には、ステップS34にてパラメータjをインクリメントしてステップS25に戻り、エッジ線Li上のすべての点について、上記ステップS25〜S34を繰り返す。
Then, the
エッジ線Li上のすべての点について上記ステップS25〜S33が実施されると、CPU22のモデル補正部22dはステップS35にてパラメータiがすべてのエッジ線数Ni未満かどうか判断し、パラメータiがすべてのエッジ線数Ni未満の場合には、ステップS36にてパラメータiをインクリメントしてステップS24に戻り、すべてのエッジ線について、上記ステップS24〜S36を繰り返す。
When the above steps S25 to S33 are performed for all points on the edge line Li, the
次に、上記ステップS31における3次元点列データの補正処理について説明する。この3次元点列データの補正処理では、CPU22のモデル補正部22dは、図10に示すように、ステップS41にて3次元点列データを有する3次元空間上に、(注目点である)エッジ点Pi,jを中心とするN×N×Nの立方領域を形成し、このN×N×Nの立方領域内に含まれる3次元点列データの座標の平均値を算出する。そして、CPU22のモデル補正部22dは、ステップS42にて、算出した平均値によりエッジ部分の点列データ線上の3次元点列データの座標データを平滑化する。
Next, the three-dimensional point sequence data correction process in step S31 will be described. In this three-dimensional point sequence data correction process, as shown in FIG. 10, the
図10の処理を具体的に説明すると、例えば、図11に示すように、N=5として(注目点である)エッジ点Pi,jを中心とする5×5×5の立方領域を、3次元点列データを有する3次元空間上に形成する。そして、この5×5×5の立方領域内に含まれる3次元点列データの座標の平均値を算出し、算出した平均値によりエッジ部分の点列データ線上の3次元点列データの座標データを平滑化することで、図12に示すような補正後の点列データ線を得ることができる。 The processing in FIG. 10 will be described in detail. For example, as shown in FIG. 11, N = 5 and a 3 × 5 × 5 cubic region centered on the edge point Pi, j (which is the point of interest) is 3 It is formed on a three-dimensional space having dimension point sequence data. Then, the average value of the coordinates of the three-dimensional point sequence data included in the 5 × 5 × 5 cubic region is calculated, and the coordinate data of the three-dimensional point sequence data on the point sequence data line of the edge portion is calculated by the calculated average value. By smoothing, it is possible to obtain a corrected point sequence data line as shown in FIG.
なお、3次元点列データの補正処理は、図10の処理に限らず、以下の変形例1、2の3次元点列データの補正処理を実施してもよい。
The 3D point sequence data correction process is not limited to the process shown in FIG. 10, and the 3D point sequence data correction process of the following
(変形例1)
この変形例1の3次元点列データの補正処理では、CPU22のモデル補正部22dは、図13に示すように、ステップS41aにて、N=5として(注目点である)エッジ点Pi,jを中心とする5×5の正方領域を、画像入力部21から出力される2次元画像上に形成する。そして、CPU22のモデル補正部22dは、ステップS42aにて、この5×5の正方領域内に含まれる2次元画像の座標点のそれぞれの画素値(濃淡値)の平均値を算出する。
(Modification 1)
In the three-dimensional point sequence data correction process according to the first modification, the
この変形例の場合、すべての平均(平滑化)処理が行われた後で、エッジ領域について3次元点列データの再計算を行い、3次元点列データの更新を行う。 In the case of this modification, after all the averaging (smoothing) processing is performed, the 3D point sequence data is recalculated for the edge region, and the 3D point sequence data is updated.
(変形例2)
この変形例2の3次元点列データの補正処理では、CPU22のモデル補正部22dは、図14に示すように、ステップS41bにて、エッジの端点Ai,j,Bi,jから、エッジの端点Ai,j,Bi,jをそれぞれ含む連続するN点(ただし、(注目点である)エッジ点Pi,jから離れる方向のN点)の座標を取得し直線に近似し、近似した2直線をx=0平面に投影し、投影した2つの近似直線の交点を求める。具体的には、例えばN =3としたとき、図15に示すように、エッジの端点Ai,j,Bi,jをそれぞれ含む直線に近似し、x=0平面に投影した2つの近似直線の交点Qi,jを求める。
(Modification 2)
In the correction process of the three-dimensional point sequence data of the second modification, the
続いて、CPU22のモデル補正部22dは、ステップS42bにて、エッジ領域の各点の例えばz座標と、交点Qi,jの例えばz座標とを比較し、その大小関係に応じて補正に使用する近似直線を決定する。具体的には、図16に示すように、エッジ領域の各点のy座標が交点Qi,jのy座標より小さい場合には、交点Qi,jのy座標より小さい座標値を使用して近似した近似直線(図16の場合、エッジの端点Ai,j側の近似直線)を使用し、逆にエッジ領域の各点のy座標が交点Qi,jのy座標より大きい場合には、交点Qi,jのy座標より大きい座標値を使用して近似した近似直線(図16の場合、エッジの端点Bi,j側の近似直線)を使用する。そして、使用する近似直線を決定した後、補正対象となるエッジ領域の点のy座標を近似直線に代入する(置き換える)こととにより補正点を決定する。
Subsequently, in step S42b, the
上述したように本実施例及び変形例1、2では、3次元データの着目点における位置(Z座標)を用いて閾値を補正するため、対象の反射/散乱特性や対象への2次光による影響を除外した閾値をポリープ検出処理に使用でき、ポリープ候補の検出精度を向上させることができる。よって、ユーザに対して、大腸内視鏡検査においてポリープ候補発見率の向上を促すことが可能となる。 As described above, in the present embodiment and the first and second modifications, the threshold value is corrected using the position (Z coordinate) at the point of interest in the three-dimensional data. The threshold value excluding the influence can be used for the polyp detection process, and the detection accuracy of the polyp candidate can be improved. Therefore, it is possible to prompt the user to improve the polyp candidate discovery rate in the colonoscopy.
図17ないし図25は本発明の実施例2に係わり、図17はハードディスクの格納情報構成を示す図、図18は実施例2を説明する第1の図、図19は実施例2を説明する第2の図、図20は実施例2を説明する第3の図、図21は実施例2に係るCPUの処理の流れを示すフローチャート、図22は図21の3次元モデルデータの補正処理の流れを示すフローチャート、図23は図22の処理を説明する第1の図、図24は図22の処理を説明する第2の図、図25は図22の処理を説明する第3の図である。 17 to 25 relate to the second embodiment of the present invention, FIG. 17 is a diagram showing a storage information configuration of the hard disk, FIG. 18 is a first diagram for explaining the second embodiment, and FIG. 19 is for explaining the second embodiment. FIG. 2 is a third diagram for explaining the second embodiment, FIG. 21 is a flowchart showing the processing flow of the CPU according to the second embodiment, and FIG. 22 is a flowchart of the three-dimensional model data correction process of FIG. FIG. 23 is a first diagram for explaining the processing of FIG. 22, FIG. 24 is a second diagram for explaining the processing of FIG. 22, and FIG. 25 is a third diagram for explaining the processing of FIG. is there.
本実施例の構成は実施例1とほとんど同じであるので、異なる点のみ説明する。 Since the configuration of the present embodiment is almost the same as that of the first embodiment, only different points will be described.
本実施例では、図17に示すように、ハードディスク27は、エッジ画像格納領域27a,エッジ細線化画像格納領域27b,3次元点列データ格納領域27c,対応テーブル格納領域27d,検出病変部格納領域27eの他に、さらにモフォロジーパラメータマップ格納領域27fを有している。その他の構成は実施例1と同じである。
In this embodiment, as shown in FIG. 17, the
上述したように、”Shape From Shading“法では、2次元画像上にエッジがある場合、エッジ上の画素数が低い値をとるために、そのエッジ部分に溝が存在するかのごとく推定値を算出してしまう問題があり、例えば実施例1のような補正を実施しても、補正もれにより、スパイク状またはエッジ状のノイズが発生してしまう場合がある。 As described above, in the “Shape From Shading” method, when there is an edge on a two-dimensional image, since the number of pixels on the edge takes a low value, an estimated value is obtained as if a groove exists in the edge portion. For example, even if the correction as in the first embodiment is performed, spike-shaped or edge-shaped noise may occur due to the leakage of the correction.
一般に、ノイズ除去の方法として、モフォロジー変換一つであるdilation処理とerosion処理との組み合わせが、広く利用される。 In general, a combination of dilation processing and erosion processing, which is one morphological transformation, is widely used as a noise removal method.
このモフォロジー変換は、3次元サーフェイス上に球を転がすときの球の中心を出力する変換方法であり、dilation処理は腸管の表面に、erosion処理は腸管の裏面に球を転がすこととなる。 This morphological conversion is a conversion method for outputting the center of a sphere when the sphere is rolled on a three-dimensional surface. The dilation process rolls the sphere to the surface of the intestine and the erosion process rolls the sphere to the back of the intestine.
上記モフォロジー変換における球の中心は、対象となるのノイズの大きさによって決定する。例えば図18のように、例えば1画素の幅のノイズのあるサーフェイス表面に例えば直径5の球300aを転がす場合、その中心の軌跡は直線となるため、その軌跡のなすサーフェイス裏側から同じサイズの球を転がすことによってノイズを埋めることができる。
The center of the sphere in the morphological transformation is determined by the size of the target noise. For example, as shown in FIG. 18, for example, when a
しかし、図19のように、例えば5画素の幅のノイズのあるサーフェイス表面に、上記直径5の球300aを転がす場合、その中心の軌跡のなすサーフェイス表面にもノイズのくぼみが存在し、サーフェイスの裏側から球を転がしてもノイズを除去できない。
However, as shown in FIG. 19, for example, when the
3次元データ全体にゴマシオ上のノイズがのる場合、そのノイズの大きさは小サイズであるが、エッジ上に存在するスパイク状ノイズまたはエッジ状ノイズの大きさはエッジの太さに依存する。よって、2次元画像にエッジが存在する位置では、平滑化のための球の直径、すなわち平滑化のパラメタを変更する必要がある。 When noise on Gomasio is placed on the entire three-dimensional data, the magnitude of the noise is small, but the magnitude of spike-like noise or edge-like noise existing on the edge depends on the thickness of the edge. Therefore, at the position where the edge exists in the two-dimensional image, it is necessary to change the diameter of the sphere for smoothing, that is, the smoothing parameter.
例えば、図20に示すように、モフォロジー変換時の球サイズが十分な大きさの球300bを持っている場合には、球サイズに最適なノイズ大きさから、より小サイズのノイズまでを平滑化することが可能となるが、球サイズを大きくするに従って、処理速度が低下するため、ノイズの大きさに最適な球サイズを決定して処理を実行しなければ処理速度が低下する。
For example, as shown in FIG. 20, when a
本実施例では、図21に示すように、CPU22のモデル補正部22dにより、実施例1で説明したステップS2のモデル補正処理後に、ステップS10にてモフォロジーパラメータWiによるモフォロジー処理を実行し、実施例1で説明したステップS3に処理を移行する。
In the present embodiment, as illustrated in FIG. 21, the
具体的には、本実施例では、ステップS2のモデル補正処理において、CPU22のモデル補正部22dは、図22に示すように、ステップS100及びS101にて、図23に示すような3次元空間を一定間隔の立方小領域に分割し、各小領域にモフォロジーパラメタを格納可能なマップを作成し、図24に示すエッジ線幅Di,jに対する、図25に示すようなモフォロジー変換パラメタWi,jの対応テーブルをハードディスク27のモフォロジーパラメータマップ格納領域27fに格納する。
Specifically, in this embodiment, in the model correction process in step S2, the
すなわち、モデル補正部22dは、ステップS100にて、エッジ細線化画像のうちの1つのエッジを処理対象として選択取得し、エッジ線のうちの1つの選択点におけるエッジ幅Wi,jを算出する。続いて、モデル補正部22dは、図25のエッジ線幅Di,jとモフォロジー変換パラメタWi,jの対応テーブルを用いて、モフォロジー変換パラメタWを取得する。
That is, in step S100, the
そして、モデル補正部22dは、ステップS101にて、ステップS100の処理を実施したエッジ線上の選択点に対応する3次元座標を、ハードディスク27に記録された対応点テーブルから取得し、取得した3次座標に対応する3次元小領域マップの座標位置を求める。求めた3次元小領域マップの座標位置へ、前記モフォロジー変換パラメタWを加算格納するとともに、座標位置におけるカウント値を1つ加算する。
In step S101, the
ここで、エッジ線幅Di,jは、図24に示すように、エッジ細線化画像のエッジ細線上の点において、エッジ線に直交する線を引いたときの、エッジ画像の対応するエッジの幅を示す。また、エッジ画像におけるモフォロジー変換パラメタWi,jは、前述の球(図18ないし図20参照)の直径を示す。 Here, the edge line width Di, j is the width of the corresponding edge of the edge image when a line orthogonal to the edge line is drawn at a point on the edge thin line of the edge thinned image as shown in FIG. Indicates. In addition, the morphological transformation parameter Wi, j in the edge image indicates the diameter of the sphere (see FIGS. 18 to 20).
そして、上記ステップS10にて、モフォロジー変換時のモフォロジー変換パラメタWを3次元座標に基づき決定して、モフォロジー変換処理であるdilation処理、erosion処理を連続実行し、ノイズ除去処理を行う。 In step S10, the morphology transformation parameter W at the time of morphology transformation is determined based on the three-dimensional coordinates, and the dilation processing and erosion processing which are the morphology transformation processing are continuously executed to perform the noise removal processing.
以上の処理を、画像上の全エッジの全点に対して処理を実施した後、3次元小領域マップの各座標位置におけるモフォロジー変換パラメタWを、各座標位置におけるカウント値により平均化する。このような処理により、3次元座標位置に基づき3次元小領域マップを参照することにより平滑化に最適なパラメタを取得することを実現する。 After the above processing is performed on all points of all edges on the image, the morphological transformation parameter W at each coordinate position of the three-dimensional small region map is averaged by the count value at each coordinate position. By performing such processing, it is possible to obtain the optimum parameter for smoothing by referring to the three-dimensional small area map based on the three-dimensional coordinate position.
本発明は、上述した実施例に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。 The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.
1…内視鏡システム
2…医療用観察装置
3…医療用画像処理装置
4、9…モニタ
6…内視鏡
7…光源装置
8…CCU
11…挿入部
12…操作部
13…ライトガイド
14…先端部
15…対物光学系
16…撮像素子
17…撮像部
21…画像入力部
22…CPU
22a…3次元モデル推定部
22b…検出対象領域設定部
22c…形状特徴量算出部
22d…モデル補正部
22e…3次元形状検出部
22f…ポリープ決定部
23…処理プログラム記憶部
24…画像記憶部
25…解析情報記憶部
26…記憶装置I/F
27…ハードディスク
28…表示処理部
29…入力操作部
30…データバス
DESCRIPTION OF
DESCRIPTION OF
22a ... 3D
27 ...
Claims (6)
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出手段と、
前記画像境界線の線幅を算出する線幅算出手段と、
前記線幅に基づき、前記3次元モデル推定手段における、前記画像境界線の3次元モデルの推定結果を補正する補正手段と、
を備えたことを特徴とする医療用画像処理装置。 Three-dimensional model estimation means for estimating a three-dimensional model of the living tissue from a two-dimensional image of the image of the living tissue in the body cavity input from the medical imaging device;
Image boundary detection means for detecting an image boundary of an image area constituting the two-dimensional image,
A line width calculating means for calculating a line width of the image boundary line;
Correction means for correcting the estimation result of the three-dimensional model of the image boundary line in the three-dimensional model estimation means based on the line width;
A medical image processing apparatus comprising:
前記線幅の値と所定値を比較し、
前記線幅の値が前記所定値以内ならば前記画像境界線を第1の補正対象画像とし、
前記線幅の値が前記所定値を超えている場合には前記画像境界線を第2の補正対象画像とし、
前記第1の補正対象画像あるいは前記第2の補正対象画像に応じて、前記3次元モデル推定手段における、前記画像境界線の3次元モデルの推定結果を補正する
ことを特徴とする請求項1に記載の医療用画像処理装置。 The correction means includes
Compare the line width value with a predetermined value,
If the value of the line width is within the predetermined value, the image boundary line is set as a first correction target image,
When the line width value exceeds the predetermined value, the image boundary line is set as a second correction target image,
The estimation result of the three-dimensional model of the image boundary line in the three-dimensional model estimation means is corrected according to the first correction target image or the second correction target image. The medical image processing apparatus described.
前記第2の補正対象画像は、前記画像境界線をオクルージョンと見なしたオクルージョン画像である
ことを特徴とする請求項2に記載の医療用画像処理装置。 The first correction target image is a groove image in which the image boundary line is regarded as a groove,
The medical image processing apparatus according to claim 2, wherein the second correction target image is an occlusion image in which the image boundary line is regarded as occlusion.
ことを特徴とする請求項1、2または3のいずれかに記載の医療用画像処理装置。 The correction unit corrects an estimation result of the three-dimensional model of the image boundary line based on an average value of pixel values of the image boundary line in the three-dimensional model estimation unit. The medical image processing apparatus according to any one of 2 and 3.
ことを特徴とする請求項1、2または3のいずれかに記載の医療用画像処理装置。 The correction means approximates the pixel value of the image boundary line in the three-dimensional model estimation means, and corrects the estimation result of the three-dimensional model of the image boundary line. 4. The medical image processing apparatus according to any one of 3.
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出ステップと、
前記画像境界線の線幅を算出する線幅算出ステップと、
前記線幅に基づき、前記3次元モデル推定ステップにおける、前記画像境界線の3次元モデルの推定結果を補正する補正ステップと、
を備えたことを特徴とする医療用画像処理方法。 A three-dimensional model estimation step for estimating a three-dimensional model of the living tissue from a two-dimensional image of the image of the living tissue in the body cavity input from the medical imaging device;
An image boundary detection step for detecting an image boundary of an image region constituting the two-dimensional image image;
A line width calculating step of calculating a line width of the image boundary line;
A correction step of correcting an estimation result of the three-dimensional model of the image boundary line in the three-dimensional model estimation step based on the line width;
A medical image processing method comprising:
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006279236A JP2008093213A (en) | 2006-10-12 | 2006-10-12 | Medical image processing apparatus and medical image processing method |
| PCT/JP2007/061628 WO2008044365A1 (en) | 2006-10-12 | 2007-06-08 | Medical image processing device and medical image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006279236A JP2008093213A (en) | 2006-10-12 | 2006-10-12 | Medical image processing apparatus and medical image processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008093213A true JP2008093213A (en) | 2008-04-24 |
Family
ID=39282576
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006279236A Pending JP2008093213A (en) | 2006-10-12 | 2006-10-12 | Medical image processing apparatus and medical image processing method |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2008093213A (en) |
| WO (1) | WO2008044365A1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2008136098A1 (en) * | 2007-04-24 | 2010-07-29 | オリンパスメディカルシステムズ株式会社 | Medical image processing apparatus and medical image processing method |
| JP2012011137A (en) * | 2010-07-05 | 2012-01-19 | Olympus Corp | Image processing apparatus, image processing method, and image processing program |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020194693A1 (en) * | 2019-03-28 | 2020-10-01 | Hoya株式会社 | Endoscope processor, information processing device, endoscope system, program, and information processing method |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11337845A (en) * | 1998-05-25 | 1999-12-10 | Mitsubishi Electric Corp | Endoscope device |
| EP1436771B1 (en) * | 2001-10-16 | 2011-06-22 | The University of Chicago | Computer-aided detection of three-dimensional lesions |
| JP4652694B2 (en) * | 2004-01-08 | 2011-03-16 | オリンパス株式会社 | Image processing method |
-
2006
- 2006-10-12 JP JP2006279236A patent/JP2008093213A/en active Pending
-
2007
- 2007-06-08 WO PCT/JP2007/061628 patent/WO2008044365A1/en active Application Filing
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2008136098A1 (en) * | 2007-04-24 | 2010-07-29 | オリンパスメディカルシステムズ株式会社 | Medical image processing apparatus and medical image processing method |
| JP2012011137A (en) * | 2010-07-05 | 2012-01-19 | Olympus Corp | Image processing apparatus, image processing method, and image processing program |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2008044365A1 (en) | 2008-04-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4994737B2 (en) | Medical image processing apparatus and medical image processing method | |
| JP5242381B2 (en) | Medical image processing apparatus and medical image processing method | |
| JP4855868B2 (en) | Medical image processing device | |
| US8994801B2 (en) | Image processing apparatus | |
| JP5276225B2 (en) | Medical image processing apparatus and method of operating medical image processing apparatus | |
| JP4902735B2 (en) | Medical image processing apparatus and medical image processing method | |
| US8086005B2 (en) | Medical image processing apparatus and medical image processing method | |
| JP2007260144A (en) | Medical image processing apparatus and medical image processing method | |
| JP7125479B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS, METHOD OF OPERATION OF MEDICAL IMAGE PROCESSING APPARATUS, AND ENDOSCOPE SYSTEM | |
| WO2007119295A1 (en) | Medical video image processing device and medical video image processing method | |
| JP7385731B2 (en) | Endoscope system, image processing device operating method, and endoscope | |
| JP5078486B2 (en) | Medical image processing apparatus and method of operating medical image processing apparatus | |
| WO2012153568A1 (en) | Medical image processing device and medical image processing method | |
| JP4981335B2 (en) | Medical image processing apparatus and medical image processing method | |
| JP2008093213A (en) | Medical image processing apparatus and medical image processing method | |
| JP4981336B2 (en) | Medical image processing apparatus and medical image processing method | |
| JP5148096B2 (en) | Medical image processing apparatus and method of operating medical image processing apparatus | |
| JP2008023266A (en) | Medical image processing apparatus and medical image processing method | |
| WO2023187886A1 (en) | Image processing device, image processing method, and storage medium | |
| JP2014171535A (en) | Image processor |