[go: up one dir, main page]

JP2008093213A - Medical image processing apparatus and medical image processing method - Google Patents

Medical image processing apparatus and medical image processing method Download PDF

Info

Publication number
JP2008093213A
JP2008093213A JP2006279236A JP2006279236A JP2008093213A JP 2008093213 A JP2008093213 A JP 2008093213A JP 2006279236 A JP2006279236 A JP 2006279236A JP 2006279236 A JP2006279236 A JP 2006279236A JP 2008093213 A JP2008093213 A JP 2008093213A
Authority
JP
Japan
Prior art keywords
image
dimensional
dimensional model
edge
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006279236A
Other languages
Japanese (ja)
Inventor
Hideki Tanaka
秀樹 田中
Hiroichi Nishimura
博一 西村
Yoshio Sawa
美穂 沢
Kenji Nakamura
健次 中村
Ryoko Inoue
涼子 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2006279236A priority Critical patent/JP2008093213A/en
Priority to PCT/JP2007/061628 priority patent/WO2008044365A1/en
Publication of JP2008093213A publication Critical patent/JP2008093213A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】2次元画像から3次元画像を精度よく構築し、局所的な隆起形状を有する病変を検出する場合の検出精度を向上させる。
【解決手段】本実施例の内視鏡システムは、医療用観察装置と、医療用画像処理装置と、モニタとを有して要部が構成されている。医療用画像処理装置のCPU22は、3次元モデル推定部22a、検出対象領域設定部22b、形状特徴量算出手段としての形状特徴量算出部22c、モデル補正部22d、3次元形状検出部22e、ポリープ決定部22fの各機能部からなる。
【選択図】図2
An object of the present invention is to accurately construct a three-dimensional image from a two-dimensional image and improve detection accuracy when detecting a lesion having a local raised shape.
An endoscope system according to the present embodiment includes a medical observation apparatus, a medical image processing apparatus, and a monitor, and a main part is configured. The CPU 22 of the medical image processing apparatus includes a three-dimensional model estimation unit 22a, a detection target region setting unit 22b, a shape feature amount calculation unit 22c as a shape feature amount calculation unit, a model correction unit 22d, a three-dimensional shape detection unit 22e, and a polyp. It consists of each function part of the determination part 22f.
[Selection] Figure 2

Description

本発明は、医療用画像処理装置及び医療用画像処理方法に関し、特に、生体組織の像の2次元画像データに基づき、該生体組織の3次元モデルデータを推定する医療用画像処理装置及び医療用画像処理方法に関する。   The present invention relates to a medical image processing apparatus and a medical image processing method, and in particular, a medical image processing apparatus and a medical use for estimating three-dimensional model data of a living tissue based on two-dimensional image data of a living tissue image. The present invention relates to an image processing method.

従来、医療分野において、X線診断装置、CT、MRI、超音波観測装置及び内視鏡装置等の画像撮像機器を用いた観察が広く行われている。このような画像撮像機器のうち、内視鏡装置は、例えば、体腔内に挿入可能な挿入部を有し、該挿入部の先端部に配置された対物光学系により結像した体腔内の像を固体撮像素子等の撮像手段により撮像して撮像信号として出力し、該撮像信号に基づいてモニタ等の表示手段に体腔内の像の画像を表示するという作用及び構成を有する。そして、ユーザは、モニタ等の表示手段に表示された体腔内の像の画像に基づき、例えば、体腔内における臓器等の観察を行う。   Conventionally, in the medical field, observation using an image pickup device such as an X-ray diagnostic apparatus, CT, MRI, ultrasonic observation apparatus, and endoscope apparatus has been widely performed. Among such imaging devices, an endoscope apparatus has an insertion part that can be inserted into a body cavity, for example, and an image inside the body cavity formed by an objective optical system arranged at the distal end of the insertion part Is picked up by an image pickup means such as a solid-state image pickup device and output as an image pickup signal, and based on the image pickup signal, an image of the image in the body cavity is displayed on a display means such as a monitor. Then, based on the image of the image in the body cavity displayed on the display unit such as a monitor, the user observes an organ or the like in the body cavity, for example.

また、内視鏡装置は、消化管粘膜の像を直接的に撮像することが可能である。そのため、ユーザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な構造等を総合的に観察することができる。   In addition, the endoscope apparatus can directly capture an image of the digestive tract mucosa. Therefore, the user can comprehensively observe, for example, the color tone of the mucous membrane, the shape of the lesion, and the fine structure of the mucosal surface.

さらに、内視鏡装置は、局所的な隆起形状を有する病変が存在する所定の画像を検出可能な画像処理方法として、例えば、特開2005−192880号公報(特許文献1)等に記載されている画像処理方法を用いることにより、ポリープ等の病変部位が含まれる画像を検出することもまた可能である。   Furthermore, the endoscope apparatus is described in, for example, Japanese Patent Application Laid-Open No. 2005-192880 (Patent Document 1) as an image processing method capable of detecting a predetermined image in which a lesion having a local raised shape exists. It is also possible to detect an image including a lesion site such as a polyp by using the existing image processing method.

この特許文献1に記載されている画像処理方法は、入力された画像が有する輪郭を抽出するとともに、該輪郭の形状に基づき、該画像における局所的な隆起形状を有する病変を検出することができる。   The image processing method described in Patent Document 1 can extract a contour of an input image and detect a lesion having a local ridge shape in the image based on the shape of the contour. .

また、従来、大腸ポリープ検出処理においては、2次元画像から3次元データを推定し、3次元特徴量(Shape Index/Curvedness)を用いて大腸ポリープを検出している(非特許文献1)。この3次元特徴量は、参照点における偏微分係数を3次元データから算出して、偏微分係数を使用して算出することにより実現する。そして、大腸ポリープ検出処理では、3次元特徴量を閾値処理することにより、ポリープ候補を検出する。
特開2005−192880号公報 電子情報通信学会、信学技報(MI2003-102),形状情報に基づく3次元腹部CT像からの大腸ポリープ自動検出手法に関する検討 木村、林、北坂、森、末長 pp.29〜34,2004
Conventionally, in the colon polyp detection process, three-dimensional data is estimated from a two-dimensional image, and a colon polyp is detected using a three-dimensional feature (Shape Index / Curvedness) (Non-Patent Document 1). This three-dimensional feature amount is realized by calculating a partial differential coefficient at a reference point from three-dimensional data and using the partial differential coefficient. In the colon polyp detection process, a polyp candidate is detected by performing threshold processing on the three-dimensional feature value.
JP 2005-192880 A The Institute of Electronics, Information and Communication Engineers, IEICE Technical Report (MI2003-102), Examination of automatic detection method for colorectal polyps from 3D abdominal CT images based on shape information Kimura, Hayashi, Kitasaka, Mori, Suecho pp. 29-34, 2004

しかしながら、従来より3次元データの推定手法として使用される”Shape From Shading“法は、2次元画像でエッジとして画像化される部分では、精度が悪化するといった問題がある。   However, the “Shape From Shading” method, which has been conventionally used as a method for estimating three-dimensional data, has a problem that accuracy is deteriorated in a portion imaged as an edge in a two-dimensional image.

詳細には、ポリープ等の3次元像を内視鏡にて撮像する場合、3次元像上の曲面の境や可視範囲とオクルージョン(可視隠蔽or不可視)範囲との境に、境界として、エッジ領域が発生する。2次元画像から3次元データを推定する”Shape From Shading“法は、2次元画像の画素値を元にして3次元位置を推定する手法である。このエッジ領域の画素値は、隣接する領域の画素値と比べ低い値となるため、”Shape From Shading“法では、このエッジ領域に「溝(凹)」が存在するかのごとく、3次元位置の推定値を算出してしまう。   Specifically, when a three-dimensional image such as a polyp is picked up by an endoscope, an edge region is defined as a boundary at the boundary between a curved surface on the three-dimensional image or a boundary between a visible range and an occlusion (visible hiding or invisible) range. Will occur. The “Shape From Shading” method for estimating three-dimensional data from a two-dimensional image is a method for estimating a three-dimensional position based on pixel values of the two-dimensional image. Since the pixel value of the edge region is lower than the pixel value of the adjacent region, the “Shape From Shading” method uses a three-dimensional position as if a “groove (concave)” exists in the edge region. The estimated value is calculated.

例えば、図26に示すようなポリープ500を撮像対象とする大腸内視鏡画像に対して、”Shape From Shading“法により3次元データ点の座標を推定し、3次元データ点から3次元サーフェイスを生成する場合、理想的には、図27に示すような3次元画像を生成すべきである。   For example, with respect to a large intestine endoscopic image having a polyp 500 as shown in FIG. 26 as an imaging target, the coordinates of the three-dimensional data points are estimated by the “Shape From Shading” method, and a three-dimensional surface is obtained from the three-dimensional data points. When generating, ideally, a three-dimensional image as shown in FIG. 27 should be generated.

しかし、平面x=x0(図26における点線位置)にて実際に”Shape From Shading“法により3次元サーフェイスを切り出す時の断面は、図28に示すように、2次元画像データのエッジ領域部分にて、あらかも「溝(凹)」が存在するかのごとく推定されてしまう。腸管においては、このような「溝(凹)」が存在することがないため、従来の”Shape From Shading“法による推定では、存在しない「溝(凹)」を3次元データとして推定してしまうため、3次元画像の推定の精度が悪化するといった問題があり、3次元画像推定を利用した従来の大腸ポリープ検出処理は、検出精度の低下及び誤検出の発生といった課題を有している。   However, the cross section when the three-dimensional surface is actually cut out by the “Shape From Shading” method at the plane x = x0 (dotted line position in FIG. 26) is shown in the edge region portion of the two-dimensional image data as shown in FIG. Thus, it is estimated as if “grooves (concaves)” exist. In the intestinal tract, such “grooves (concaves)” do not exist. Therefore, the conventional “Shape From Shading” method estimates nonexistent “grooves (concaves)” as three-dimensional data. Therefore, there is a problem that the accuracy of estimation of the three-dimensional image is deteriorated, and the conventional colon polyp detection processing using the three-dimensional image estimation has problems such as a decrease in detection accuracy and occurrence of erroneous detection.

本発明は、上記事情に鑑みてなされたものであり、2次元画像から3次元画像を精度よく構築し、局所的な隆起形状を有する病変を検出する場合の検出精度を向上させることのできる医療用画像処理装置及び医療用画像処理方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and can accurately construct a three-dimensional image from a two-dimensional image and improve the detection accuracy when detecting a lesion having a local raised shape. An object is to provide a medical image processing apparatus and a medical image processing method.

本発明の医療用画像処理装置は、
医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定手段と、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出手段と、
前記画像境界線の線幅を算出する線幅算出手段と、
前記線幅に基づき、前記3次元モデル推定手段における、前記画像境界線の3次元モデルの推定結果を補正する補正手段と、
とを備えて構成される。
The medical image processing apparatus of the present invention is
Three-dimensional model estimation means for estimating a three-dimensional model of the living tissue from a two-dimensional image of the image of the living tissue in the body cavity input from the medical imaging device;
Image boundary detection means for detecting an image boundary of an image area constituting the two-dimensional image,
A line width calculating means for calculating a line width of the image boundary line;
Correction means for correcting the estimation result of the three-dimensional model of the image boundary line in the three-dimensional model estimation means based on the line width;
And is configured.

また、本発明の医療用画像処理方法は、
医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定ステップと、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出ステップと、
前記画像境界線の線幅を算出する線幅算出ステップと、
前記線幅に基づき、前記3次元モデル推定ステップにおける、前記画像境界線の3次元モデルの推定結果を補正する補正ステップと、
とを備えて構成される。
Moreover, the medical image processing method of the present invention includes:
A three-dimensional model estimation step for estimating a three-dimensional model of the living tissue from a two-dimensional image of the image of the living tissue in the body cavity input from the medical imaging device;
An image boundary detection step for detecting an image boundary of an image region constituting the two-dimensional image image;
A line width calculating step of calculating a line width of the image boundary line;
A correction step of correcting an estimation result of the three-dimensional model of the image boundary line in the three-dimensional model estimation step based on the line width;
And is configured.

本発明によれば、2次元画像から3次元画像を精度よく構築し、局所的な隆起形状を有する病変を検出する場合の検出精度を向上させることができるという効果がある。   According to the present invention, there is an effect that a three-dimensional image is accurately constructed from a two-dimensional image, and the detection accuracy in detecting a lesion having a local raised shape can be improved.

以下、図面を参照しながら本発明の実施例について述べる。   Embodiments of the present invention will be described below with reference to the drawings.

図1ないし図16は本発明の実施例1に係わり、図1は医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図、図2は図1のCPUの機能構成を示す機能ブロック図、図3は図1のハードディスクの格納情報構成を示す図、図4は図2のCPUの処理の流れを示すフローチャート、図5は図4の3次元モデルデータの補正処理の流れを示すフローチャート、図6は図1の処理を説明する第1の図、図7は図1の処理を説明する第2の図、図8は図1の処理を説明する第3の図、図9は図1の処理を説明する第4の図、図10は図5のエッジ領域としてエッジ端点間の3次元点列データの補正処理の流れを示すフローチャート、図11は図1の処理を説明する第5の図、図12は図1の処理を説明する第6の図、図13は図10の第1の変形例の処理の流れを示すフローチャート、図14は図10の第2の変形例の処理の流れを示すフローチャート、図15は図14の処理を説明する第1の図、図16は図14の処理を説明する第2の図である。   1 to 16 relate to a first embodiment of the present invention, FIG. 1 is a diagram showing an example of the overall configuration of an endoscope system in which a medical image processing apparatus is used, and FIG. 2 is a functional configuration of the CPU of FIG. FIG. 3 is a diagram showing a storage information configuration of the hard disk in FIG. 1, FIG. 4 is a flowchart showing a processing flow of the CPU in FIG. 2, and FIG. 5 is a flow of correction processing of the three-dimensional model data in FIG. 6 is a first diagram for explaining the processing of FIG. 1, FIG. 7 is a second diagram for explaining the processing of FIG. 1, and FIG. 8 is a third diagram for explaining the processing of FIG. 9 is a fourth diagram for explaining the processing of FIG. 1, FIG. 10 is a flowchart showing the flow of correction processing of three-dimensional point sequence data between edge end points as the edge region of FIG. 5, and FIG. 11 is for explaining the processing of FIG. FIG. 12 is a sixth diagram illustrating the process of FIG. 1, and FIG. FIG. 14 is a flowchart showing the processing flow of the second modification of FIG. 10, FIG. 15 is a first diagram for explaining the processing of FIG. 16 is a second diagram for explaining the processing of FIG.

図1に示すように、本実施例の内視鏡システム1は、医療用観察装置2と、医療用画像処理装置3と、モニタ4とを有して要部が構成されている。   As shown in FIG. 1, the endoscope system 1 according to the present embodiment includes a medical observation device 2, a medical image processing device 3, and a monitor 4, and a main part is configured.

前記医療用観察装置2は、被写体を撮像するとともに、該被写体の像の2次元画像を出力する観察装置である。また、医療用画像処理装置3は、パーソナルコンピュータ等により構成され、医療用観察装置2から出力される2次元画像の映像信号に対して画像処理を行うと共に、該画像処理を行った後の映像信号を画像信号として出力する画像処理装置である。さらにモニタ4は、医療用画像処理装置3から出力される画像信号に基づく画像を表示する表示装置である。   The medical observation apparatus 2 is an observation apparatus that captures an image of a subject and outputs a two-dimensional image of the image of the subject. The medical image processing apparatus 3 is constituted by a personal computer or the like, and performs image processing on the video signal of the two-dimensional image output from the medical observation apparatus 2 and the video after the image processing is performed. An image processing apparatus that outputs a signal as an image signal. Furthermore, the monitor 4 is a display device that displays an image based on an image signal output from the medical image processing device 3.

前記医療用観察装置2は、内視鏡6と、光源装置7と、カメラコントロールユニット(以降、CCUと略記する)8と、モニタ9とを有して要部が構成されている。   The medical observation apparatus 2 includes an endoscope 6, a light source device 7, a camera control unit (hereinafter abbreviated as CCU) 8, and a monitor 9, and a main part is configured.

前記内視鏡6は、被検体の体腔内に挿入されると共に、該体腔内に存在する生体組織等の被写体を撮像して撮像信号として出力するものである。前記光源装置7は、内視鏡6により撮像される被写体を照明するための照明光を供給するものである。前記CCU8は、内視鏡6に対する各種制御を行うと共に、内視鏡6から出力される撮像信号に対して信号処理を行い、2次元画像の映像信号として出力するものである。前記モニタ9は、CCU8から出力される2次元画像の映像信号に基づき、内視鏡6により撮像された被写体の像を画像表示するものである。   The endoscope 6 is inserted into a body cavity of a subject and images a subject such as a living tissue existing in the body cavity and outputs it as an imaging signal. The light source device 7 supplies illumination light for illuminating a subject imaged by the endoscope 6. The CCU 8 performs various controls on the endoscope 6, performs signal processing on the imaging signal output from the endoscope 6, and outputs the processed signal as a video signal of a two-dimensional image. The monitor 9 displays an image of a subject imaged by the endoscope 6 based on a video signal of a two-dimensional image output from the CCU 8.

前記内視鏡6は、体腔内に挿入される挿入部11と、挿入部11の基端側に設けられた操作部12とを有して構成されている。また、挿入部11内の基端側から、挿入部11内の先端側の先端部14にかけての部分には、光源装置7から供給される照明光を伝送するためのライトガイド13が挿通されている。   The endoscope 6 includes an insertion portion 11 that is inserted into a body cavity and an operation portion 12 that is provided on the proximal end side of the insertion portion 11. A light guide 13 for transmitting illumination light supplied from the light source device 7 is inserted into a portion from the proximal end side in the insertion portion 11 to the distal end portion 14 on the distal end side in the insertion portion 11. Yes.

前記ライトガイド13は、先端側が内視鏡6の先端部14に配置されると共に、後端側が前記光源装置7に接続される。   The light guide 13 has a distal end side disposed at the distal end portion 14 of the endoscope 6 and a rear end side connected to the light source device 7.

ライトガイド13がこのような構成を有することにより、光源装置7から供給される照明光は、ライトガイド13により伝送された後、挿入部11の先端部14の先端面に設けられた、図示しない照明窓から出射される。そして、図示しない照明窓から照明光が出射されることにより、被写体としての生体組織等が照明される。   Since the light guide 13 has such a configuration, the illumination light supplied from the light source device 7 is transmitted by the light guide 13 and then provided on the distal end surface of the distal end portion 14 of the insertion portion 11 (not shown). It is emitted from the illumination window. Then, illumination light is emitted from an illumination window (not shown) to illuminate a living tissue or the like as a subject.

内視鏡6の先端部14には、図示しない照明窓に隣接する図示しない観察窓に取り付けられた対物光学系15と、対物光学系15の結像位置に配置され、例えば、CCD(電荷結合素子)等により構成される撮像素子16とを有する撮像部17が設けられている。このような構成により、対物光学系15により結像された被写体の像は、撮像素子16により撮像された後、撮像信号として出力される。なお、撮像素子16は、CCDに限らず、例えばC−MOSセンサにより構成してもよい。   At the distal end portion 14 of the endoscope 6, an objective optical system 15 attached to an observation window (not shown) adjacent to an illumination window (not shown) and an imaging position of the objective optical system 15 are arranged. An image pickup unit 17 having an image pickup element 16 constituted by (element) or the like is provided. With such a configuration, the subject image formed by the objective optical system 15 is captured by the image sensor 16 and then output as an image signal. Note that the image sensor 16 is not limited to a CCD, and may be constituted by a C-MOS sensor, for example.

前記撮像素子16は、信号線を介してCCU8に接続されている。そして、撮像素子16は、CCU8から出力される駆動信号に基づいて駆動すると共に、CCU8に対し、撮像した被写体の像に応じた撮像信号を出力する。   The image sensor 16 is connected to the CCU 8 through a signal line. The image sensor 16 is driven based on the drive signal output from the CCU 8 and outputs an image signal corresponding to the captured subject image to the CCU 8.

また、CCU8に入力された撮像信号は、CCU8の内部に設けられた図示しない信号処理回路において信号処理されることにより、2次元画像の映像信号として変換されて出力される。CCU8から出力された2次元画像の映像信号は、モニタ9及び医療用画像処理装置3に対して出力される。これにより、モニタ9は、CCU8から出力される映像信号に基づく被写体の像を2次元画像として表示する。   In addition, the image pickup signal input to the CCU 8 is subjected to signal processing in a signal processing circuit (not shown) provided inside the CCU 8 to be converted and output as a video signal of a two-dimensional image. The video signal of the two-dimensional image output from the CCU 8 is output to the monitor 9 and the medical image processing apparatus 3. Thereby, the monitor 9 displays the image of the subject based on the video signal output from the CCU 8 as a two-dimensional image.

医療用画像処理装置3は、医療用観察装置2から出力される2次元画像の映像信号に対し、A/D変換を行って出力する画像入力部21と、画像入力部21から出力される映像信号に対して画像処理を行う、中央演算処理装置としてのCPU22と、該画像処理に関する処理プログラムが書き込まれた処理プログラム記憶部23と、画像入力部21から出力される映像信号等を記憶する画像記憶部24と、CPU22が行う画像処理における演算結果等を記憶する解析情報記憶部25とを有して構成される。   The medical image processing device 3 performs an A / D conversion on the video signal of the two-dimensional image output from the medical observation device 2, and outputs the video output from the image input unit 21. CPU 22 as a central processing unit that performs image processing on a signal, a processing program storage unit 23 in which a processing program related to the image processing is written, and an image that stores a video signal output from the image input unit 21 The storage unit 24 and an analysis information storage unit 25 that stores calculation results and the like in image processing performed by the CPU 22 are configured.

また、医療用画像処理装置3は、記憶装置インターフェース(I/F)26と、記憶装置I/F26を介してCPU22の画像処理結果としての画像データ、CPU22が画像処理にて使用する各種データ等を記憶する、記憶装置としてのハードディスク27と、CPU22の画像処理結果としての画像データに基づき、該画像データをモニタ4に画像表示するための表示処理を行うと共に、該表示処理を行った後の画像データを画像信号として出力する表示処理部28と、CPU22が行う画像処理におけるパラメータ及び医療用画像処理装置3に対する操作指示をユーザが入力可能な、キーボードあるいはマウス等のポインティングデバイス等により構成される入力操作部29とを有する。そして、モニタ4は、表示処理部28から出力される画像信号に基づく画像を表示する。   The medical image processing apparatus 3 includes a storage device interface (I / F) 26, image data as a result of image processing of the CPU 22 via the storage device I / F 26, various data used by the CPU 22 for image processing, and the like. Display processing for displaying the image data on the monitor 4 on the basis of the image data as the image processing result of the CPU 22 and the hard disk 27 as a storage device. The display processing unit 28 outputs image data as an image signal, and includes a pointing device such as a keyboard or a mouse that allows a user to input parameters for image processing performed by the CPU 22 and operation instructions for the medical image processing apparatus 3. And an input operation unit 29. The monitor 4 displays an image based on the image signal output from the display processing unit 28.

なお、医療用画像処理装置3の画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、解析情報記憶部25、記憶装置インターフェース26、表示処理部28及び入力操作部29のそれぞれは、データバス30を介して相互に接続されている。   Each of the image input unit 21, the CPU 22, the processing program storage unit 23, the image storage unit 24, the analysis information storage unit 25, the storage device interface 26, the display processing unit 28, and the input operation unit 29 of the medical image processing apparatus 3 is provided. Are connected to each other via a data bus 30.

図2に示すように、CPU22は、3次元モデル推定手段としての3次元モデル推定部22a、検出対象領域設定部22b、形状特徴量算出部22c、線幅算出手段及び補正手段としてのモデル補正部22d、3次元形状検出部22e、ポリープ決定部22fの各機能部からなる。   As shown in FIG. 2, the CPU 22 includes a three-dimensional model estimation unit 22a as a three-dimensional model estimation unit, a detection target region setting unit 22b, a shape feature amount calculation unit 22c, a line width calculation unit, and a model correction unit as a correction unit. 22d, a three-dimensional shape detection unit 22e, and a polyp determination unit 22f.

なお、本実施例では、これら機能部は、CPU22が行うソフトウエアにて実現される。また、これら機能部の詳細な作用については後述する。   In the present embodiment, these functional units are realized by software executed by the CPU 22. The detailed operation of these functional units will be described later.

また、図3に示すように、ハードディスク27は、CPU22が行う各処理により生成される各種データを記憶する、複数の格納領域を有している。具体的にはハードディスク27は、エッジ画像格納領域27a,エッジ細線化画像格納領域27b,3次元点列データ格納領域27c,対応テーブル格納領域27d,検出病変部格納領域27eを有している。これら各格納領域に格納されているデータの詳細は、後述する。   Further, as shown in FIG. 3, the hard disk 27 has a plurality of storage areas for storing various data generated by each process performed by the CPU 22. Specifically, the hard disk 27 has an edge image storage area 27a, an edge thinned image storage area 27b, a three-dimensional point sequence data storage area 27c, a correspondence table storage area 27d, and a detected lesion part storage area 27e. Details of the data stored in each of these storage areas will be described later.

次に、このように構成された、本実施例の内視鏡システム1の作用について、図4、図5及び図10のフローチャートを用い、図6〜図9及び図11、図12を参照して説明する。   Next, regarding the operation of the endoscope system 1 of the present embodiment configured as described above, referring to FIGS. 6 to 9, 11, and 12, using the flowcharts of FIGS. 4, 5, and 10. I will explain.

まず、ユーザは、内視鏡システム1が有する各部の電源を投入した後、被検体の体腔内の、例えば大腸内に内視鏡6の挿入部11を挿入する。   First, after the user turns on the power of each part of the endoscope system 1, the user inserts the insertion part 11 of the endoscope 6 into the body cavity of the subject, for example, into the large intestine.

そして、ユーザにより挿入部11が被検体の大腸内に挿入されると、例えば、該大腸内に存在する生体組織等である被写体、例えば図26に示したポリープ500の像が、先端部14に設けられた撮像部17により撮像される。そして、撮像部17により撮像された被写体の像は、撮像信号としてCCU8に対して出力される。   When the insertion unit 11 is inserted into the large intestine of the subject by the user, for example, a subject such as a living tissue existing in the large intestine, for example, an image of the polyp 500 shown in FIG. Imaging is performed by the provided imaging unit 17. The subject image captured by the imaging unit 17 is output to the CCU 8 as an imaging signal.

CCU8は、図示しない信号処理回路において、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより、該撮像信号を2次元画像の映像信号として変換して出力する。そして、モニタ9は、CCU8から出力される映像信号に基づき、撮像部17により撮像された被写体の像を2次元画像として表示する。また、CCU8は、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより得られた2次元画像の映像信号を、医療用画像処理装置3に対して出力する。   The CCU 8 converts the imaging signal as a video signal of a two-dimensional image by performing signal processing on the imaging signal output from the imaging device 16 of the imaging unit 17 in a signal processing circuit (not shown). The monitor 9 displays the subject image captured by the imaging unit 17 as a two-dimensional image based on the video signal output from the CCU 8. Further, the CCU 8 outputs a video signal of a two-dimensional image obtained by performing signal processing on the imaging signal output from the imaging element 16 of the imaging unit 17 to the medical image processing apparatus 3.

医療用画像処理装置3に対して出力された2次元画像の映像信号は、画像入力部21においてA/D変換された後、CPU22に入力される。   The two-dimensional image video signal output to the medical image processing apparatus 3 is A / D converted by the image input unit 21 and then input to the CPU 22.

そして、図4に示すように、CPU22の3次元モデル推定部22aは、ステップS1にて画像入力部21から出力される2次元画像に対し、例えば、“Shape From Shading“法等を用い、該2次元画像の輝度情報等に基づく幾何学的な変換等の処理を施すことにより、該2次元画像に応じた3次元モデルを推定する。このとき、3次元モデル推定部22aは、大腸の腸管表面を示す3次元データ点列と、2次元画像データとを対応させた対応テーブルを生成し、ハードディスク27の対応テーブル格納領域27dに格納する。   Then, as shown in FIG. 4, the three-dimensional model estimation unit 22a of the CPU 22 uses, for example, a “Shape From Shading” method or the like on the two-dimensional image output from the image input unit 21 in step S1. A three-dimensional model corresponding to the two-dimensional image is estimated by performing a process such as geometric conversion based on the luminance information of the two-dimensional image. At this time, the three-dimensional model estimation unit 22a generates a correspondence table in which the three-dimensional data point sequence indicating the intestinal tract surface of the large intestine is associated with the two-dimensional image data, and stores the correspondence table in the correspondence table storage area 27d of the hard disk 27. .

そして、CPU22のモデル補正部22dにより、ステップS2にて推定した3次元モデルに対して、後述するモデル補正処理を施し、補正した3次元モデルの各データ点の座標を記憶装置I/F26を介してハードディスク27の3次元点列データ格納領域27cに格納する。   Then, the model correction unit 22d of the CPU 22 performs model correction processing to be described later on the three-dimensional model estimated in step S2, and the coordinates of each data point of the corrected three-dimensional model are stored via the storage device I / F 26. And stored in the three-dimensional point sequence data storage area 27 c of the hard disk 27.

次に、CPU22の検出対象領域設定部22bは、ステップS3にて画像入力部21から出力される2次元画像の色調変化と、ステップS2の処理により補正した3次元モデルの隆起性変化とを検出することにより、該3次元モデルにおける隆起形状を有する病変を検出するための処理の適用対象となる領域としての、検出対象領域である対象領域を設定する。   Next, the detection target region setting unit 22b of the CPU 22 detects the color tone change of the two-dimensional image output from the image input unit 21 in step S3 and the bulge change of the three-dimensional model corrected by the process of step S2. By doing this, a target region that is a detection target region is set as a target region to which a process for detecting a lesion having a raised shape in the three-dimensional model is applied.

具体的には、CPU22の検出対象領域設定部22bは、例えば、画像入力部21から出力される2次元画像を、R(赤)画像、G(緑)画像及びB(青)画像の各プレーン画像に分離した後、該R画像に応じて推定した3次元モデルのデータに基づいて隆起性変化を検出するとともに、該R画像及びG画像の色度に基づいて色調変化を検出する。そして、CPU22の検出対象領域設定部22bは、前記隆起性変化の検出結果及び前記色調変化の検出結果に基づき、前記隆起性変化及び前記色調変化の両方が検出された領域を、前記対象領域として設定する。   Specifically, the detection target area setting unit 22b of the CPU 22 converts, for example, the two-dimensional image output from the image input unit 21 into each plane of an R (red) image, a G (green) image, and a B (blue) image. After separation into images, a bulge change is detected based on the data of the three-dimensional model estimated according to the R image, and a color tone change is detected based on the chromaticity of the R image and the G image. Then, the detection target area setting unit 22b of the CPU 22 uses, as the target area, an area where both the bulge change and the color change are detected based on the detection result of the bulge change and the detection result of the color change. Set.

その後、CPU22の形状特徴量算出部22cは、ステップS4にて対象領域の局所偏微分係数を算出する。具体的には、CPU22の形状特徴量算出部22cは、算出された3次元形状に対して、注目する3次元位置(x、y、z)を含む局所領域(曲面)におけるそのR画素値fにおける1階偏微分係数fx、fy、fz、及び2階偏微分係数fxx,fyy,fzz,fxy,fyz,fxzを算出する。   Thereafter, the shape feature amount calculation unit 22c of the CPU 22 calculates a local partial differential coefficient of the target region in step S4. Specifically, the shape feature amount calculation unit 22c of the CPU 22 applies the R pixel value f in the local region (curved surface) including the noted three-dimensional position (x, y, z) to the calculated three-dimensional shape. First-order partial differential coefficients fx, fy, fz and second-order partial differential coefficients fx, fyy, fzz, fxy, fyz, fxz are calculated.

さらに、CPU22の形状特徴量算出部22cは、ステップS5にて3次元モデルの処理対象領域に存在する各データ点に対し、(3次元形状)の形状特徴量として、局所偏微分係数に基づき、Shape Index値及びCurvedness値を算出する処理を行う。   Further, the shape feature value calculation unit 22c of the CPU 22 calculates, based on the local partial differential coefficient, as a shape feature value of (3D shape) for each data point existing in the processing target area of the 3D model in step S5. Processing to calculate the Shape Index value and the Curvedness value is performed.

すなわち、これらの局所偏微分係数を用いて、CPU22の形状特徴量算出部22cは、ガウス曲率K,平均曲率Hを算出する。   That is, using these local partial differential coefficients, the shape feature amount calculation unit 22c of the CPU 22 calculates the Gaussian curvature K and the average curvature H.

一方、曲面の主曲率k1,k2(k1≧k2)は、ガウス曲率Kと、平均曲率Hを用いて
k1=H+(H2−K)1/2 k2=H−(H2−K)1/2 (1)
と表される。
On the other hand, the principal curvatures k1 and k2 (k1 ≧ k2) of the curved surface are expressed as follows using the Gaussian curvature K and the average curvature H: k1 = H + (H 2 −K) 1/2 k2 = H− (H 2 −K) 1 / 2 (1)
It is expressed.

また、この場合における曲面形状を表す特徴量であるShape IndexSI及びCurvednessCVは、それぞれ
SI=1/2−(1/π)arc tan[(k1+k2)/(k1−k2)] (2)
CV=((k12+k22)/2)1/2 (3)
となる。
In addition, Shape Index SI and Curvedness CV, which are feature quantities representing the curved surface shape in this case, are SI = 1 / 2− (1 / π) arc tan [(k1 + k2) / (k1−k2)] (2)
CV = ((k1 2 + k2 2 ) / 2) 1/2 (3)
It becomes.

CPU22の形状特徴量算出部22cは、このようにして、3次元の各曲面におけるShape IndexSI及びCurvednessCVを3次元形状情報として算出し、解析情報記憶部25に格納する。   In this way, the shape feature amount calculation unit 22c of the CPU 22 calculates the Shape Index SI and Curvedness CV of each three-dimensional curved surface as the three-dimensional shape information, and stores it in the analysis information storage unit 25.

前述したShape Index値は、3次元モデルが有する各データ点における凹凸の状態を示すための値であり、0以上1以下の範囲内の数値として示される。具体的には、3次元モデル内に存在する個々のデータ点において、Shape Index値が0に近い場合には凹型形状の存在が示唆され、また、Shape Index値が1に近い場合には凸型形状の存在が示唆される。   The above-described Shape Index value is a value for indicating the state of unevenness at each data point of the three-dimensional model, and is indicated as a numerical value in the range of 0 to 1. Specifically, at each data point existing in the three-dimensional model, when the Shape Index value is close to 0, the presence of a concave shape is suggested, and when the Shape Index value is close to 1, the convex shape The existence of a shape is suggested.

また、前述したCurvedness値は、3次元モデルが有する各データ点における曲率を示すための値である。具体的には、3次元モデル内に存在する個々のデータ点において、Curvedness値が小さければ小さい程鋭く曲がった曲面の存在が示唆され、また、Curvedness値が大きければ大きい程鈍く曲がった曲面の存在が示唆される。   The above-mentioned Curvedness value is a value for indicating the curvature at each data point of the three-dimensional model. Specifically, at each data point in the 3D model, the smaller the Curvedness value, the more sharply curved surface is suggested, and the larger the Curvedness value, the more gently curved surface. Is suggested.

次に、CPU22の3次元形状検出部22dは、ステップS6にて3次元モデルの対象領域に存在する各データ点において、Shape Index値及びCurvedness値の各値と、予め設定されている所定の閾値T1,T2との比較処理を行うことにより、該各データ点のうち、隆起形状を有するデータ群として検出する。具体的には、CPU22は、3次元モデルの処理対象領域に存在する各データ点のうち、例えば、Shape Index値が閾値T1より大きく、かつ、Curvedness値が閾値T2より大きい複数のデータ点を、隆起形状を有するデータ群として検出する。   Next, in step S6, the three-dimensional shape detection unit 22d of the CPU 22 determines each value of the shape index value and the curvedness value at each data point existing in the target region of the three-dimensional model, and a predetermined threshold value set in advance. By performing comparison processing with T1 and T2, among the data points, a data group having a raised shape is detected. Specifically, the CPU 22 selects, for example, a plurality of data points whose shape index value is larger than the threshold value T1 and whose curvedness value is larger than the threshold value T2 among the data points existing in the processing target area of the three-dimensional model. It detects as a data group which has a protruding shape.

そして、CPU22のポリープ決定部22fは、ステップS7にて3次元モデルにおいて隆起形状を有するデータ群として検出した複数のデータ点各々が、ポリープ等の病変に由来する隆起形状に該当するデータ点であるかを判別する隆起形状判別処理を行う。   Then, the polyp determination unit 22f of the CPU 22 is a data point in which each of a plurality of data points detected as a data group having a raised shape in the three-dimensional model in step S7 corresponds to a raised shape derived from a lesion such as a polyp. A raised shape discriminating process for discriminating whether or not is performed.

その後、CPU22のポリープ決定部22fは、ステップS8にて病変に由来する隆起形状に該当するデータ点からなるデータ群を有する領域をポリープ領域として決定し、病変領域であるポリープを検出する。   Thereafter, the polyp determining unit 22f of the CPU 22 determines a region having a data group composed of data points corresponding to the raised shape derived from the lesion as a polyp region in step S8, and detects a polyp that is a lesion region.

そして、CPU22は、その検出結果を、例えば図1のハードディスク27の検出病変部格納領域27eに検出対象の内視鏡画像と関連付けて格納すると共に、表示処理部28を経てモニタ4に、例えば検出対象の内視鏡画像と並べて表示する。   Then, the CPU 22 stores the detection result in association with the endoscopic image to be detected, for example, in the detected lesion storage area 27e of the hard disk 27 in FIG. 1, and detects it on the monitor 4 via the display processing unit 28, for example. Display alongside the target endoscopic image.

これにより、モニタ4には、ポリープ等の病変に由来する隆起形状が存在する位置をユーザが容易に認識可能であるような、被写体の3次元モデルが画像表示される。   As a result, a three-dimensional model of the subject is displayed on the monitor 4 such that the user can easily recognize the position where the raised shape derived from a lesion such as a polyp exists.

次に、上記のステップS2における、モデル補正部22dによるモデル補正処理について説明する。図5に示すように、CPU22のモデル補正部22dは、ステップS21にて、入力された2次元画像に対してエッジ抽出処理を実施しエッジ画像を生成し、ハードディスク27のエッジ画像格納領域27aに格納する。また、モデル補正部22dは、ステップS21にて、生成したエッジ画像に対して細線化処理を施しエッジ細線化画像を生成し、ハードディスク27のエッジ細線化画像格納領域27bに格納する。   Next, the model correction process by the model correction unit 22d in step S2 will be described. As shown in FIG. 5, the model correction unit 22d of the CPU 22 performs edge extraction processing on the input two-dimensional image in step S21 to generate an edge image, and stores it in the edge image storage area 27a of the hard disk 27. Store. In step S21, the model correction unit 22d performs thinning processing on the generated edge image to generate an edge thinned image, and stores it in the edge thinned image storage area 27b of the hard disk 27.

なお、2次元のエッジ画像が図6とすると、エッジ細線化画像は、細線化処理によりエッジ画像の各エッジ領域を線幅1画素に細線化した画像となる。   If the two-dimensional edge image is shown in FIG. 6, the edge thinned image is an image obtained by thinning each edge region of the edge image to a line width of 1 pixel by thinning processing.

次に、CPU22のモデル補正部22dは、ステップS23にてパラメータi,jをそれぞれ1にセットする。続いて、CPU22のモデル補正部22dは、ステップS24にてエッジ細線化画像の第i番目のエッジ線Liを取得し、ステップS25にて第i番目エッジ線Li上の第j番目の(注目点である)エッジ点Pi,jを取得する。   Next, the model correction unit 22d of the CPU 22 sets the parameters i and j to 1 in step S23. Subsequently, the model correction unit 22d of the CPU 22 acquires the i-th edge line Li of the edge thinned image in step S24, and in step S25, the model correction unit 22d receives the j-th (point of interest) on the i-th edge line Li. Edge point Pi, j.

そして、CPU22のモデル補正部22dは、ステップS26にて第j番目エッジ点Pi,jを通る、第i番目エッジ線Liに直交するエッジ直交線Hi,jを生成する。続いて、CPU22のモデル補正部22dは、ステップS27にてエッジ直交線Hi,j上の2次元画像上の各点(xi,j,yi,j,zi,j)に対応する3次元データ点列を対応テーブルから取得する。なお、この対応テーブルは、上述したように、ステップS1にてCPU22の3次元モデル推定部22aによりハードディスク27の対応テーブル格納領域27dに格納されている。   Then, the model correction unit 22d of the CPU 22 generates an edge orthogonal line Hi, j that passes through the jth edge point Pi, j and is orthogonal to the i-th edge line Li in step S26. Subsequently, the model correction unit 22d of the CPU 22 determines the three-dimensional data points corresponding to the respective points (xi, j, yi, j, zi, j) on the two-dimensional image on the edge orthogonal line Hi, j in step S27. Get column from correspondence table. As described above, this correspondence table is stored in the correspondence table storage area 27d of the hard disk 27 by the three-dimensional model estimation unit 22a of the CPU 22 in step S1.

そして、CPU22のモデル補正部22dは、ステップS28にてエッジ直交線Hi,j上のエッジの端点Ai,j,Bi,j(図6の拡大図参照)を決定する。具体的には、本実施例では、図7に示すように、2次元画像上の各点に対応する画素値を取得し、その画素値が所定の閾値tよりも小さい値をエッジ上の点とする判定処理を用いて、上記の細線化したエッジ上の各点から双方向に1点づつ判定を行うことにより、エッジの端点Ai,j,Bi,jを求める。   Then, the model correcting unit 22d of the CPU 22 determines the end points Ai, j, Bi, j (see the enlarged view of FIG. 6) of the edges on the edge orthogonal line Hi, j in step S28. Specifically, in this embodiment, as shown in FIG. 7, pixel values corresponding to the respective points on the two-dimensional image are acquired, and values whose pixel values are smaller than a predetermined threshold t are set to the points on the edge. The edge end points Ai, j, Bi, j are obtained by making a determination one by one in each direction from each point on the thinned edge.

次に、CPU22のモデル補正部22dは、ステップS29にてエッジの端点Ai,j,Bi,j間の距離Di,jを求める。そして、CPU22のモデル補正部22dは、ステップS30にてエッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0よりも小さい(Di,j<D0)かどうか判定する。   Next, the model correction unit 22d of the CPU 22 obtains the distance Di, j between the edge endpoints Ai, j, Bi, j in step S29. In step S30, the model correction unit 22d of the CPU 22 determines whether the distance Di, j between the edge endpoints Ai, j, Bi, j is smaller than a predetermined value D0 (Di, j <D0).

エッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0よりも小さい(Di,j<D0)と判定すると、CPU22のモデル補正部22dはステップS31にてエッジの端点Ai,j,Bi,j間はエッジ領域として表現される部分と判断して3次元点列データの補正を行い、ステップS33に進む。なお、ステップS31における3次元点列データの補正処理の詳細は後述する。   If it is determined that the distance Di, j between the edge endpoints Ai, j, Bi, j is smaller than the predetermined value D0 (Di, j <D0), the model correction unit 22d of the CPU 22 determines the edge endpoint Ai in step S31. , j, Bi, j are determined to be portions represented as edge regions, the three-dimensional point sequence data is corrected, and the process proceeds to step S33. Details of the correction process of the three-dimensional point sequence data in step S31 will be described later.

また、エッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0以上と判定すると、CPU22のモデル補正部22dはステップS32にてエッジの端点Ai,j,Bi,j間はオクルージョン領域として表現される部分と判断して、エッジの端点Ai,j,Bi,j間の3次元点列データを消去し、ステップS33に進む。具体的には、モデル補正部22dは、ステップS32において、図8に示すように、エッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0以上と判定すると、腸管表面を示す3次元点列データ線上から、エッジの端点Ai,j,Bi,j間の3次元点列データを、図9に示すように消去して、オクルージョン領域として補正した3次元点列データ線を生成する。   If the distance Di, j between the edge points Ai, j, Bi, j is determined to be equal to or greater than the predetermined value D0, the model correction unit 22d of the CPU 22 determines between the edge points Ai, j, Bi, j in step S32. Is determined as a portion expressed as an occlusion area, the three-dimensional point sequence data between the edge endpoints Ai, j, Bi, j is deleted, and the process proceeds to step S33. Specifically, when the model correction unit 22d determines in step S32 that the distance Di, j between the edge endpoints Ai, j, Bi, j is equal to or greater than a predetermined value D0, as shown in FIG. The three-dimensional point sequence data line between the end points Ai, j, Bi, j of the edge is deleted as shown in FIG. 9 and corrected as an occlusion area. Is generated.

そして、CPU22のモデル補正部22dはステップS33にてパラメータjがエッジ線Li上のすべての点数Nj未満かどうか判断し、パラメータjがエッジ線Li上のすべての点数Nj未満の場合には、ステップS34にてパラメータjをインクリメントしてステップS25に戻り、エッジ線Li上のすべての点について、上記ステップS25〜S34を繰り返す。   Then, the model correction unit 22d of the CPU 22 determines whether or not the parameter j is less than all the points Nj on the edge line Li in step S33. If the parameter j is less than all the points Nj on the edge line Li, step S33 is performed. In step S34, the parameter j is incremented and the process returns to step S25, and the above steps S25 to S34 are repeated for all points on the edge line Li.

エッジ線Li上のすべての点について上記ステップS25〜S33が実施されると、CPU22のモデル補正部22dはステップS35にてパラメータiがすべてのエッジ線数Ni未満かどうか判断し、パラメータiがすべてのエッジ線数Ni未満の場合には、ステップS36にてパラメータiをインクリメントしてステップS24に戻り、すべてのエッジ線について、上記ステップS24〜S36を繰り返す。   When the above steps S25 to S33 are performed for all points on the edge line Li, the model correction unit 22d of the CPU 22 determines whether or not the parameter i is less than the number of all edge lines Ni in step S35. If the number of edge lines is less than Ni, the parameter i is incremented in step S36 and the process returns to step S24, and the above steps S24 to S36 are repeated for all edge lines.

次に、上記ステップS31における3次元点列データの補正処理について説明する。この3次元点列データの補正処理では、CPU22のモデル補正部22dは、図10に示すように、ステップS41にて3次元点列データを有する3次元空間上に、(注目点である)エッジ点Pi,jを中心とするN×N×Nの立方領域を形成し、このN×N×Nの立方領域内に含まれる3次元点列データの座標の平均値を算出する。そして、CPU22のモデル補正部22dは、ステップS42にて、算出した平均値によりエッジ部分の点列データ線上の3次元点列データの座標データを平滑化する。   Next, the three-dimensional point sequence data correction process in step S31 will be described. In this three-dimensional point sequence data correction process, as shown in FIG. 10, the model correction unit 22d of the CPU 22 performs an edge (which is a point of interest) on the three-dimensional space having the three-dimensional point sequence data in step S41. An N × N × N cubic region centered on the point Pi, j is formed, and an average value of coordinates of the three-dimensional point sequence data included in the N × N × N cubic region is calculated. In step S42, the model correction unit 22d of the CPU 22 smoothes the coordinate data of the three-dimensional point sequence data on the point sequence data line of the edge portion using the calculated average value.

図10の処理を具体的に説明すると、例えば、図11に示すように、N=5として(注目点である)エッジ点Pi,jを中心とする5×5×5の立方領域を、3次元点列データを有する3次元空間上に形成する。そして、この5×5×5の立方領域内に含まれる3次元点列データの座標の平均値を算出し、算出した平均値によりエッジ部分の点列データ線上の3次元点列データの座標データを平滑化することで、図12に示すような補正後の点列データ線を得ることができる。   The processing in FIG. 10 will be described in detail. For example, as shown in FIG. 11, N = 5 and a 3 × 5 × 5 cubic region centered on the edge point Pi, j (which is the point of interest) is 3 It is formed on a three-dimensional space having dimension point sequence data. Then, the average value of the coordinates of the three-dimensional point sequence data included in the 5 × 5 × 5 cubic region is calculated, and the coordinate data of the three-dimensional point sequence data on the point sequence data line of the edge portion is calculated by the calculated average value. By smoothing, it is possible to obtain a corrected point sequence data line as shown in FIG.

なお、3次元点列データの補正処理は、図10の処理に限らず、以下の変形例1、2の3次元点列データの補正処理を実施してもよい。   The 3D point sequence data correction process is not limited to the process shown in FIG. 10, and the 3D point sequence data correction process of the following modifications 1 and 2 may be performed.

(変形例1)
この変形例1の3次元点列データの補正処理では、CPU22のモデル補正部22dは、図13に示すように、ステップS41aにて、N=5として(注目点である)エッジ点Pi,jを中心とする5×5の正方領域を、画像入力部21から出力される2次元画像上に形成する。そして、CPU22のモデル補正部22dは、ステップS42aにて、この5×5の正方領域内に含まれる2次元画像の座標点のそれぞれの画素値(濃淡値)の平均値を算出する。
(Modification 1)
In the three-dimensional point sequence data correction process according to the first modification, the model correction unit 22d of the CPU 22 sets N = 5 (is an attention point) edge point Pi, j in step S41a as shown in FIG. Is formed on the two-dimensional image output from the image input unit 21. In step S42a, the model correction unit 22d of the CPU 22 calculates an average value of the pixel values (light / dark values) of the coordinate points of the two-dimensional image included in the 5 × 5 square area.

この変形例の場合、すべての平均(平滑化)処理が行われた後で、エッジ領域について3次元点列データの再計算を行い、3次元点列データの更新を行う。   In the case of this modification, after all the averaging (smoothing) processing is performed, the 3D point sequence data is recalculated for the edge region, and the 3D point sequence data is updated.

(変形例2)
この変形例2の3次元点列データの補正処理では、CPU22のモデル補正部22dは、図14に示すように、ステップS41bにて、エッジの端点Ai,j,Bi,jから、エッジの端点Ai,j,Bi,jをそれぞれ含む連続するN点(ただし、(注目点である)エッジ点Pi,jから離れる方向のN点)の座標を取得し直線に近似し、近似した2直線をx=0平面に投影し、投影した2つの近似直線の交点を求める。具体的には、例えばN =3としたとき、図15に示すように、エッジの端点Ai,j,Bi,jをそれぞれ含む直線に近似し、x=0平面に投影した2つの近似直線の交点Qi,jを求める。
(Modification 2)
In the correction process of the three-dimensional point sequence data of the second modification, the model correction unit 22d of the CPU 22 determines from the edge endpoints Ai, j, Bi, j to the edge endpoints in step S41b as shown in FIG. Acquire the coordinates of consecutive N points each including Ai, j, Bi, j (however, the N points in the direction away from the edge point Pi, j (which is the point of interest)) and approximate them to a straight line. Project onto the x = 0 plane and find the intersection of the two projected approximate lines. Specifically, for example, when N = 3, as shown in FIG. 15, two approximate lines projected onto the x = 0 plane are approximated by straight lines including edge endpoints Ai, j, Bi, j, respectively. Find the intersection point Qi, j.

続いて、CPU22のモデル補正部22dは、ステップS42bにて、エッジ領域の各点の例えばz座標と、交点Qi,jの例えばz座標とを比較し、その大小関係に応じて補正に使用する近似直線を決定する。具体的には、図16に示すように、エッジ領域の各点のy座標が交点Qi,jのy座標より小さい場合には、交点Qi,jのy座標より小さい座標値を使用して近似した近似直線(図16の場合、エッジの端点Ai,j側の近似直線)を使用し、逆にエッジ領域の各点のy座標が交点Qi,jのy座標より大きい場合には、交点Qi,jのy座標より大きい座標値を使用して近似した近似直線(図16の場合、エッジの端点Bi,j側の近似直線)を使用する。そして、使用する近似直線を決定した後、補正対象となるエッジ領域の点のy座標を近似直線に代入する(置き換える)こととにより補正点を決定する。   Subsequently, in step S42b, the model correction unit 22d of the CPU 22 compares, for example, the z coordinate of each point in the edge region with the z coordinate of the intersection point Qi, j and uses it for correction according to the magnitude relationship. Determine an approximate line. Specifically, as shown in FIG. 16, when the y coordinate of each point in the edge region is smaller than the y coordinate of the intersection point Qi, j, approximation is performed using coordinate values smaller than the y coordinate of the intersection point Qi, j. If the y-coordinate of each point in the edge region is larger than the y-coordinate of the intersection point Qi, j, the intersection point Qi is used. , j is used as an approximate straight line approximated using a coordinate value larger than the y coordinate (in FIG. 16, an approximate straight line on the edge end point Bi, j side of the edge). Then, after determining the approximate straight line to be used, the correction point is determined by substituting (replacement) the y coordinate of the point of the edge region to be corrected into the approximate straight line.

上述したように本実施例及び変形例1、2では、3次元データの着目点における位置(Z座標)を用いて閾値を補正するため、対象の反射/散乱特性や対象への2次光による影響を除外した閾値をポリープ検出処理に使用でき、ポリープ候補の検出精度を向上させることができる。よって、ユーザに対して、大腸内視鏡検査においてポリープ候補発見率の向上を促すことが可能となる。   As described above, in the present embodiment and the first and second modifications, the threshold value is corrected using the position (Z coordinate) at the point of interest in the three-dimensional data. The threshold value excluding the influence can be used for the polyp detection process, and the detection accuracy of the polyp candidate can be improved. Therefore, it is possible to prompt the user to improve the polyp candidate discovery rate in the colonoscopy.

図17ないし図25は本発明の実施例2に係わり、図17はハードディスクの格納情報構成を示す図、図18は実施例2を説明する第1の図、図19は実施例2を説明する第2の図、図20は実施例2を説明する第3の図、図21は実施例2に係るCPUの処理の流れを示すフローチャート、図22は図21の3次元モデルデータの補正処理の流れを示すフローチャート、図23は図22の処理を説明する第1の図、図24は図22の処理を説明する第2の図、図25は図22の処理を説明する第3の図である。   17 to 25 relate to the second embodiment of the present invention, FIG. 17 is a diagram showing a storage information configuration of the hard disk, FIG. 18 is a first diagram for explaining the second embodiment, and FIG. 19 is for explaining the second embodiment. FIG. 2 is a third diagram for explaining the second embodiment, FIG. 21 is a flowchart showing the processing flow of the CPU according to the second embodiment, and FIG. 22 is a flowchart of the three-dimensional model data correction process of FIG. FIG. 23 is a first diagram for explaining the processing of FIG. 22, FIG. 24 is a second diagram for explaining the processing of FIG. 22, and FIG. 25 is a third diagram for explaining the processing of FIG. is there.

本実施例の構成は実施例1とほとんど同じであるので、異なる点のみ説明する。   Since the configuration of the present embodiment is almost the same as that of the first embodiment, only different points will be described.

本実施例では、図17に示すように、ハードディスク27は、エッジ画像格納領域27a,エッジ細線化画像格納領域27b,3次元点列データ格納領域27c,対応テーブル格納領域27d,検出病変部格納領域27eの他に、さらにモフォロジーパラメータマップ格納領域27fを有している。その他の構成は実施例1と同じである。   In this embodiment, as shown in FIG. 17, the hard disk 27 includes an edge image storage area 27a, an edge thinned image storage area 27b, a three-dimensional point sequence data storage area 27c, a correspondence table storage area 27d, and a detected lesion part storage area. In addition to 27e, it further has a morphology parameter map storage area 27f. Other configurations are the same as those of the first embodiment.

上述したように、”Shape From Shading“法では、2次元画像上にエッジがある場合、エッジ上の画素数が低い値をとるために、そのエッジ部分に溝が存在するかのごとく推定値を算出してしまう問題があり、例えば実施例1のような補正を実施しても、補正もれにより、スパイク状またはエッジ状のノイズが発生してしまう場合がある。   As described above, in the “Shape From Shading” method, when there is an edge on a two-dimensional image, since the number of pixels on the edge takes a low value, an estimated value is obtained as if a groove exists in the edge portion. For example, even if the correction as in the first embodiment is performed, spike-shaped or edge-shaped noise may occur due to the leakage of the correction.

一般に、ノイズ除去の方法として、モフォロジー変換一つであるdilation処理とerosion処理との組み合わせが、広く利用される。   In general, a combination of dilation processing and erosion processing, which is one morphological transformation, is widely used as a noise removal method.

このモフォロジー変換は、3次元サーフェイス上に球を転がすときの球の中心を出力する変換方法であり、dilation処理は腸管の表面に、erosion処理は腸管の裏面に球を転がすこととなる。   This morphological conversion is a conversion method for outputting the center of a sphere when the sphere is rolled on a three-dimensional surface. The dilation process rolls the sphere to the surface of the intestine and the erosion process rolls the sphere to the back of the intestine.

上記モフォロジー変換における球の中心は、対象となるのノイズの大きさによって決定する。例えば図18のように、例えば1画素の幅のノイズのあるサーフェイス表面に例えば直径5の球300aを転がす場合、その中心の軌跡は直線となるため、その軌跡のなすサーフェイス裏側から同じサイズの球を転がすことによってノイズを埋めることができる。   The center of the sphere in the morphological transformation is determined by the size of the target noise. For example, as shown in FIG. 18, for example, when a sphere 300a having a diameter of 5 is rolled on a noisy surface having a width of one pixel, the locus of the center is a straight line, and thus the sphere of the same size from the back side of the surface formed by the locus. The noise can be filled by rolling

しかし、図19のように、例えば5画素の幅のノイズのあるサーフェイス表面に、上記直径5の球300aを転がす場合、その中心の軌跡のなすサーフェイス表面にもノイズのくぼみが存在し、サーフェイスの裏側から球を転がしてもノイズを除去できない。   However, as shown in FIG. 19, for example, when the sphere 300a having a diameter of 5 is rolled on the surface of the noise surface having a width of 5 pixels, there is a noise dent on the surface of the surface formed by the locus of the center. Even if you roll the ball from the back side, you can not remove the noise.

3次元データ全体にゴマシオ上のノイズがのる場合、そのノイズの大きさは小サイズであるが、エッジ上に存在するスパイク状ノイズまたはエッジ状ノイズの大きさはエッジの太さに依存する。よって、2次元画像にエッジが存在する位置では、平滑化のための球の直径、すなわち平滑化のパラメタを変更する必要がある。   When noise on Gomasio is placed on the entire three-dimensional data, the magnitude of the noise is small, but the magnitude of spike-like noise or edge-like noise existing on the edge depends on the thickness of the edge. Therefore, at the position where the edge exists in the two-dimensional image, it is necessary to change the diameter of the sphere for smoothing, that is, the smoothing parameter.

例えば、図20に示すように、モフォロジー変換時の球サイズが十分な大きさの球300bを持っている場合には、球サイズに最適なノイズ大きさから、より小サイズのノイズまでを平滑化することが可能となるが、球サイズを大きくするに従って、処理速度が低下するため、ノイズの大きさに最適な球サイズを決定して処理を実行しなければ処理速度が低下する。   For example, as shown in FIG. 20, when a sphere 300b having a sufficiently large sphere size at the time of morphological transformation is present, smoothing is performed from a noise size optimum for the sphere size to a smaller size noise. However, since the processing speed decreases as the sphere size increases, the processing speed decreases unless the sphere size optimum for the noise level is determined and executed.

本実施例では、図21に示すように、CPU22のモデル補正部22dにより、実施例1で説明したステップS2のモデル補正処理後に、ステップS10にてモフォロジーパラメータWiによるモフォロジー処理を実行し、実施例1で説明したステップS3に処理を移行する。   In the present embodiment, as illustrated in FIG. 21, the model correction unit 22d of the CPU 22 executes the morphology processing using the morphology parameter Wi in step S10 after the model correction processing in step S2 described in the first embodiment. The process proceeds to step S3 described in 1.

具体的には、本実施例では、ステップS2のモデル補正処理において、CPU22のモデル補正部22dは、図22に示すように、ステップS100及びS101にて、図23に示すような3次元空間を一定間隔の立方小領域に分割し、各小領域にモフォロジーパラメタを格納可能なマップを作成し、図24に示すエッジ線幅Di,jに対する、図25に示すようなモフォロジー変換パラメタWi,jの対応テーブルをハードディスク27のモフォロジーパラメータマップ格納領域27fに格納する。   Specifically, in this embodiment, in the model correction process in step S2, the model correction unit 22d of the CPU 22 creates a three-dimensional space as shown in FIG. 23 in steps S100 and S101 as shown in FIG. A map capable of storing morphological parameters in each small area is created by dividing into cubic small areas having a constant interval, and the morphological transformation parameters Wi, j as shown in FIG. 25 for the edge line width Di, j shown in FIG. The correspondence table is stored in the morphology parameter map storage area 27 f of the hard disk 27.

すなわち、モデル補正部22dは、ステップS100にて、エッジ細線化画像のうちの1つのエッジを処理対象として選択取得し、エッジ線のうちの1つの選択点におけるエッジ幅Wi,jを算出する。続いて、モデル補正部22dは、図25のエッジ線幅Di,jとモフォロジー変換パラメタWi,jの対応テーブルを用いて、モフォロジー変換パラメタWを取得する。   That is, in step S100, the model correction unit 22d selects and acquires one edge of the edge thinned image as a processing target, and calculates the edge width Wi, j at one selected point of the edge line. Subsequently, the model correction unit 22d acquires the morphology conversion parameter W using the correspondence table of the edge line width Di, j and the morphology conversion parameter Wi, j in FIG.

そして、モデル補正部22dは、ステップS101にて、ステップS100の処理を実施したエッジ線上の選択点に対応する3次元座標を、ハードディスク27に記録された対応点テーブルから取得し、取得した3次座標に対応する3次元小領域マップの座標位置を求める。求めた3次元小領域マップの座標位置へ、前記モフォロジー変換パラメタWを加算格納するとともに、座標位置におけるカウント値を1つ加算する。   In step S101, the model correction unit 22d acquires the three-dimensional coordinates corresponding to the selected point on the edge line on which the process of step S100 has been performed from the corresponding point table recorded on the hard disk 27, and acquires the acquired tertiary. The coordinate position of the three-dimensional small area map corresponding to the coordinates is obtained. The morphology transformation parameter W is added and stored at the coordinate position of the obtained three-dimensional small area map, and one count value at the coordinate position is added.

ここで、エッジ線幅Di,jは、図24に示すように、エッジ細線化画像のエッジ細線上の点において、エッジ線に直交する線を引いたときの、エッジ画像の対応するエッジの幅を示す。また、エッジ画像におけるモフォロジー変換パラメタWi,jは、前述の球(図18ないし図20参照)の直径を示す。   Here, the edge line width Di, j is the width of the corresponding edge of the edge image when a line orthogonal to the edge line is drawn at a point on the edge thin line of the edge thinned image as shown in FIG. Indicates. In addition, the morphological transformation parameter Wi, j in the edge image indicates the diameter of the sphere (see FIGS. 18 to 20).

そして、上記ステップS10にて、モフォロジー変換時のモフォロジー変換パラメタWを3次元座標に基づき決定して、モフォロジー変換処理であるdilation処理、erosion処理を連続実行し、ノイズ除去処理を行う。   In step S10, the morphology transformation parameter W at the time of morphology transformation is determined based on the three-dimensional coordinates, and the dilation processing and erosion processing which are the morphology transformation processing are continuously executed to perform the noise removal processing.

以上の処理を、画像上の全エッジの全点に対して処理を実施した後、3次元小領域マップの各座標位置におけるモフォロジー変換パラメタWを、各座標位置におけるカウント値により平均化する。このような処理により、3次元座標位置に基づき3次元小領域マップを参照することにより平滑化に最適なパラメタを取得することを実現する。   After the above processing is performed on all points of all edges on the image, the morphological transformation parameter W at each coordinate position of the three-dimensional small region map is averaged by the count value at each coordinate position. By performing such processing, it is possible to obtain the optimum parameter for smoothing by referring to the three-dimensional small area map based on the three-dimensional coordinate position.

本発明は、上述した実施例に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。   The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.

本発明の実施例1に係る医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図The figure which shows an example of the whole structure of the endoscope system in which the medical image processing apparatus which concerns on Example 1 of this invention is used. 図1のCPUの機能構成を示す機能ブロック図Functional block diagram showing the functional configuration of the CPU of FIG. 図1のハードディスクの格納情報構成を示す図The figure which shows the storage information structure of the hard disk of FIG. 図2のCPUの処理の流れを示すフローチャートThe flowchart which shows the flow of a process of CPU of FIG. 図4の3次元モデルデータの補正処理の流れを示すフローチャートThe flowchart which shows the flow of the correction process of the three-dimensional model data of FIG. 図1の処理を説明する第1の図1st figure explaining the process of FIG. 図1の処理を説明する第2の図2nd figure explaining the process of FIG. 図1の処理を説明する第3の図3rd figure explaining the process of FIG. 図1の処理を説明する第4の図4th figure explaining the process of FIG. 図5のエッジ領域としてエッジ端点間の3次元点列データの補正処理の流れを示すフローチャートThe flowchart which shows the flow of the correction process of the three-dimensional point sequence data between edge endpoints as an edge area | region of FIG. 図1の処理を説明する第5の図5th figure explaining the process of FIG. 図1の処理を説明する第6の図6th figure explaining the process of FIG. 図10の第1の変形例の処理の流れを示すフローチャートThe flowchart which shows the flow of a process of the 1st modification of FIG. 図10の第2の変形例の処理の流れを示すフローチャートThe flowchart which shows the flow of a process of the 2nd modification of FIG. 図15の処理を説明する第1の図First diagram for explaining the processing of FIG. 図15の処理を説明する第2の図FIG. 15 is a second diagram for explaining the processing of FIG. 本発明の実施例2に係るハードディスクの格納情報構成を示す図The figure which shows the storage information structure of the hard disk based on Example 2 of this invention. 実施例2を説明する第1の図1st figure explaining Example 2 実施例2を説明する第2の図The 2nd figure explaining Example 2 実施例2を説明する第3の図The 3rd figure explaining Example 2 実施例2に係るCPUの処理の流れを示すフローチャートThe flowchart which shows the flow of processing of CPU which concerns on Example 2. FIG. 図21の3次元モデルデータの補正処理の流れを示すフローチャートThe flowchart which shows the flow of the correction process of the three-dimensional model data of FIG. 図22の処理を説明する第1の図First diagram for explaining the processing of FIG. 図22の処理を説明する第2の図The second figure explaining processing of Drawing 22 図22の処理を説明する第3の図3rd figure explaining the process of FIG. 従来例の課題を説明する第1の図1st figure explaining the subject of a prior art example 従来例の課題を説明する第2の図2nd figure explaining the subject of a prior art example 従来例の課題を説明する第3の図3rd figure explaining the subject of a prior art example

符号の説明Explanation of symbols

1…内視鏡システム
2…医療用観察装置
3…医療用画像処理装置
4、9…モニタ
6…内視鏡
7…光源装置
8…CCU
11…挿入部
12…操作部
13…ライトガイド
14…先端部
15…対物光学系
16…撮像素子
17…撮像部
21…画像入力部
22…CPU
22a…3次元モデル推定部
22b…検出対象領域設定部
22c…形状特徴量算出部
22d…モデル補正部
22e…3次元形状検出部
22f…ポリープ決定部
23…処理プログラム記憶部
24…画像記憶部
25…解析情報記憶部
26…記憶装置I/F
27…ハードディスク
28…表示処理部
29…入力操作部
30…データバス
DESCRIPTION OF SYMBOLS 1 ... Endoscope system 2 ... Medical observation apparatus 3 ... Medical image processing apparatus 4, 9 ... Monitor 6 ... Endoscope 7 ... Light source apparatus 8 ... CCU
DESCRIPTION OF SYMBOLS 11 ... Insertion part 12 ... Operation part 13 ... Light guide 14 ... Tip part 15 ... Objective optical system 16 ... Imaging element 17 ... Imaging part 21 ... Image input part 22 ... CPU
22a ... 3D model estimation unit 22b ... detection target region setting unit 22c ... shape feature amount calculation unit 22d ... model correction unit 22e ... 3D shape detection unit 22f ... polyp determination unit 23 ... processing program storage unit 24 ... image storage unit 25 ... Analysis information storage unit 26 ... Storage device I / F
27 ... Hard disk 28 ... Display processing unit 29 ... Input operation unit 30 ... Data bus

Claims (6)

医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定手段と、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出手段と、
前記画像境界線の線幅を算出する線幅算出手段と、
前記線幅に基づき、前記3次元モデル推定手段における、前記画像境界線の3次元モデルの推定結果を補正する補正手段と、
を備えたことを特徴とする医療用画像処理装置。
Three-dimensional model estimation means for estimating a three-dimensional model of the living tissue from a two-dimensional image of the image of the living tissue in the body cavity input from the medical imaging device;
Image boundary detection means for detecting an image boundary of an image area constituting the two-dimensional image,
A line width calculating means for calculating a line width of the image boundary line;
Correction means for correcting the estimation result of the three-dimensional model of the image boundary line in the three-dimensional model estimation means based on the line width;
A medical image processing apparatus comprising:
前記補正手段は、
前記線幅の値と所定値を比較し、
前記線幅の値が前記所定値以内ならば前記画像境界線を第1の補正対象画像とし、
前記線幅の値が前記所定値を超えている場合には前記画像境界線を第2の補正対象画像とし、
前記第1の補正対象画像あるいは前記第2の補正対象画像に応じて、前記3次元モデル推定手段における、前記画像境界線の3次元モデルの推定結果を補正する
ことを特徴とする請求項1に記載の医療用画像処理装置。
The correction means includes
Compare the line width value with a predetermined value,
If the value of the line width is within the predetermined value, the image boundary line is set as a first correction target image,
When the line width value exceeds the predetermined value, the image boundary line is set as a second correction target image,
The estimation result of the three-dimensional model of the image boundary line in the three-dimensional model estimation means is corrected according to the first correction target image or the second correction target image. The medical image processing apparatus described.
前記第1の補正対象画像は、前記画像境界線を溝と見なした溝画像であり、
前記第2の補正対象画像は、前記画像境界線をオクルージョンと見なしたオクルージョン画像である
ことを特徴とする請求項2に記載の医療用画像処理装置。
The first correction target image is a groove image in which the image boundary line is regarded as a groove,
The medical image processing apparatus according to claim 2, wherein the second correction target image is an occlusion image in which the image boundary line is regarded as occlusion.
前記補正手段は、前記3次元モデル推定手段における、前記画像境界線の画素値の平均値に基づいて、前記画像境界線の3次元モデルの推定結果を補正する
ことを特徴とする請求項1、2または3のいずれかに記載の医療用画像処理装置。
The correction unit corrects an estimation result of the three-dimensional model of the image boundary line based on an average value of pixel values of the image boundary line in the three-dimensional model estimation unit. The medical image processing apparatus according to any one of 2 and 3.
前記補正手段は、前記3次元モデル推定手段における、前記画像境界線の画素値を近似して、前記画像境界線の3次元モデルの推定結果を補正する
ことを特徴とする請求項1、2または3のいずれかに記載の医療用画像処理装置。
The correction means approximates the pixel value of the image boundary line in the three-dimensional model estimation means, and corrects the estimation result of the three-dimensional model of the image boundary line. 4. The medical image processing apparatus according to any one of 3.
医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定ステップと、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出ステップと、
前記画像境界線の線幅を算出する線幅算出ステップと、
前記線幅に基づき、前記3次元モデル推定ステップにおける、前記画像境界線の3次元モデルの推定結果を補正する補正ステップと、
を備えたことを特徴とする医療用画像処理方法。
A three-dimensional model estimation step for estimating a three-dimensional model of the living tissue from a two-dimensional image of the image of the living tissue in the body cavity input from the medical imaging device;
An image boundary detection step for detecting an image boundary of an image region constituting the two-dimensional image image;
A line width calculating step of calculating a line width of the image boundary line;
A correction step of correcting an estimation result of the three-dimensional model of the image boundary line in the three-dimensional model estimation step based on the line width;
A medical image processing method comprising:
JP2006279236A 2006-10-12 2006-10-12 Medical image processing apparatus and medical image processing method Pending JP2008093213A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006279236A JP2008093213A (en) 2006-10-12 2006-10-12 Medical image processing apparatus and medical image processing method
PCT/JP2007/061628 WO2008044365A1 (en) 2006-10-12 2007-06-08 Medical image processing device and medical image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006279236A JP2008093213A (en) 2006-10-12 2006-10-12 Medical image processing apparatus and medical image processing method

Publications (1)

Publication Number Publication Date
JP2008093213A true JP2008093213A (en) 2008-04-24

Family

ID=39282576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006279236A Pending JP2008093213A (en) 2006-10-12 2006-10-12 Medical image processing apparatus and medical image processing method

Country Status (2)

Country Link
JP (1) JP2008093213A (en)
WO (1) WO2008044365A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2008136098A1 (en) * 2007-04-24 2010-07-29 オリンパスメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing method
JP2012011137A (en) * 2010-07-05 2012-01-19 Olympus Corp Image processing apparatus, image processing method, and image processing program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020194693A1 (en) * 2019-03-28 2020-10-01 Hoya株式会社 Endoscope processor, information processing device, endoscope system, program, and information processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337845A (en) * 1998-05-25 1999-12-10 Mitsubishi Electric Corp Endoscope device
EP1436771B1 (en) * 2001-10-16 2011-06-22 The University of Chicago Computer-aided detection of three-dimensional lesions
JP4652694B2 (en) * 2004-01-08 2011-03-16 オリンパス株式会社 Image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2008136098A1 (en) * 2007-04-24 2010-07-29 オリンパスメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing method
JP2012011137A (en) * 2010-07-05 2012-01-19 Olympus Corp Image processing apparatus, image processing method, and image processing program

Also Published As

Publication number Publication date
WO2008044365A1 (en) 2008-04-17

Similar Documents

Publication Publication Date Title
JP4994737B2 (en) Medical image processing apparatus and medical image processing method
JP5242381B2 (en) Medical image processing apparatus and medical image processing method
JP4855868B2 (en) Medical image processing device
US8994801B2 (en) Image processing apparatus
JP5276225B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
JP4902735B2 (en) Medical image processing apparatus and medical image processing method
US8086005B2 (en) Medical image processing apparatus and medical image processing method
JP2007260144A (en) Medical image processing apparatus and medical image processing method
JP7125479B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, METHOD OF OPERATION OF MEDICAL IMAGE PROCESSING APPARATUS, AND ENDOSCOPE SYSTEM
WO2007119295A1 (en) Medical video image processing device and medical video image processing method
JP7385731B2 (en) Endoscope system, image processing device operating method, and endoscope
JP5078486B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
WO2012153568A1 (en) Medical image processing device and medical image processing method
JP4981335B2 (en) Medical image processing apparatus and medical image processing method
JP2008093213A (en) Medical image processing apparatus and medical image processing method
JP4981336B2 (en) Medical image processing apparatus and medical image processing method
JP5148096B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
JP2008023266A (en) Medical image processing apparatus and medical image processing method
WO2023187886A1 (en) Image processing device, image processing method, and storage medium
JP2014171535A (en) Image processor