[go: up one dir, main page]

JP7270626B2 - Medical image processing apparatus, medical image processing system, operating method of medical image processing apparatus, program, and storage medium - Google Patents

Medical image processing apparatus, medical image processing system, operating method of medical image processing apparatus, program, and storage medium Download PDF

Info

Publication number
JP7270626B2
JP7270626B2 JP2020530054A JP2020530054A JP7270626B2 JP 7270626 B2 JP7270626 B2 JP 7270626B2 JP 2020530054 A JP2020530054 A JP 2020530054A JP 2020530054 A JP2020530054 A JP 2020530054A JP 7270626 B2 JP7270626 B2 JP 7270626B2
Authority
JP
Japan
Prior art keywords
image
classification
area
unit
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020530054A
Other languages
Japanese (ja)
Other versions
JPWO2020012872A1 (en
Inventor
駿平 加門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020012872A1 publication Critical patent/JPWO2020012872A1/en
Priority to JP2023071374A priority Critical patent/JP7583100B2/en
Application granted granted Critical
Publication of JP7270626B2 publication Critical patent/JP7270626B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Description

本発明は医用画像処理装置、医用画像処理システム、医用画像処理方法、及びプログラムに係り、特に医用画像における病変の自動分類に関する。 The present invention relates to a medical image processing apparatus, a medical image processing system, a medical image processing method, and a program, and more particularly to automatic classification of lesions in medical images.

医療分野においては、内視鏡システム等のモダリティを用いた検査が行われている。近年、内視鏡スコープを用いて撮像した時系列画像である内視鏡画像等の医用画像を解析して、内視鏡画像に含まれる病変を自動分類し、分類結果を提供する技術が知られている。なお、本明細書において、画像の分類と画像の鑑別とは同じ概念として取り扱うこととする。 In the medical field, examinations using modalities such as endoscope systems are performed. In recent years, techniques have been known for analyzing medical images such as endoscopic images, which are time-series images captured using an endoscope, automatically classifying lesions included in the endoscopic images, and providing classification results. It is In this specification, image classification and image discrimination are treated as the same concept.

特許文献1は、内視鏡を用いて撮像した画像における特徴的な病変部位の検出を支援する内視鏡画像処理システムが記載されている。同文献に記載の内視鏡画像処理システムは、病変推定機能を実行した場合、モニタに表示した画像の中で病変部位と推定される位置を点線で囲んで表示する。 Patent Literature 1 describes an endoscope image processing system that supports detection of a characteristic lesion site in an image captured using an endoscope. When the endoscopic image processing system described in the document executes the lesion estimation function, the position estimated to be the lesion site is surrounded by a dotted line in the image displayed on the monitor.

特許文献2は、血管が撮像されている撮像画像の全体の濃淡についてテクスチャ解析を行い、テクスチャ解析の結果を用いて、非腫瘍、及び腺腫等の病理診断に対応した分類を行う画像処理システムが記載されている。同文献には、分類の正解確率を表示する例が記載されている。 Patent Document 2 discloses an image processing system that performs texture analysis on the overall gradation of a captured image in which blood vessels are captured, and uses the results of the texture analysis to perform classification corresponding to pathological diagnoses such as non-tumor and adenoma. Are listed. The document describes an example of displaying the correctness probability of classification.

特許文献3は、内視鏡装置を用いて撮像した体腔内の画像から診断に不適切な画像を除く内視鏡装置が記載されている。 Patent Literature 3 describes an endoscope apparatus that removes images inappropriate for diagnosis from images of body cavities captured using an endoscope apparatus.

特許文献4は、医用観察装置を用いて生体内管腔を時系列で撮像した時系列画像を処理する画像処理装置が記載されている。同文献に記載の画像処理装置は、時系列画像を構成する画像内の正常粘膜の領域を特定領域として判別する。また、同文献に記載の画像処理装置は、特定領域の信頼度を算出する。 Patent Literature 4 describes an image processing device that processes time-series images obtained by taking time-series images of a lumen in a living body using a medical observation device. The image processing apparatus described in the document identifies a region of normal mucous membranes in images constituting time-series images as a specific region. Also, the image processing apparatus described in the document calculates the reliability of the specific region.

特許第5528255号公報Japanese Patent No. 5528255 特開2017-70609号公報JP 2017-70609 A 特許第4615963号公報Japanese Patent No. 4615963 特許第5576711号公報Japanese Patent No. 5576711

内視鏡装置を用いた体腔内の検査において発見された病変の病種を、AI(Artificial Intelligence)を用いて自動分類を実施する場合、自動分類を実施するAIは、検査中に取得した画像を入力として分類結果を出力する。 When AI (Artificial Intelligence) is used to automatically classify the disease types of lesions discovered during examination of body cavities using an endoscope, the AI that performs automatic classification is based on the images acquired during the examination. is input and the classification result is output.

しかしながら、検査の際に取得した画像は、病変が存在しているにも関わらず、病変が何らかの物体に隠れている場合など病変の一部が写っていないもの、病変が写っていてもぼけているものなど、AIを用いた分類に適していない画像も含まれる。このような場合は、AIは不適切な分類結果を出力してしまう可能性がある。 However, the images acquired during the examination may not show part of the lesion, such as when the lesion is hidden by some object, even though the lesion is present, or may be blurred even if the lesion is shown. It also includes images that are not suitable for classification using AI, such as those with images. In such cases, AI may output inappropriate classification results.

特許文献1から特許文献4に記載の発明は、上記した自動分類に適していない画像を分類する場合、不適切な分類結果が出力されるおそれがある。一方、分類結果が適切であるか否かを観察者が判定することは困難である。 The inventions described in Patent Documents 1 to 4 may output inappropriate classification results when classifying images that are not suitable for automatic classification as described above. On the other hand, it is difficult for an observer to determine whether the classification result is appropriate.

本発明はこのような事情に鑑みてなされたもので、医用画像の自動分類において分類が適切であるか否かを観察者が把握し得る医用画像処理装置、医用画像処理システム、医用画像処理方法、及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances. , and to provide programs.

上記目的を達成するために、次の発明態様を提供する。 In order to achieve the above object, the following aspects of the invention are provided.

第1態様に係る医用画像処理装置は、生体を撮像して生成された撮像画像を取得する画像取得部と、撮像画像を二つ以上のクラスに分類する分類部と、分類部の分類対象の撮像画像における、分類部を用いた分類に寄与した領域の位置を可視化した領域画像を生成する画像生成部と、撮像画像、分類部を用いて導出した分類結果、及び領域画像を表す表示信号を表示装置へ送信する表示信号送信部と、を備え、表示信号送信部は、領域画像を撮像画像と別に表示する表示信号を表示装置へ送信する医用画像処理装置である。 A medical image processing apparatus according to a first aspect includes an image acquisition unit that acquires a captured image generated by imaging a living body, a classification unit that classifies the captured image into two or more classes, and a classification target of the classification unit. An image generator that generates an area image that visualizes the position of the area that contributed to the classification using the classifier in the captured image, and a display signal that represents the captured image, the classification result derived using the classifier, and the area image. a display signal transmission unit for transmitting to the display device, the display signal transmission unit being a medical image processing apparatus for transmitting to the display device a display signal for displaying the region image separately from the captured image.

第1態様によれば、撮像画像を二つ以上のクラスに分類し、撮像画像において分類に寄与した領域を可視化した領域画像を生成し、表示装置を用いて領域画像を撮像画像と別に表示させる。これにより、観察者は分類に寄与した領域を把握でき、分類が適切であるか否かを把握し得る。 According to the first aspect, a captured image is classified into two or more classes, an area image is generated by visualizing an area that has contributed to the classification in the captured image, and the area image is displayed separately from the captured image using a display device. . This allows the observer to grasp the regions that contributed to the classification, and to grasp whether the classification is appropriate.

撮像画像は、医療機器を用いて撮像された医用画像を適用し得る。医用画像とは、内視鏡装置、CT装置、MRI装置、及びX線撮像装置等のモダリティを用いて生成された生体を撮像した画像を表す。 A captured image may be a medical image captured using a medical device. A medical image represents an image of a living body generated using a modality such as an endoscope device, a CT device, an MRI device, and an X-ray imaging device.

クラスとして、規定の医療分類を適用し得る。 As a class, defined medical classifications may apply.

第2態様は、第1態様の医用画像処理装置において、画像生成部は、撮像画像の分類結果に応じて領域画像の可視化形態を変更する構成としてもよい。 According to a second aspect, in the medical image processing apparatus of the first aspect, the image generator may change the visualization form of the region image according to the classification result of the captured image.

第2態様によれば、分類の区別を認識し易くなる。 According to the 2nd aspect, it becomes easy to recognize the distinction of classification.

可視化形態の例として、色を用いた可視化形態、及び位置を変更する可視化形態が挙げられる。これらを併用する可視化形態も可能である。 Examples of visualization features include visualization features using color and visualization features that change position. A visualization form that uses these together is also possible.

第3態様は、第1態様又は第2態様の医用画像処理装置において、分類部は、撮像画像から取得した特徴量に基づいて撮像画像を分類し、画像生成部は、特徴量に基づいて領域画像を生成する構成としてもよい。 A third aspect is the medical image processing apparatus according to the first aspect or the second aspect, wherein the classification unit classifies the captured image based on the feature amount acquired from the captured image, and the image generation unit classifies the region based on the feature amount. An image may be generated.

第3態様によれば、撮像画像の特徴量に基づく領域画像の生成が可能となる。 According to the third aspect, it is possible to generate an area image based on the feature amount of the captured image.

第3態様において、撮像画像を複数の領域に分割し、領域ごとに特徴量を算出し、領域ごとの特徴に基づき撮像画像における分類に寄与した領域を特定してもよい。 In the third aspect, the captured image may be divided into a plurality of areas, the feature amount may be calculated for each area, and the area contributing to the classification in the captured image may be specified based on the feature of each area.

第4態様は、第1態様又は第2態様の医用画像処理装置において、分類部は、学習済みの深層学習器が適用され、画像生成部は、深層学習器における中間層の情報に基づいて領域画像を生成する構成としてもよい。 A fourth aspect is the medical image processing apparatus according to the first aspect or the second aspect, wherein the classifying unit is applied with a trained deep learning device, and the image generating unit generates a region based on intermediate layer information in the deep learning device. An image may be generated.

第4態様によれば、学習済みの深層学習器の中間層の情報に基づく領域画像の生成が可能となる。 According to the fourth aspect, it is possible to generate the region image based on the information of the intermediate layer of the trained deep learning device.

第5態様は、第1態様から第4態様のいずれか一態様の医用画像処理装置において、分類部は、撮像画像に設定された複数の領域ごとに、クラスへの帰属度合いを算出し、帰属度合いに基づいて撮像画像の分類を行う構成としてもよい。 A fifth aspect is the medical image processing apparatus according to any one of the first aspect to the fourth aspect, wherein the classification unit calculates a degree of belonging to a class for each of a plurality of regions set in the captured image, A configuration may be adopted in which the captured images are classified based on the degree.

第5態様によれば、帰属度合いに基づく分類が可能である。 According to the fifth aspect, classification based on the degree of belonging is possible.

帰属度合いの例として、クラスへの帰属確率、及びクラスのスコアが挙げられる。 Examples of the degree of membership include the probability of belonging to a class and the score of the class.

第6態様は、第5態様の医用画像処理装置において、画像生成部は、帰属度合いに基づいて領域画像を生成する構成としてもよい。 A sixth aspect may be configured such that, in the medical image processing apparatus of the fifth aspect, the image generation unit generates a region image based on the degree of belonging.

第6態様によれば、帰属度合いに基づく領域画像の生成が可能である。 According to the sixth aspect, it is possible to generate an area image based on the degree of belonging.

第7態様は、第1態様から第6態様のいずれか一態様の医用画像処理装置において、分類部は、領域画像に基づく分類の例外判定を行い、表示信号送信部は、分類部を用いた例外判定の結果を表す表示信号を表示装置へ送信する構成としてもよい。 A seventh aspect is the medical image processing apparatus according to any one of the first aspect to the sixth aspect, wherein the classifying unit performs classification exception determination based on the area image, and the display signal transmitting unit uses the classifying unit. A display signal indicating the result of the exception determination may be transmitted to the display device.

第7態様によれば、分類が困難な撮像画像について、不適切な分類結果の出力を抑制し得る。 According to the seventh aspect, it is possible to suppress the output of inappropriate classification results for captured images that are difficult to classify.

表示信号送信部は、分類結果に代わり、例外判定の結果を表す表示信号を表示装置へ送信し得る。表示信号送信部は、分類結果、及び例外判定の結果を表す表示信号を表示装置へ送信し得る。 The display signal transmission unit can transmit a display signal representing the exception determination result to the display device instead of the classification result. The display signal transmission unit can transmit a display signal representing the classification result and the exception determination result to the display device.

第8態様は、第7態様の医用画像処理装置において、分類部は、領域画像に基づいて、分類部を用いて導出された分類結果の信頼度を算出し、表示信号送信部は、信頼度を表す表示信号を表示装置へ送信する構成としてもよい。 An eighth aspect is the medical image processing apparatus of the seventh aspect, wherein the classification unit calculates the reliability of the classification result derived using the classification unit based on the region image, and the display signal transmission unit calculates the reliability may be configured to transmit a display signal representing to the display device.

第8態様によれば、分類の信頼度を把握し得る。 According to the eighth aspect, it is possible to grasp the reliability of the classification.

第9態様は、第8態様の医用画像処理装置において、前記撮像画像の記憶指示を取得する記憶指示取得部と、前記撮像画像を記憶する記憶部と、を備え、前記記憶部は、前記撮像画像の記憶指示に基づいて前記記憶部へ前記撮像画像を記憶する際に、前記撮像画像に前記分類結果、前記例外判定の結果、及び前記分類結果の信頼度の少なくともいずれかを関連付けする構成としてもよい。 A ninth aspect is the medical image processing apparatus according to the eighth aspect, comprising a storage instruction acquisition unit that acquires an instruction to store the captured image, and a storage unit that stores the captured image, wherein the storage unit stores the captured image. A configuration in which at least one of the classification result, the exception determination result, and the reliability of the classification result is associated with the captured image when the captured image is stored in the storage unit based on an image storage instruction. good too.

第9態様によれば、撮像画像及び撮像画像に関連付けされた情報を利用し得る。また、撮像画像に関連付けされた情報を確認し得る。 According to the ninth aspect, the captured image and the information associated with the captured image can be used. Also, information associated with the captured image can be confirmed.

第10態様は、第1態様から第9態様のいずれか一態様の医用画像処理装置において、表示信号送信部は、分類結果の文字情報を表す表示信号を表示装置へ送信する構成としてもよい。 According to a tenth aspect, in the medical image processing apparatus according to any one of the first to ninth aspects, the display signal transmission unit may transmit a display signal representing character information of the classification result to the display device.

第10態様によれば、文字情報に基づき分類結果を把握し得る。 According to the tenth aspect, the classification result can be grasped based on the character information.

文字情報は、言語の種類を問わない。文字情報は省略語を適用し得る。 The character information can be of any language type. Textual information may apply abbreviations.

第11態様に係る医用画像処理システムは、生体を撮像して生成された撮像画像を取得する画像取得部と、撮像画像を二つ以上のクラスに分類する分類部と、分類部の分類対象の撮像画像における、分類部を用いた分類に寄与した領域の位置を可視化した領域画像を生成する画像生成部と、撮像画像、及び領域画像を表示する表示装置と、撮像画像、及び領域画像を表す表示信号を表示装置へ送信する表示信号送信部と、を備え、表示信号送信部は、領域画像を撮像画像と別に表示する表示信号を表示装置へ送信する医用画像処理システムである。 A medical image processing system according to an eleventh aspect includes an image acquisition unit that acquires a captured image generated by imaging a living body, a classification unit that classifies the captured image into two or more classes, and a classification target of the classification unit. An image generation unit that generates an area image that visualizes the position of the area that contributed to the classification using the classification unit in the captured image, a display device that displays the captured image and the area image, and the captured image and the area image. a display signal transmission unit that transmits a display signal to a display device, and the display signal transmission unit is a medical image processing system that transmits a display signal for displaying a region image separately from a captured image to the display device .

第11態様によれば、第1態様と同様の効果を得ることができる。 According to the eleventh aspect, the same effects as those of the first aspect can be obtained.

第11態様において、第2態様から第10態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医用画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う医用画像処理システムの構成要素として把握することができる。 In the eleventh aspect, the same matters as those specified in the second to tenth aspects can be appropriately combined. In that case, the components that perform the specified processes and functions in the medical image processing apparatus can be understood as the components of the medical image processing system that perform corresponding processes and functions.

第12態様に係る医用画像処理方法は、生体を撮像して生成された撮像画像を取得する画像取得工程と、撮像画像を二つ以上のクラスに分類する分類工程と、分類工程の分類対象の撮像画像における、分類工程において分類に寄与した領域の位置を可視化した領域画像を生成する画像生成工程と、撮像画像、分類工程において導出した分類結果、及び領域画像を表す表示信号を表示装置へ送信する表示信号送信工程と、を含み、表示信号送信工程は、領域画像を撮像画像と別に表示する表示信号を表示装置へ送信する医用画像処理方法である。 A medical image processing method according to a twelfth aspect includes an image acquisition step of acquiring a captured image generated by imaging a living body, a classification step of classifying the captured image into two or more classes, and a classification target of the classification step. An image generation step of generating an area image that visualizes the position of the area that contributed to the classification in the classification step in the captured image, and transmitting the captured image, the classification result derived in the classification step, and a display signal representing the area image to the display device. and a display signal transmission step for displaying the region image separately from the captured image.

第12態様によれば、第1態様と同様の効果を得ることができる。 According to the twelfth aspect, the same effects as those of the first aspect can be obtained.

第12態様において、第2態様から第10態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医用画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う医用画像処理方法の構成要素として把握することができる。 In the twelfth aspect, the same items as those specified in the second to tenth aspects can be appropriately combined. In this case, the components that perform the specified processes and functions in the medical image processing apparatus can be grasped as the components of the medical image processing method that perform the corresponding processes and functions.

第13態様に係るプログラムは、コンピュータに、生体を撮像して生成された撮像画像を取得する画像取得機能、撮像画像を二つ以上のクラスに分類する分類機能、分類機能の分類対象の撮像画像における、分類機能を用いて分類に寄与した領域の位置を可視化した領域画像を生成する画像生成機能、及び撮像画像、分類機能を用いて導出した分類結果、及び領域画像を表す表示信号を表示装置へ送信する表示信号送信機能であり、領域画像を撮像画像と別に表示する表示信号を表示装置へ送信する表示信号送信機能を実現させるプログラムである。 A program according to a thirteenth aspect provides a computer with an image acquisition function of acquiring a captured image generated by imaging a living body, a classification function of classifying the captured image into two or more classes, and a captured image to be classified by the classification function. 3, an image generation function that generates an area image that visualizes the position of the area that contributed to the classification using the classification function, and a display device that displays the captured image, the classification result derived using the classification function, and the display signal representing the area image It is a program for realizing the display signal transmission function for transmitting a display signal for displaying an area image separately from a captured image to a display device.

第13態様によれば、第1態様と同様の効果を得ることができる。 According to the thirteenth aspect, the same effects as those of the first aspect can be obtained.

第13態様において、第2態様から第10態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医用画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。 In the thirteenth aspect, the same matters as those specified in the second to tenth aspects can be appropriately combined. In such a case, the components responsible for the specified processes and functions in the medical image processing apparatus can be grasped as components of a program responsible for the corresponding processes and functions.

本発明によれば、撮像画像を二つ以上のクラスに分類し、撮像画像において分類に寄与した領域を可視化した領域画像を生成し、表示装置を用いて領域画像を撮像画像と別に表示させる。これにより、観察者は分類に寄与した領域を把握でき、分類が適切であるか否かを把握し得る。 According to the present invention, a captured image is classified into two or more classes, an area image is generated by visualizing areas that have contributed to the classification in the captured image, and the area image is displayed separately from the captured image using a display device. This allows the observer to grasp the regions that contributed to the classification, and to grasp whether the classification is appropriate.

図1は実施形態に係る医用画像処理装置を含む内視鏡システムの全体構成図である。FIG. 1 is an overall configuration diagram of an endoscope system including a medical image processing apparatus according to an embodiment. 図2は医用画像処理装置のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of the medical image processing apparatus. 図3は第一実施形態に係る医用画像処理装置の機能ブロック図である。FIG. 3 is a functional block diagram of the medical image processing apparatus according to the first embodiment. 図4は第一実施形態に適用される表示画面の説明図である。FIG. 4 is an explanatory diagram of a display screen applied to the first embodiment. 図5は比較例に係る表示画面の説明図である。FIG. 5 is an explanatory diagram of a display screen according to a comparative example. 図6は分類結果の信頼性が低い場合の表示画面の説明図である。FIG. 6 is an explanatory diagram of a display screen when the reliability of classification results is low. 図7は分類結果の信頼性が低い場合の他の例を示す表示画面の説明図である。FIG. 7 is an explanatory diagram of a display screen showing another example when the reliability of classification results is low. 図8は複数の病変が存在する場合の表示画面の説明図である。FIG. 8 is an explanatory diagram of a display screen when there are multiple lesions. 図9は分類結果の表示例の説明図である。FIG. 9 is an explanatory diagram of a display example of classification results. 図10は分類結果として帰属確率を表示する例の説明図である。FIG. 10 is an explanatory diagram of an example of displaying belonging probabilities as classification results. 図11は分類結果としてスコアを表示する例の説明図である。FIG. 11 is an explanatory diagram of an example of displaying scores as classification results. 図12は医用画像処理方法の手順を示すフローチャートである。FIG. 12 is a flow chart showing the procedure of the medical image processing method. 図13は領域画像の変形例に係る表示画面の説明図である。FIG. 13 is an explanatory diagram of a display screen according to a modification of the area image. 図14は分類結果の第一変形例に係る表示画面の説明図である。FIG. 14 is an explanatory diagram of a display screen according to the first modified example of classification results. 図15は分類結果の第二変形例に係る表示画面の説明図である。FIG. 15 is an explanatory diagram of a display screen according to the second modified example of classification results. 図16は寄与度に応じた濃淡が適用される領域画像の説明図である。FIG. 16 is an explanatory diagram of an area image to which shading according to the degree of contribution is applied. 図17は寄与度に応じたヒートマップが適用される領域画像の説明図である。FIG. 17 is an explanatory diagram of an area image to which a heat map according to the degree of contribution is applied. 図18はコンボリューションニューラルネットワークを適用した分類部の構成例を示すブロック図である。FIG. 18 is a block diagram showing a configuration example of a classifier to which a convolutional neural network is applied. 図19はコンボリューションニューラルネットワークの特徴量の形状変遷の概念図である。FIG. 19 is a conceptual diagram of shape transition of the feature quantity of the convolution neural network. 図20はコンボリューションニューラルネットワークの中間層の情報に基づく可視化の概念図である。FIG. 20 is a conceptual diagram of visualization based on the information of the intermediate layer of the convolutional neural network. 図21はセグメンテーション技術の説明図である。FIG. 21 is an explanatory diagram of the segmentation technique. 図22は検出不能を示す表示画面の説明図である。FIG. 22 is an explanatory diagram of a display screen indicating that detection is impossible. 図23は判定不能を示す表示画面の説明図である。FIG. 23 is an explanatory diagram of a display screen showing determination impossibility. 図24は第三実施形態に係る医用画像処理装置の機能ブロック図である。FIG. 24 is a functional block diagram of a medical image processing apparatus according to the third embodiment.

以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明は適宜省略することとする。 Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. In this specification, the same components are denoted by the same reference numerals, and overlapping descriptions are omitted as appropriate.

[内視鏡システムの全体構成]
図1は実施形態に係る医用画像処理装置を含む内視鏡システムの全体構成図である。図1に示す内視鏡システム9は、内視鏡10、光源装置11、プロセッサ装置12、表示装置13、医用画像処理装置14、入力装置15、及びモニタ装置16を備える。
[Overall Configuration of Endoscope System]
FIG. 1 is an overall configuration diagram of an endoscope system including a medical image processing apparatus according to an embodiment. An endoscope system 9 shown in FIG. 1 includes an endoscope 10 , a light source device 11 , a processor device 12 , a display device 13 , a medical image processing device 14 , an input device 15 and a monitor device 16 .

内視鏡10は電子内視鏡である。また、内視鏡10は軟性内視鏡である。内視鏡10は挿入部20、操作部21、及びユニバーサルコード22を備える。挿入部20は被検体内に挿入される。挿入部20は、全体が細径で長尺状に形成されている。 The endoscope 10 is an electronic endoscope. Also, the endoscope 10 is a flexible endoscope. The endoscope 10 has an insertion section 20 , an operation section 21 and a universal cord 22 . The insertion section 20 is inserted into the subject. The insertion portion 20 is formed in an elongated shape with a small diameter as a whole.

挿入部20は、軟性部25、湾曲部26、及び先端部27を備える。挿入部20は、軟性部25、湾曲部26、及び先端部27が連設されて構成される。軟性部25は、挿入部20の基端側から先端側に向けて順に可撓性を有する。湾曲部26は、操作部21が操作された場合に湾曲可能な構造を有する。先端部27は、図示しない撮像光学系及び撮像素子28等が内蔵される。 The insertion section 20 includes a flexible section 25 , a curved section 26 and a distal section 27 . The insertion portion 20 is configured by connecting a flexible portion 25, a bending portion 26, and a distal end portion 27. As shown in FIG. The flexible portion 25 has flexibility in order from the proximal end side of the insertion portion 20 toward the distal end side. The bending portion 26 has a structure capable of bending when the operation portion 21 is operated. The distal end portion 27 incorporates an imaging optical system, an imaging element 28, and the like (not shown).

撮像素子28は、CMOS型撮像素子又はCCD型撮像素子が適用される。CMOSは、Complementary Metal Oxide Semiconductorの省略語である。CCDは、Charge Coupled Deviceの省略語である。 The imaging device 28 is applied with a CMOS type imaging device or a CCD type imaging device. CMOS is an abbreviation for Complementary Metal Oxide Semiconductor. CCD is an abbreviation for Charge Coupled Device.

先端部27の先端面27aは、図示しない観察窓が配置される。観察窓は、先端部27の先端面27aに形成された開口である。観察窓は図示しないカバーが取り付けられる。観察窓の後方には、図示しない撮像光学系が配置される。撮像素子28の撮像面は、観察窓、及び撮像光学系等を介して、被観察部位の像光が入射する。撮像素子28は、撮像素子28の撮像面に入射した被観察部位の像光を撮像して、撮像信号を出力する。ここでいう撮像は、被観察部位からの反射光を電気信号へ変換するという意味が含まれる。 An observation window (not shown) is arranged on the distal end surface 27a of the distal end portion 27 . The observation window is an opening formed in the tip surface 27 a of the tip portion 27 . A cover (not shown) is attached to the observation window. An imaging optical system (not shown) is arranged behind the observation window. The imaging surface of the imaging element 28 receives the image light of the site to be observed via the observation window, the imaging optical system, and the like. The imaging device 28 captures image light of the site to be observed that has entered the imaging surface of the imaging device 28 and outputs an imaging signal. Imaging as used herein includes the meaning of converting reflected light from a site to be observed into an electrical signal.

操作部21は挿入部20の基端側に連設される。操作部21は、術者が操作する各種操作部材を備える。具体的には、操作部21は、二種類の湾曲操作ノブ29を備える。湾曲操作ノブ29は、湾曲部26の湾曲操作の際に用いられる。なお、術者は、医師、操作者、観察者、及びユーザなどと呼ばれることがあり得る。 The operation portion 21 is provided continuously on the proximal end side of the insertion portion 20 . The operation unit 21 includes various operation members operated by the operator. Specifically, the operation section 21 includes two types of bending operation knobs 29 . The bending operation knob 29 is used when bending the bending portion 26 . Note that an operator may be called a doctor, an operator, an observer, a user, or the like.

操作部21は、送気送水ボタン30、及び吸引ボタン31を備える。送気送水ボタン30は、術者が送気送水操作を行う際に用いられる。吸引ボタン31は、術者が吸引操作を行う際に用いられる。 The operation unit 21 includes an air/water supply button 30 and a suction button 31 . The air/water supply button 30 is used when the operator performs an air/water supply operation. The suction button 31 is used when the operator performs a suction operation.

操作部21は、静止画像撮像指示部32、及び処置具導入口33を備える。静止画像撮像指示部32は、被観察部位の静止画像を撮像する際に、術者が操作する。処置具導入口33は、挿入部20の内部を挿通している処置具挿通路の内部に処置具を挿入する開口である。なお、処置具挿通路、及び処置具の図示は省略する。静止画像は符号39を付して図3に図示する。 The operation unit 21 includes a still image capturing instruction unit 32 and a treatment instrument introduction port 33 . The still image capturing instruction unit 32 is operated by the operator when capturing a still image of the site to be observed. The treatment instrument introduction port 33 is an opening through which a treatment instrument is inserted into a treatment instrument insertion passage passing through the insertion portion 20 . Illustration of the treatment instrument insertion passage and the treatment instrument is omitted. A still image is shown in FIG.

ユニバーサルコード22は、内視鏡10を光源装置11に接続する接続コードである。ユニバーサルコード22は、挿入部20の内部を挿通しているライトガイド35、信号ケーブル36、及び図示しない流体チューブを内包している。 The universal cord 22 is a connection cord that connects the endoscope 10 to the light source device 11 . The universal cord 22 includes a light guide 35 passing through the insertion portion 20, a signal cable 36, and a fluid tube (not shown).

また、ユニバーサルコード22の先端部は、光源装置11に接続されるコネクタ37a、及びコネクタ37aから分岐され、かつプロセッサ装置12に接続されるコネクタ37bを備える。 The distal end of the universal cord 22 is provided with a connector 37 a connected to the light source device 11 and a connector 37 b branched from the connector 37 a and connected to the processor device 12 .

コネクタ37aを光源装置11に接続すると、ライトガイド35及び図示しない流体チューブが光源装置11に挿入される。これにより、ライトガイド35及び図示しない流体チューブを介して、光源装置11から内視鏡10に対して必要な照明光と水と気体とが供給される。 When the connector 37 a is connected to the light source device 11 , the light guide 35 and fluid tube (not shown) are inserted into the light source device 11 . Thereby, necessary illumination light, water, and gas are supplied from the light source device 11 to the endoscope 10 via the light guide 35 and the fluid tube (not shown).

その結果、先端部27の先端面27aの図示しない照明窓から被観察部位に向けて照明光が照射される。また、送気送水ボタン30の押下操作に応じて、先端部27の先端面27aの図示しない送気送水ノズルから先端面27aの図示しない観察窓に向けて気体又は水が噴射される。 As a result, illumination light is emitted from an illumination window (not shown) of the distal end surface 27a of the distal end portion 27 toward the site to be observed. Further, in response to the pressing operation of the air/water button 30, gas or water is jetted from an air/water nozzle (not shown) on the distal end surface 27a of the distal end portion 27 toward an observation window (not shown) on the distal end surface 27a.

コネクタ37bをプロセッサ装置12に接続すると、信号ケーブル36とプロセッサ装置12とが電気的に接続される。これにより、信号ケーブル36を介して、内視鏡10の撮像素子28からプロセッサ装置12へ被観察部位の撮像信号が出力され、かつプロセッサ装置12から内視鏡10へ制御信号が出力される。 When the connector 37b is connected to the processor device 12, the signal cable 36 and the processor device 12 are electrically connected. As a result, an imaging signal of the site to be observed is output from the imaging device 28 of the endoscope 10 to the processor device 12 via the signal cable 36 , and a control signal is output from the processor device 12 to the endoscope 10 .

本実施形態では、内視鏡10として軟性内視鏡を例に挙げて説明を行ったが、内視鏡10として、硬性内視鏡等の被観察部位の動画撮像を可能な各種の電子内視鏡を用いてもよい。 In the present embodiment, a flexible endoscope has been described as an example of the endoscope 10. However, as the endoscope 10, various types of electronic endoscopes, such as rigid endoscopes, capable of capturing a moving image of a site to be observed can be used. A scope may be used.

光源装置11は、コネクタ37aを介して、内視鏡10のライトガイド35へ照明光を供給する。照明光は、白色光、又は特定の波長帯域の光を適用可能である。照明光は、白色光、及び特定の波長帯域の光を組み合わせてもよい。光源装置11は、観察目的に応じた波長帯域の光を、照明光として適宜選択可能に構成される。 The light source device 11 supplies illumination light to the light guide 35 of the endoscope 10 via the connector 37a. Illumination light can be white light or light in a specific wavelength band. The illumination light may be a combination of white light and light of a specific wavelength band. The light source device 11 is configured such that light in a wavelength band according to the purpose of observation can be appropriately selected as illumination light.

白色光は、白色の波長帯域の光又は複数の波長帯域の光のいずれでもよい。特定の波長帯域は、白色の波長帯域よりも狭い帯域である。特定の波長帯域の光は、一種類の波長帯域の光を適用してもよいし、複数の波長帯域の光を適用してもよい。特定の波長帯域の光は、特殊光と呼ばれる場合がある。 The white light may be either white wavelength band light or multiple wavelength band light. The specific wavelength band is a narrower band than the white wavelength band. As for the light in the specific wavelength band, light in one kind of wavelength band may be applied, or light in a plurality of wavelength bands may be applied. Light in a specific wavelength band is sometimes called special light.

プロセッサ装置12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の動作を制御する。また、プロセッサ装置12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の撮像素子28から撮像信号を取得する。プロセッサ装置12は規定のフレームレートを適用して内視鏡10から出力された撮像信号を取得する。 The processor device 12 controls the operation of the endoscope 10 via the connector 37b and the signal cable 36. FIG. The processor device 12 also acquires an imaging signal from the imaging device 28 of the endoscope 10 via the connector 37b and the signal cable 36 . The processor device 12 acquires the imaging signal output from the endoscope 10 by applying a prescribed frame rate.

プロセッサ装置12は、内視鏡10から取得した撮像信号に基づき、被観察部位の観察画像である内視鏡画像を生成する。ここでいう内視鏡画像38には動画像が含まれる。内視鏡画像38は静止画像39が含まれてもよい。なお、動画像は符号38aを付して図3に図示する。実施形態に示す内視鏡画像38は撮像画像の一例である。 The processor device 12 generates an endoscopic image, which is an observed image of a site to be observed, based on the imaging signal acquired from the endoscope 10 . The endoscopic image 38 referred to here includes a moving image. Endoscopic image 38 may include still image 39 . The moving image is shown in FIG. 3 with reference numeral 38a. The endoscopic image 38 shown in the embodiment is an example of a captured image.

プロセッサ装置12は、操作部21の静止画像撮像指示部32が操作された場合、動画像の生成と並行して、撮像素子28から取得した撮像信号に基づき被観察部位の静止画像39を生成する。静止画像39は、動画像の解像度に対して高解像度に生成されていてもよい。 When the still image imaging instruction section 32 of the operation section 21 is operated, the processor device 12 generates a still image 39 of the site to be observed based on the imaging signal acquired from the imaging device 28 in parallel with the generation of the moving image. . The still image 39 may be generated with a resolution higher than that of the moving image.

内視鏡画像38の生成の際に、プロセッサ装置12はホワイトバランス調整、及びシェーディング補正等のデジタル信号処理を適用した画質の補正を行う。プロセッサ装置12はDICOM規格で規定された付帯情報を内視鏡画像38へ付加してもよい。なお、DICOMは、Digital Imaging and Communications in Medicineの省略語である。 When generating the endoscopic image 38, the processor unit 12 corrects the image quality by applying digital signal processing such as white balance adjustment and shading correction. The processor unit 12 may add additional information defined by the DICOM standard to the endoscopic image 38 . Note that DICOM is an abbreviation for Digital Imaging and Communications in Medicine.

内視鏡画像38は、被検体内、すなわち生体内を撮像した生体内画像である。内視鏡画像38が、特定の波長帯域の光を用いて撮像して得られた画像である場合、内視鏡画像38は特殊光画像である。そして、プロセッサ装置12は、生成した内視鏡画像38を表示装置13と医用画像処理装置14とのそれぞれに出力する。プロセッサ装置12は、DICOM規格に準拠した通信プロトコルに従って、図示しないネットワークを介して内視鏡画像38を、図示しない記憶装置へ出力してもよい。なお、ネットワークは図2に図示するネットワーク140を適用し得る。 The endoscopic image 38 is an in-vivo image obtained by imaging the inside of the subject, that is, the inside of the living body. If the endoscopic image 38 is an image obtained by imaging using light in a specific wavelength band, the endoscopic image 38 is a special light image. The processor device 12 then outputs the generated endoscopic image 38 to the display device 13 and the medical image processing device 14, respectively. The processor device 12 may output the endoscopic image 38 to a storage device (not shown) via a network (not shown) according to a communication protocol conforming to the DICOM standard. In addition, the network can apply the network 140 illustrated in FIG.

表示装置13は、プロセッサ装置12に接続される。表示装置13は、プロセッサ装置12から送信された内視鏡画像38を表示する。術者は、表示装置13に表示される内視鏡画像38を確認しながら、挿入部20の進退操作等をし得る。術者は、被観察部位に病変等を検出した場合に、静止画像撮像指示部32を操作して被観察部位の静止画を撮像し得る。 A display device 13 is connected to the processor device 12 . The display device 13 displays the endoscopic image 38 transmitted from the processor device 12 . The operator can advance and retreat the insertion section 20 while confirming the endoscope image 38 displayed on the display device 13 . When a lesion or the like is detected in the site to be observed, the operator can operate the still image imaging instruction section 32 to capture a still image of the site to be observed.

医用画像処理装置14は、コンピュータが用いられる。入力装置15はコンピュータに接続可能なキーボード及びマウス等が用いられる。入力装置15とコンピュータとの接続は有線接続、又は無線接続のいずれでもよい。モニタ装置16は、コンピュータに接続可能な各種モニタが用いられる。 A computer is used for the medical image processing apparatus 14 . As the input device 15, a keyboard, a mouse, etc., which can be connected to a computer are used. The connection between the input device 15 and the computer may be wired connection or wireless connection. Various monitors connectable to a computer are used as the monitor device 16 .

医用画像処理装置14として、ワークステーション及びサーバ装置等の診断支援装置を用いてもよい。この場合、入力装置15及びモニタ装置16は、それぞれワークステーション等に接続した複数の端末ごとに設けられる。更に、医用画像処理装置14として、医療レポート等の作成支援を行う診療業務支援装置を用いてもよい。 As the medical image processing device 14, a diagnosis support device such as a workstation and a server device may be used. In this case, the input device 15 and the monitor device 16 are provided for each of a plurality of terminals connected to workstations or the like. Furthermore, as the medical image processing device 14, a medical service support device that supports preparation of medical reports and the like may be used.

医用画像処理装置14は、内視鏡画像38の取得、及び内視鏡画像38の記憶を行う。医用画像処理装置14は、モニタ装置16の再生制御を行う。なお、明細書における画像という用語は、画像を表す電気信号、及び画像を表す情報等の画像データという意味が含まれている。本明細書における画像という用語は、画像自身、及び画像データの少なくともいずれかを意味している。 The medical image processing device 14 acquires endoscopic images 38 and stores endoscopic images 38 . The medical image processing device 14 performs reproduction control of the monitor device 16 . Note that the term "image" in the specification includes the meaning of an electric signal representing an image and image data such as information representing an image. The term image as used herein means the image itself and/or the image data.

また、画像の記憶という用語は、画像の保存と読み替えることが可能である。ここでいう画像の記憶は、画像の非一時的記憶を意味する。医用画像処理装置14は画像を一時記憶する一時記憶用のメモリを備えてもよい。 Also, the term "image storage" can be read as "image storage." The storage of images here means non-temporary storage of images. The medical image processing apparatus 14 may include a memory for temporary storage for temporarily storing images.

入力装置15は、医用画像処理装置14に対する操作指示の入力に用いられる。モニタ装置16は、医用画像処理装置14の制御の下、内視鏡画像38の表示を行う。モニタ装置16は、医用画像処理装置14における各種情報の表示部として機能してもよい。 The input device 15 is used to input operation instructions to the medical image processing apparatus 14 . The monitor device 16 displays an endoscopic image 38 under the control of the medical image processing device 14 . The monitor device 16 may function as a display unit for various information in the medical image processing device 14 .

医用画像処理装置14は、図1に図示しないネットワークを介して、図示しない記憶装置と接続され得る。画像の格納形式、及びネットワークを経由した各装置間の通信は、DICOM規格、及びDICOM規格に準拠したプロトコル等を適用可能である。 The medical image processing apparatus 14 can be connected to a storage device (not shown) via a network (not shown in FIG. 1). The DICOM standard, a protocol complying with the DICOM standard, and the like can be applied to the image storage format and communication between devices via the network.

図示しない記憶装置は、データを非一時的に記憶するストレージ等を適用可能である。記憶装置は、図示しないサーバ装置を用いて管理されてもよい。サーバ装置は、各種データを記憶して管理するコンピュータを適用可能である。 The storage device (not shown) can be a storage that stores data non-temporarily. The storage device may be managed using a server device (not shown). A computer that stores and manages various data can be applied to the server device.

実施形態に示す医用画像処理装置14、及びモニタ装置16を含む構成は、医用画像処理システムの一例である。 A configuration including the medical image processing device 14 and the monitor device 16 shown in the embodiment is an example of a medical image processing system.

[第一実施形態に係る医用画像処理装置の説明]
〔医用画像処理装置のハードウェア構成〕
図2は医用画像処理装置のハードウェア構成を示すブロック図である。図2に示す医用画像処理装置14は、制御部120、メモリ122、ストレージ装置124、ネットワークコントローラ126、電源装置128、ディスプレイコントローラ130、入出力インターフェース132、及び入力コントローラ134を備える。なお、図2に示すI/Oは入出力インターフェース132を表す。
[Description of Medical Image Processing Apparatus According to First Embodiment]
[Hardware Configuration of Medical Image Processing Apparatus]
FIG. 2 is a block diagram showing the hardware configuration of the medical image processing apparatus. The medical image processing apparatus 14 shown in FIG. 2 includes a control unit 120, a memory 122, a storage device 124, a network controller 126, a power supply device 128, a display controller 130, an input/output interface 132, and an input controller . Note that I/O shown in FIG. 2 represents the input/output interface 132 .

制御部120、メモリ122、ストレージ装置124、ネットワークコントローラ126、ディスプレイコントローラ130、及び入出力インターフェース132は、バス136を介してデータ通信が可能に接続される。 The control unit 120, memory 122, storage device 124, network controller 126, display controller 130, and input/output interface 132 are connected via a bus 136 so as to be capable of data communication.

〈制御部〉
制御部120は、医用画像処理装置14の全体制御部、各種演算部、及び記憶制御部として機能する。制御部120は、メモリ122に具備されるROM(read only memory)に記憶されているプログラムを実行する。
<Control unit>
The control unit 120 functions as an overall control unit, various calculation units, and a storage control unit of the medical image processing apparatus 14 . The control unit 120 executes programs stored in ROM (read only memory) provided in the memory 122 .

制御部120は、ネットワークコントローラ126を介して、図示しない外部の記憶装置からプログラムをダウンロードし、ダウンロードしたプログラムを実行してもよい。外部の記憶装置は、ネットワーク140を介して医用画像処理装置14と通信可能に接続されていてもよい。 The control unit 120 may download a program from an external storage device (not shown) via the network controller 126 and execute the downloaded program. The external storage device may be communicably connected to the medical image processing apparatus 14 via the network 140 .

制御部120は、メモリ122に具備されるRAM(random access memory)を演算領域とし、各種プログラムと協働して、各種処理を実行する。これにより、医用画像処理装置14の各種機能が実現される。 The control unit 120 uses a RAM (random access memory) provided in the memory 122 as a calculation area, and cooperates with various programs to execute various processes. As a result, various functions of the medical image processing apparatus 14 are realized.

制御部120は、ストレージ装置124からのデータの読み出し、及びストレージ装置124へのデータの書き込みを制御する。制御部120は、ネットワークコントローラ126を介して、外部の記憶装置から各種データを取得してもよい。制御部120は、取得した各種データを用いて、演算等の各種処理を実行可能である。 The control unit 120 controls reading data from the storage device 124 and writing data to the storage device 124 . The control unit 120 may acquire various data from an external storage device via the network controller 126 . The control unit 120 can execute various types of processing such as computation using the various types of acquired data.

制御部120は、一つ、又は二つ以上のプロセッサ(processor)が含まれてもよい。プロセッサの一例として、FPGA(Field Programmable Gate Array)、及びPLD(Programmable Logic Device)等が挙げられる。FPGA、及びPLDは、製造後に回路構成を変更し得るデバイスである。 The controller 120 may include one or two or more processors. Examples of processors include FPGAs (Field Programmable Gate Arrays) and PLDs (Programmable Logic Devices). FPGAs and PLDs are devices whose circuitry can be changed after manufacturing.

プロセッサの他の例として、ASIC(Application Specific Integrated Circuit)が挙げられる。ASICは、特定の処理を実行させるために専用に設計された回路構成を備える。 Another example of the processor is an ASIC (Application Specific Integrated Circuit). An ASIC comprises circuitry specifically designed to perform specific processing.

制御部120は、同じ種類の二つ以上のプロセッサを適用可能である。例えば、制御部120は二つ以上のFPGAを用いてもよいし、二つのPLDを用いてもよい。制御部120は、異なる種類の二つ以上プロセッサを適用してもよい。例えば、制御部120は一つ以上のFPGAと一つ以上のASICとを適用してもよい。 The controller 120 can apply two or more processors of the same type. For example, the controller 120 may use two or more FPGAs, or two PLDs. The controller 120 may employ two or more processors of different types. For example, the controller 120 may employ one or more FPGAs and one or more ASICs.

複数の制御部120を備える場合、複数の制御部120は一つのプロセッサを用いて構成してもよい。複数の制御部120を一つのプロセッサで構成する一例として、一つ以上のCPU(Central Processing Unit)とソフトウェアとの組合せを用いて一つのプロセッサを構成し、このプロセッサが複数の制御部120として機能する形態がある。なお、本明細書におけるソフトウェアはプログラムと同義である。 When a plurality of control units 120 are provided, the plurality of control units 120 may be configured using one processor. As an example of configuring a plurality of control units 120 with one processor, one processor is configured using a combination of one or more CPUs (Central Processing Units) and software, and this processor functions as a plurality of control units 120 There is a form to do. Note that software in this specification is synonymous with a program.

複数の制御部120を一つのプロセッサで構成する他の例として、複数の制御部120を含むシステム全体の機能を一つのICチップで実現するプロセッサを使用する形態が挙げられる。複数の制御部120を含むシステム全体の機能を一つのICチップで実現するプロセッサの代表例として、SoC(System On a Chip)が挙げられる。なお、ICは、Integrated Circuitの省略語である。 Another example of configuring the plurality of controllers 120 with a single processor is a form of using a processor that implements the functions of the entire system including the plurality of controllers 120 with a single IC chip. SoC (System On a Chip) is a representative example of a processor that implements the functions of the entire system including a plurality of control units 120 with a single IC chip. Note that IC is an abbreviation for Integrated Circuit.

このように、制御部120は、ハードウェア的な構造として、各種のプロセッサを一つ以上用いて構成される。 In this way, the control unit 120 is configured using one or more of various processors as a hardware structure.

〈メモリ〉
メモリ122は、図示しないROM、及び図示しないRAMを備える。ROMは、医用画像処理装置14において実行される各種プログラムを記憶する。ROMは、各種プログラムの実行に用いられるパラメータ、及びファイル等を記憶する。RAMは、データの一時記憶領域、及び制御部120のワーク領域等として機能する。
<memory>
The memory 122 includes ROM (not shown) and RAM (not shown). The ROM stores various programs executed in the medical image processing apparatus 14 . The ROM stores parameters, files, and the like used for executing various programs. The RAM functions as a temporary storage area for data, a work area for the control unit 120, and the like.

〈ストレージ装置〉
ストレージ装置124は、各種データを非一時的に記憶する。ストレージ装置124は、医用画像処理装置14の外部に外付けされてもよい。ストレージ装置124に代わり、又はこれと併用して、大容量の半導体メモリ装置を適用してもよい。
<Storage device>
The storage device 124 non-temporarily stores various data. The storage device 124 may be externally attached to the medical image processing apparatus 14 . A large-capacity semiconductor memory device may be applied instead of or in combination with the storage device 124 .

〈ネットワークコントローラ〉
ネットワークコントローラ126は、外部装置との間のデータ通信を制御する。データ通信の制御は、データ通信のトラフィックの管理が含まれてもよい。ネットワークコントローラ126を介して接続されるネットワーク140は、LANなどの公知のネットワークを適用し得る。
<Network controller>
Network controller 126 controls data communication with external devices. Controlling data communications may include managing data communications traffic. The network 140 connected via the network controller 126 can apply a known network such as LAN.

〈電源装置〉
電源装置128は、UPS(Uninterruptible Power Supply)などの大容量型の電源装置が適用される。電源装置128は停電等に起因して商用電源が遮断された際に、医用画像処理装置14の各部へ電源を供給する。
<Power supply>
A large-capacity power supply such as a UPS (Uninterruptible Power Supply) is applied to the power supply 128 . The power supply device 128 supplies power to each part of the medical image processing apparatus 14 when commercial power supply is interrupted due to a power failure or the like.

〈ディスプレイコントローラ〉
ディスプレイコントローラ130は、制御部120から送信される指令信号に基づいてモニタ装置16を制御するディスプレイドライバーとして機能する。
<Display controller>
The display controller 130 functions as a display driver that controls the monitor device 16 based on command signals sent from the controller 120 .

〈入出力インターフェース〉
入出力インターフェース132は、医用画像処理装置14と外部機器と通信可能に接続する。入出力インターフェース132は、USB(Universal Serial Bus)などの通信規格を適用し得る。
<Input/output interface>
The input/output interface 132 communicably connects the medical image processing apparatus 14 and an external device. The input/output interface 132 may apply a communication standard such as USB (Universal Serial Bus).

〈入力コントローラ〉
入力コントローラ134は、入力装置15を用いて入力された信号の形式を医用画像処理装置14の処理に適した形式に変換する。入力コントローラ134を介して入力装置15から入力された情報は、制御部120を介して各部へ送信される。
<Input controller>
The input controller 134 converts the format of the signal input using the input device 15 into a format suitable for processing by the medical image processing apparatus 14 . Information input from the input device 15 via the input controller 134 is transmitted to each section via the control section 120 .

なお、図2に示す医用画像処理装置14のハードウェア構成は一例であり、適宜、追加、削除、及び変更が可能である。なお、図2に示す医用画像処理装置14のハードウェア構成は、第一実施形態の他の実施形態にも適用可能である。 Note that the hardware configuration of the medical image processing apparatus 14 shown in FIG. 2 is an example, and additions, deletions, and changes can be made as appropriate. Note that the hardware configuration of the medical image processing apparatus 14 shown in FIG. 2 can also be applied to other embodiments of the first embodiment.

〔医用画像処理装置の機能ブロックの説明〕
図3は第一実施形態に係る医用画像処理装置の機能ブロック図である。医用画像処理装置14は、画像取得部40、画像処理部42、表示制御部44、及び記憶部46を備える。画像取得部40は、プロセッサ装置12から内視鏡画像38を取得する。画像取得部40は、内視鏡画像38を内視鏡画像記憶部46aへ記憶する。
[Description of Functional Blocks of Medical Image Processing Apparatus]
FIG. 3 is a functional block diagram of the medical image processing apparatus according to the first embodiment. The medical image processing apparatus 14 includes an image acquisition section 40 , an image processing section 42 , a display control section 44 and a storage section 46 . The image acquisition unit 40 acquires the endoscopic image 38 from the processor device 12 . The image acquisition unit 40 stores the endoscopic image 38 in the endoscopic image storage unit 46a.

画像取得部40は、メモリカード等の情報記憶媒体を介して、プロセッサ装置12から内視鏡画像38を取得してもよい。画像取得部40は、図2に示すネットワーク140を介して内視鏡画像38を取得してもよい。 The image acquisition unit 40 may acquire the endoscopic image 38 from the processor device 12 via an information storage medium such as a memory card. The image acquisition unit 40 may acquire the endoscopic image 38 via the network 140 shown in FIG.

すなわち、画像取得部40は、時系列のフレーム画像38bから構成される動画像38aを取得し得る。画像取得部40は動画像38aの撮像途中に静止画撮影が実施された場合に、静止画像39を取得し得る。 That is, the image acquiring unit 40 can acquire the moving image 38a composed of the time-series frame images 38b. The image acquiring unit 40 can acquire the still image 39 when the still image is captured during the capturing of the moving image 38a.

画像処理部42は、分類部48、領域画像生成部50を備える。分類部48は、内視鏡画像38から病変の自動分類を行う。本明細書における分類という用語は、鑑別と読み替えが可能である。 The image processing unit 42 includes a classification unit 48 and an area image generation unit 50 . A classification unit 48 automatically classifies lesions from the endoscopic image 38 . The term classification in this specification can be read interchangeably with identification.

すなわち、分類部48は、内視鏡画像38を規定のクラスに分類し、分類結果を導出し得る。分類部48は、内視鏡画像38の自動分類の際に、動画像38aを構成するフレーム画像38bにクラスの情報を付与する。分類部48は、全てのフレーム画像38bに対してクラスの情報を付与してもよいし、数フレームごとのフレーム画像38bに対してクラスの情報を付与してもよい。分類部48は、静止画像39にクラスの情報を付与してもよい。なお、クラス、及びクラスの情報は、分類結果と読み替えが可能である。 That is, the classification unit 48 can classify the endoscopic images 38 into prescribed classes and derive classification results. When automatically classifying the endoscopic images 38, the classifying unit 48 gives class information to the frame images 38b forming the moving image 38a. The classification unit 48 may assign class information to all frame images 38b, or may assign class information to frame images 38b every few frames. The classification unit 48 may assign class information to the still image 39 . Classes and class information can be read as classification results.

分類部48は、分類結果をフレーム画像38bと関連付けして分類記憶部46bへ記憶する。下記の表1に分類部48に適用されるクラスの例を示す。 The classification unit 48 stores the classification result in the classification storage unit 46b in association with the frame image 38b. Table 1 below shows examples of classes applied to the classifier 48 .

Figure 0007270626000001
Figure 0007270626000001

なお、上記の表1に記載のNICEは、NBI International Colorectal Endoscopic Classificationの省略語である。NBIは、Narrow Band Imagingの省略語である。JNETは、The Japan NBI Expert Teamの省略語である。 NICE described in Table 1 above is an abbreviation for NBI International Colorectal Endoscopic Classification. NBI is an abbreviation for Narrow Band Imaging. JNET is an abbreviation for The Japan NBI Expert Team.

領域画像生成部50は、内視鏡画像38において、分類に寄与した領域を表す領域画像を生成する。領域画像生成部50は、領域画像を領域画像記憶部46cへ記憶する。領域画像は符号208を用いて図4に図示する。 The area image generation unit 50 generates area images representing areas that have contributed to the classification in the endoscopic image 38 . The area image generation unit 50 stores the area image in the area image storage unit 46c. A regional image is illustrated in FIG. 4 using reference numeral 208 .

表示制御部44は、内視鏡画像38、及び領域画像生成部50を用いて生成された領域画像をモニタ装置16へ表示させる表示制御信号をモニタ装置16へ送信する。表示制御部44は、分類部48を用いて導出された内視鏡画像38の分類結果を表す文字情報をモニタ装置16へ表示させる表示制御信号をモニタ装置16へ送信する。実施形態に示す表示制御部44は表示信号送信部の一例である。 The display control unit 44 transmits to the monitor device 16 a display control signal that causes the monitor device 16 to display the endoscopic image 38 and the area image generated using the area image generation unit 50 . The display control unit 44 transmits to the monitor device 16 a display control signal that causes the monitor device 16 to display text information representing the classification result of the endoscopic image 38 derived using the classification unit 48 . The display control unit 44 shown in the embodiment is an example of a display signal transmission unit.

モニタ装置16は、内視鏡画像38、領域画像、及び分類結果を表す文字情報を同一画面に表示する。モニタ装置16は、内視鏡画像38と領域画像とを画面における別の領域に表示する。分類結果を表す文字情報は符号212を用いて図4に図示する。モニタ装置16を用いて表示する画面の詳細は後述する。 The monitor device 16 displays the endoscopic image 38, the area image, and character information representing the classification results on the same screen. The monitor device 16 displays the endoscopic image 38 and the area image in different areas on the screen. Textual information representing the classification result is illustrated in FIG. 4 using reference numeral 212 . The details of the screen displayed using the monitor device 16 will be described later.

記憶部46は、内視鏡画像記憶部46a、分類記憶部46b、及び領域画像記憶部46cを備える。内視鏡画像記憶部46aは、画像取得部40を用いて取得した内視鏡画像38を記憶する。 The storage unit 46 includes an endoscope image storage unit 46a, a classification storage unit 46b, and a region image storage unit 46c. The endoscope image storage unit 46 a stores the endoscope image 38 acquired using the image acquisition unit 40 .

画像処理部42は、内視鏡画像記憶部46aに記憶されている内視鏡画像38を読み出し、内視鏡画像38の画像処理を実施する。表示制御部44は、内視鏡画像記憶部46aに記憶されている内視鏡画像38を読み出して、モニタ装置16へ内視鏡画像38を表示させる。 The image processing unit 42 reads the endoscopic image 38 stored in the endoscopic image storage unit 46 a and performs image processing on the endoscopic image 38 . The display control unit 44 reads the endoscopic image 38 stored in the endoscopic image storage unit 46 a and causes the monitor device 16 to display the endoscopic image 38 .

分類記憶部46bは、分類部48を用いて分類された内視鏡画像38のクラスが内視鏡画像38と関連付けして記憶される。具体的には、分類記憶部46bは、動画像38aを構成するフレーム画像38bのクラスがフレーム画像38bと対応付けして記憶される。表示制御部44は、分類記憶部46bから分類結果を読み出し、モニタ装置16へ分類結果を表す文字情報等を表示させる。 The classification storage unit 46 b stores the classes of the endoscopic images 38 classified by the classifying unit 48 in association with the endoscopic images 38 . Specifically, the classification storage unit 46b stores the classes of the frame images 38b forming the moving image 38a in association with the frame images 38b. The display control unit 44 reads out the classification result from the classification storage unit 46b and causes the monitor device 16 to display character information or the like representing the classification result.

領域画像記憶部46cは、領域画像生成部50を用いて生成された領域画像が記憶される。表示制御部44は、領域画像記憶部46cから領域画像を読み出し、モニタ装置16へ領域画像を表示させる。 The area image storage unit 46c stores the area image generated using the area image generation unit 50. FIG. The display control unit 44 reads the area image from the area image storage unit 46c and causes the monitor device 16 to display the area image.

図3に示す記憶部46は、一つ以上の記憶素子を適用し得る。すなわち、記憶部46は、内視鏡画像記憶部46a、分類記憶部46b、及び領域画像記憶部46cのそれぞれに対応する三つの記憶素子を備え得る。また、内視鏡画像記憶部46a、分類記憶部46b、及び領域画像記憶部46cは、それぞれ複数の記憶素子を適用し得る。さらに、内視鏡画像記憶部46a、分類記憶部46b、及び領域画像記憶部46cのうち二つ又は全てを、一つの記憶素子を用いて構成し得る。 The storage unit 46 shown in FIG. 3 can apply one or more storage elements. That is, the storage unit 46 can include three storage elements corresponding to the endoscopic image storage unit 46a, the classification storage unit 46b, and the region image storage unit 46c. Also, the endoscope image storage unit 46a, the classification storage unit 46b, and the area image storage unit 46c can each apply a plurality of storage elements. Furthermore, two or all of the endoscope image storage unit 46a, the classification storage unit 46b, and the region image storage unit 46c can be configured using one storage element.

〔モニタ装置に表示する表示画面の説明〕
〈領域画像の説明〉
図4は第一実施形態に適用される表示画面の説明図である。図4に示す表示画面200は、内視鏡画像表示領域202、領域画像表示領域204、及び分類結果表示領域206を含む。
[Description of the display screen displayed on the monitor device]
<Description of area image>
FIG. 4 is an explanatory diagram of a display screen applied to the first embodiment. The display screen 200 shown in FIG. 4 includes an endoscopic image display area 202 , an area image display area 204 , and a classification result display area 206 .

内視鏡画像表示領域202は、内視鏡画像38が表示される領域である。内視鏡画像表示領域202は、静止画像39を表示し得る。内視鏡画像表示領域202は、内視鏡画像38と静止画像39とを切り替えて表示させ得る。符号209は内視鏡画像38の分類に寄与した領域である分類寄与領域209を表す。図4には、分類寄与領域209を模式的に示す。 The endoscopic image display area 202 is an area in which the endoscopic image 38 is displayed. Endoscopic image display area 202 may display still image 39 . The endoscopic image display area 202 can switch between the endoscopic image 38 and the still image 39 for display. A reference numeral 209 represents a classification contribution region 209 which is a region that contributed to the classification of the endoscopic image 38 . FIG. 4 schematically shows the classification contribution area 209 .

領域画像表示領域204は、領域画像208が表示される。領域画像208は分類寄与対応領域210がハイライト表示される。分類寄与対応領域210は、分類寄与領域209に対応する、領域画像208における領域である。 An area image 208 is displayed in the area image display area 204 . A region image 208 has a classification contribution corresponding region 210 highlighted. Classification contribution corresponding region 210 is a region in region image 208 that corresponds to classification contribution region 209 .

分類結果表示領域206は、分類結果を表す文字情報212が表示される。図4には、文字情報212として、腫瘍の英語表記であるneoplasticが分類結果表示領域206に表示される例を示す。なお、文字情報212は言語の種類を問わない。すなわち、文字情報212は日本語表記、又は英語以外の外国語表記を適用し得る。また、文字情報212は省略語を適用し得る。 The classification result display area 206 displays character information 212 representing the classification result. FIG. 4 shows an example in which neoplastic, which is an English notation for tumor, is displayed in the classification result display area 206 as the character information 212 . Note that the character information 212 can be written in any language. That is, the character information 212 can be written in Japanese or written in a foreign language other than English. Also, the textual information 212 may apply abbreviations.

図5は比較例に係る表示画面の説明図である。比較画面220は自動分類の結果を表示するものであり、内視鏡画像38から腫瘍222が発見され、内視鏡画像38が腫瘍に分類された例である。比較画面220は、内視鏡画像38、及び分類結果を表す文字情報212が表示される。なお、図5では腫瘍222を模式的に図示した。 FIG. 5 is an explanatory diagram of a display screen according to a comparative example. A comparison screen 220 displays the results of the automatic classification, and is an example in which a tumor 222 is found in the endoscopic image 38 and the endoscopic image 38 is classified as a tumor. The comparison screen 220 displays the endoscopic image 38 and character information 212 representing the classification result. Note that FIG. 5 schematically illustrates the tumor 222 .

図5に示す比較画面220は、分類結果を表す文字情報212を表示しているが、内視鏡画像38が分類困難な場合は、間違った分類結果が出されることがあり得る。一方、図4に示す表示画面200は、内視鏡画像38に対応する領域画像208を表示させ、領域画像208に分類寄与対応領域210を表示する。これにより、観察者は、分類部48が内視鏡画像38のどの領域に基づき分類を行っているかを視覚的に把握し得る。また、領域画像208は分類結果の信頼性の指標となり得る。 The comparison screen 220 shown in FIG. 5 displays text information 212 representing the classification result, but if the endoscopic image 38 is difficult to classify, an incorrect classification result may be output. On the other hand, the display screen 200 shown in FIG. 4 displays an area image 208 corresponding to the endoscopic image 38 and displays a classification contribution corresponding area 210 in the area image 208 . Thereby, the observer can visually grasp based on which region of the endoscopic image 38 the classification unit 48 performs classification. Also, the area image 208 can be an indicator of the reliability of the classification result.

図6は分類結果の信頼性が低い場合の表示画面の説明図である。図6に示す表示画面200aは、分類結果が誤っている場合であり、内視鏡画像38の腫瘍222とは別の領域に基づいて分類がされた場合の例を示す。 FIG. 6 is an explanatory diagram of a display screen when the reliability of classification results is low. A display screen 200a shown in FIG. 6 shows an example in which the classification result is erroneous, and the classification is performed based on a region other than the tumor 222 of the endoscopic image 38. FIG.

図6に示す領域画像208aは、分類寄与対応領域210aとされるべき領域とは異なる領域230が、分類寄与対応領域として表示されている。 In the area image 208a shown in FIG. 6, an area 230 different from the area to be the classification contribution corresponding area 210a is displayed as the classification contribution corresponding area.

図7は分類結果の信頼性が低い場合の他の例を示す表示画面の説明図である。図7に示す表示画面200bは、内視鏡画像38の腫瘍222を見つけられない場合の例である。 FIG. 7 is an explanatory diagram of a display screen showing another example when the reliability of classification results is low. A display screen 200b shown in FIG. 7 is an example when the tumor 222 in the endoscopic image 38 cannot be found.

図7に示す領域画像208bは、分類寄与対応領域とされるべき領域210bが非表示となっている。図7に示す表示画面200bが表示される場合は、腫瘍222がぼけている、及び腫瘍222のサイズの小さい等の理由に起因して、分類部48が分類対象を見つけられないことが考えられる。 In the area image 208b shown in FIG. 7, the area 210b that should be the classification contribution corresponding area is not displayed. When the display screen 200b shown in FIG. 7 is displayed, it is conceivable that the classification unit 48 cannot find a classification target because the tumor 222 is blurred or the size of the tumor 222 is small. .

かかる場合は、操作者が図1に示す内視鏡10を操作して、ピントを合わせるか、又は病変、及び病変の周囲を拡大表示することにより、分類部48は正しい分類を行うことが可能となる。すなわち、内視鏡画像38と併せて領域画像208を表示させた場合、分類部48に正しい分類結果を導出させるための操作者への操作の示唆になり得る。 In such a case, the operator operates the endoscope 10 shown in FIG. 1 to focus or enlarge and display the lesion and the surroundings of the lesion, so that the classification unit 48 can perform correct classification. becomes. That is, when the region image 208 is displayed together with the endoscopic image 38, it can suggest an operation to the operator for causing the classification unit 48 to derive a correct classification result.

本実施形態では、一つのモニタ装置16に表示される表示画面200に、内視鏡画像表示領域202、及び領域画像表示領域204を表示する例を示したが、二つのモニタ装置の一方に内視鏡画像表示領域202を含む表示画面200を表示し、他方に領域画像表示領域204を含む表示画面200を表示してもよい。 In this embodiment, an example of displaying the endoscopic image display area 202 and the area image display area 204 on the display screen 200 displayed on one monitor device 16 has been described. The display screen 200 including the endoscopic image display area 202 may be displayed, and the display screen 200 including the area image display area 204 may be displayed on the other side.

また、一つのモニタ装置16に表示される一つの表示画面200において、内視鏡画像表示領域202と領域画像表示領域204とを時分割で切り替えて表示してもよい。さらに、内視鏡画像表示領域202に領域画像表示領域204を重畳表示させてもよい。例えば、図7に示す内視鏡画像表示領域202の左下隅など、内視鏡画像表示領域202において内視鏡画像38の観察の邪魔にならない位置に領域画像表示領域204を重畳表示させ得る。 Also, in one display screen 200 displayed on one monitor device 16, the endoscopic image display area 202 and the area image display area 204 may be switched in a time division manner and displayed. Furthermore, the regional image display area 204 may be superimposed on the endoscopic image display area 202 . For example, the area image display area 204 can be superimposed and displayed at a position such as the lower left corner of the endoscopic image display area 202 shown in FIG.

観察者は精緻な操作をしながら内視鏡画像の観察を行うために、視点移動を嫌う傾向がある。内視鏡画像表示領域202に領域画像表示領域204を重畳表示させた場合、表示画面200bにおける内視鏡画像表示領域202と領域画像表示領域204とが、より近い位置に配置される。これにより、観察者の視点移動が少なくなるという効果を奏する。 Observers tend to dislike movement of the viewpoint in order to observe endoscopic images while performing precise operations. When the regional image display area 204 is superimposed on the endoscopic image display area 202, the endoscopic image display area 202 and the regional image display area 204 are arranged closer to each other on the display screen 200b. This has the effect of reducing the movement of the observer's viewpoint.

図8は複数の病変が存在する場合の表示画面の説明図である。図8に示す表示画面200dは、内視鏡画像38に存在する複数の病変に対応して、第一分類寄与領域209a及び第二分類寄与領域209bが抽出される。 FIG. 8 is an explanatory diagram of a display screen when there are multiple lesions. A first classification contribution region 209a and a second classification contribution region 209b are extracted from the display screen 200d shown in FIG.

領域画像208gには、第一分類寄与領域209aに対応する第一分類寄与対応領域210g、及び第二分類寄与領域209bに対応する第二分類寄与対応領域210hが表示される。第一分類寄与対応領域210g及び第二分類寄与対応領域210hはそれぞれを区別可能な表示態様が適用される。 A first classification contribution corresponding area 210g corresponding to the first classification contribution area 209a and a second classification contribution corresponding area 210h corresponding to the second classification contribution area 209b are displayed in the area image 208g. A distinguishable display mode is applied to the first classification contribution corresponding area 210g and the second classification contribution corresponding area 210h.

また、表示画面200dの分類結果表示領域206aは、第一分類寄与対応領域210gに対応する第一分類結果を表す第一文字情報212e、及び第二分類寄与対応領域210hに対応する第二分類結果を表す第二文字情報212fが表示される。 Further, the classification result display area 206a of the display screen 200d displays the first character information 212e representing the first classification result corresponding to the first classification contribution corresponding area 210g and the second classification result corresponding to the second classification contribution corresponding area 210h. The second character information 212f representing is displayed.

非腫瘍性の病変と腫瘍性の病変のように異なる分類の病変が存在する場合、内視鏡画像38から一つの分類結果を出力するシステムでは、適切な分類結果を返すことが困難である。一方、本実施形態に係る医用画像処理装置14では、図8に示すように、領域画像208gに分類ごとの表示態様を用いて、第一分類寄与領域209a及び第二分類寄与領域209bを可視化する。これにより、内視鏡画像38に複数の病変が存在し、かつ複数の病変の分類が異なる場合でも、適切な分類結果を得ることが可能となる。 When there are different classifications of lesions such as non-neoplastic lesions and neoplastic lesions, it is difficult for a system that outputs one classification result from the endoscopic image 38 to return an appropriate classification result. On the other hand, in the medical image processing apparatus 14 according to the present embodiment, as shown in FIG. 8, the first classification contribution region 209a and the second classification contribution region 209b are visualized using the display mode for each classification in the region image 208g. . This makes it possible to obtain an appropriate classification result even when a plurality of lesions exist in the endoscopic image 38 and the plurality of lesions are classified differently.

〈分類結果表示の説明〉
図9は分類結果の表示例の説明図である。図9には、分類結果として特定のクラスが表示される例を示す。図9に示す文字情報212aは、分類結果がNICE1であることを表す。
<Explanation of classification result display>
FIG. 9 is an explanatory diagram of a display example of classification results. FIG. 9 shows an example of displaying a specific class as a classification result. Character information 212a shown in FIG. 9 indicates that the classification result is NICE1.

図10は分類結果として帰属確率を表示する例の説明図である。図10には、分類結果として各クラスの帰属確率が表示される例を示す。図10に示す文字情報212bは、NICE1の帰属確率が98パーセント、NICE2の帰属確率が2パーセント、及びNICE3の帰属確率が0パーセントであることを表す。 FIG. 10 is an explanatory diagram of an example of displaying belonging probabilities as classification results. FIG. 10 shows an example of displaying the belonging probability of each class as a result of classification. The character information 212b shown in FIG. 10 indicates that the belonging probability of NICE1 is 98%, the belonging probability of NICE2 is 2%, and the belonging probability of NICE3 is 0%.

図10に示す文字情報212bは、NICE1の帰属確率が98パーセントであることを表す文字のみでもよい。図10に示す文字情報212bは、NICE1の帰属確率が98パーセント、及びNICE2の帰属確率が2パーセントであることを表す文字でもよい。 The character information 212b shown in FIG. 10 may be only characters representing that the belonging probability of NICE1 is 98%. The character information 212b shown in FIG. 10 may be characters representing that the probability of belonging to NICE1 is 98% and the probability of belonging to NICE2 is 2%.

図11は分類結果としてスコアを表示する例の説明図である。図11には、分類結果として各クラスのスコアが表示される例を示す。図11に示す文字情報212cは、NICE1のスコアが1.23、NICE2のスコアが0.002、及びNICE3のスコアが0.05であることを表す。図10に示す帰属確率、及び図11に示すスコアは、クラスの帰属度合いの一例である。 FIG. 11 is an explanatory diagram of an example of displaying scores as classification results. FIG. 11 shows an example in which scores of each class are displayed as classification results. The character information 212c shown in FIG. 11 indicates that the score of NICE1 is 1.23, the score of NICE2 is 0.002, and the score of NICE3 is 0.05. The belonging probabilities shown in FIG. 10 and the scores shown in FIG. 11 are examples of degrees of class belonging.

〔医用画像処理方法の手順〕
図12は医用画像処理方法の手順を示すフローチャートである。内視鏡画像取得工程S10では、図3に示す画像取得部40は内視鏡画像38を取得する。内視鏡画像記憶工程S12では、画像取得部40は内視鏡画像記憶部46aへ内視鏡画像取得工程S10において取得した内視鏡画像38を記憶する。
[Procedure of medical image processing method]
FIG. 12 is a flow chart showing the procedure of the medical image processing method. In the endoscope image acquisition step S10, the image acquisition unit 40 shown in FIG. 3 acquires the endoscope image 38. FIG. In the endoscopic image storage step S12, the image acquisition unit 40 stores the endoscopic image 38 acquired in the endoscopic image acquisition step S10 in the endoscopic image storage unit 46a.

分類工程S14では、分類部48は内視鏡画像38を規定のクラスに分類する。分類結果記憶工程S16では、分類部48は分類記憶部46bへ分類工程S14において導出された分類結果を記憶する。 In the classification step S14, the classification unit 48 classifies the endoscopic images 38 into prescribed classes. In the classification result storage step S16, the classification unit 48 stores the classification result derived in the classification step S14 in the classification storage unit 46b.

領域画像生成工程S18では、領域画像生成部50は、分類結果に基づいて図4に示す領域画像208等の領域画像を生成する。領域画像記憶工程S20では、領域画像生成部50は領域画像生成工程S18において生成された領域画像を領域画像記憶部46cへ記憶する。 In the area image generation step S18, the area image generation unit 50 generates area images such as the area image 208 shown in FIG. 4 based on the classification result. In the area image storage step S20, the area image generation unit 50 stores the area image generated in the area image generation step S18 in the area image storage unit 46c.

表示信号送信工程S22では、表示制御部44はモニタ装置16へ表示信号を送信する。表示制御部44からモニタ装置16へ送信される表示信号は、内視鏡画像38、及び領域画像208を表す表示信号が含まれる。表示制御部44からモニタ装置16へ送信される表示信号は、分類結果が表す表示信号が含まれてもよい。 In the display signal transmission step S<b>22 , the display control unit 44 transmits a display signal to the monitor device 16 . The display signals transmitted from the display control unit 44 to the monitor device 16 include display signals representing the endoscopic image 38 and the area image 208 . The display signal transmitted from the display control unit 44 to the monitor device 16 may include a display signal representing the classification result.

〔表示画面の変形例〕
〈領域画像の変形例〉
図13は領域画像の変形例に係る表示画面の説明図である。図13に示す表示画面200cは領域画像208cの背景に内視鏡画像38を縮小した画像が合成される。すなわち、領域画像208cは、縮小した内視鏡画像38に分類寄与対応領域210が重畳表示される。内視鏡画像38を縮小した画像は、内視鏡画像38よりも低解像度としてもよい。
[Modified example of display screen]
<Modified example of area image>
FIG. 13 is an explanatory diagram of a display screen according to a modification of the area image. On the display screen 200c shown in FIG. 13, an image obtained by reducing the endoscopic image 38 is combined with the background of the area image 208c. That is, the area image 208 c is displayed by superimposing the classification contribution corresponding area 210 on the reduced endoscopic image 38 . An image obtained by reducing the endoscopic image 38 may have a lower resolution than the endoscopic image 38 .

〈分類結果の変形例〉
図14は分類結果の第一変形例に係る表示画面の説明図である。図14に示す領域画像208dは、分類結果を表す文字情報212dが重畳表示される。領域画像208dにおいて、文字情報212dの色を分類寄与対応領域210の色と変える等の、文字情報212dの強調を適用してもよい。
<Modified example of classification results>
FIG. 14 is an explanatory diagram of a display screen according to the first modified example of classification results. A region image 208d shown in FIG. 14 is superimposed with character information 212d representing the classification result. In the area image 208d, enhancement of the text information 212d, such as changing the color of the text information 212d to the color of the classification contribution corresponding area 210, may be applied.

図15は分類結果の第二変形例に係る表示画面の説明図である。図15に示す表示画面200eは内視鏡画像38の枠201及び領域画像208hの枠207に分類結果に応じた色が付与される。なお、枠201のみに色が付与されてもよいし、枠207のみに色が付与されてもよい。すなわち、表示画面200eは、内視鏡画像38の枠201及び領域画像208hの枠207の少なくともいずれかに分類結果に応じた色が付与される。 FIG. 15 is an explanatory diagram of a display screen according to the second modified example of classification results. In the display screen 200e shown in FIG. 15, the frame 201 of the endoscopic image 38 and the frame 207 of the area image 208h are given colors according to the classification results. Note that only the frame 201 may be colored, or only the frame 207 may be colored. That is, on the display screen 200e, at least one of the frame 201 of the endoscopic image 38 and the frame 207 of the region image 208h is given a color according to the classification result.

観察者は精緻な操作をしながら内視鏡画像の観察を行うために、観察者の視点移動及び観察者の文字情報の視認等は、観察者の操作への悪影響が懸念される。一方、図15に示す表示画面200eを見た操作者は、ほとんど視点移動をせずに分類結果を把握し得る。 Since the observer observes the endoscopic image while performing precise operations, there is concern that the observer's viewpoint movement, the observer's recognition of character information, and the like may adversely affect the observer's operations. On the other hand, the operator viewing the display screen 200e shown in FIG. 15 can grasp the classification result without moving the viewpoint.

医用画像処理装置14は、分類結果に応じて枠201等へ色を付与するだけでなく、分類結果が腫瘍の場合など特定の分類の場合に枠201等へ色を付与し、他の分類の場合は枠201等へ色を非付与とする態様も可能である。また、医用画像処理装置14は、後述する例外判定の場合に枠201等へ色を付与してもよいし、信頼度に応じて表示を変更する場合に信頼度に応じて色を変更してもよい。 The medical image processing apparatus 14 not only gives colors to the frame 201 and the like according to the classification result, but also gives a color to the frame 201 and the like when the classification result is a specific classification such as a tumor, and colors other classifications. In this case, it is also possible to adopt a mode in which the frame 201 and the like are not colored. In addition, the medical image processing apparatus 14 may add a color to the frame 201 or the like in the case of exception determination, which will be described later, or change the color according to the reliability when changing the display according to the reliability. good too.

なお、色を変える態様には、同一の色彩において濃淡を変える態様を含み得る。例えば、腫瘍に分類された場合は濃い赤とし、非腫瘍に分類された場合は薄い赤とし得る。色の付与は枠201等に限定されない。枠201及び枠207以外の領域に色を付与してもよい。さらに、文字情報と比較して、操作者の視点移動の抑制及び操作者の分類結果の把握を容易とする態様であれば、記号等の色以外の表示態様を適用可能である。 In addition, the mode of changing the color may include the mode of changing the shade of the same color. For example, it may be dark red if classified as tumor and light red if classified as non-tumor. Application of color is not limited to the frame 201 or the like. Areas other than the frame 201 and the frame 207 may be colored. Furthermore, a display mode other than colors such as symbols can be applied as long as it is a mode that suppresses the operator's viewpoint movement and makes it easier for the operator to grasp the classification result than the character information.

〈その他の変形例〉
領域画像は分類結果に応じて表示形態を変更してもよい。例えば、腫瘍、又は非腫瘍の二つのクラスに内視鏡画像38を分類する場合、腫瘍の場合の色と、非腫瘍の場合の色を変えてもよい。かかる例において、腫瘍に分類された場合は赤とし、非腫瘍に分類された場合は青とし得る。
<Other Modifications>
The display form of the area image may be changed according to the classification result. For example, when classifying endoscopic images 38 into two classes, tumor or non-tumor, the colors for tumor and non-tumor may be different. In such an example, it may be red if classified as tumor and blue if classified as non-tumor.

また、複数の領域画像表示領域204が表示可能に表示画面を構成し、分類結果に応じて領域画像208の位置を変更してもよい。例えば、上下に二つの領域画像表示領域204を表示可能な表示画面では、腫瘍に分類された場合は上の領域画像表示領域204、非腫瘍に分類された場合は下の領域画像表示領域204とし得る。以上説明した表示画面の変形例によれば、操作者の視認性を補助し得る。実施形態に示す分類結果に応じ表示形態は可視化形態の一例である。 Also, the display screen may be configured so that a plurality of area image display areas 204 can be displayed, and the position of the area image 208 may be changed according to the classification result. For example, in a display screen capable of displaying two upper and lower area image display areas 204, the upper area image display area 204 is used when classified as tumor, and the lower area image display area 204 is used when classified as non-tumor. obtain. According to the modification of the display screen described above, it is possible to assist the visibility of the operator. The display form according to the classification result shown in the embodiment is an example of the visualization form.

〈分類の寄与度に応じた領域画像の表示例〉
図16は寄与度に応じた濃淡が適用される領域画像の説明図である。図16に示す表示画面200eは、領域画像208eの分類寄与対応領域210eに寄与度に応じた濃淡が適用される。
<Display example of area image according to the degree of contribution to classification>
FIG. 16 is an explanatory diagram of an area image to which shading according to the degree of contribution is applied. In the display screen 200e shown in FIG. 16, gradation corresponding to the degree of contribution is applied to the classification contribution corresponding area 210e of the area image 208e.

図16に示す分類寄与対応領域210eは、中央近傍211aが濃く、周囲211bが薄くなっている。これは、中央近傍211aの寄与度が高く、周囲211bの寄与度が低いことを表す。なお、寄与度の分類は三段階以上としてもよい。 A classification-contribution corresponding region 210e shown in FIG. 16 is dark near the center 211a and thin around the periphery 211b. This indicates that the contribution of the central vicinity 211a is high and the contribution of the periphery 211b is low. It should be noted that the classification of the degree of contribution may be three or more stages.

図17は寄与度に応じたヒートマップが適用される領域画像の説明図である。図17に示す表示画面200fは、領域画像208fの分類寄与対応領域210fに寄与度に応じたヒートマップが適用される。 FIG. 17 is an explanatory diagram of an area image to which a heat map according to the degree of contribution is applied. In the display screen 200f shown in FIG. 17, a heat map corresponding to the degree of contribution is applied to the classification contribution corresponding area 210f of the area image 208f.

図17に示す分類寄与対応領域210fは、中央近傍211aに赤が適用され、周囲211bに青が適用される。中央近傍211aと周囲211bとの間の中間領域211cは赤から青へ変化する中間色が適用される。中間色として、橙、黄、及び緑等が挙げられる。 In the classification contribution corresponding region 210f shown in FIG. 17, red is applied near the center 211a and blue is applied around the periphery 211b. An intermediate area 211c between the central neighborhood 211a and the periphery 211b is applied with a neutral color that changes from red to blue. Neutral colors include orange, yellow, green, and the like.

図17に示す分類寄与対応領域210fは、中央近傍211aの寄与度が高く、中央近傍211aから周囲211bへ向かうに従い寄与度が低下し、周囲211bの寄与度が最も低いことを表す。なお、ここで説明した変形例は、二つ以上を適宜組み合わせてもよい。 A classification contribution corresponding region 210f shown in FIG. 17 indicates that the contribution is high near the center 211a, the contribution decreases from the near center 211a toward the periphery 211b, and the contribution of the periphery 211b is the lowest. It should be noted that two or more of the modified examples described here may be appropriately combined.

〔分類、及び分類に寄与する領域の可視化の詳細な説明〕
次に、内視鏡画像38の分類、及び分類に寄与する領域の可視化の具体例について説明する。
[Detailed Description of Classification and Visualization of Regions Contributing to Classification]
Next, a specific example of the classification of the endoscopic image 38 and the visualization of the region contributing to the classification will be described.

〈パターン1〉
パターン1として、内視鏡画像38から特徴量を算出し、特徴量に基づいて分類を行い、分類に寄与する領域の可視化を行う例を示す。特徴量に基づく分類は、SVM(support vector machine)等の手法を適用し得る。例えば、内視鏡画像38から血管領域を抽出し、抽出された血管領域の特徴量を算出する。
<Pattern 1>
As a pattern 1, an example of calculating a feature amount from an endoscopic image 38, performing classification based on the feature amount, and visualizing a region that contributes to the classification is shown. A technique such as SVM (support vector machine) can be applied for the classification based on the feature amount. For example, a blood vessel region is extracted from the endoscopic image 38, and a feature amount of the extracted blood vessel region is calculated.

他の手法として、内視鏡画像38のテクスチャ解析を行い、解析結果を用いて特徴量を算出する手法、及びSIFT(scale-invariant feature transform)などの局所特徴量を算出する手法等が挙げられる。 Other methods include a method of performing texture analysis on the endoscopic image 38 and calculating feature amounts using the analysis results, and a method of calculating local feature amounts such as SIFT (scale-invariant feature transform). .

上記の手法を用いて算出された特徴量を、対象画像を複数の領域に分割した際の領域単位で解析する。これにより、領域単位のクラス帰属確率の算出が可能となる。領域単位のクラス帰属確率に基づく領域ごとの可視化処理が可能となる。実施形態に示す複数の領域は、撮像画像に設定された複数の領域の一例である。 The feature amount calculated using the above method is analyzed for each area when the target image is divided into a plurality of areas. This makes it possible to calculate the class membership probability for each area. It is possible to perform visualization processing for each region based on the class membership probability for each region. A plurality of regions shown in the embodiment is an example of a plurality of regions set in a captured image.

〈パターン2〉
パターン2として、コンボリューションニューラルネットワークの中間層の情報を解析して内視鏡画像38を分類し、分類に寄与する領域を可視化する例を示す。かかる手法は、分類と可視化とを並行して処理することが可能である。
<Pattern 2>
As pattern 2, an example of analyzing the information of the intermediate layer of the convolution neural network to classify the endoscopic image 38 and visualizing the regions contributing to the classification will be shown. Such an approach can handle classification and visualization in parallel.

図18はコンボリューションニューラルネットワークを適用した分類部の構成例を示すブロック図である。以下、コンボリューションニューラルネットワークを略してCNN(Convolutional Neural Network)と記載する場合がある。実施形態に示すコンボリューションニューラルネットワークを適用した分類部は深層学習器の一例である。 FIG. 18 is a block diagram showing a configuration example of a classifier to which a convolutional neural network is applied. Hereinafter, the convolutional neural network may be abbreviated as CNN (Convolutional Neural Network). A classifier to which the convolutional neural network shown in the embodiment is applied is an example of a deep learning device.

図18に示す分類部300は、図3に示す分類部48の一例である。分類部300は、CNN302、誤差算出部304、及びパラメータ更新部306を備える。 A classification unit 300 shown in FIG. 18 is an example of the classification unit 48 shown in FIG. The classifier 300 comprises a CNN 302 , an error calculator 304 and a parameter updater 306 .

CNN302は、内視鏡画像38に写っている病変の種類を画像認識する。CNN302は、複数のレイヤー構造を有し、複数の重みパラメータを保持している。CNN302の重みパラメータが初期値から最適値に更新されることで、未学習モデルは学習済みモデルへ変化し得る。 The CNN 302 recognizes the type of lesion appearing in the endoscopic image 38 . The CNN 302 has a multiple layer structure and holds multiple weight parameters. By updating the weighting parameters of the CNN 302 from the initial values to the optimum values, the unlearned model can change to the trained model.

CNN302は、入力層310、中間層312、及び出力層314を備える。中間層312は、畳み込み層320、及びプーリング層322から構成される複数セットを備える。また、中間層312は全結合層324備える。各層は複数のノードがエッジで結ばれる構造となっている。 CNN 302 comprises an input layer 310 , an intermediate layer 312 and an output layer 314 . Intermediate layers 312 comprise sets of convolutional layers 320 and pooling layers 322 . Intermediate layer 312 also includes a fully bonded layer 324 . Each layer has a structure in which multiple nodes are connected by edges.

入力層310には、学習対象である内視鏡画像38が入力される。中間層312は、入力層310から入力した内視鏡画像38から特徴を抽出する。畳み込み層320は、前の層で近くにあるノードにフィルタ処理を施して特徴マップを取得する。なお、フィルタ処理はフィルタを使用した畳み込み演算と同義である。 The input layer 310 receives an endoscopic image 38 as a learning target. The intermediate layer 312 extracts features from the endoscopic image 38 input from the input layer 310 . The convolutional layer 320 filters the nearby nodes in the previous layer to get the feature map. Filter processing is synonymous with convolution operation using a filter.

プーリング層322は、畳み込み層320から出力された特徴マップを縮小して新たな特徴マップを生成する。畳み込み層320は、内視鏡画像38からのエッジ抽出等の特徴抽出の役割を担う。 Pooling layer 322 reduces the feature map output from convolutional layer 320 to generate a new feature map. Convolutional layer 320 is responsible for feature extraction, such as edge extraction, from endoscopic image 38 .

プーリング層322は、抽出された特徴が平行移動などによる影響を受けないようにロバスト性を与える役割を担う。なお、中間層312は畳み込み層320、及びプーリング層322を一セットとする場合に限らず、畳み込み層320が連続する場合、及び図示しない正規化層が含まれる構成もあり得る。 The pooling layer 322 is responsible for providing robustness so that the extracted features are not affected by translations and the like. Note that the intermediate layer 312 is not limited to the case where the convolutional layer 320 and the pooling layer 322 are set as one set, but the case where the convolutional layers 320 are continuous, and the configuration including the normalization layer (not shown) is also possible.

出力層314は、中間層312を適用して抽出された特徴に基づき、内視鏡画像38に写っている病変の種類を分類する。学習済みCNN302では、例えば、医用画像を腫瘍、又は非腫瘍の二つのクラスに分類し得る。認識結果は、腫瘍、又は非腫瘍に対応する二種類のスコアとし得る。 The output layer 314 classifies the types of lesions in the endoscopic image 38 based on the features extracted by applying the intermediate layer 312 . The trained CNN 302 may, for example, classify medical images into two classes: tumor or non-tumor. Recognition results can be two types of scores corresponding to tumor or non-tumor.

学習前のCNN302における畳み込み層320に適用されるフィルタの係数、オフセット値、及び全結合層324における次の層との接続の重みは、任意の初期値がセットされる。 Arbitrary initial values are set for the coefficients of the filter applied to the convolutional layer 320 in the CNN 302 before learning, the offset value, and the weight of the connection with the next layer in the fully connected layer 324 .

誤差算出部304は、CNN302の出力層314から出力される認識結果、及び内視鏡画像38に対する正解データ370を取得し、両者間の誤差を算出する。誤差の算出方法の一例として、ソフトマックスクロスエントロピー、及びシグモイドなどが挙げられる。 The error calculator 304 acquires the recognition result output from the output layer 314 of the CNN 302 and the correct data 370 for the endoscopic image 38, and calculates the error between them. Examples of error calculation methods include softmax cross entropy and sigmoid.

パラメータ更新部306は、誤差算出部304を適用して算出された誤差を元に、誤差逆伝播法を適用してCNN302の重みパラメータを調整する。パラメータ更新部306は、パラメータの調整処理を繰り返し行い、CNN302の出力と正解データ370との差が小さくなるまで繰り返し学習を行う。 The parameter updating unit 306 adjusts the weight parameters of the CNN 302 by applying the error backpropagation method based on the error calculated by applying the error calculating unit 304 . The parameter updating unit 306 repeatedly performs parameter adjustment processing, and performs repeated learning until the difference between the output of the CNN 302 and the correct data 370 becomes small.

分類部300は、図示しないデータベースに記憶された内視鏡画像38のデータセットを使用し、CNN302の各パラメータを最適化する学習を行うことで、学習済みモデルを生成する。 The classification unit 300 generates a trained model by performing learning to optimize each parameter of the CNN 302 using a data set of endoscopic images 38 stored in a database (not shown).

図19はコンボリューションニューラルネットワークの特徴量の形状変遷の概念図である。符号330は模式的化した情報を示す。Input dataは入力層310の情報330aを表す。Conv.1からConv.5までは中間層312を表す。FC6からFC8までは全結合層324を表す。図19では、入力層310の情報330aの情報量及び中間層312の情報330bの情報量が、幅×高さ×チャネル数を用いて表されている。 FIG. 19 is a conceptual diagram of shape transition of the feature quantity of the convolution neural network. Reference numeral 330 indicates schematic information. Input data represents the information 330 a of the input layer 310 . Conv. 1 to Conv. 5 represent the intermediate layer 312 . FC6 through FC8 represent all-connected layers 324. FIG. In FIG. 19, the information amount of the information 330a of the input layer 310 and the information amount of the information 330b of the intermediate layer 312 are expressed using width×height×number of channels.

コンボリューションニューラルネットワークは、入力画像の空間的な情報を集約しながら最終出力を行う。図19に示すように、コンボリューションニューラルネットワークは、入力層310から中間層312へ進むに従って、幅及び高さを持つ空間的な情報を集約し、全結合層324の情報330c以降は空間的な情報を失う。 A convolutional neural network produces a final output while aggregating the spatial information of the input image. As shown in FIG. 19, the convolutional neural network aggregates spatial information with width and height as it progresses from the input layer 310 to the hidden layer 312, and after the information 330c of the fully connected layer 324, spatially lose information.

つまり、中間層312の情報330bを解析することで、空間的な情報を保持した特徴を抽出することが可能となる。但し、一般に中間層312の情報330bは入力層310の情報330aに比べてチャネル数が多くなる。 In other words, by analyzing the information 330b of the intermediate layer 312, it is possible to extract features that hold spatial information. However, the information 330b of the intermediate layer 312 generally has more channels than the information 330a of the input layer 310. FIG.

図19に示す例では、入力層310では情報330aのチャネル数が3であるのに対して、中間層312のConv4では情報330bのチャネル数が384に増えている。そこで、チャネル方向の情報をどのように集約して分類寄与領域を可視化するかが問題となる。以下に、チャネル方向の情報を集約して、分類寄与領域を可視化する例を示す。 In the example shown in FIG. 19, the number of channels of the information 330a in the input layer 310 is 3, whereas Conv . 4, the number of channels of the information 330b is increased to 384. Therefore, the problem is how to aggregate the information in the channel direction to visualize the classification contribution region. An example of visualizing a classification contribution region by aggregating information in the channel direction is shown below.

《第一例》
一般に、最終出力へ大きく寄与するチャネルは絶対値が大きい傾向がある。そこで、中間層312の各チャネルにおける情報の絶対値を比較し、絶対値がより大きいチャネルを抽出する。抽出したチャネルを可視化する。これにより、最終出力への寄与がより大きい領域の可視化が可能となる。
《First example》
In general, channels that contribute greatly to the final output tend to have large absolute values. Therefore, the absolute value of the information in each channel of the hidden layer 312 is compared, and the channel with the larger absolute value is extracted. Visualize the extracted channels. This allows visualization of areas that contribute more to the final output.

チャネルを抽出する際に、複数のチャネルを抽出してもよい。複数のチャネルを抽出する場合の一例として、絶対値が大きい順に規定数のチャネルを抽出する例が挙げられる。複数のチャネルを抽出する場合、複数のチャネルを平均化してもよい。 When extracting channels, multiple channels may be extracted. As an example of extracting a plurality of channels, there is an example of extracting a specified number of channels in descending order of absolute value. If multiple channels are extracted, the multiple channels may be averaged.

《第二例》
中間層312のチャネル方向に主成分分析を行い、主成分を抽出し、抽出した主成分を可視化してもよい。例えば、チャネルの次元を一次元まで削減することで、抽出した主成分を可視化することが可能である。第二例は、全チャネルの情報が可視化されているので、第一例よりも正確な可視化が可能となる。
《Second example》
Principal component analysis may be performed in the channel direction of the intermediate layer 312 to extract principal components and visualize the extracted principal components. For example, by reducing the dimension of the channel to one dimension, it is possible to visualize the extracted principal components. In the second example, information on all channels is visualized, so more accurate visualization is possible than in the first example.

《第三例》
最終出力結果は、分類の各クラスラベルのスコアとなる。分類の各クラスラベルのスコアへの寄与度は微分を用いて導出することが可能である。例えば、Grad-CAM( Gradient-weighted Class Activation Mapping)を適用して、分類の各クラスラベルのスコアへの寄与度を導出し得る。
《Third example》
The final output result will be the score for each class label in the classification. The contribution of each class label of the classification to the score can be derived using differentiation. For example, Gradient-weighted Class Activation Mapping (Grad-CAM) may be applied to derive the contribution of each class label of the classification to the score.

任意のクラスcのスコアをyとする。任意の中間層のkチャネル目の特徴マップをAとする。特徴マップAの座標(i,j)の値をA ijとする。クラスcの寄与度を可視化したマップL Grad-CAMは、次式で得られる。Let yc be the score of any class c. Let A k be the k-th channel feature map of an arbitrary hidden layer. Let A k ij be the value of the coordinates (i, j) of the feature map A k . A map L C Grad-CAM that visualizes the contribution of class c is obtained by the following equation.

Figure 0007270626000002
Figure 0007270626000002

マップL Grad-CAMは、チャネル方向の情報を集約した、分類寄与領域を可視化した領域画像を表す。The map L C Grad-CAM represents an area image visualizing the classification contribution area that aggregates information in the channel direction.

図20はコンボリューションニューラルネットワークの中間層の情報に基づく可視化の概念図である。図20に示す例は、二種類の動物が含まれる処理対象画像380を、一方の動物381a、又は他方の動物381bに分類し、分類の根拠となる領域を可視化した例を示す。 FIG. 20 is a conceptual diagram of visualization based on the information of the intermediate layer of the convolutional neural network. The example shown in FIG. 20 shows an example in which a processing target image 380 including two types of animals is classified into one animal 381a or the other animal 381b, and the regions serving as the grounds for classification are visualized.

第一分類済画像382は、一方の動物381aに分類され、分類の根拠となる領域384が可視化された例を示す。第二分類済画像386は、他方の動物381bに分類され、分類の根拠となる領域388が可視化された例を示す。 A first classified image 382 is classified into one animal 381a, and shows an example in which a region 384 serving as a basis for classification is visualized. A second classified image 386 shows an example in which the animal is classified into the other animal 381b and a region 388 that serves as the basis for the classification is visualized.

パターン2を内視鏡画像38の分類に適用する場合は、処理対象画像380を内視鏡画像38とし、二種類の動物を二種類のクラスとすればよい。二種類の動物は二種類の特徴領域としてもよい。 When pattern 2 is applied to the classification of the endoscopic image 38, the endoscopic image 38 is used as the processing target image 380, and two kinds of animals are classified into two kinds of classes. Two types of animals may be used as two types of feature regions.

〈パターン3〉
パターン3として、セグメンテーション技術を適用して領域の可視化を行う例を示す。図21はセグメンテーション技術の説明図である。図21には、人物391a、及び動物391bが含まれる分類対象画像390を、人物領域394、動物領域396、及び背景領域398に分類する例を示す。符号392は分類済画像を示す。
<Pattern 3>
As pattern 3, an example of visualizing a region by applying a segmentation technique is shown. FIG. 21 is an explanatory diagram of the segmentation technique. FIG. 21 shows an example of classifying a classification target image 390 including a person 391a and an animal 391b into a person area 394, an animal area 396, and a background area 398. FIG. Reference numeral 392 indicates the classified image.

セグメンテーション技術では、領域ごとのクラス帰属確率が得られる。帰属確率に基づく各領域の可視化が可能である。また、セグメンテーション技術を適用して得られた領域に基づいて、分類対象画像390の分類を行うことが可能である。例えば、分類に適用されるクラスのうち、分類対象画像390に占める面積が最も大きいクラスを分類結果としてもよい。 Segmentation techniques yield class membership probabilities for each region. Each region can be visualized based on the membership probability. It is also possible to classify the classification target image 390 based on the regions obtained by applying the segmentation technique. For example, among the classes applied for classification, the class occupying the largest area in the classification target image 390 may be the classification result.

[第一実施形態の作用効果]
第一実施形態に係る医用画像処理装置によれば、以下の作用効果を得ることが可能である。
[Action and effect of the first embodiment]
According to the medical image processing apparatus according to the first embodiment, it is possible to obtain the following effects.

〔1〕
モニタ装置16へ表示させる表示画面200において、内視鏡画像表示領域202に内視鏡画像38を表示させる。表示画面200の内視鏡画像表示領域202とは別の領域画像表示領域204に領域画像208に表示させる。領域画像208は、内視鏡画像38の分類に寄与した分類寄与領域209に対応する分類寄与対応領域210が含まれる。これにより、観察者は、分類部48が内視鏡画像38のどの領域に基づき分類を行っているかを視覚的に把握し得る。また、領域画像208は分類結果の信頼性の指標となり得る。
[1]
The endoscopic image 38 is displayed in the endoscopic image display area 202 on the display screen 200 displayed on the monitor device 16 . An area image 208 is displayed in an area image display area 204 different from the endoscopic image display area 202 of the display screen 200 . Area image 208 includes classification-contributing corresponding areas 210 corresponding to classification-contributing areas 209 that contributed to the classification of endoscopic image 38 . Thereby, the observer can visually grasp based on which region of the endoscopic image 38 the classification unit 48 performs classification. Also, the area image 208 can be an indicator of the reliability of the classification result.

〔2〕
分類結果をモニタ装置16へ表示させる。これにより、観察者は内視鏡画像38の分類結果を視認し得る。
[2]
The classification result is displayed on the monitor device 16 . Thereby, the observer can visually recognize the classification result of the endoscopic image 38 .

〔3〕
分類結果として各クラスの帰属度合いを導出する。各クラスの帰属度合いをモニタ装置16へ表示させる。帰属度合いは、各クラスの帰属確率、各クラスのスコアを適用し得る。これにより、観察者は各クラスの帰属度合いを視認し得る。
[3]
The degree of membership of each class is derived as a classification result. The degree of belonging to each class is displayed on the monitor device 16 . The degree of membership can apply the membership probability of each class and the score of each class. This allows the observer to visually recognize the degree of belonging to each class.

〔4〕
分類結果に応じて領域画像208の表示形態を変更し得る。これにより、分類結果の視認性が向上し得る。
[4]
The display form of the area image 208 can be changed according to the classification result. This can improve the visibility of the classification results.

[第二実施形態に係る医用画像処理装置の説明]
次に、第二実施形態に係る医用画像処理装置について説明する。第二実施形態に係る医用画像処理装置は、内視鏡画像38の分類に例外判定が追加される。すなわち、第一実施形態に示したパターン1、パターン2、及びパターン3を用いて、内視鏡画像38の病変領域を可視化した上で、領域画像を解析して例外判定を実施する。
[Description of Medical Image Processing Apparatus According to Second Embodiment]
Next, a medical image processing apparatus according to a second embodiment will be described. In the medical image processing apparatus according to the second embodiment, exception determination is added to the classification of the endoscopic image 38 . That is, after visualizing the lesion area of the endoscopic image 38 using pattern 1, pattern 2, and pattern 3 shown in the first embodiment, the area image is analyzed to perform exception determination.

例えば、内視鏡画像38から検出された病変領域の面積が規定の閾値以下の場合は検出不能とし得る。内視鏡画像38から検出された病変領域が複数であり、各病変領域の面積がいずれも規定の閾値以上の場合は判定不能とし得る。 For example, if the area of the lesion area detected from the endoscopic image 38 is less than or equal to a specified threshold, it may be undetectable. If there are a plurality of lesion areas detected from the endoscopic image 38, and the area of each lesion area is equal to or greater than a specified threshold value, the judgment may be impossible.

なお、第二実施形態に係る医用画像処理装置は、第一実施形態に係る医用画像処理装置14と同様のハードウェア、及び機能ブロックが適用される。第二実施形態に係る医用画像処理装置のハードウェア、及び機能ブロックの説明は省略する。 The same hardware and functional blocks as those of the medical image processing apparatus 14 according to the first embodiment are applied to the medical image processing apparatus according to the second embodiment. A description of the hardware and functional blocks of the medical image processing apparatus according to the second embodiment is omitted.

〔検出不能の場合の表示画面〕
図22は検出不能を示す表示画面の説明図である。図22に示す表示画面400は、文字情報412として、検出不能を表すundetectableが表示される。検出不能を表す文字情報412が表示される場合、領域画像408には分類寄与対応領域410が表示されない。なお、図22では、検出不能の場合の病変領域407が実線を用いて模式的に図示される。検出可能な場合の病変領域407が二点鎖線を用いて模式的に図示される。
[Display screen when detection is not possible]
FIG. 22 is an explanatory diagram of a display screen indicating that detection is impossible. A display screen 400 shown in FIG. 22 displays undetectable as character information 412 indicating undetectable. When the character information 412 representing undetectable is displayed, the classification contribution corresponding area 410 is not displayed in the area image 408 . In FIG. 22, a lesion area 407 that cannot be detected is schematically illustrated using a solid line. A lesion area 407 when detectable is schematically illustrated using a two-dot chain line.

文字情報412は、分類結果を表す文字情報に、検出不能を表す文字情報を上書きする形態を適用し得る。表示画面400は、分類結果を表す文字情報とは別に、検出不能を表す形態を適用し得る。 The character information 412 can apply a form in which the character information representing the classification result is overwritten with the character information representing undetectable. The display screen 400 can apply a form representing undetectable, apart from the character information representing the classification result.

図3に示す分類部48は、領域画像408を解析して分類の信頼度を定量化し、表示制御部44は、分類の信頼度を表すスコア等の数値を表示画面400に表示させてもよい。なお、図22に示す符号402は内視鏡画像表示領域を表す。符号404は領域画像表示領域を表す。符号406は分類結果表示領域を表す。 The classification unit 48 shown in FIG. 3 may analyze the region image 408 to quantify the reliability of the classification, and the display control unit 44 may cause the display screen 400 to display a numerical value such as a score representing the reliability of the classification. . Reference numeral 402 shown in FIG. 22 represents an endoscope image display area. Reference numeral 404 represents an area image display area. Reference numeral 406 represents a classification result display area.

〔判定不能の場合の表示画面〕
図23は判定不能を示す表示画面の説明図である。図23に示す表示画面400aは、文字情報412aとして、判定不能を表すundeterminableが表示される。判定不能を表す文字情報412aが表示される場合、領域画像408aには、判定不能を表す分類寄与対応領域410aが表示される。
[Display screen when judgment is impossible]
FIG. 23 is an explanatory diagram of a display screen showing determination impossibility. A display screen 400a shown in FIG. 23 displays undeterminable as character information 412a, which indicates that determination is impossible. When the character information 412a indicating that determination is impossible is displayed, the area image 408a displays a classification contribution corresponding area 410a indicating that determination is impossible.

判定不能を表す分類寄与対応領域410aの例として、異なる分類に対応する二種類の表示形態が混在する例が挙げられる。図23には、分類に応じて色を変える場合において、二色が混在する分類寄与対応領域410aを図示する。なお、図23の符号409は分類寄与領域を表す。 As an example of the classification contribution corresponding area 410a representing the inability to determine, there is a mixture of two types of display forms corresponding to different classifications. FIG. 23 illustrates a classification contribution corresponding area 410a in which two colors are mixed when the color is changed according to the classification. Note that reference numeral 409 in FIG. 23 represents a classification contribution area.

[第二実施形態の作用効果]
第二実施形態に係る医用画像処理装置によれば、以下の作用効果を得ることが可能である。
[Action and effect of the second embodiment]
According to the medical image processing apparatus according to the second embodiment, it is possible to obtain the following effects.

〔1〕
内視鏡画像38における病変が検出不能の場合、及び判定不能の場合に、検出不能、又は判定不能であることを表す文字情報412を表示する。これにより、不適切な分類であることを操作者が把握し得る。
[1]
If the lesion in the endoscopic image 38 cannot be detected or determined, character information 412 indicating that detection or determination is impossible is displayed. This allows the operator to grasp that the classification is inappropriate.

〔2〕
領域画像に基づき分類の信頼度を算出する。表示画面に信頼度が表示される。これにより、分類の信頼性を認識し得る。
[2]
A classification reliability is calculated based on the area image. The confidence level is displayed on the display screen. This allows recognition of the reliability of the classification.

[第三実施形態に係る医用画像処理装置の説明]
図24は第三実施形態に係る医用画像処理装置の機能ブロック図である。図24に示す医用画像処理装置14aは、図3に示す医用画像処理装置14に対して、記憶指示取得部41を備える。記憶指示取得部41は図1に示すプロセッサ装置12から送信される内視鏡画像38の記憶指示を取得する。記憶指示取得部41は、内視鏡10から内視鏡画像38の記憶指示を取得してもよい。
[Description of Medical Image Processing Apparatus According to Third Embodiment]
FIG. 24 is a functional block diagram of a medical image processing apparatus according to the third embodiment. The medical image processing apparatus 14a shown in FIG. 24 has a storage instruction acquisition unit 41 in contrast to the medical image processing apparatus 14 shown in FIG. A storage instruction obtaining unit 41 obtains an instruction to store the endoscopic image 38 transmitted from the processor device 12 shown in FIG. The storage instruction acquisition unit 41 may acquire an instruction to store the endoscopic image 38 from the endoscope 10 .

記憶指示取得部41が内視鏡画像38の記憶指示を取得した場合、画像取得部40を用いて取得した内視鏡画像38は、分類結果、領域画像、例外判定結果、及び信頼度の少なくともいずれかと関連付けされて内視鏡画像記憶部46aに記憶される。 When the storage instruction acquisition unit 41 acquires the storage instruction for the endoscopic image 38, the endoscopic image 38 acquired using the image acquisition unit 40 is obtained by at least the classification result, the area image, the exception determination result, and the reliability. It is stored in the endoscopic image storage unit 46a in association with any of them.

医用画像処理装置14aは、分類結果等を内視鏡画像38と合成して記憶してもよいし、分類結果等と内視鏡画像38とを別々に記憶してもよい。図示しない操作ボタン等を操作者が操作した際に、内視鏡画像38の記憶指示がプロセッサ装置12から送信されてもよいし、分類結果等に基づいて内視鏡画像38の記憶指示がプロセッサ装置12から自動送信されてもよい。プロセッサ装置12は、信頼度が規定の閾値以上の場合に、医用画像処理装置14aは適切な分類結果が得られていると判定して、内視鏡画像38の記憶指示を自動送信してもよい。 The medical image processing apparatus 14a may combine the classification result and the like with the endoscopic image 38 and store them, or may store the classification result and the endoscopic image 38 separately. An instruction to store the endoscopic image 38 may be transmitted from the processor device 12 when the operator operates an operation button or the like (not shown), or the instruction to store the endoscopic image 38 may be sent to the processor based on the classification result or the like. It may be automatically sent from the device 12 . If the reliability is equal to or higher than the prescribed threshold, the processor device 12 determines that the medical image processing device 14a has obtained an appropriate classification result, and automatically transmits an instruction to store the endoscopic image 38. good.

[第三実施形態の作用効果]
第三実施形態に係る医用画像処理装置によれば、以下の作用効果を得ることが可能である。
[Action and effect of the third embodiment]
According to the medical image processing apparatus according to the third embodiment, it is possible to obtain the following effects.

〔1〕
内視鏡検査の後に、ユーザがレポートを作成する際に、分類結果等が適切であるか否かを確認し得る。
[1]
After the endoscopy, when the user prepares the report, he/she can check whether the classification results, etc. are appropriate.

〔2〕
再検査の際に、前回までの検査結果を参照し得る。
[2]
At the time of re-examination, the previous inspection results can be referred to.

[内視鏡システムの変形例]
〔プロセッサ装置の変形例〕
プロセッサ装置12は、医用画像処理装置14の機能を有してもよい。すなわち、プロセッサ装置12は、医用画像処理装置14と一体に構成されてもよい。かかる態様では、表示装置13はモニタ装置16と兼用し得る。プロセッサ装置12は入力装置15を接続させる接続端子を備え得る。
[Modification of Endoscope System]
[Modification of Processor Device]
The processor device 12 may have the functionality of the medical image processing device 14 . That is, the processor device 12 may be configured integrally with the medical image processing device 14 . In such an embodiment, the display device 13 can also serve as the monitor device 16 . Processor unit 12 may include connection terminals for connecting input device 15 .

〔照明光の変形例〕
本実施形態に示す内視鏡システム9を用いて取得可能な医用画像の一例として、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得た通常光画像が挙げられる。
[Modified example of illumination light]
As an example of a medical image that can be acquired using the endoscope system 9 shown in the present embodiment, a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as the light in the white band can be mentioned. be done.

本実施形態に示す内視鏡システム9を用いて取得可能な医用画像の他の例として、特定の波長領域の光を照射して得た画像が挙げられる。特定の波長帯域は白色帯域よりも狭い帯域を適用可能である。以下の変形例の適用が可能である。 Another example of a medical image that can be acquired using the endoscope system 9 shown in this embodiment is an image obtained by irradiating light in a specific wavelength region. A narrower band than the white band can be applied to the specific wavelength band. The following modifications are applicable.

〈第1例〉
特定の波長帯域の第1例は、可視域の青色帯域又は緑色帯域である。第1例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含み、かつ第1例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。
<First example>
A first example of a specific wavelength band is the visible blue or green band. The first example wavelength band includes a wavelength band of 390 nm or more and 450 nm or less, or 530 nm or more and 550 nm or less, and the first example light is 390 nm or more and 450 nm or less, or It has a peak wavelength within a wavelength band of 530 nm or more and 550 nm or less.

〈第2例〉
特定の波長帯域の第2例は、可視域の赤色帯域である。第2例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含み、かつ第2例の光は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。
<Second example>
A second example of a specific wavelength band is the visible red band. A second example wavelength band includes a wavelength band of 585 nm or more and 615 nm or less, or a wavelength band of 610 nm or more and 730 nm or less, and the second example light is 585 nm or more and 615 nm or less, or It has a peak wavelength within a wavelength band of 610 nm or more and 730 nm or less.

〈第3例〉
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含み、かつ第3例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。
<Third example>
A third example of the specific wavelength band includes a wavelength band in which oxyhemoglobin and reduced hemoglobin have different absorption coefficients, and the light in the third example has a peak wavelength in the wavelength band in which oxidized hemoglobin and reduced hemoglobin have different absorption coefficients. have The wavelength band of this third example includes a wavelength band of 400 ± 10 nanometers, 440 ± 10 nanometers, 470 ± 10 nanometers, or a wavelength band of 600 to 750 nanometers, and the light of the third example is It has a peak wavelength in the wavelength band of 400±10 nm, 440±10 nm, 470±10 nm, or 600 nm or more and 750 nm or less.

〈第4例〉
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察に用いられ、かつこの蛍光物質を励起させる励起光の波長帯域である。例えば、390ナノメートル以上470ナノメートル以下の波長帯域である。なお、蛍光の観察は蛍光観察と呼ばれる場合がある。
<Fourth example>
A fourth example of the specific wavelength band is a wavelength band of excitation light that is used for observing fluorescence emitted by a fluorescent substance in vivo and that excites this fluorescent substance. For example, it is a wavelength band of 390 nm or more and 470 nm or less. Observation of fluorescence is sometimes referred to as fluorescence observation.

〈第5例〉
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含み、かつ第5例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。
<Fifth example>
A fifth example of the specific wavelength band is the wavelength band of infrared light. The wavelength band of this fifth example includes a wavelength band of 790 nm or more and 820 nm or less, or a wavelength band of 905 nm or more and 970 nm or less, and the light of the fifth example is 790 nm or more and 820 nm or less, Alternatively, it has a peak wavelength in a wavelength band of 905 nm or more and 970 nm or less.

〔特殊光画像の生成例〕
プロセッサ装置12は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成は取得が含まれる。この場合、プロセッサ装置12は、特殊光画像取得部として機能する。そして、プロセッサ装置12は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑、及び青、或いはシアン、マゼンタ、及びイエローの色情報に基づく演算を行うことで得る。
[Generation example of special light image]
The processor device 12 may generate a special light image having information of a specific wavelength band based on a normal light image obtained by imaging using white light. Note that the generation here includes acquisition. In this case, the processor device 12 functions as a special light image acquisition unit. Then, the processor device 12 obtains a signal in a specific wavelength band by performing an operation based on the color information of red, green, blue or cyan, magenta, and yellow normally included in the optical image.

なお、赤、緑、及び青は、RGB(Red,Green,Blue)と表されることがある。また、シアン、マゼンタ、及びイエローは、CMY(Cyan,Magenta,Yellow)と表されることがある。 Note that red, green, and blue are sometimes expressed as RGB (Red, Green, Blue). Also, cyan, magenta, and yellow are sometimes expressed as CMY (Cyan, Magenta, Yellow).

〔特徴量画像の生成例〕
医用画像として、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常画像、並びに特定の波長帯域の光を照射して得る特殊光画像の少なくともいずれかに基づく演算を用いて、特徴量画像を生成し得る。
[Generation example of feature quantity image]
As a medical image, at least one of a normal light image obtained by irradiating light in a white band, or light in a plurality of wavelength bands as white band light, and a special light image obtained by irradiating light in a specific wavelength band. A feature image may be generated using an operation based on.

[コンピュータを画像処理装置として機能させるプログラムへの適用例]
上述した画像処理方法は、コンピュータを用いて、画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、コンピュータを、内視鏡画像取得機能、画像処理機能、表示信号送信機能、及び記憶機能を実現させるプログラムを構成し得る。画像処理機能は、分類機能、及び領域画像生成機能を含み得る。
[Example of application to a program that causes a computer to function as an image processing device]
The image processing method described above can be configured as a program that implements functions corresponding to each step in the image processing method using a computer. For example, it is possible to configure a program that causes a computer to realize an endoscopic image acquisition function, an image processing function, a display signal transmission function, and a storage function. Image processing functions may include classification functions and area image generation functions.

上述した画像処理機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。 It is possible to store a program that causes a computer to implement the image processing function described above in a computer-readable information storage medium that is a tangible, non-temporary information storage medium, and to provide the program through the information storage medium. be.

また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。 Further, instead of providing the program by storing it in a non-temporary information storage medium, it is also possible to provide a program signal via a network.

[実施形態及び変形例等の組み合わせについて]
上述した実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
[Regarding combinations of embodiments and modifications]
The components described in the above embodiments and the components described in the modified examples can be used in combination as appropriate, and some of the components can be replaced.

[他の機器への適用例]
上記の実施形態では、医用画像として内視鏡画像を例示したが、本実施形態に示す自動分類は、CT装置、MRI装置、及びX線撮像装置などを用いて取得した医用画像にも適用可能である。実施形態に示す医用画像は撮像画像の一例である。
[Example of application to other devices]
In the above embodiment, an endoscopic image was exemplified as a medical image, but the automatic classification shown in this embodiment can also be applied to medical images acquired using a CT device, an MRI device, an X-ray imaging device, or the like. is. The medical image shown in the embodiment is an example of a captured image.

以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。 In the embodiments of the present invention described above, it is possible to appropriately change, add, or delete constituent elements without departing from the gist of the present invention. The present invention is not limited to the embodiments described above, and many modifications are possible within the technical concept of the present invention by those skilled in the art.

9 内視鏡システム
10 内視鏡
11 光源装置
12 プロセッサ装置
13 表示装置
14 医用画像処理装置
14a 医用画像処理装置
15 入力装置
16 モニタ装置
20 挿入部
21 操作部
22 ユニバーサルコード
25 軟性部
26 湾曲部
27 先端部
27a 先端面
28 撮像素子
29 湾曲操作ノブ
30 送気送水ボタン
31 吸引ボタン
32 静止画像撮像指示部
33 処置具導入口
35 ライトガイド
36 信号ケーブル
37a コネクタ
37b コネクタ
38 内視鏡画像
38a 動画像
38b フレーム画像
39 静止画像
40 画像取得部
41 記憶指示取得部
42 画像処理部
44 表示制御部
46 記憶部
46a 内視鏡画像記憶部
46b 分類記憶部
46c 領域画像記憶部
48 分類部
50 領域画像生成部
120 制御部
122 メモリ
124 ストレージ装置
126 ネットワークコントローラ
128 電源装置
130 ディスプレイコントローラ
132 入出力インターフェース
134 入力コントローラ
136 バス
140 ネットワーク
200 表示画面
200a 表示画面
200b 表示画面
200c 表示画面
200d 表示画面
200e 表示画面
201 枠
202 内視鏡画像表示領域
204 領域画像表示領域
206 分類結果表示領域
206a 分類結果表示領域
207 枠
208 領域画像
208a 領域画像
208b 領域画像
208c 領域画像
208d 領域画像
208e 領域画像
208f 領域画像
208g 領域画像
208h 領域画像
209 分類寄与領域
209a 第一分類寄与領域
209b 第二分類寄与領域
210 分類寄与対応領域
210a 分類寄与対応領域とされるべき領域
210b 分類寄与対応領域とされるべき領域
210e 分類寄与対応領域
210f 分類寄与対応領域
210g 第一分類寄与対応領域
210h 第二分類寄与対応領域
211a 中央近傍
211b 周囲
211c 中間領域
212 文字情報
212a 文字情報
212b 文字情報
212c 文字情報
212d 文字情報
212e 第一文字情報
212f 第二文字情報
213a 第一病変
213b 第二病変
220 比較画面
222 腫瘍
230 領域
300 分類部
302 CNN
304 誤差算出部
306 パラメータ更新部
310 入力層
312 中間層
314 出力層
320 畳み込み層
322 プーリング層
324 全結合層
330 情報
330a 入力層の情報
330b 中間層の情報
330c 全結合層の情報
370 正解データ
380 処理対象画像
381a 一方の動物
381b 他方の動物
382 第一分類済画像
384 分類の根拠となる領域
386 第二分類済画像
388 分類の根拠となる領域
390 分類対象画像
391a 人物
391b 動物
392 分類済画像
394 人物領域
396 動物領域
400 表示画面
400a 表示画面
402 内視鏡画像表示領域
404 領域画像表示領域
406 分類結果表示領域
408 領域画像
410 分類寄与対応領域
412 文字情報
412a 文字情報
S10からS22 医用画像処理方法の各工程
9 endoscope system 10 endoscope 11 light source device 12 processor device 13 display device 14 medical image processing device 14a medical image processing device 15 input device 16 monitor device 20 insertion section 21 operation section 22 universal cord 25 flexible section 26 bending section 27 Distal portion 27a Distal surface 28 Imaging device 29 Bending operation knob 30 Air/water supply button 31 Suction button 32 Still image imaging instruction unit 33 Treatment instrument introduction port 35 Light guide 36 Signal cable 37a Connector 37b Connector 38 Endoscope image 38a Moving image 38b Frame image 39 Still image 40 Image acquisition unit 41 Storage instruction acquisition unit 42 Image processing unit 44 Display control unit 46 Storage unit 46a Endoscope image storage unit 46b Classification storage unit 46c Area image storage unit 48 Classification unit 50 Area image generation unit 120 Control unit 122 Memory 124 Storage device 126 Network controller 128 Power supply device 130 Display controller 132 Input/output interface 134 Input controller 136 Bus 140 Network 200 Display screen 200a Display screen 200b Display screen 200c Display screen 200d Display screen 200e Display screen 201 Frame 202 Inside view Mirror image display area 204 Area image display area 206 Classification result display area 206a Classification result display area 207 Frame 208 Area image 208a Area image 208b Area image 208c Area image 208d Area image 208e Area image 208f Area image 208g Area image 208h Area image 209 Classification Contribution region 209a First classification contribution region 209b Second classification contribution region 210 Classification contribution corresponding region 210a Region 210b to be a classification contribution corresponding region Region 210e to be a classification contribution corresponding region Classification contribution corresponding region 210f Classification contribution corresponding region 210g First classification contribution corresponding region 210h Second classification contribution corresponding region 211a Near center 211b Surrounding region 211c Intermediate region 212 Character information 212a Character information 212b Character information 212c Character information 212d Character information 212e First character information 212f Second character information 213a First lesion 213b Second lesion 220 Comparison screen 222 Tumor 230 Region 300 Classification unit 302 CNN
304 error calculator 306 parameter updater 310 input layer 312 intermediate layer 314 output layer 320 convolution layer 322 pooling layer 324 fully connected layer 330 information 330a input layer information 330b hidden layer information 330c fully connected layer information 370 correct data 380 processing Target image 381a One animal 381b The other animal 382 First classified image 384 Classification basis area 386 Second classified image 388 Classification basis area 390 Classification target image 391a Person 391b Animal 392 Classified image 394 Person Area 396 Animal area 400 Display screen 400a Display screen 402 Endoscope image display area 404 Area image display area 406 Classification result display area 408 Area image 410 Classification contribution corresponding area 412 Character information 412a Character information S10 to S22 Medical image processing methods process

Claims (14)

生体を撮像して生成された撮像画像を取得する画像取得部と、
前記撮像画像に含まれる病変領域を二つ以上の病変の種類を表すクラスに分類する分類部と、
前記撮像画像の領域を示す背景画像上に、前記分類部による前記病変領域の分類に寄与した領域を視認可能に表した領域画像を生成する画像生成部であって、前記分類部を用いた分類において、それぞれの分類に寄与した領域をそれぞれ分類結果に応じて異なる形態で可視化した前記領域画像を生成する画像生成部と、
前記撮像画像、及び前記領域画像を表す表示信号を表示装置へ送信する表示信号送信部と、
を備え、
前記表示信号送信部は、前記領域画像を前記撮像画像と別に表示する前記表示信号を前記表示装置へ送信する医用画像処理装置。
an image acquisition unit that acquires a captured image generated by imaging a living body;
a classification unit that classifies lesion areas included in the captured image into classes representing two or more types of lesions ;
an image generation unit that generates an area image that visually represents an area that has contributed to the classification of the lesion area by the classification unit on a background image that indicates the area of the captured image, wherein the classification is performed using the classification unit. , an image generation unit that generates the region images in which the regions that contributed to each classification are visualized in different forms according to the classification results ;
a display signal transmission unit that transmits a display signal representing the captured image and the area image to a display device;
with
The display signal transmission unit transmits the display signal for displaying the area image separately from the captured image to the display device.
前記分類部は、前記撮像画像に含まれる病変領域を腫瘍性の病変と非腫瘍性の病変とに分類する請求項1に記載の医用画像処理装置。 2. The medical image processing apparatus according to claim 1, wherein the classification unit classifies a lesion area included in the captured image into a neoplastic lesion and a non- neoplastic lesion . 前記分類部は、前記撮像画像から取得した特徴量に基づいて前記撮像画像を分類し、
前記画像生成部は、前記特徴量に基づいて前記領域画像を生成する請求項1又は2に記載の医用画像処理装置。
The classification unit classifies the captured image based on the feature amount acquired from the captured image,
3. The medical image processing apparatus according to claim 1, wherein the image generator generates the area image based on the feature amount.
前記分類部は、学習済みの深層学習器が適用され、
前記画像生成部は、前記深層学習器における中間層の情報に基づいて前記領域画像を生成する請求項1又は2に記載の医用画像処理装置。
The classifying unit is applied with a trained deep learner,
3. The medical image processing apparatus according to claim 1, wherein the image generator generates the area image based on intermediate layer information in the deep learning device.
前記分類部は、前記撮像画像に設定された複数の領域ごとに、前記クラスへの帰属度合いを算出し、前記帰属度合いに基づいて前記撮像画像の分類を行う請求項1から4のいずれか一項に記載の医用画像処理装置。 5. The classifying unit according to any one of claims 1 to 4, wherein the classification unit calculates a degree of belonging to the class for each of a plurality of areas set in the captured image, and classifies the captured image based on the degree of belonging. 10. The medical image processing apparatus according to claim 1. 前記画像生成部は、前記帰属度合いに基づいて前記領域画像を生成する請求項5に記載の医用画像処理装置。 6. The medical image processing apparatus according to claim 5, wherein the image generator generates the area image based on the degree of belonging. 前記分類部は、前記領域画像に基づく分類の例外判定を行い、
前記表示信号送信部は、前記分類部を用いた例外判定の結果を表す表示信号を前記表示装置へ送信する請求項1から6のいずれか一項に記載の医用画像処理装置。
The classification unit performs classification exception determination based on the area image,
The medical image processing apparatus according to any one of claims 1 to 6, wherein the display signal transmission section transmits a display signal representing a result of exception determination using the classification section to the display device.
前記分類部は、領域画像に基づいて、前記分類部を用いて導出された分類結果の信頼度を算出し、
前記表示信号送信部は、前記信頼度を表す表示信号を前記表示装置へ送信する請求項7に記載の医用画像処理装置。
The classification unit calculates the reliability of the classification result derived using the classification unit based on the area image,
8. The medical image processing apparatus according to claim 7, wherein the display signal transmission section transmits a display signal representing the reliability to the display device.
前記撮像画像の記憶指示を取得する記憶指示取得部と、
前記撮像画像を記憶する記憶部と、
を備え、
前記記憶部は、前記撮像画像の記憶指示に基づいて前記記憶部へ前記撮像画像を記憶する際に、前記撮像画像に前記分類結果、前記例外判定の結果、及び前記分類結果の信頼度の少なくともいずれかを関連付けする請求項8に記載の医用画像処理装置。
a storage instruction acquisition unit that acquires a storage instruction for the captured image;
a storage unit that stores the captured image;
with
The storage unit stores at least the classification result, the exception determination result, and the reliability of the classification result in the captured image when storing the captured image in the storage unit based on the instruction to store the captured image. 9. The medical image processing apparatus according to claim 8, wherein any one is associated.
前記表示信号送信部は、前記分類部を用いて導出された分類結果の文字情報を表す表示信号を前記表示装置へ送信する請求項1から9のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 9, wherein the display signal transmission section transmits a display signal representing character information of the classification result derived using the classification section to the display device. 生体を撮像して生成された撮像画像を取得する画像取得部と、
前記撮像画像に含まれる病変領域を二つ以上の病変の種類を表すクラスに分類する分類部と、
前記撮像画像の領域を示す背景画像上に、前記分類部による前記病変領域の分類に寄与した領域を視認可能に表した領域画像を生成する画像生成部であって、前記分類部を用いた分類において、それぞれの分類に寄与した領域をそれぞれ分類結果に応じて異なる形態で可視化した前記領域画像を生成する画像生成部と、
前記撮像画像、及び前記領域画像を表示する表示装置と、
前記撮像画像、及び前記領域画像を表す表示信号を表示装置へ送信する表示信号送信部と、
を備え、
前記表示信号送信部は、前記領域画像を前記撮像画像と別に表示する前記表示信号を前記表示装置へ送信する医用画像処理システム。
an image acquisition unit that acquires a captured image generated by imaging a living body;
a classification unit that classifies lesion areas included in the captured image into classes representing two or more types of lesions ;
an image generation unit that generates an area image that visually represents an area that has contributed to the classification of the lesion area by the classification unit on a background image that indicates the area of the captured image, wherein the classification is performed using the classification unit. , an image generation unit that generates the region images in which the regions that contributed to each classification are visualized in different forms according to the classification results ;
a display device that displays the captured image and the area image;
a display signal transmission unit that transmits a display signal representing the captured image and the area image to a display device;
with
In the medical image processing system, the display signal transmission unit transmits the display signal for displaying the area image separately from the captured image to the display device.
医用画像処理装置の作動方法であって、前記医用画像処理装置は、画像取得部と、分類部と、画像生成部と、表示信号送信部とからなり、
前記画像取得部が、生体を撮像して生成された撮像画像を取得する画像取得工程と、
前記分類部が、前記撮像画像に含まれる病変領域を二つ以上の病変の種類を表すクラスに分類する分類工程と、
前記画像生成部が、前記撮像画像の領域を示す背景画像上に、前記分類部による前記病変領域の分類に寄与した領域を視認可能に表した領域画像を生成する画像生成工程であって、前記分類工程を用いた分類において、それぞれの分類に寄与した領域をそれぞれ分類結果に応じて異なる形態で可視化した前記領域画像を生成する画像生成工程と、
前記表示信号送信部が、前記撮像画像、及び前記領域画像を表す表示信号を表示装置へ送信する表示信号送信工程と、
を含み、
前記表示信号送信工程は、前記領域画像を前記撮像画像と別に表示する前記表示信号を前記表示装置へ送信する医用画像処理装置の作動方法
A method of operating a medical image processing apparatus, the medical image processing apparatus comprising an image acquisition unit, a classification unit, an image generation unit, and a display signal transmission unit,
an image acquisition step in which the image acquisition unit acquires a captured image generated by imaging a living body;
a classification step in which the classification unit classifies the lesion area included in the captured image into classes representing two or more lesion types ;
An image generating step in which the image generating unit generates an area image visibly representing the area that contributed to the classification of the lesion area by the classifying unit on a background image indicating the area of the captured image, In the classification using the classification step, an image generation step of generating the region images in which the regions that contributed to each classification are visualized in different forms according to the classification results ;
a display signal transmission step in which the display signal transmission unit transmits a display signal representing the captured image and the area image to a display device;
including
The display signal transmitting step transmits the display signal for displaying the area image separately from the captured image to the display device.
コンピュータを、
生体を撮像して生成された撮像画像を取得する画像取得部と、
前記撮像画像に含まれる病変領域を二つ以上の病変の種類を表すクラスに分類する分類部と、
前記撮像画像の領域を示す背景画像上に、前記分類による前記病変領域の分類に寄与した領域を視認可能に表した領域画像を生成する画像生成部であって、前記分類を用いた分類において、それぞれの分類に寄与した領域をそれぞれ分類結果に応じて異なる形態で可視化した前記領域画像を生成する画像生成部と、
前記撮像画像、及び前記領域画像を表す表示信号を表示装置へ送信する表示信号送信部であり、前記領域画像を前記撮像画像と別に表示する前記表示信号を前記表示装置へ送信する表示信号送信部として機能させるプログラム。
the computer,
an image acquisition unit that acquires a captured image generated by imaging a living body;
a classification unit that classifies lesion areas included in the captured image into classes representing two or more types of lesions;
an image generation unit that generates an area image that visually represents an area that has contributed to the classification of the lesion area by the classification unit on a background image that indicates the area of the captured image, wherein the classification is performed using the classification unit . , an image generation unit that generates the region images in which the regions that contributed to each classification are visualized in different forms according to the classification results;
A display signal transmission unit that transmits a display signal representing the captured image and the area image to a display device, and a display signal transmission unit that transmits the display signal for displaying the area image separately from the captured image to the display device . A program that acts as a
非一時的かつコンピュータ読取可能な記憶媒体であって、前記記憶媒体に格納された指令がコンピュータによって読み取られた場合に、
生体を撮像して生成された撮像画像を取得する画像取得機能、
記撮像画像に含まれる病変領域を二つ以上の病変の種類を表すクラスに分類する分類機能、
前記撮像画像の領域を示す背景画像上に、前記分類機能による前記病変領域の分類に寄与した領域を視認可能に表した領域画像を生成する画像生成機能であって、前記分類機能を用いた分類において、それぞれの分類に寄与した領域をそれぞれ分類結果に応じて異なる形態で可視化した前記領域画像を生成する画像生成機能、及び、
前記撮像画像、及び前記領域画像を表す表示信号を表示装置へ送信する表示信号送信機能であり、前記領域画像を前記撮像画像と別に表示する前記表示信号を前記表示装置へ送信する表示信号送信機能をコンピュータに実行させる記憶媒体。
A non-transitory computer-readable storage medium, wherein when instructions stored on the storage medium are read by a computer,
an image acquisition function for acquiring a captured image generated by imaging a living body;
A classification function that classifies lesion areas included in the captured image into classes representing two or more types of lesions;
An image generating function that generates an area image that visually represents an area that has contributed to the classification of the lesion area by the classification function on a background image that indicates the area of the captured image, the classification using the classification function. 3, an image generation function for generating the area images in which the areas that contributed to each classification are visualized in different forms according to the classification results; and
A display signal transmission function for transmitting a display signal representing the captured image and the area image to a display device, and a display signal transmission function for transmitting to the display device the display signal for displaying the area image separately from the captured image. A storage medium that allows a computer to execute
JP2020530054A 2018-07-09 2019-06-14 Medical image processing apparatus, medical image processing system, operating method of medical image processing apparatus, program, and storage medium Active JP7270626B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023071374A JP7583100B2 (en) 2018-07-09 2023-04-25 Medical image processing device, endoscope system, medical image processing system, operation method of medical image processing device, program, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018130138 2018-07-09
JP2018130138 2018-07-09
PCT/JP2019/023696 WO2020012872A1 (en) 2018-07-09 2019-06-14 Medical image processing device, medical image processing system, medical image processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023071374A Division JP7583100B2 (en) 2018-07-09 2023-04-25 Medical image processing device, endoscope system, medical image processing system, operation method of medical image processing device, program, and storage medium

Publications (2)

Publication Number Publication Date
JPWO2020012872A1 JPWO2020012872A1 (en) 2021-08-02
JP7270626B2 true JP7270626B2 (en) 2023-05-10

Family

ID=69142574

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020530054A Active JP7270626B2 (en) 2018-07-09 2019-06-14 Medical image processing apparatus, medical image processing system, operating method of medical image processing apparatus, program, and storage medium
JP2023071374A Active JP7583100B2 (en) 2018-07-09 2023-04-25 Medical image processing device, endoscope system, medical image processing system, operation method of medical image processing device, program, and storage medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023071374A Active JP7583100B2 (en) 2018-07-09 2023-04-25 Medical image processing device, endoscope system, medical image processing system, operation method of medical image processing device, program, and storage medium

Country Status (6)

Country Link
US (2) US11991478B2 (en)
EP (1) EP3821790B1 (en)
JP (2) JP7270626B2 (en)
CN (1) CN112367896A (en)
ES (1) ES2992946T3 (en)
WO (1) WO2020012872A1 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3821790B1 (en) * 2018-07-09 2024-07-24 FUJIFILM Corporation Medical image processing device, medical image processing system, medical image processing method, and program
JP7391113B2 (en) * 2020-01-20 2023-12-04 オリンパス株式会社 Learning medical image data creation device, learning medical image data creation method, and program
WO2021156974A1 (en) * 2020-02-05 2021-08-12 オリンパス株式会社 Image processing device, image processing method, image processing program, display control device, and endoscope device
US11227406B2 (en) * 2020-02-28 2022-01-18 Fujifilm Business Innovation Corp. Fusing deep learning and geometric constraint for image-based localization
JP2021145726A (en) * 2020-03-16 2021-09-27 ソニー・オリンパスメディカルソリューションズ株式会社 Medical image processing device, medical observation system, and method of operating medical image processing device
JPWO2021221008A1 (en) * 2020-04-28 2021-11-04
JP7556961B2 (en) * 2020-07-07 2024-09-26 富士フイルム株式会社 ENDOSCOPYRIGHT: 2014-01-13 ...
US12394524B2 (en) * 2020-07-22 2025-08-19 Iterative Scopes, Inc. Systems and methods for analysis of medical images for scoring of inflammatory bowel disease
JP7658068B2 (en) * 2020-08-11 2025-04-08 大日本印刷株式会社 Computer Program and Output Device
EP3968214A1 (en) * 2020-09-15 2022-03-16 Robert Bosch GmbH Device and method for classifying images and accessing the robustness of the classification
JP7461866B2 (en) * 2020-12-23 2024-04-04 名古屋電機工業株式会社 Information processing device, information processing method, and program
WO2022190366A1 (en) * 2021-03-12 2022-09-15 オリンパス株式会社 Shape measurement system for endoscope and shape measurement method for endoscope
JP7723922B2 (en) * 2021-03-24 2025-08-15 国立研究開発法人理化学研究所 X-ray age estimation learning device, X-ray age estimation device, image age estimation learning device, image age estimation device, X-ray imaging system, evaluation device, X-ray age estimation learning method, X-ray age estimation method and program
WO2022224859A1 (en) * 2021-04-23 2022-10-27 富士フイルム株式会社 Endoscope system and method for operating same
US20240249827A1 (en) * 2021-05-26 2024-07-25 Sony Group Corporation Image processing device, image processing method, and recording medium
JP2022184173A (en) * 2021-05-31 2022-12-13 キヤノン株式会社 IMAGE CLASSIFICATION SYSTEM AND CONTROL METHOD AND PROGRAM THEREOF
JP7728002B2 (en) * 2021-10-29 2025-08-22 国立大学法人東海国立大学機構 Medical image observation support device
US12062169B2 (en) * 2022-04-25 2024-08-13 Hong Kong Applied Science and Technology Research Institute Company Limited Multi-functional computer-aided gastroscopy system optimized with integrated AI solutions and method
CN114821272A (en) * 2022-06-28 2022-07-29 上海蜜度信息技术有限公司 Image recognition method, image recognition system, image recognition medium, electronic device, and target detection model
JP2024083838A (en) * 2022-12-12 2024-06-24 DeepEyeVision株式会社 Information processor, information processing method and program
CN116681681B (en) * 2023-06-13 2024-04-02 富士胶片(中国)投资有限公司 Endoscopic image processing method, device, user equipment and medium
WO2025024498A1 (en) * 2023-07-27 2025-01-30 Gyrus Acmi, Inc. D/B/A Olympus Surgical Technologies America Combined source algorithm models
JP7533997B1 (en) 2023-07-31 2024-08-14 合同会社EigenBeats Information processing method, program, and information processing device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280229A (en) 2006-04-11 2007-10-25 Fujifilm Corp Similar case search device, similar case search method and program thereof
WO2012165505A1 (en) 2011-06-02 2012-12-06 オリンパス株式会社 Fluorescence observation device
WO2015045576A1 (en) 2013-09-26 2015-04-02 富士フイルム株式会社 Endoscope system, processor device for endoscope system, operation method for endoscope system, and operation method for processor device
WO2017073338A1 (en) 2015-10-26 2017-05-04 オリンパス株式会社 Endoscope image processing device
WO2017175282A1 (en) 2016-04-04 2017-10-12 オリンパス株式会社 Learning method, image recognition device, and program
WO2018003395A1 (en) 2016-06-29 2018-01-04 パナソニックIpマネジメント株式会社 Image processing device and image processing method
JP2018007078A (en) 2016-07-04 2018-01-11 株式会社ニコン Image processing apparatus, imaging device, image processing method and program
WO2018008593A1 (en) 2016-07-04 2018-01-11 日本電気株式会社 Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4615963Y1 (en) 1967-05-29 1971-06-03
JPS557671B2 (en) 1974-03-28 1980-02-27
JPS523156A (en) 1975-06-25 1977-01-11 Matsushita Electric Industrial Co Ltd Television receiver
JPS5528255U (en) 1978-08-12 1980-02-23
JPS5576711U (en) 1978-11-21 1980-05-27
JP4615963B2 (en) 2004-10-29 2011-01-19 オリンパス株式会社 Capsule endoscope device
US7736313B2 (en) * 2004-11-22 2010-06-15 Carestream Health, Inc. Detecting and classifying lesions in ultrasound images
CN101966071B (en) * 2005-04-13 2012-10-17 奥林巴斯医疗株式会社 Image processing device and image processing method
JP5005981B2 (en) 2006-08-03 2012-08-22 オリンパスメディカルシステムズ株式会社 Image display device
US8542896B2 (en) * 2008-10-20 2013-09-24 Hitachi Medical Corporation Medical image processing device and medical image processing method
JP2010172673A (en) 2009-02-02 2010-08-12 Fujifilm Corp Endoscope system, processor for endoscope, and endoscopy aiding method
JP5576711B2 (en) 2010-05-14 2014-08-20 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP5528255B2 (en) 2010-08-16 2014-06-25 Hoya株式会社 Endoscopic image processing system
WO2013140667A1 (en) * 2012-03-21 2013-09-26 オリンパスメディカルシステムズ株式会社 Image processing device
NZ701369A (en) * 2012-03-28 2016-09-30 Univ Houston System Methods and software for screening and diagnosing skin lesions and plant diseases
JP6027803B2 (en) * 2012-07-17 2016-11-16 Hoya株式会社 Image processing apparatus and endoscope apparatus
JP6067264B2 (en) * 2012-07-17 2017-01-25 Hoya株式会社 Image processing apparatus and endoscope apparatus
EP3115634A1 (en) 2015-07-08 2017-01-11 National Oilwell Varco Norway AS Bearing arrangement
WO2017023569A1 (en) * 2015-08-04 2017-02-09 Siemens Aktiengesellschaft Visual representation learning for brain tumor classification
JP6633641B2 (en) 2015-09-29 2020-01-22 富士フイルム株式会社 Image processing apparatus, endoscope system, and image processing method
JP6580446B2 (en) 2015-10-09 2019-09-25 サイバネットシステム株式会社 Image processing apparatus and image processing method
WO2017073337A1 (en) 2015-10-27 2017-05-04 オリンパス株式会社 Endoscope device
JP2017213097A (en) 2016-05-30 2017-12-07 オリンパス株式会社 Image processing device, image processing method, and program
JP6825625B2 (en) 2016-06-28 2021-02-03 ソニー株式会社 Image processing device, operation method of image processing device, and medical imaging system
WO2018159363A1 (en) * 2017-03-01 2018-09-07 富士フイルム株式会社 Endoscope system and method for operating same
JP6749473B2 (en) * 2017-03-30 2020-09-02 富士フイルム株式会社 Endoscope system and operating method thereof
WO2019078204A1 (en) * 2017-10-17 2019-04-25 富士フイルム株式会社 Medical image processing device and endoscope device
JP6827557B2 (en) * 2017-10-26 2021-02-10 富士フイルム株式会社 Medical image processing equipment
WO2019146066A1 (en) * 2018-01-26 2019-08-01 オリンパス株式会社 Endoscope image processing device, endoscope image processing method, and program
EP3804605A4 (en) * 2018-06-04 2021-08-18 FUJIFILM Corporation IMAGE PROCESSING DEVICE, ENDOSCOPE SYSTEM AND IMAGE PROCESSING METHOD
EP3821790B1 (en) * 2018-07-09 2024-07-24 FUJIFILM Corporation Medical image processing device, medical image processing system, medical image processing method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280229A (en) 2006-04-11 2007-10-25 Fujifilm Corp Similar case search device, similar case search method and program thereof
WO2012165505A1 (en) 2011-06-02 2012-12-06 オリンパス株式会社 Fluorescence observation device
WO2015045576A1 (en) 2013-09-26 2015-04-02 富士フイルム株式会社 Endoscope system, processor device for endoscope system, operation method for endoscope system, and operation method for processor device
WO2017073338A1 (en) 2015-10-26 2017-05-04 オリンパス株式会社 Endoscope image processing device
WO2017175282A1 (en) 2016-04-04 2017-10-12 オリンパス株式会社 Learning method, image recognition device, and program
WO2018003395A1 (en) 2016-06-29 2018-01-04 パナソニックIpマネジメント株式会社 Image processing device and image processing method
JP2018007078A (en) 2016-07-04 2018-01-11 株式会社ニコン Image processing apparatus, imaging device, image processing method and program
WO2018008593A1 (en) 2016-07-04 2018-01-11 日本電気株式会社 Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program

Also Published As

Publication number Publication date
JP2023083555A (en) 2023-06-15
ES2992946T3 (en) 2024-12-20
US20240205374A1 (en) 2024-06-20
JPWO2020012872A1 (en) 2021-08-02
US11991478B2 (en) 2024-05-21
EP3821790B1 (en) 2024-07-24
EP3821790A1 (en) 2021-05-19
JP7583100B2 (en) 2024-11-13
WO2020012872A1 (en) 2020-01-16
CN112367896A (en) 2021-02-12
EP3821790A4 (en) 2021-09-08
US20210097331A1 (en) 2021-04-01
US12388960B2 (en) 2025-08-12

Similar Documents

Publication Publication Date Title
JP7270626B2 (en) Medical image processing apparatus, medical image processing system, operating method of medical image processing apparatus, program, and storage medium
US11734820B2 (en) Medical image processing device, medical image processing method, and medical image processing program
US11918176B2 (en) Medical image processing apparatus, processor device, endoscope system, medical image processing method, and program
JP7143504B2 (en) Medical image processing device, processor device, endoscope system, operating method and program for medical image processing device
JP7630560B2 (en) Medical image processing device, medical image processing system, operation method of medical image processing device, and medical image processing program
JP7278202B2 (en) Image learning device, image learning method, neural network, and image classification device
JP7122328B2 (en) Image processing device, processor device, image processing method, and program
JP7289373B2 (en) Medical image processing device, endoscope system, diagnosis support method and program
CN113453607B (en) Medical image processing apparatus and method
WO2019087969A1 (en) Endoscope system, reporting method, and program
WO2019088008A1 (en) Image processing apparatus, image processing method, program, and endoscope system
US12444052B2 (en) Learning apparatus, learning method, program, trained model, and endoscope system
US20230206445A1 (en) Learning apparatus, learning method, program, trained model, and endoscope system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210730

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230425

R150 Certificate of patent or registration of utility model

Ref document number: 7270626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150