[go: up one dir, main page]

KR102332472B1 - Tumor automatic segmentation using deep learning based on dual window setting in a medical image - Google Patents

Tumor automatic segmentation using deep learning based on dual window setting in a medical image Download PDF

Info

Publication number
KR102332472B1
KR102332472B1 KR1020190158800A KR20190158800A KR102332472B1 KR 102332472 B1 KR102332472 B1 KR 102332472B1 KR 1020190158800 A KR1020190158800 A KR 1020190158800A KR 20190158800 A KR20190158800 A KR 20190158800A KR 102332472 B1 KR102332472 B1 KR 102332472B1
Authority
KR
South Korea
Prior art keywords
tumor
window
image
neural network
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190158800A
Other languages
Korean (ko)
Other versions
KR20210069250A (en
Inventor
홍헬렌
변소현
김봉석
Original Assignee
서울여자대학교 산학협력단
한국보훈복지의료공단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단, 한국보훈복지의료공단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020190158800A priority Critical patent/KR102332472B1/en
Publication of KR20210069250A publication Critical patent/KR20210069250A/en
Application granted granted Critical
Publication of KR102332472B1 publication Critical patent/KR102332472B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법이 제공된다. 상기 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법은, 종양이 포함된 2차원 의료 영상에 제1 윈도우 설정과 제2 윈도우 설정을 각각 적용하여 상기 2차원 의료 영상에 기반한 제1 윈도우 이미지와 제2 윈도우 이미지를 생성하는 단계; 상기 제1 윈도우 이미지와 상기 제2 윈도우 이미지를 각각 제1 딥 뉴럴 네트워크와 제2 딥 뉴럴 네트워크에 입력하여, 상기 제1 딥 뉴럴 네트워크와 상기 제2 딥 뉴럴 네트워크를 통해 각각 제1 사전 형상 모델과 제2 사전 형상 모델을 생성하는 단계; 상기 제1 사전 형상 모델과 상기 제2 사전 형상 모델을 결합하여 가중치 형상 중심 사전 모델(weighted shape-focused prior)을 생성하는 단계; 및 상기 종양이 포함된 3차원 의료 영상과 상기 가중치 형상 중심 사전 모델을 제3 딥 뉴럴 네트워크에 입력하여, 상기 제3 딥 뉴럴 네트워크를 통해 상기 종양의 분할(segmentation) 결과를 획득하는 단계;를 포함한다.An automatic tumor segmentation method using deep learning based on a dual window setup in a medical image is provided. The automatic tumor segmentation method using deep learning based on the dual window setting in the medical image applies a first window setting and a second window setting to a two-dimensional medical image including a tumor, so as to apply a first window setting based on the two-dimensional medical image. generating a window image and a second window image; The first window image and the second window image are input to a first deep neural network and a second deep neural network, respectively, and a first pre-shape model and generating a second pre-shape model; generating a weighted shape-focused prior by combining the first pre-shape model and the second pre-shape model; and inputting the 3D medical image including the tumor and the weighted shape-centered dictionary model into a third deep neural network, and obtaining a segmentation result of the tumor through the third deep neural network. do.

Description

의료 영상에서 듀얼 윈도우 설정에 기반한 딥러닝을 이용한 종양 자동 분할 방법{TUMOR AUTOMATIC SEGMENTATION USING DEEP LEARNING BASED ON DUAL WINDOW SETTING IN A MEDICAL IMAGE}Tumor automatic segmentation method using deep learning based on dual window setting in medical images {TUMOR AUTOMATIC SEGMENTATION USING DEEP LEARNING BASED ON DUAL WINDOW SETTING IN A MEDICAL IMAGE}

본 발명은 의료 영상에서 듀얼 윈도우 설정에 기반한 딥러닝을 이용한 종양 자동 분할 방법에 관한 것으로, 보다 자세하게는 서로 다른 윈도우 설정이 적용된 제1 윈도우 이미지와 제2 윈도우 이미지를 2차원 딥 뉴럴 네트워크에 입력한 결과와 3차원 딥 뉴럴 네트워크를 이용하여 종양을 자동으로 분할하는 방법에 관한 것이다. The present invention relates to an automatic tumor segmentation method using deep learning based on dual window settings in a medical image, and more particularly, to a two-dimensional deep neural network by inputting a first window image and a second window image to which different window settings are applied. It relates to a method for automatically segmenting a tumor using the results and a three-dimensional deep neural network.

암은 질병에 의한 사망의 가장 흔한 원인이다. 암을 치료하기 위한 방법 중 하나인 방사선 치료를 받은 환자의 경우, 암의 예후 및 치료 반응 평가를 위해서는 종양 크기를 측정하는 것이 필수적이다. 종양 크기는 (a) 일차원 RECIST (b) 2차원 WHO 또는 (c) 3D volume을 사용하여 정량화되지만, 종양의 3D 측정과 비교하여 선-길이 측정이 오도될 수 있음을 암시하는 입증되지 않은 증거가 계속 나오고 있다. 또한, 이미지 특징을 분석하고 치료 계획을 위해 종양 볼륨(volume)을 파악하기 위해서는 용적 분할(volumetric segmentation)이 필요하다. 그러나 종양은 종양이 배치된 위치(예: 폐의 상하단, 흉벽, 종격동, 폐의 기저부, 폐 혈관), 종양의 크기(예: 1cm에서 18cm), 종양의 형상 및 종양의 유형(예: solid, sub-solid, necrosis(괴사))이 각각 매우 다양함에 따라 분할 작업을 수행하기 어려운 문제점이 있었다.Cancer is the most common cause of death from disease. For patients who have received radiation therapy, which is one of the methods for treating cancer, it is essential to measure the tumor size in order to evaluate the cancer prognosis and treatment response. Although tumor size is quantified using (a) one-dimensional RECIST (b) two-dimensional WHO or (c) 3D volume, there is no substantiated evidence suggesting that line-length measurements may be misleading compared to 3D measurements of tumors. keeps coming out In addition, volumetric segmentation is required to analyze image features and determine tumor volume for treatment planning. However, the tumor depends on the location where the tumor is placed (e.g., upper and lower lungs, chest wall, mediastinum, base of the lung, pulmonary vessels), the size of the tumor (e.g., 1 cm to 18 cm), the shape of the tumor, and the type of tumor (e.g., solid, Since sub-solid and necrosis (necrosis) were very diverse, there was a problem in that it was difficult to perform the segmentation operation.

또한, 의료 영상은 영상에서 확인하고자 하는 대상에 따라 다양한 윈도우 설정(window setting)이 적용될 수 있다. 예를 들어, 장기 전체 영역을 보기 위한 윈도우 설정을 의료 영상에 적용할 경우 장기에 포함된 종양의 정확한 경계를 확인하고 어렵고, 종양이 위치하는 주요 영역만을 보기 위한 윈도우 설정을 의료 영상에 적용할 경우 종양과 장기 내부간 맥락 정보를 확인하기 어려운 문제점이 있었다.In addition, various window settings may be applied to the medical image according to an object to be checked in the image. For example, when applying a window setting for viewing the entire organ area to a medical image, it is difficult to check the exact boundary of a tumor included in an organ. There was a problem in that it was difficult to confirm contextual information between the tumor and the internal organs.

(특허문헌 0001) JP 4919408(Patent Document 0001) JP 4919408 (특허문헌 0002) US 8494238(Patent Document 0002) US 8494238

본 발명이 해결하고자 하는 과제는 2개의 윈도우 이미지와 2차원 딥 뉴럴 네트워크를 통해 생성된 가중치 형상 중심 사전 모델과 3차원 의료 영상을 3차원 딥 뉴럴 네트워크에 입력함으로써 종양을 위치, 크기, 형상 및 유형에 관계 없이 주변과의 경계부위에서 정확하게 분할하는 방법을 제공하는 것이다.The problem to be solved by the present invention is to determine the location, size, shape and type of a tumor by inputting two window images and a weighted shape-centered dictionary model and a 3D medical image generated through a 2D deep neural network into a 3D deep neural network. It is to provide a method of accurately dividing at the boundary with the surroundings regardless of

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 의료 영상에서 2개의 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법은, 종양이 포함된 2차원 의료 영상에 제1 윈도우 설정과 제2 윈도우 설정을 각각 적용하여 상기 2차원 의료 영상에 기반한 제1 윈도우 이미지와 제2 윈도우 이미지를 생성하는 단계; 상기 제1 윈도우 이미지와 상기 제2 윈도우 이미지를 각각 제1 딥 뉴럴 네트워크와 제2 딥 뉴럴 네트워크에 입력하여, 상기 제1 딥 뉴럴 네트워크와 상기 제2 딥 뉴럴 네트워크를 통해 각각 제1 사전 형상 모델과 제2 사전 형상 모델을 생성하는 단계; 상기 제1 사전 형상 모델과 상기 제2 사전 형상 모델을 결합하여 가중치 형상 중심 사전 모델(weighted shape-focused prior)을 생성하는 단계; 및 상기 종양이 포함된 3차원 의료 영상과 상기 가중치 형상 중심 사전 모델을 제3 딥 뉴럴 네트워크에 입력하여, 상기 제3 딥 뉴럴 네트워크를 통해 상기 종양의 분할(segmentation) 결과를 획득하는 단계;를 포함한다.The automatic tumor segmentation method using deep learning based on the setting of two windows in a medical image for solving the above-described problem is a method for automatically segmenting a tumor by applying a first window setting and a second window setting to a two-dimensional medical image including a tumor, generating a first window image and a second window image based on the 3D medical image; The first window image and the second window image are input to a first deep neural network and a second deep neural network, respectively, and a first pre-shape model and generating a second pre-shape model; generating a weighted shape-focused prior by combining the first pre-shape model and the second pre-shape model; and inputting the 3D medical image including the tumor and the weighted shape-centered dictionary model into a third deep neural network, and obtaining a segmentation result of the tumor through the third deep neural network. do.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.

본 발명은 종양의 자동 분할을 정확하게 수행할 수 있다.The present invention can accurately perform automatic segmentation of tumors.

또한, 본 발명은 2차원 딥 뉴럴 네트워크와 3차원 딥 뉴럴 네트워크를 이용함으로써 전역적 맥락(global context) 정보와 지역적 맥락(local context) 정보를 함께 고려할 수 있다.In addition, the present invention can consider global context information and local context information together by using a two-dimensional deep neural network and a three-dimensional deep neural network.

또한, 본 발명은 서로 다른 윈도우 설정이 적용된 2개의 이미지를 이용하여 종양과 주변 조직 간의 낮은 대조도를 극복할 수 있다.In addition, the present invention can overcome the low contrast between the tumor and the surrounding tissue by using two images to which different window settings are applied.

또한, 본 발명은 가중치 형상 중심 사전 모델을 이용하여 종양의 형상 정보를 획득할 수 있다.Also, according to the present invention, shape information of a tumor can be obtained by using a weighted shape-centered dictionary model.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시 예에 따른 종양 자동 분할 장치를 설명하기 위한 블록도이다..
도 2는 본 발명의 일 실시 예에 따른 종양 자동 분할 방법을 설명하기 위한 흐름도이다.
도 3은 제1 윈도우 이미지와 제2 윈도우 이미지를 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시 예에 따른 종양 자동분할 방법을 설명하기 위한 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 가중치 형상 중심 사전 모델을 설명하기 위한 예시도이다.
도 6 및 도 7은 본 발명의 일 실시 예에 따른 종양 자동 분할 방법의 효과를 설명하기 위한 테이블이다.
도 8은 본 발명의 일 실시 예에 따른 종양 자동 분할 방법의 효과를 설명하기 위한 예시도이다.
1 is a block diagram illustrating an apparatus for automatically dividing a tumor according to an embodiment of the present invention.
2 is a flowchart illustrating an automatic tumor segmentation method according to an embodiment of the present invention.
3 is an exemplary view for explaining a first window image and a second window image.
4 is a block diagram illustrating an automatic tumor segmentation method according to an embodiment of the present invention.
5 is an exemplary diagram for explaining a weighted shape-centered dictionary model according to an embodiment of the present invention.
6 and 7 are tables for explaining the effect of the automatic tumor segmentation method according to an embodiment of the present invention.
8 is an exemplary view for explaining the effect of the automatic tumor segmentation method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. A spatially relative term should be understood as a term that includes different directions of components during use or operation in addition to the directions shown in the drawings. For example, when a component shown in the drawing is turned over, a component described as “beneath” or “beneath” of another component may be placed “above” of the other component. can Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

의미적 영상 분할(sementic segmentation)은 일반적인 영상 분할과 같이 단순히 어떤 특징이나 계산된 속성의 관점에서 유사한 영역으로 나누는데 그치는 것이 아니라, 의미적으로 같은 부분까지 나누고 그 부분이 어떠한 범주에 속하는지 판별하는 기술을 말한다.Semantic segmentation is a technology that divides semantically the same part and determines which category it belongs to, rather than just dividing it into similar regions in terms of certain characteristics or calculated properties, like general image segmentation. say

즉, 영상의 모든 픽셀에 대해서 미리 정의된 범주안에서 어떤 범주에 속하는지 분류하는 기술에 상응할 수 있고, 픽셀단위 분류(pixelwise classification)에 상응할 수도 있다.That is, it may correspond to a technique of classifying all pixels of an image to which category they belong within a predefined category, and may correspond to pixelwise classification.

의미적 영상 분할하는 방법은 크게 2가지 분류로 나뉜다. 첫째는 입력된 영상에서 수제 특징(Hand-craft features)를 뽑아서 수퍼 픽셀(Super-pixel) 단위로 분할한 뒤, 의미기반으로 영상을 분할하는 기법이다. 보다 상세하게는, 주어진 영상 데이터를 분석하여 단서가 될 수 있는 특징(Feature)들을 사용자가 직접 설계하여 추출할 수 있다. 이후 추출된 특징들의 패턴을 근거로 수퍼 픽셀 단위로 세그맨테이션을 수행할 수 있다. 이 과정은 정확도와 속도의 향상을 이끌어 낼 수 있다. 이후, 각각의 수퍼 픽셀 단위로 서포트 벡터 머신 (Support Vector Machine)을 이용하여 의미적 영상 분할을 진행하여 해당하는 픽셀 혹은 수퍼 픽셀이 어떤 분류에 속하는 지 판단할 수 있다. 이러한 방법은 시스템에 입력되는 영상의 종류가 달라지면 그에 맞는 수제 특징을 매번 다시 설계해야 하기 때문에 시스템 활용 범위에 제한이 있다는 단점이 있으며, 수제 특징 추출은 처리 속도가 느리다는 단점도 있다.Methods for semantic image segmentation are divided into two main categories. The first is a technique of extracting hand-crafted features from an input image, dividing the image into super-pixel units, and then segmenting the image based on meaning. More specifically, the user can design and extract features that can be clues by analyzing the given image data. Thereafter, segmentation may be performed in units of super pixels based on the pattern of the extracted features. This process can lead to improvements in accuracy and speed. Thereafter, semantic image segmentation may be performed using a support vector machine in units of each super-pixel to determine which category the corresponding pixel or super-pixel belongs to. This method has a disadvantage in that the range of system utilization is limited because a homemade feature must be redesigned every time the type of image input to the system changes.

둘째는 딥 러닝(Deep Learning)을 이용하여 특징(Features)를 추출한 뒤, 이것을 기반으로 픽셀(pixel) 단위로 분류(Classification)하는 기법이다. 딥 러닝(Deep Learning) 기반 분류의 성능이 우수함이 입증됨에 따라 의미 기반 영상 분할에서도 콘볼루션 인공신경망(Convolutional Neutral Network, CNN) 구조를 이용한 접근법이 제시되고 있다. 이러한 CNN 구조를 변경한 FCN(Fully Convolutional Networks)는 영상 분할(Image Segmentation)에도 뛰어난 성능을 보인다. 수퍼픽셀 단위의 분할을 진행한 후, 학습 데이터셋을 이용하여 CNN 필터를 학습하고 영상을 분할한 후 CRF (Conditional Random Field)와 같은 후 처리를 거칠 수 있다.The second is a technique for extracting features using deep learning and then classifying them in units of pixels based on this. As the performance of deep learning-based classification has been proven to be excellent, an approach using a convolutional neural network (CNN) structure has been proposed even in semantic-based image segmentation. Fully Convolutional Networks (FCNs), which have changed the CNN structure, show excellent performance in image segmentation. After segmentation in units of superpixels, a CNN filter is trained using a training dataset, and an image is segmented, followed by post-processing such as CRF (Conditional Random Field).

이하에서, 본 발명에서 설명하는 분할은 의미적 영상 분할을 의미할 수 있고, 딥 러닝에 기반한 의미적 영상 분할 방법이 적용될 수 있다.Hereinafter, segmentation described in the present invention may mean semantic image segmentation, and a deep learning-based semantic image segmentation method may be applied.

도 1은 본 발명의 일 실시 예에 따른 종양 자동 분할 장치를 설명하기 위한 블록도이다.1 is a block diagram illustrating an apparatus for automatically dividing a tumor according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 종양 자동 분할 장치(100)는 획득한 의료 영상에서 종양을 분할할 수 있다. 예를 들어, 종양 자동 분할 장치(100)는 2차원 의료 영상에 기반한 제1 윈도우 이미지와 제2 윈도우 이미지를 2차원 딥 뉴럴 네트워크에 입력하여 가중치 형상 중심 모델을 생성할 수 있고, 가중치 형상 중심 모델과 3차원 의료 영상을 3차원 딥 뉴럴 네트워크에 입력하여 종양 분할 결과를 획득할 수 있다.Referring to FIG. 1 , the automatic tumor segmentation apparatus 100 according to an embodiment of the present invention may segment a tumor from an acquired medical image. For example, the automatic tumor segmentation apparatus 100 may generate a weighted shape center model by inputting a first window image and a second window image based on a 2D medical image to a 2D deep neural network, and a weighted shape center model and a 3D medical image can be input to a 3D deep neural network to obtain a tumor segmentation result.

일 실시 예에서, 종양 자동 분할 장치(100)는 서버, PC 등의 전자 장치일 수 있고, 종양 자동 분할 방법을 설정할 수 있는 전용 프로그램이 설치될 수 있다. 예를 들어, 종양 자동 분할 장치(100)는 의료 영상 획득, 윈도우 설정, 딥 뉴럴 네트워크에 의료 영상을 입력할 수 있는 영상 제어부(110), 입력 받은 의료 영상을 2차원 딥 뉴럴 네크워크를 이용하여 기계 학습을 수행하고 복수의 예측맵을 생성하는 2차원 딥러닝부(120), 사전 형상 모델과 가중치 형상 중심 모델을 생성하는 확률모델 생성부(130), 가중치 형상 중심 모델과 3차원 의료 영상을 3차원 딥 뉴럴 네트워크를 이용하여 기계 학습을 수행하고 종양 분할 결과를 생성하는 3차원 딥러닝부(140), 종양 분할 결과에 기반하여 종양의 예후 등을 판단하는 종양 판단부(150) 및 기계 학습 결과, 딥 뉴럴 네트워크의 구조 및 필터 값, 환자 데이터, 종양 분할 결과 등을 빅데이터화하여 저장할 수 있는 데이터베이스(160)를 포함할 수 있다.In an embodiment, the automatic tumor segmentation apparatus 100 may be an electronic device such as a server or a PC, and a dedicated program for setting an automatic tumor segmentation method may be installed. For example, the automatic tumor segmentation apparatus 100 obtains a medical image, sets a window, an image controller 110 capable of inputting a medical image to a deep neural network, and uses a two-dimensional deep neural network to machine the received medical image. A two-dimensional deep learning unit 120 that performs learning and generates a plurality of prediction maps, a probabilistic model generator 130 that generates a pre-shape model and a weighted shape-centered model, and a weighted shape-centered model and a 3D medical image 3 A 3D deep learning unit 140 that performs machine learning using a dimensional deep neural network and generates a tumor segmentation result, a tumor determination unit 150 that determines the prognosis of a tumor based on the tumor segmentation result, and a machine learning result , a database 160 capable of storing the structure and filter values of the deep neural network, patient data, tumor segmentation results, and the like into big data.

도 2는 본 발명의 일 실시 예에 따른 종양 자동 분할 방법을 설명하기 위한 흐름도이다. 도 3은 제1 윈도우 이미지와 제2 윈도우 이미지를 설명하기 위한 예시도이다. 도 4는 본 발명의 일 실시 예에 따른 종양 자동분할 방법을 설명하기 위한 블록도이다. 도 5는 본 발명의 일 실시 예에 따른 가중치 형상 중심 사전 모델을 설명하기 위한 예시도이다. 도 6 및 도 7은 본 발명의 일 실시 예에 따른 종양 자동 분할 방법의 효과를 설명하기 위한 테이블이다. 도 8은 본 발명의 일 실시 예에 따른 종양 자동 분할 방법의 효과를 설명하기 위한 예시도이다.2 is a flowchart illustrating an automatic tumor segmentation method according to an embodiment of the present invention. 3 is an exemplary view for explaining a first window image and a second window image. 4 is a block diagram illustrating an automatic tumor segmentation method according to an embodiment of the present invention. 5 is an exemplary diagram for explaining a weighted shape-centered dictionary model according to an embodiment of the present invention. 6 and 7 are tables for explaining the effect of the automatic tumor segmentation method according to an embodiment of the present invention. 8 is an exemplary view for explaining the effect of the automatic tumor segmentation method according to an embodiment of the present invention.

도 2 내지 도 8을 참조하면, 일 실시 예에서, 동작 21에서, 영상 제어부(110)는 종양이 포함된 2차원 의료 영상을 획득할 수 있다. 예를 들어, 2차원 의료 영상은 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 포함할 수 있다. 예를 들어, 의료 영상은 2차원 의료 영상(예: x-ray 이미지, CT 단면 이미지, MRI 단면 이미지) 및/또는 3차원 의료 영상(예: CT 이미지, MRI, PET 이미지)을 포함하며, 의료 영상이라면 특별한 제한은 없다. "영상"은 전산화 단층 촬영(CT; computed tomography), 자기 공명 영상(MRI; magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 의료 영상은 복셀 데이터로서, 복수의 슬라이스 즉, 복수 개의 단위 이미지들로 이루어질 수 있다.2 to 8 , in an embodiment, in operation 21 , the image controller 110 may acquire a 2D medical image including a tumor. For example, the 2D medical image may include a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images. For example, medical imaging includes two-dimensional medical images (eg, x-ray images, CT cross-sectional images, MRI cross-sectional images) and/or three-dimensional medical images (eg, CT images, MRI, PET images), There are no special restrictions on video. "Image" means a subject collected by computed tomography (CT), magnetic resonance imaging (MRI), ultrasound or any other medical imaging system known in the art. may be a medical image of A medical image is voxel data, and may include a plurality of slices, that is, a plurality of unit images.

일 실시 예에서, 동작 22에서, 영상 제어부(110)는 2차원 의료 영상에 제1 윈도우 설정과 제2 윈도우 설정을 각각 적용하여 제1 윈도우 이미지(41)와 제2 윈도우 이미지(42)를 생성할 수 있다. In an embodiment, in operation 22 , the image controller 110 generates the first window image 41 and the second window image 42 by applying the first window setting and the second window setting to the 2D medical image, respectively. can do.

예를 들어, 암 진단을 위한 의료 영상을 적절한 밝기와 대조도로 조정하는 것은 정확한 판독을 위하여 필수적인 과정이다. 지나치게 밝거나 어두운 영상, 혹은 대조도가 지나친 영상 등은 해부학적 구조물이나 병변을 관찰하는데 방해가 되며, 따라서 일반촬영뿐 아니라 초음파, CT, MRI 등의 단면영상에서도 밝기와 대조도를 조정하는 것은 매우 중요하다. 밝기와 대조도는 판독용 모니터에서 기계적으로 조정할 수도 있으나, CT나 MRI와 같은 단면 영상의 경우 윈도우 설정(windows setting)을 통해 영상의 밝기와 대조도를 조정할 수 있다. 윈도우 설정은 윈도우 수준(windows level)과 윈도우 폭(windows width)으로 이루어지며, 보고자 하는 장기에 따라 각각 다른 윈도우 설정 값을 정할 수 있다. 예컨대, 윈도우 레벨은 gray scale의 중앙값일 수 있고, 윈도우 폭은 흑백의 여러 단계인 gray scale로 표현할 수 있는 범위일 수 있다. 구체적으로 윈도우 레벨은 선감약계수, 흡수치, 농도와 직접적인 관련이 있고, 값을 낮게 설정 시 공기와 같이 선감약계수가 적은 조직 관찰에 용이하고 값을 높게 설정 시 뼈와 같이 선감약계수가 큰 조직 관찰에 용이하다. 또한, 윈도우 폭은 영상의 대조도와 직접적인 관련이 있고, 값을 넓게 설정 시 표시되는 농도 범위가 커져 영상의 대조도가 나빠지고 값을 좁게 설정 시 표시되는 농도범위가 작아져 영상의 대조도가 좋아진다.For example, adjusting a medical image for cancer diagnosis to an appropriate brightness and contrast is an essential process for accurate reading. Excessively bright or dark images, or images with excessive contrast, interfere with observing anatomical structures or lesions. It is important. Brightness and contrast can be adjusted mechanically on the monitor for reading, but in the case of cross-sectional images such as CT or MRI, the brightness and contrast of the image can be adjusted through windows setting. Window setting consists of window level and window width, and different window setting values can be set according to the organs to be viewed. For example, the window level may be a median value of gray scale, and the window width may be a range that can be expressed in gray scale, which is several levels of black and white. Specifically, the window level is directly related to the pre-sensitization coefficient, absorption value, and concentration. When the value is set low, it is easy to observe tissues with a low attenuation coefficient, such as air. easy to In addition, the window width is directly related to the contrast of the image, and when the value is set wide, the contrast of the image becomes worse, and when the value is set narrow, the contrast of the image becomes good. lose

일 실시 예에서, 제1 윈도우 설정은 2차원 의료 영상에서 장기의 전체 영역이 잘 보이도록 윈도우 폭과 윈도우 레벨이 조정된 경우일 수 있고, 제2 윈도우 설정은 2차원 의료 영상에서 종양이 위치한 영역과 종양의 주변 영역간 경계(또는 종양이 위치하는 중요 영역)이 잘 보이도록 윈도우 폭과 윈도우 레벨이 조정된 경우일 수 있다. 예컨대, 제1 윈도우 설정은 폐 윈도우 설정(lung window setting)일 수 있고, 제2 윈도우 설정은 종격동 윈도우 설정(mediastinal window setting)일 수 있다.In an embodiment, the first window setting may be a case in which the window width and window level are adjusted so that the entire region of the organ is clearly visible in the 2D medical image, and the second window setting is the area where the tumor is located in the 2D medical image. It may be the case that the window width and window level are adjusted so that the boundary between the tumor and the surrounding area (or the important area where the tumor is located) is clearly visible. For example, the first window setting may be a lung window setting, and the second window setting may be a mediastinal window setting.

일 실시 예에서, 제1 윈도우 이미지(41)는 제1 윈도우 설정이 적용된 복수의 축상 이미지, 복수의 관상 이미지 및 복수의 시상 이미지를 포함할 수 있고, 제2 윈도우 이미지(42)는 제2 윈도우 설정이 적용된 복수의 축상 이미지, 복수의 관상 이미지 및 복수의 시상 이미지를 포함할 수 있다.In an embodiment, the first window image 41 may include a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images to which the first window setting is applied, and the second window image 42 is the second window. It may include a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images to which the settings are applied.

예컨대, 제1 윈도우 이미지(41)는 종양의 전체적이고 넓은 영역을 포함하는 이미지(도 3의 (a))일 수 있고, 제2 윈도우 이미지(42)는 종양과 주변 구조물간의 밝기 값 차이가 명확한 이미지(도 3의 (b))일 수 있다.For example, the first window image 41 may be an image including the entire and wide area of the tumor (FIG. 3(a)), and the second window image 42 has a clear difference in brightness values between the tumor and surrounding structures. It may be an image ((b) of FIG. 3).

일 실시 예에서, 제1 윈도우 설정이 적용된 제1 윈도우 이미지(41)의 관심 영역(region of interest)은 종양이 포함된 장기 전체 영역일 수 있고, 제2 윈도우 설정이 적용된 제2 윈도우 이미지의 관심 영역은 종양이 위치하는 중요 영역일 수 있다. 예컨대, 제1 윈도우 이미지는 폐 윈도우 셋팅 이미지(lung window setting image)일 수 있고, 제2 윈도우 이미지는 종격동 윈도우 셋팅 이미지(mediastinal window setting image)일 수 있다.In an embodiment, the region of interest of the first window image 41 to which the first window setting is applied may be the entire region of the organ including the tumor, and the region of interest of the second window image to which the second window setting is applied. The region may be an important region in which the tumor is located. For example, the first window image may be a lung window setting image, and the second window image may be a mediastinal window setting image.

일 실시 예에서, 동작 23에서, 2차원 딥러닝부(120)는 제1 윈도우 이미지(41)와 제2 윈도우 이미지(42)를 각각 제1 딥 뉴럴 네트워크(43)와 제2 딥 뉴럴 네트워크(44)에 입력할 수 있다. 예를 들어, 제1 윈도우 이미지(41)에 포함된 복수의 축상 이미지, 복수의 관상 이미지 및 복수의 시상 이미지는 각각 제1 딥 뉴럴 네트워크(43)에 입력될 수 있고, 제2 윈도우 이미지(42)에 포함된 복수의 축상 이미지, 복수의 관상 이미지 및 복수의 시상 이미지는 각각 제2 딥 뉴럴 네트워크(44)에 입력될 수 있다.In an embodiment, in operation 23, the two-dimensional deep learning unit 120 generates the first window image 41 and the second window image 42 respectively for the first deep neural network 43 and the second deep neural network ( 44) can be entered. For example, a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images included in the first window image 41 may be input to the first deep neural network 43, respectively, and the second window image 42 ), a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images may be input to the second deep neural network 44 , respectively.

일 실시 예에서, 제1 딥 뉴럴 네트워크(43)와 제2 딥 뉴럴 네트워크(44)는 제1 윈도우 이미지(41)와 제2 윈도우 이미지(42)에서 종양일 가능성이 있는 영역의 확률 값을 계산할 수 있도록 미리 사전에 기계 학습된 2차원 딥 뉴럴 네트워크일 수 있다. 예를 들어, 제1 딥 뉴럴 네트워크(43)와 제2 딥 뉴럴 네트워크(44)는 2D U-net를 포함할 수 있다.In an embodiment, the first deep neural network 43 and the second deep neural network 44 calculate a probability value of a region likely to be a tumor in the first window image 41 and the second window image 42 . It may be a two-dimensional deep neural network that has been machine-learned in advance. For example, the first deep neural network 43 and the second deep neural network 44 may include a 2D U-net.

일 실시 예에서, 도 4에 도시된 2D U-net 및 3D U-net은 "3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation", MICCAI 2016. 에서 제안하는 콘볼루션 네트워크 구조에 상응할 수 있다. 예를 들어, 3D U-Net은 수축 경로(contracting path) 및 팽창 경로(expansive path)를 포함할 수 있다. 수축 경로는 합성곱 신경망의 전형적인 구조를 따르고 있는바, 이는 2번의 3x3 합성곱(unpadded convolutions; 패딩되지 않은 합성곱)의 반복적 적용을 포함하는데, 그 각각의 합성곱에는 보정 선형 유닛(rectified linear unit; ReLU) 및 다운샘플링(downsampling)을 위한 스트라이드(stride) 2의 2x2 최대 풀링 연산이 뒤따른다. 각각의 다운샘플링 단계에 있어서 특징 채널(feature channel)들의 개수는 2배가 취해진다. 팽창 경로에 있어서의 모든 단계는 특징 맵(feature map)의 업샘플링(upsampling) 및 이에 뒤따르는 특징 채널들의 개수를 절반으로 줄이는 2x2 합성곱("up-convolution"), 이에 대응되도록 절단된(cropped) 수축 경로로부터의 특징 맵과의 결합(concatenation), 및 2번의 3x3 합성곱으로 구성되는데, 2번의 3x3 합성곱 각각에는 ReLU가 뒤따른다. 전술한 절단은 모든 합성곱에 있어서의 경계선 픽셀들(border pixels)의 손실 때문에 필수적이다. 최종 층(final layer)에서 1x1 합성곱이 각각의 64 차원(64-component) 특징 벡터를 원하는 개수의 클래스(class)에 맵핑하는 데에 이용된다. 이 예시적 신경망에서는 모두 22개의 합성곱 층들이 포함되었는데, 이개수는 임의적인 것이다. 출력으로 나오는 분할 맵(segmentation map)이 깔끔하게 이어지도록, 모든 2x2 최대 풀링 연산(max-pooling operation)이 짝수의 x 크기 및 y 크기를 가지는 층에 적용되도록 입력 타일의 크기(input tile size)를 선택하는 것이 중요하다는 것을 통상의 기술자는 이해할 수 있을 것이다.In one embodiment, the 2D U-net and 3D U-net shown in FIG. 4 may correspond to the convolutional network structure proposed in "3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation", MICCAI 2016. . For example, a 3D U-Net may include a contracting path and an expansive path. The contraction path follows the typical structure of a convolutional neural network, which involves the iterative application of two 3x3 unpadded convolutions, each of which has a rectified linear unit. ; ReLU) and a 2x2 max pooling operation of stride 2 for downsampling is followed. For each downsampling step, the number of feature channels is doubled. All steps in the dilation path are correspondingly cropped by upsampling of the feature map followed by a 2x2 convolution (“up-convolution”) that halves the number of feature channels. ) consists of concatenation with the feature map from the constriction path, and two 3x3 convolutions, each of which is followed by a ReLU. The aforementioned truncation is necessary because of the loss of border pixels in every convolution. In the final layer, 1x1 convolution is used to map each 64-component feature vector to a desired number of classes. A total of 22 convolutional layers are included in this exemplary neural network, which is arbitrary. Choose the input tile size so that all 2x2 max-pooling operations are applied to layers with even x and y sizes, so that the output segmentation map leads neatly It will be appreciated by those skilled in the art that it is important to

일 실시 예에서, 동작 24에서, 2차원 딥러닝부(120)와 확률모델 생성부(130)는 제1 딥 뉴럴 네트워크(43)와 제2 딥 뉴럴 네트워크(44)를 통해 각각 제1 사전 형상 모델(47)과 제2 사전 형상 모델(48)을 생성할 수 있다.In an embodiment, in operation 24 , the two-dimensional deep learning unit 120 and the probabilistic model generating unit 130 perform a first dictionary shape through the first deep neural network 43 and the second deep neural network 44 , respectively. A model 47 and a second pre-shape model 48 may be created.

일 실시 예에서, 2차원 딥러닝부(120)는 제1 윈도우 이미지(41)와 제2 윈도우 이미지(42)를 각각 제1 딥 뉴럴 네트워크(43)와 제2 딥 뉴럴 네트워크(44)에 입력하여, 제1 딥 뉴럴 네트워크(43)와 제2 딥 뉴럴 네트워크(44)를 통해 각각 제1 복수의 예측맵(45, Prediction map)과 제2 복수의 예측맵(46)을 생성할 수 있다. 예를 들어, 제1 복수의 예측맵(45)는 제1 윈도우 이미지(41)에 포함된 복수의 축상 이미지, 복수의 관상 이미지 및 복수의 시상 이미지 각각에 대응하는 복수의 예측맵들을 포함할 수 있고, 제2 복수의 예측맵(46)는 제2 윈도우 이미지(42)에 포함된 복수의 축상 이미지, 복수의 관상 이미지 및 복수의 시상 이미지 각각에 대응하는 복수의 예측맵들을 포함할 수 있다.In an embodiment, the two-dimensional deep learning unit 120 inputs the first window image 41 and the second window image 42 to the first deep neural network 43 and the second deep neural network 44, respectively. Accordingly, a plurality of first prediction maps 45 and a plurality of second prediction maps 46 may be generated through the first deep neural network 43 and the second deep neural network 44 , respectively. For example, the first plurality of prediction maps 45 may include a plurality of prediction maps corresponding to each of a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images included in the first window image 41 . In addition, the plurality of second prediction maps 46 may include a plurality of prediction maps corresponding to each of a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images included in the second window image 42 .

일 실시 예에서, 제1 및 제2 복수의 예측맵(45, 46)은 입력된 제1 윈도우 이미지(41)와 제2 윈도우 이미지(42)보다 해상도는 낮지만 다수의 채널을 가질 수 있다. 생성된 제1 및 제2 복수의 예측맵(45, 46)을 통해 영역 구분 단계와 물체 검출 단계에서 서로 공유하여 영역을 구분하고 관심 영역을 검출할 수 있다. 즉, 제1 및 제2 복수의 예측맵(45, 46)으로부터 픽셀 레이블링을 수행하여 영상의 영역을 구분할 수 있다. 이때, 픽셀 레이블링은 입력 영상의 유사한 특징(feature)을 가지는 인접 픽셀에 모두 같은 번호(lable)를 붙이는 방법으로 수행할 수 있다. 또한, 픽셀 레이블링 결과는 영상의 분류할 클래스에 대한 각 픽셀별 확률 분포 정보를 포함할 수 있다.In an embodiment, the first and second plurality of prediction maps 45 and 46 may have a plurality of channels although resolution is lower than that of the input first and second window images 41 and 42 . Through the generated first and second plurality of prediction maps 45 and 46, the regions may be divided by sharing them in the region classification step and the object detection step, and the region of interest may be detected. That is, by performing pixel labeling from the first and second plurality of prediction maps 45 and 46 , regions of an image may be divided. In this case, pixel labeling may be performed by attaching the same number to all adjacent pixels having similar features of the input image. Also, the pixel labeling result may include probability distribution information for each pixel with respect to the class to be classified of the image.

일 실시 예에서, 제1 및 제2 복수의 예측맵(45, 46)의 생성은 컨볼루션 신경망(Convolution Neural Network, CNN)을 사용할 수 있으나, 이에 한정되지 않으며 심층 신경망(Deep Neural Network, DNN), 순환 신경망(Recurrent Neural Network, RNN)등 영상처리장치의 사용 목적에 따라 달라질 수 있다. 여기에서 일 예로서 2D U-net에 따라 제1 및 제2 복수의 예측맵(45, 46)이 생성될 수 있다.In an embodiment, the generation of the first and second plurality of prediction maps 45 and 46 may use a convolutional neural network (CNN), but is not limited thereto, and a deep neural network (DNN) , Recurrent Neural Network (RNN), etc. may vary depending on the purpose of use of the image processing device. Here, as an example, a plurality of first and second prediction maps 45 and 46 may be generated according to 2D U-net.

일 실시 예에서, 확률모델 생성부(130)는 제1 복수의 예측맵(45)과 제2 복수의 예측맵(46)을 각각 최대 확률값 투표(max probability value voting)를 이용하여 결합함으로써 제1 사전 형상 모델(47)과 제2 사전 형상 모델(48)을 생성할 수 있다.In an embodiment, the probabilistic model generator 130 combines the plurality of first prediction maps 45 and the plurality of second prediction maps 46 using max probability value voting, respectively, to obtain the first A pre-shape model 47 and a second pre-shape model 48 may be generated.

여기서, 제1 사전 형상 모델(47)은 기준 확률값 이상을 갖는 제1 복수의 예측맵(45) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성될 수 있다. 또한, 제2 사전 형상 모델(48)은 기준 확률값 이상을 갖는 제2 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성될 수 있다. 예컨대, 기준 확률값은 0.5일 수 있고, 제1 사전 형상 모델(47)과 제2 사전 형상 모델(48)은 0.5 이상이면서 최대 확률값들만으로 레이블링된 픽셀들을 연결함으로써 생성될 수 있다. 종양은 위치와 크기가 다양하므로 평균 확률을 이용하지 않고 최대 확률값을 이용함으로써 오차 범위를 줄일 수 있다. 한편 여기서 확률값이란 종양이 존재할 확률값을 의미할 수 있다.Here, the first pre-shape model 47 may be generated by combining a plurality of prediction maps having a maximum probability value among a plurality of first prediction maps 45 having a reference probability value or more. Also, the second dictionary shape model 48 may be generated by combining a plurality of prediction maps having a maximum probability value among a plurality of second prediction maps having a reference probability value or more. For example, the reference probability value may be 0.5, and the first pre-shape model 47 and the second pre-shape model 48 may be generated by connecting pixels that are 0.5 or more and are labeled with only maximum probability values. Since tumors vary in location and size, the margin of error can be reduced by using the maximum probability value rather than the average probability. Meanwhile, the probability value may mean a probability value of the presence of a tumor.

한편, 제1 사전 형상 모델(47)은 종양이 포함된 장기 전체 영역의 3차원 공간적 형상 정보를 확률맵(probability map) 형태로 포함할 수 있고, 제2 사전 형상 모델(48)은 종양이 위치하는 중요 영역의 3차원 공간적 형상 정보를 확률맵 형태로 포함할 수 있다. 예컨대, 제1 사전 형상 모델(47)과 제2 사전 형상 모델(48)은 의료 영상에서 영역을 구분하고 물체를 검출하는데 의미 있는 정보를 포함할 수 있으며 예컨대, 의료 영상의 조도, 색채, 윤곽 등을 포함할 수 있다.Meanwhile, the first pre-shape model 47 may include three-dimensional spatial shape information of the entire area of the organ including the tumor in the form of a probability map, and the second pre-shape model 48 is the location of the tumor. 3D spatial shape information of an important region may be included in the form of a probability map. For example, the first pre-shape model 47 and the second pre-shape model 48 may include information meaningful for classifying regions in a medical image and detecting an object, for example, illuminance, color, outline, etc. of the medical image. may include.

일 실시 예에서, 동작 25에서, 확률모델 생성부(130)는 제1 사전 형상 모델(47)과 제2 사전 형상 모델(48)을 결합하여 가중치 형상 중심 사전 모델(50)을 생성할 수 있다. 예를 들어, 가중치 형상 중심 사전 모델(50)은 종양의 3차원 공간적 형상 정보를 확률맵 형태로 포함할 수 있다.In an embodiment, in operation 25 , the probabilistic model generator 130 may generate the weighted shape-centered dictionary model 50 by combining the first pre-shape model 47 and the second pre-shape model 48 . . For example, the weighted shape-centered dictionary model 50 may include 3D spatial shape information of the tumor in the form of a probability map.

예를 들어, 확률모델 생성부(130)는 제1 사전 형상 모델(47)과 제2 사전 형상 모델(48)을 가중치 평균 투표(weighted average voting)를 이용하여 결합함으로써 가중치 형상 중심 사전 모델(50)을 생성할 수 있다.For example, the probabilistic model generating unit 130 combines the first pre-shape model 47 and the second pre-shape model 48 using weighted average voting to generate the weighted shape-centered dictionary model 50 ) can be created.

예컨대, 가중치 형상 중심 사전 모델(50)은 하기 수학식 1에 의하여 연산될 수 있다.For example, the weight shape center dictionary model 50 may be calculated by Equation 1 below.

[수학식 1][Equation 1]

Figure 112019124738133-pat00001
Figure 112019124738133-pat00001

여기서, Mapi는 가중치 형상 중심 모델(50)에서 i번째 픽셀의 확률 값이고, Pi L는 제1 사전 형상 모델(47)에서 i번째 픽셀의 확률 값이고, Pi M은 제2 사전 형상 모델(48)에서 i번째 픽셀의 확률 값일 수 있다.Here, Map i is the probability value of the i-th pixel in the weighted shape center model 50 , P i L is the probability value of the i-th pixel in the first pre-shape model 47 , and P i M is the second dictionary shape It may be the probability value of the i-th pixel in the model 48 .

즉, 종양과 주변 구조물간의 밝기 값 차이가 명확한 제2 윈도우 이미지(42)를 통해 얻어진 확률 정보는 종양의 핵심 정보라고 할 수 있으므로 제2 윈도우(42)를 통해 생성된 제2 사전 형상 모델(48)의 확률 값에 높은 가중치를 부여할 수 있고, 종양의 전체적이고 넓은 영역을 포함하는 제1 윈도우(41)를 통해 생성된 제1 사전 형상 모델(47)의 확률 값에 낮은 가중치를 부여할 수 있다. 한편, 확률 값의 범위가 0.5 이상인 이유는 앞서 설명한 바와 같이 제1 사전 형상 모델(47)과 제2 사전 형상 모델(48)이 0.5 이상의 확률 값을 갖는 픽셀들로만 이루어지기 때문이다.That is, since the probability information obtained through the second window image 42 in which the difference in brightness values between the tumor and the surrounding structures is clear can be said to be core information of the tumor, the second pre-shape model 48 generated through the second window 42 . ) can be given a high weight, and a low weight can be given to the probability value of the first pre-shape model 47 generated through the first window 41 including the entire and wide area of the tumor. have. Meanwhile, the range of the probability value is 0.5 or more because, as described above, the first pre-shape model 47 and the second pre-shape model 48 consist only of pixels having a probability value of 0.5 or more.

종합하면, 가중치 형상 중심 모델(50)은 종양이 위치할 관심 영역과 관련된 확률 정보를 보다 정확하게 반영하기 위해 종양이 위치하는 주요 영역과 장기 전체 영역을 함께 고려하여 생성될 수 있다. 따라서, 도 5에 도시된 바와 같이 가중치 형상 중심 모델(50)에 포함된 이미지들은 종양의 크기, 형상 등을 정확하게 반영할 수 있다. 예를 들어, 종양의 형상이 주변 영역에 비해 확실히 구분되도록 의료 영상의 밝기 값(예: 도 5의 흰색)이 주변 영역보다 높을 수 있고, 종양과 주변 영역을 구분해주는 경계 영역은 종양의 주요 영역보다는 낮지만 주변 영역보다는 높은 밝기 값(예: 도 5의 회색)을 가질 수 있다. 도 5에서 서로 다른 4개의 종양을 도시하고 있고, 본 발명에 의해 서로 다른 형상과 크기를 갖는 4개의 종양 모두 주변 영역과 뚜렷히 구별되도록 의료 영상에서 분할됨을 확인할 수 있다.In summary, the weighted shape center model 50 may be generated by considering the main region where the tumor is located and the entire organ region to more accurately reflect the probability information related to the region of interest where the tumor will be located. Accordingly, as shown in FIG. 5 , the images included in the weighted shape center model 50 may accurately reflect the size and shape of the tumor. For example, the brightness value of the medical image (eg, white in FIG. 5 ) may be higher than that of the surrounding area so that the shape of the tumor is clearly distinguished from the surrounding area. It may have a lower brightness value (eg, gray in FIG. 5 ) than the surrounding area. 4 different tumors are shown in FIG. 5 , and it can be confirmed that all four tumors having different shapes and sizes are divided in the medical image to be clearly distinguished from the surrounding area by the present invention.

일 실시 예에서, 동작 26에서, 3차원 딥러닝부(140)는 종양이 포함된 3차원 의료 영상(49)과 가중치 형상 중심 사전 모델(50)을 제3 딥 뉴럴 네트워크(51)에 입력할 수 있다. 예를 들어, 제3 딥 뉴럴 네트워크(51)은 3차원 의료 영상(49)과 가중치 형상 중심 사전 모델(50)을 이용하여 종양일 가능성이 있는 영역의 확률 값을 계산할 수 있도록 미리 사전에 기계 학습된 3차원 딥 뉴럴 네트워크일 수 있다. 예를 들어, 제3 딥 뉴럴 네트워크(51)는 3D U-net을 포함할 수 있다.In an embodiment, in operation 26 , the 3D deep learning unit 140 inputs the 3D medical image 49 including the tumor and the weighted shape-centered dictionary model 50 to the third deep neural network 51 . can For example, the third deep neural network 51 uses the 3D medical image 49 and the weighted shape-centered dictionary model 50 to perform machine learning in advance to calculate the probability value of a region likely to be a tumor. It may be a three-dimensional deep neural network. For example, the third deep neural network 51 may include a 3D U-net.

한편 도면에는 도시되지 않았지만 발명의 한 실시 예에 따르면, 3차원 의료 영상(49)에서 관심 영역을 제외한 나머지 영역의 적어도 일부를 크롭(crop)할 수 있다. 예를 들어, 제3 딥 뉴럴 네트워크(51)의 연산 과정을 줄이기 위해 3차원 의료 영상(49)에서 경계 영역의 일부를 크롭할 수 있다. 구체적으로, 예를 들어, 밝기값 정보를 이용하여 종양과 주변 구조물들이 갖는 밝기값 정보와 전혀 다른 경계 부분을 크롭할 수 있다.Meanwhile, although not shown in the drawings, according to an embodiment of the present invention, at least a portion of a region other than a region of interest in the 3D medical image 49 may be cropped. For example, in order to reduce the operation process of the third deep neural network 51 , a portion of the boundary region in the 3D medical image 49 may be cropped. Specifically, for example, a boundary portion completely different from the brightness value information of the tumor and surrounding structures may be cropped using brightness value information.

일 실시 예에서, 동작 27에서, 3차원 딥러닝부(140)는 제3 딥 뉴럴 네트워크(51)를 통해 종양의 분할 결과(52)를 획득할 수 있다. 종양 판단부(150)는 종양의 분할 결과(52)를 이용하여 암의 예후 및 치료 결과를 판단할 수 있다.In an embodiment, in operation 27 , the 3D deep learning unit 140 may obtain the tumor segmentation result 52 through the third deep neural network 51 . The tumor determination unit 150 may determine a cancer prognosis and treatment result by using the tumor division result 52 .

즉, 본 발명은 종양이 위치하는 영역이 잘보이도록 제2 윈도우 설정이 적용된 제2 윈도우 이미지(42)와 장기 전체가 잘 보이도록 제2 윈도우 설정이 적용된 제1 윈도우 이미지(41)를 함께 이용함으로써 보다 정교한 사전 모델을 생성할 수 있고 종양 분할의 정확도를 높일 수 있다.That is, the present invention uses the second window image 42 to which the second window setting is applied so that the region where the tumor is located can be seen clearly and the first window image 41 to which the second window setting is applied so that the entire organ can be seen well. By doing so, a more sophisticated pre-model can be generated and the accuracy of tumor segmentation can be increased.

한편, 본 발명의 효과를 확인하기 위해 사용된 데이터 세트는 비소 세포 폐암 환자 263 명으로부터 조영 증강 흉부 CT 데이터이고, CT 영상 촬영에서 100~130 kVp; 73~575mAs; slice thickness 1.0 ~ 7.5mm, pixel space 0.54~0.83mm이 파라미터로서 설정하고, 폐 윈도우 설정은 윈도우 폭 1500HU(하운스필드 유닛), 윈도우 레벨 600HU이고, 종격동 윈도우 설정은 윈도우 폭 360HU, 윈도우 레벨 60HU로 설정한다.Meanwhile, the data set used to confirm the effect of the present invention is contrast-enhanced chest CT data from 263 patients with non-small cell lung cancer, and 100-130 kVp; 73~575mAs; slice thickness 1.0 ~ 7.5mm, pixel space 0.54 ~ 0.83mm set as parameters, lung window setting is window width 1500HU (Hounsfield unit), window level 600HU, mediastinal window setting is window width 360HU, window level 60HU set

도 6에서 정확성 평가를 위해 방법 별 분할 결과를 다이스 유사계수(Dice similarity coefficient, DSC), 민감도(Sensitivity, Sens), 특이도(Specificity, Spec)를 수학식 2를 통해 계산하여 비교하였다. For accuracy evaluation in FIG. 6 , Dice similarity coefficient (DSC), sensitivity (Sensitivity, Sens), and specificity (Specificity, Spec) for each method were calculated and compared through Equation (2).

[수학식2][Equation 2]

Figure 112019124738133-pat00002
Figure 112019124738133-pat00002

Figure 112019124738133-pat00003
Figure 112019124738133-pat00003

Figure 112019124738133-pat00004
Figure 112019124738133-pat00004

이때, TP(True Positive)는 수동 분할한 장기 영역에서 자동 분할된 영역의 화소 개수, TN(True Negative)는 수동 분할한 장기 영역이 아닌 영역에서 자동 분할되지 않은 영역의 화소 개수, FP(False Positive)는 수동 분할한 장기 영역이 아닌 곳에서 자동 분할된 영역의 화소 개수, FN(False Negative)는 수동 분할한 장기 영역에서 자동 분할되지 않은 영역의 화소 개수를 의미한다.In this case, TP (True Positive) is the number of pixels in the automatically segmented region in the manually divided organ region, TN (True Negative) is the number of pixels in the non-automatically segmented region in the non-manually divided organ region, FP (False Positive) ) denotes the number of pixels in an auto-segmented region in a non-manually divided organ region, and FN (False Negative) denotes the number of pixels in a non-auto-segmented region in a manually-segmented organ region.

본 발명의 종양 분할 방법(Coupling-Net)의 분할 성능은 2D, 2.5D 및 3D U-Net 결과와 비교할 경우, 본 발명은 DSC에서 75.06 %를 기록했으며 그 결과는 3D U-Net 결과보다 0.14 % p 낮은 수치에 불과하고, 3D U-Net은 초과 분할화로 인해 민감도에서 최고 75.66 %를 기록하였고, 2D U-Net은 분할 미달로 인해 특이도가 99.96 %로 가장 높았다. 따라서 본 발명의 종양 분할 방법이 가장 안정적인 결과를 보여준다.When compared with the 2D, 2.5D and 3D U-Net results, the segmentation performance of the tumor segmentation method (Coupling-Net) of the present invention was 75.06% in DSC, and the result was 0.14% higher than the 3D U-Net result. p It is only a low number, 3D U-Net recorded the highest sensitivity of 75.66% due to over-segmentation, and 2D U-Net had the highest specificity at 99.96% due to under-segmentation. Therefore, the tumor segmentation method of the present invention shows the most stable results.

도 7에서, 클래스(class) 1은 주변에서 분리된 종양이고, 클래스 2는 흉벽에 부착된 종양이고, 클래스 3은 종격동에 부착 된 종양이고, 클래스 4는 폐의 상부 및 기저부의 흉벽 또는 간과 같은 말초 구조에 의해 둘러싸인 종양이다. 각 클래스의 수는 각각 8, 10, 13 및 4이다. 도 7의 표는 각 클래스의 DSC 수치를 개시하고 있다. 폐 종양이 분리되어 종격동에 부착되거나 흉벽 또는 주변 기관으로 둘러싸인 클래스 1, 3, 4는 본 발명(Coupling-Net)이 87.28 %, 65.28 % 및 86.03 %의 최고 성능을 나타냈다. 클래스 1의 경우, 폐 종양 주위의 작은 혈관이 종격동 윈도우 설정에서 제거 되었기 때문에 본 발명(Coupling-Net)에서 분할의 정확도가 높아질 수 있다. 클래스 3의 경우, 폐 윈도우 설정과 달리 폐 종양과 종격동 사이의 강도 차이가 종격동 윈도우 설정에서 크므로 폐 종양을 종격동과 구별 할 수 있었다. 그러나 다른 등급에 비해 등급 3의 성능이 상대적으로 낮은 이유는 폐 종양의 모양이 다양하기 때문이다. 클래스 4의 경우 종격동 윈도우 설정에서 종양과 주변 백골의 강도 차이가 큼에 따라 정확하게 종양을 타겟팅 할 수 있었기 때문에 우수한 성능을 나타냈다. 본 발명(Coupling-Net)은 가중치 형상 중심 사전 모델을 통해 흉벽까지 침범된 영역을 포함하여 학습 되었기 때문에 클래스 2만이 3D U-Net의 77.27 %에서 가장 높은 결과를 나타냈다.7 , class 1 is a tumor isolated from the periphery, class 2 is a tumor attached to the chest wall, class 3 is a tumor attached to the mediastinum, and class 4 is a tumor attached to the chest wall or liver in the upper and lower parts of the lung. A tumor surrounded by peripheral structures. The number of each class is 8, 10, 13 and 4, respectively. The table of FIG. 7 discloses the DSC values of each class. The present invention (Coupling-Net) showed the best performance of 87.28%, 65.28%, and 86.03% of classes 1, 3, and 4 in which lung tumors were isolated and attached to the mediastinum or surrounded by the chest wall or surrounding organs. In the case of class 1, the accuracy of segmentation can be increased in the present invention (Coupling-Net) because small blood vessels around the lung tumor were removed in the mediastinal window setting. For class 3, unlike the lung window setting, the difference in intensity between the lung tumor and the mediastinum was large in the mediastinal window setting, making it possible to distinguish the lung tumor from the mediastinum. However, the relatively low performance of grade 3 compared to other grades is due to the variety of lung tumor shapes. In the case of class 4, it showed excellent performance because it was able to accurately target the tumor according to the large difference in strength between the tumor and the surrounding backbone in the mediastinal window setting. Since the present invention (Coupling-Net) was trained including the area invaded up to the chest wall through the weighted shape-centered prior model, only class 2 showed the highest result in 77.27% of 3D U-Net.

도 8은 흉부 CT 영상에서 분할 결과를 도시한다. 도 8 (a)는 원본 흉부 CT 이미지이고, 도 8 (b)는 2D U-Net을 사용한 결과를 보여주고, 도 8 (c)는 2.5D U-Net을 사용한 결과를 보여주고, 도 8 (d)는 3D U-Net을 사용한 결과를 보여주고, 도 8 (e)는 본 발명(Coupling-Net)을 사용한 결과를 나타내고, 적색은 overlapping region with expert annotation이고, 녹색은 under-segmentation region이고, 파란색은 over-segmentation region이다.8 shows a segmentation result in a chest CT image. Figure 8 (a) is the original chest CT image, Figure 8 (b) shows the result using 2D U-Net, Figure 8 (c) shows the result using the 2.5D U-Net, Figure 8 ( d) shows the results using 3D U-Net, Figure 8 (e) shows the results using the present invention (Coupling-Net), red is overlapping region with expert annotation, green is under-segmentation region, Blue is the over-segmentation region.

도 8을 참조하면, 2D U-Net 결과는 축 평면만을 고려할 때 모든 클래스에서 언더 세그먼트되었고, 폐 윈도우 설정만 고려할 때 폐 종양과 유사한 강도 값을 갖는 주변 혈관 및 흉벽에서 누출이 발생했음을 확인하였다. 도 8 (d)에서 3D U-Net의 전체 세그먼테이션 성능은 향상되었지만 흉벽으로 둘러싸인 Class 4에서는 성능이 저하되었고, 도 8 (e)에서 본 발명은 종양과 그 주변으로의 누출이 방지되고 종양의 크기, 위치, 모양 및 유형에 관계없이 모든 클래스에서 안정적인 분할 결과를 보여줌을 확인할 수 있었다.Referring to FIG. 8 , the 2D U-Net results were under-segmented in all classes when considering only the axial plane, and it was confirmed that leakage occurred in the surrounding blood vessels and chest wall with intensity values similar to those of lung tumors when only the lung window setting was considered. In Fig. 8 (d), the overall segmentation performance of the 3D U-Net was improved, but the performance was lowered in Class 4 surrounded by the chest wall, and in Fig. , showed stable segmentation results in all classes regardless of location, shape, and type.

본 발명의 일 실시예에 따른 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법은, 종양이 포함된 2차원 의료 영상에 제1 윈도우 설정과 제2 윈도우 설정을 각각 적용하여 상기 2차원 의료 영상에 기반한 제1 윈도우 이미지와 제2 윈도우 이미지를 생성하는 단계; 상기 제1 윈도우 이미지와 상기 제2 윈도우 이미지를 각각 제1 딥 뉴럴 네트워크와 제2 딥 뉴럴 네트워크에 입력하여, 상기 제1 딥 뉴럴 네트워크와 상기 제2 딥 뉴럴 네트워크를 통해 각각 제1 사전 형상 모델과 제2 사전 형상 모델을 생성하는 단계; 상기 제1 사전 형상 모델과 상기 제2 사전 형상 모델을 결합하여 가중치 형상 중심 사전 모델(weighted shape-focused prior)을 생성하는 단계; 및 상기 종양이 포함된 3차원 의료 영상과 상기 가중치 형상 중심 사전 모델을 제3 딥 뉴럴 네트워크에 입력하여, 상기 제3 딥 뉴럴 네트워크를 통해 상기 종양의 분할(segmentation) 결과를 획득하는 단계;를 포함할 수 잇다.In the method for automatically segmenting a tumor using deep learning based on dual window setting in a medical image according to an embodiment of the present invention, the first window setting and the second window setting are respectively applied to the 2D medical image including the tumor, generating a first window image and a second window image based on the 3D medical image; The first window image and the second window image are input to a first deep neural network and a second deep neural network, respectively, and a first pre-shape model and generating a second pre-shape model; generating a weighted shape-focused prior by combining the first pre-shape model and the second pre-shape model; and inputting the 3D medical image including the tumor and the weighted shape-centered dictionary model into a third deep neural network, and obtaining a segmentation result of the tumor through the third deep neural network. can do

다양한 실시 예에 따르면, 상기 2차원 의료 영상은 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 포함하고, 상기 제1 윈도우 이미지는 상기 제1 윈도우 설정이 적용된 복수의 축상 이미지, 복수의 관상 이미지 및 복수의 시상 이미지를 포함하고, 상기 제2 윈도우 이미지는 상기 제2 윈도우 설정이 적용된 복수의 축상 이미지, 복수의 관상 이미지 및 복수의 시상 이미지를 포함할 수 있다.According to various embodiments, the 2D medical image includes a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images, and the first window image is the first window setting. a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images applied, and the second window image includes a plurality of axial images, a plurality of coronal images and a plurality of sagittal images to which the second window setting is applied. can

다양한 실시 예에 따르면, 상기 제1 윈도우 설정이 적용된 상기 제1 윈도우 이미지의 관심 영역(region of interest)은 상기 종양이 포함된 장기 전체 영역이고, 상기 제2 윈도우 설정이 적용된 상기 제2 윈도우 이미지의 관심 영역은 종양이 위치하는 중요 영역일 수 있다.According to various embodiments, a region of interest of the first window image to which the first window setting is applied is the entire region of the organ including the tumor, and a region of interest of the second window image to which the second window setting is applied. The region of interest may be an important region in which the tumor is located.

다양한 실시 예에 따르면, 상기 제1 딥 뉴럴 네트워크와 상기 제2 딥 뉴럴 네트워크는 2D U-net을 포함하고, 상기 제3 딥 뉴럴 네트워크는 3D U-net을 포함할 수 있다.According to various embodiments, the first deep neural network and the second deep neural network may include a 2D U-net, and the third deep neural network may include a 3D U-net.

다양한 실시 예에 따르면, 상기 제1 윈도우 이미지와 상기 제2 윈도우 이미지를 각각 제1 딥 뉴럴 네트워크와 제2 딥 뉴럴 네트워크에 입력하여, 상기 제1 딥 뉴럴 네트워크와 상기 제2 딥 뉴럴 네트워크를 통해 각각 제1 복수의 예측맵(Prediction map)과 제2 복수의 예측맵을 생성하는 단계; 및 상기 제1 복수의 예측맵과 상기 제2 복수의 예측맵을 각각 최대 확률값 투표(max probability value voting)를 이용하여 결합함으로써 상기 제1 사전 형상 모델과 상기 제2 사전 형상 모델을 생성하는 단계;를 포함할 수 있다.According to various embodiments, by inputting the first window image and the second window image to a first deep neural network and a second deep neural network, respectively, through the first deep neural network and the second deep neural network, respectively generating a plurality of first prediction maps and a plurality of second prediction maps; and generating the first pre-shape model and the second pre-shape model by combining the plurality of first prediction maps and the plurality of second prediction maps using max probability value voting, respectively. may include.

다양한 실시 예에 따르면, 상기 제1 사전 형상 모델은 기준 확률값 이상을 갖는 제1 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성되고, 상기 제2 사전 형상 모델은 기준 확률값 이상을 갖는 제2 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성될 수 있다.According to various embodiments, the first prior shape model is generated by combining a plurality of prediction maps having a maximum probability value among a plurality of first prediction maps having a reference probability value or more, and the second prior shape model is It may be generated by combining a plurality of prediction maps having a maximum probability value among a plurality of second prediction maps having a reference probability value or more.

다양한 실시 예에 따르면, 상기 제1 사전 형상 모델과 상기 제2 사전 형상 모델을 가중치 평균 투표(weighted average voting)를 이용하여 결합함으로써 상기 가중치 형상 중심 사전 모델을 생성하는 단계를 포함할 수 있다.According to various embodiments, the method may include generating the weighted shape-centered dictionary model by combining the first dictionary shape model and the second dictionary shape model using weighted average voting.

다양한 실시 예에 따르면, 상기 가중치 형상 중심 사전 모델은 하기 수학식 1에 의하여 연산되고, Mapi는 상기 가중치 형상 중심 모델에서 i번째 픽셀의 확률 값이고, Pi L는 상기 제1 사전 형상 모델에서 i번째 픽셀의 확률 값이고, Pi M은 상기 제2 사전 형상 모델에서 i번째 픽셀의 확률 값일 수 있다.According to various embodiments, the weighted shape center dictionary model is calculated by Equation 1 below, Map i is the probability value of the i-th pixel in the weighted shape center model, and P i L is the weighted shape center model in the first dictionary shape model. It is the probability value of the i-th pixel, and P i M may be the probability value of the i-th pixel in the second pre-shape model.

[수학식 1] [Equation 1]

Figure 112019124738133-pat00005
Figure 112019124738133-pat00005

다양한 실시 예에 따르면, 상기 제1 사전 형상 모델은 상기 종양이 포함된 장기 전체 영역의 3차원 공간적 형상 정보를 확률맵(probability map) 형태로 포함하고, 상기 제2 사전 형상 모델은 상기 종양이 위치하는 중요 영역의 3차원 공간적 형상 정보를 확률맵 형태로 포함하고, 상기 가중치 형상 중심 사전 모델은 상기 종양의 3차원 공간적 형상 정보를 확률맵 형태로 포함할 수 있다.According to various embodiments, the first pre-shape model includes three-dimensional spatial shape information of the entire region including the tumor in the form of a probability map, and the second pre-shape model includes the location of the tumor. The three-dimensional spatial shape information of the important region may be included in the form of a probability map, and the weighted shape-centered dictionary model may include the three-dimensional spatial shape information of the tumor in the form of a probability map.

다양한 실시 예에 따르면, 의료 영상에서 2개의 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 프로그램은 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제9항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장될 수 있다.According to various embodiments, an automatic tumor segmentation program using deep learning based on two window settings in a medical image is combined with a computer that is hardware, and stored in a medium to execute the method of any one of claims 1 to 9 can be

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may contain random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100 : 종양 자동 분할 장치
110 : 영상 제어부
120: 2차원 딥러닝부
130: 확률모델 생성부
140: 3차원 딥러닝부
150: 종양 판단부
160: 데이터베이스
100: tumor automatic segmentation device
110: video controller
120: 2D deep learning unit
130: probability model generation unit
140: 3D deep learning unit
150: tumor judgment unit
160: database

Claims (10)

의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법에 있어서,
종양이 포함된 2차원 의료 영상에 제1 윈도우 설정과 제2 윈도우 설정을 각각 적용하여 상기 2차원 의료 영상에 기반한 제1 윈도우 이미지와 제2 윈도우 이미지를 생성하는 단계;
상기 제1 윈도우 이미지와 상기 제2 윈도우 이미지를 각각 제1 딥 뉴럴 네트워크와 제2 딥 뉴럴 네트워크에 입력하여, 상기 제1 딥 뉴럴 네트워크와 상기 제2 딥 뉴럴 네트워크를 통해 각각 제1 사전 형상 모델과 제2 사전 형상 모델을 생성하는 단계;
상기 제1 사전 형상 모델과 상기 제2 사전 형상 모델을 결합하여 가중치 형상 중심 사전 모델(weighted shape-focused prior)을 생성하는 단계; 및
상기 종양이 포함된 3차원 의료 영상과 상기 가중치 형상 중심 사전 모델을 제3 딥 뉴럴 네트워크에 입력하여, 상기 제3 딥 뉴럴 네트워크를 통해 상기 종양의 분할(segmentation) 결과를 획득하는 단계;를 포함하는 것을 특징으로 하는 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법.
In the automatic tumor segmentation method using deep learning based on the dual window setting in the medical image,
generating a first window image and a second window image based on the 2D medical image by applying a first window setting and a second window setting to a 2D medical image including a tumor, respectively;
By inputting the first window image and the second window image to a first deep neural network and a second deep neural network, respectively, a first pre-shape model and generating a second pre-shape model;
generating a weighted shape-focused prior by combining the first pre-shape model and the second pre-shape model; and
inputting the three-dimensional medical image including the tumor and the weighted shape-centered dictionary model into a third deep neural network, and obtaining a segmentation result of the tumor through the third deep neural network; An automatic tumor segmentation method using deep learning based on a dual window setting in a medical image, characterized in that.
제1 항에 있어서, 상기 2차원 의료 영상은 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 포함하고,
상기 제1 윈도우 이미지는 상기 제1 윈도우 설정이 적용된 복수의 축상 이미지, 복수의 관상 이미지 및 복수의 시상 이미지를 포함하고,
상기 제2 윈도우 이미지는 상기 제2 윈도우 설정이 적용된 복수의 축상 이미지, 복수의 관상 이미지 및 복수의 시상 이미지를 포함하는 것을 특징으로 하는 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법.
According to claim 1, wherein the two-dimensional medical image comprises a plurality of axial (Axial) images, a plurality of coronal (Coronal) images, and a plurality of sagittal (Sagittal) images,
The first window image includes a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images to which the first window setting is applied,
The second window image includes a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images to which the second window setting is applied. A method for automatic tumor segmentation using deep learning based on a dual window setting in a medical image .
제2 항에 있어서,
상기 제1 윈도우 설정이 적용된 상기 제1 윈도우 이미지의 관심 영역(region of interest)은 상기 종양이 포함된 장기 전체 영역이고,
상기 제2 윈도우 설정이 적용된 상기 제2 윈도우 이미지의 관심 영역은 종양이 위치하는 중요 영역인 것을 특징으로 하는 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법.
3. The method of claim 2,
A region of interest in the first window image to which the first window setting is applied is the entire region of the organ including the tumor;
An automatic tumor segmentation method using deep learning based on a dual window setting in a medical image, characterized in that the region of interest of the second window image to which the second window setting is applied is an important region in which the tumor is located.
제1 항에 있어서,
상기 제1 딥 뉴럴 네트워크와 상기 제2 딥 뉴럴 네트워크는 2D U-net을 포함하고, 상기 제3 딥 뉴럴 네트워크는 3D U-net을 포함하는 것을 특징으로 하는 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법.
According to claim 1,
The first deep neural network and the second deep neural network include a 2D U-net, and the third deep neural network includes a 3D U-net Deep learning based on a dual window setting in a medical image, characterized in that Automated tumor segmentation method using
제1 항에 있어서,
상기 제1 윈도우 이미지와 상기 제2 윈도우 이미지를 각각 제1 딥 뉴럴 네트워크와 제2 딥 뉴럴 네트워크에 입력하여, 상기 제1 딥 뉴럴 네트워크와 상기 제2 딥 뉴럴 네트워크를 통해 각각 제1 복수의 예측맵(Prediction map)과 제2 복수의 예측맵을 생성하는 단계; 및
상기 제1 복수의 예측맵과 상기 제2 복수의 예측맵을 각각 최대 확률값 투표(max probability value voting)를 이용하여 결합함으로써 상기 제1 사전 형상 모델과 상기 제2 사전 형상 모델을 생성하는 단계;를 포함하는 것을 특징으로 하는 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법.
According to claim 1,
By inputting the first window image and the second window image to a first deep neural network and a second deep neural network, respectively, a first plurality of prediction maps through the first deep neural network and the second deep neural network, respectively (Prediction map) and generating a plurality of second prediction maps; and
generating the first pre-shape model and the second pre-shape model by combining the plurality of first prediction maps and the plurality of second prediction maps using max probability value voting, respectively; An automatic tumor segmentation method using deep learning based on a dual window setting in a medical image, comprising:
제5 항에 있어서, 상기 제1 사전 형상 모델은 기준 확률값 이상을 갖는 제1 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성되고,
상기 제2 사전 형상 모델은 기준 확률값 이상을 갖는 제2 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성되는 것을 특징으로 하는 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법.
The method of claim 5, wherein the first pre-shape model is generated by combining a plurality of prediction maps having a maximum probability value among a plurality of first prediction maps having a reference probability value or more,
The second pre-shape model is deep learning based on a dual window setting in a medical image, characterized in that it is generated by combining a plurality of prediction maps having a maximum probability value among a plurality of second prediction maps having a reference probability value or more. Automated tumor segmentation method using
제1 항에 있어서, 상기 제1 사전 형상 모델과 상기 제2 사전 형상 모델을 가중치 평균 투표(weighted average voting)를 이용하여 결합함으로써 상기 가중치 형상 중심 사전 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법.
The method of claim 1, further comprising generating the weighted shape-centered dictionary model by combining the first dictionary shape model and the second dictionary shape model using weighted average voting. Automated tumor segmentation method using deep learning based on dual window setup in medical images.
제7 항에 있어서, 상기 가중치 형상 중심 사전 모델은 하기 수학식 1에 의하여 연산되고,
[수학식 1]
Figure 112019124738133-pat00006

Mapi는 상기 가중치 형상 중심 모델에서 i번째 픽셀의 확률 값이고, Pi L는 상기 제1 사전 형상 모델에서 i번째 픽셀의 확률 값이고, Pi M은 상기 제2 사전 형상 모델에서 i번째 픽셀의 확률 값인 것을 특징으로 하는 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법.
The method of claim 7, wherein the weighted shape center dictionary model is calculated by Equation 1 below,
[Equation 1]
Figure 112019124738133-pat00006

Map i is the probability value of the i-th pixel in the weighted shape center model, P i L is the probability value of the i-th pixel in the first pre-shape model, and P i M is the i-th pixel in the second pre-shape model An automatic tumor segmentation method using deep learning based on a dual window setting in a medical image, characterized in that it is a probability value of .
제1 항에 있어서, 상기 제1 사전 형상 모델은 상기 종양이 포함된 장기 전체 영역의 3차원 공간적 형상 정보를 확률맵(probability map) 형태로 포함하고,
상기 제2 사전 형상 모델은 상기 종양이 위치하는 중요 영역의 3차원 공간적 형상 정보를 확률맵 형태로 포함하고,
상기 가중치 형상 중심 사전 모델은 상기 종양의 3차원 공간적 형상 정보를 확률맵 형태로 포함하는 것을 특징으로 하는 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 방법.
The method of claim 1, wherein the first pre-shape model includes three-dimensional spatial shape information of the entire region of the organ including the tumor in the form of a probability map,
The second pre-shape model includes three-dimensional spatial shape information of an important region in which the tumor is located in the form of a probability map,
The weighted shape-centered dictionary model includes the three-dimensional spatial shape information of the tumor in the form of a probability map. An automatic tumor segmentation method using deep learning based on a dual window setting in a medical image.
하드웨어인 컴퓨터와 결합되어, 제1항 내지 제9항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 의료 영상에서 듀얼 윈도우 설정에 기반한 딥 러닝을 이용한 종양 자동 분할 프로그램.In combination with a computer that is hardware, stored in the medium to execute the method of any one of claims 1 to 9, an automatic tumor segmentation program using deep learning based on dual window settings in a medical image.
KR1020190158800A 2019-12-03 2019-12-03 Tumor automatic segmentation using deep learning based on dual window setting in a medical image Active KR102332472B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190158800A KR102332472B1 (en) 2019-12-03 2019-12-03 Tumor automatic segmentation using deep learning based on dual window setting in a medical image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190158800A KR102332472B1 (en) 2019-12-03 2019-12-03 Tumor automatic segmentation using deep learning based on dual window setting in a medical image

Publications (2)

Publication Number Publication Date
KR20210069250A KR20210069250A (en) 2021-06-11
KR102332472B1 true KR102332472B1 (en) 2021-11-30

Family

ID=76376703

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190158800A Active KR102332472B1 (en) 2019-12-03 2019-12-03 Tumor automatic segmentation using deep learning based on dual window setting in a medical image

Country Status (1)

Country Link
KR (1) KR102332472B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102356348B1 (en) * 2021-07-07 2022-02-08 주식회사 웨이센 Lung area segmentation system and method in chest X-ray image
KR102783725B1 (en) * 2024-09-24 2025-03-24 주식회사 클라리파이 System for Improving the Visibility of Medical Images and Method for Improving Visibility Using the Same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981202B1 (en) 2018-12-11 2019-05-22 메디컬아이피 주식회사 Method and apparatus for reconstructing medical image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102058348B1 (en) * 2017-11-21 2019-12-24 서울여자대학교 산학협력단 Apparatus and method for classification of angiomyolipoma wihtout visible fat and clear cell renal cell carcinoma in ct images using deep learning and sahpe features

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981202B1 (en) 2018-12-11 2019-05-22 메디컬아이피 주식회사 Method and apparatus for reconstructing medical image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Junlip Jung 외, AUTOMATIC LIVER SEGMENTATION IN ABDOMINAL CT IMAGES WITH COMBINED 2.5D AND 3D DEEP CONVOLUTIONAL NEURAL NETWORKS. 2019 IEEE 16th ISBI. 2019년4월 공개.*
K.kamnitsas 외, Efficient multi-scale 3D CNN with fully connected CRF for accurate brain lesion segmentation. Medical Image Analsys. vol 36. pp.61-78. 2017년 2월 공개.*

Also Published As

Publication number Publication date
KR20210069250A (en) 2021-06-11

Similar Documents

Publication Publication Date Title
KR102410955B1 (en) Method and computer program for automatic segmentation of abnominal organs based on deep learning in medical images
EP4078510B1 (en) Automated tumor identification and segmentation with medical images
CN112529834B (en) Spatial distribution of pathological image patterns in 3D image data
KR102349515B1 (en) Tumor automatic segmentation based on deep learning in a medical image
US9092691B1 (en) System for computing quantitative biomarkers of texture features in tomographic images
JP2022525198A (en) Deep convolutional neural network for tumor segmentation using positron emission tomography
Zhao et al. DSU-Net: Distraction-Sensitive U-Net for 3D lung tumor segmentation
US11783476B2 (en) System and method for analyzing three-dimensional image data
US9092867B2 (en) Methods for segmenting images and detecting specific structures
US11257210B2 (en) Method and system of performing medical treatment outcome assessment or medical condition diagnostic
US20240169544A1 (en) Methods and systems for biomedical image segmentation based on a combination of arterial and portal image information
KR102332032B1 (en) Abdominal organ status diagnosis based on abnominal organ volume change analysis using abnominal organ automatic segmentation
CN112884759A (en) Method and related device for detecting metastasis state of axillary lymph nodes of breast cancer
CN111899850A (en) Medical image information processing method, display method and readable storage medium
US20240303822A1 (en) Machine-learning based segmentation of biological objects in medical images
US8306354B2 (en) Image processing apparatus, method, and program
KR102332472B1 (en) Tumor automatic segmentation using deep learning based on dual window setting in a medical image
CN112529900A (en) Method, device, terminal and storage medium for matching ROI in mammary gland image
US20060047227A1 (en) System and method for colon wall extraction in the presence of tagged fecal matter or collapsed colon regions
TWI745940B (en) Medical image analyzing system and method thereof
Swiderska‑Chadaj et al. Localization of spleen and kidney organs from CT scans based on classification of slices in rotational views
CN115908446A (en) Method, apparatus and program product for tumor lesion segmentation

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20191203

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210407

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20211005

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20211124

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20211124

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20241015

Start annual number: 4

End annual number: 4