[go: up one dir, main page]

KR102832752B1 - Method for predicting fractional flow reserve based on vascular oct image and system for the same - Google Patents

Method for predicting fractional flow reserve based on vascular oct image and system for the same Download PDF

Info

Publication number
KR102832752B1
KR102832752B1 KR1020240137939A KR20240137939A KR102832752B1 KR 102832752 B1 KR102832752 B1 KR 102832752B1 KR 1020240137939 A KR1020240137939 A KR 1020240137939A KR 20240137939 A KR20240137939 A KR 20240137939A KR 102832752 B1 KR102832752 B1 KR 102832752B1
Authority
KR
South Korea
Prior art keywords
unit
medical image
flow reserve
blood flow
patches
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020240137939A
Other languages
Korean (ko)
Inventor
김원진
Original Assignee
노바사이언스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노바사이언스 주식회사 filed Critical 노바사이언스 주식회사
Priority to KR1020240137939A priority Critical patent/KR102832752B1/en
Application granted granted Critical
Publication of KR102832752B1 publication Critical patent/KR102832752B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/02007Evaluating blood vessel condition, e.g. elasticity, compliance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Artificial Intelligence (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Cardiology (AREA)
  • Vascular Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Hematology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

혈관 OCT(Optical Coherence Tomography) 영상을 기반으로 분획혈류예비력을 예측하는 장치로서, 혈관의 제1위치에서 제2위치까지에 대한 복수의 OCT 이미지들을 포함하는 의료 이미지 세트를 획득하는 의료 영상 획득부; 상기 의료 이미지 세트를 제1방식에 기반하여, 고정된 크기의 복수의 패치들로 분할하는 3차원 패치 분할부; 상기 복수의 패치들을 기반으로, 상기 제1위치에서 상기 제2위치까지에 대한 분획 혈류 예비력을 예측하는 인공지능 모델을 포함하는 인공지능 모델부; 및 상기 예측한 분획 혈류 예비력을 제공하는 의료정보 제공부; 를 포함한다.A device for predicting fractional blood flow reserve based on a blood vessel OCT (Optical Coherence Tomography) image, comprising: a medical image acquisition unit for acquiring a medical image set including a plurality of OCT images for a first location to a second location of a blood vessel; a three-dimensional patch segmentation unit for segmenting the medical image set into a plurality of patches of a fixed size based on a first method; an artificial intelligence model unit including an artificial intelligence model for predicting fractional blood flow reserve for the first location to the second location based on the plurality of patches; and a medical information provision unit for providing the predicted fractional blood flow reserve.

Description

혈관 OCT 영상을 기반으로 분획혈류예비력을 예측하는 방법 및 그 시스템 {METHOD FOR PREDICTING FRACTIONAL FLOW RESERVE BASED ON VASCULAR OCT IMAGE AND SYSTEM FOR THE SAME}Method for predicting fractional flow reserve based on vascular OCT image and system thereof {METHOD FOR PREDICTING FRACTIONAL FLOW RESERVE BASED ON VASCULAR OCT IMAGE AND SYSTEM FOR THE SAME}

본 발명은 혈관 OCT 영상을 기반으로 분획혈류예비력을 예측하는 방법 및 그 시스템에 관한 것이다. 구체적으로, 본 발명은 트랜스포머(transformer)를 포함하는 인공지능 모델에 기초하여, 일련의 OCT 영상들 간의 관계를 분석하여, 해당 혈관의 분획혈류예비력(Fractional Flow Reserve)을 예측하는 방법에 관한 발명이다.The present invention relates to a method and system for predicting fractional flow reserve based on vascular OCT images. Specifically, the present invention relates to a method for predicting fractional flow reserve of a corresponding blood vessel by analyzing the relationship between a series of OCT images based on an artificial intelligence model including a transformer.

현대 의학에서 혈관 질환, 특히 심혈관 질환은 전 세계적으로 주요 사망 원인 중 하나로 꼽힌다. 심혈관 질환의 조기 진단과 치료는 환자의 생존율을 크게 향상시키며, 이를 위해 다양한 진단 장치와 방법이 개발되고 있다. 그 중, 광간섭 단층촬영(OCT, Optical Coherence Tomography)은 높은 해상도를 통해 심혈관 내부의 상세한 영상을 제공할 수 있어, 혈관 내부의 병변 및 구조를 평가하는 데 중요한 역할을 하고 있다.In modern medicine, vascular diseases, especially cardiovascular diseases, are considered one of the major causes of death worldwide. Early diagnosis and treatment of cardiovascular diseases greatly improve the survival rate of patients, and various diagnostic devices and methods are being developed for this purpose. Among them, optical coherence tomography (OCT) can provide detailed images of the inside of the cardiovascular system through high resolution, and plays an important role in evaluating lesions and structures inside the blood vessels.

OCT 기술은 혈관 내부를 실시간으로 촬영하여 영상화할 수 있는 장치로서, 기존의 초음파나 X-선과 비교하여 매우 높은 해상도를 자랑한다. OCT는 레이저 빛을 이용해 조직의 단면을 촬영하며, 이를 통해 혈관 벽의 두께 등을 정확하게 파악할 수 있다. 이러한 특징 덕분에 OCT는 특히 관상동맥 질환의 진단과 치료에 유용하게 사용되고 있다.OCT technology is a device that can image the inside of blood vessels in real time, and boasts a very high resolution compared to existing ultrasound or X-rays. OCT uses laser light to capture cross-sections of tissues, and through this, the thickness of blood vessel walls can be accurately determined. Due to these characteristics, OCT is particularly useful in the diagnosis and treatment of coronary artery disease.

한편, FFR(Fractional Flow Reserve, 분획 혈류 예비력)은 심혈관 질환, 특히 관상동맥 질환(Coronary Artery Disease, CAD) 환자의 치료 결정을 도울 때 사용하는 중요한 진단 지표로, 특정 관상동맥의 협착(좁아진) 부위가 그 혈관을 통해 공급되는 심근(심장 근육)에 실제로 얼마나 영향을 미치는지를 평가하는 지표이다. FFR은 관상동맥 내의 압력을 측정하여 도출되는데, 주로 카테터를 이용해 관상동맥의 좁아진 부위 앞뒤의 혈압을 측정하고, 그 결과로 얻은 두 압력의 비율을 통해 FFR 값을 계산한다. FFR 값은 보통 0과 1 사이의 값을 가지며, FFR이 1에 가까울수록 관상동맥이 정상이라는 진단을 내린다.Meanwhile, FFR (Fractional Flow Reserve) is an important diagnostic indicator used to help determine treatment for patients with cardiovascular disease, especially coronary artery disease (CAD). It is an indicator that evaluates how much a specific stenotic (narrowed) area of a coronary artery actually affects the myocardium (heart muscle) supplied through that blood vessel. FFR is derived by measuring the pressure inside the coronary artery. Mainly, a catheter is used to measure the blood pressure in front of and behind the narrowed area of the coronary artery, and the FFR value is calculated through the ratio of the two pressures obtained as a result. The FFR value usually has a value between 0 and 1, and the closer the FFR is to 1, the more the coronary artery is diagnosed as normal.

그러나, 전통적인 방법에 따라 FFR을 측정하는 방법은 FFR의 정확한 측정을 위해서는 adenosine 또는 nicorandil 등의 별도의 약물을 투여하여 혈류량을 일시적으로 증가시켜야 하며, 별도의 카테터 및 압력 측정 유도철선을 삽입하여 수분이상 측정해야 하기 때문에 시술 시간이 증대되는 단점이 있다. However, the traditional method of measuring FFR has the disadvantage of increasing the procedure time because it requires a separate drug such as adenosine or nicorandil to temporarily increase blood flow in order to accurately measure FFR, and a separate catheter and pressure measurement guide wire to be inserted to measure for more than a few minutes.

그러나, 전통적인 방법에 따라 분획혈류예비력을 측정하는 방법은, 아데노신(Adenosine), 니코란딜(Nicorandil)과 같은 약물을 사용해 혈류량을 일시적으로 증가시켜야 하며, 이는 아데노신에 민감하거나 부작용을 경험하는 환자들에게는 치명적일 수 있으며, 약물 의존적이라는 비판과 함께 부정확한 평가를 야기할 수 있다. 또, 별도의 카테터 및 압력 측정 유도철선을 삽입하여 수분이상 측정해야 하기 때문에 시술 시간이 증대되는 단점이 있다. However, the traditional method of measuring fractional flow reserve requires a temporary increase in blood flow using drugs such as adenosine and Nicorandil, which can be fatal for patients who are sensitive to adenosine or experience side effects, and can cause inaccurate evaluations along with criticism that it is drug-dependent. In addition, there is a disadvantage in that the procedure time increases because a separate catheter and pressure measurement guide wire must be inserted to measure more than a few minutes.

따라서, 본 발명은 별다른 압력 센서 유도 철선의 삽입 없이 한번의 풀백(pullback)으로 획득한 OCT 영상들을 기반으로 FFR 예측하는 기술을 제안한다.Therefore, the present invention proposes a technique for predicting FFR based on OCT images acquired with a single pullback without insertion of a separate pressure sensor induction wire.

이와 관련된 선행 문헌으로 대한민국 공개특허공보 제10-2023-0094295 호(2023.06.28)가 있다.A related prior literature is Republic of Korea Patent Publication No. 10-2023-0094295 (June 28, 2023).

본 발명의 목적은, 혈관 OCT 영상을 기반으로 분획혈류예비력을 예측하는 방법 및 그 시스템을 제시하는 것이다.The purpose of the present invention is to propose a method and system for predicting fractional blood flow reserve based on vascular OCT images.

상술한 과제를 해결하기 위하여, 혈관 OCT(Optical Coherence Tomography) 영상을 기반으로 분획혈류예비력을 예측하는 장치(이하, 실시예들에 따른 장치라 한다)를 개시한다. 실시예들에 따른 장치는, 혈관의 제1위치에서 제2위치까지에 대한 복수의 OCT 이미지들을 포함하는 의료 이미지 세트를 획득하는 의료 영상 획득부; 상기 의료 이미지 세트를 제1방식에 기반하여, 고정된 크기의 복수의 패치들로 분할하는 3차원 패치 분할부; 상기 복수의 패치들을 기반으로, 상기 제1위치에서 상기 제2위치까지에 대한 분획 혈류 예비력을 예측하는 인공지능 모델을 포함하는 인공지능 모델부; 및 상기 예측한 분획 혈류 예비력을 제공하는 의료정보 제공부; 를 포함하고, 상기 인공지능 모델부는 복수 개의 트랜스포머 모델을 포함한다.In order to solve the above-described problem, a device for predicting fractional blood flow reserve based on a vascular OCT (Optical Coherence Tomography) image (hereinafter, referred to as a device according to embodiments) is disclosed. The device according to embodiments includes a medical image acquisition unit for acquiring a medical image set including a plurality of OCT images for a first location to a second location of a blood vessel; a three-dimensional patch segmentation unit for segmenting the medical image set into a plurality of patches of a fixed size based on a first method; an artificial intelligence model unit including an artificial intelligence model for predicting fractional blood flow reserve for the first location to the second location based on the plurality of patches; and a medical information provision unit for providing the predicted fractional blood flow reserve; wherein the artificial intelligence model unit includes a plurality of transformer models.

실시예들에 따른 제1트랜스포머 모델은 상기 분할된 각 패치들 각각을 C 차원의 벡터로 변환하는 임베딩부; 상기 임베딩된 벡터들 간의 공간적 관계를 나타내는 중간 특징 데이터를 생성하는 제1멀티-헤드 자가 어텐션 모듈; 및 상기 공간적 관계를 학습하기 위한 가중치 정보를 학습하는 제1다중 인공신경망 레이어부; 를 포함한다.A first transformer model according to embodiments includes an embedding unit that converts each of the divided patches into a C-dimensional vector; a first multi-head self-attention module that generates intermediate feature data representing a spatial relationship between the embedded vectors; and a first multi-artificial neural network layer unit that learns weight information for learning the spatial relationship.

나아가, 실시예들에 따른 상기 제1트랜스포머 모델은 상기 의료 이미지 세트 또는 상기 중간 특징 데이터를 제2방식에 기초하여 분할된 패치의 공간적 관계를 나타내는 최종 특징 데이터들을 생성하는 제2멀티-헤드 자가 어텐션 모듈; 을 더 포함한다. 여기서, 제2방식은 상기 의료 이미지 세트 또는 상기 중간 특징 데이터를 시프트(shift)하고, 시프트된 결과를 상기 제1방식에 따라 분할하는 방식일 수 있다.Furthermore, the first transformer model according to the embodiments further includes a second multi-head self-attention module that generates final feature data representing the spatial relationship of the segmented patches based on the second method of the medical image set or the intermediate feature data. Here, the second method may be a method of shifting the medical image set or the intermediate feature data and segmenting the shifted result according to the first method.

더 나아가, 실시예들에 따른 제1트랜스포머 모델은 상기 생성된 최종 특징 데이터들 중 적어도 일부를 병합하고, 상기 병합된 결과를 C 차원의 벡터로 재-임베딩하는 차원 병합부; 를 더 포함할 수 있다.Furthermore, the first transformer model according to the embodiments may further include a dimension merging unit that merges at least some of the generated final feature data and re-embeds the merged result into a C-dimensional vector.

또한, 실시예들에 따른 차원 병합부는 상기 생성된 최종 특징 데이터들 중 인접한 8개의 특징 데이터를 접합(concatenate)한다.Additionally, the dimension merging unit according to the embodiments concatenates eight adjacent feature data among the generated final feature data.

한편, 실시예들에 따른 인공지능 모델은 학습 데이터를 기반으로 학습된 모델이고, 상기 학습 데이터는 혈관의 제1위치에서 제2위치까지에 대응하는 OCT 이미지들 및 상기 혈관의 제1위치에서 제2위치까지에 대한 분획혈류예비력 값을 나타내는 레이블 정보를 포함한다.Meanwhile, the artificial intelligence model according to the embodiments is a model learned based on learning data, and the learning data includes OCT images corresponding to the first location to the second location of the blood vessel and label information indicating the fractional blood flow reserve value for the first location to the second location of the blood vessel.

나아가, 실시예들에 따른 인공지능 모델은 상기 학습 데이터 내 상기 OCT 이미지들을 기반으로 예측된 분획혈류예비력 값과 상기 레이블 정보에 포함된 정답 분획혈류예비력 값의 차이의 절대값으로 도출되는 손실 함수를 이용하여, 상기 복수 개의 트랜스포머 모델에 포함된 제1다중 인공신경망 레이어부 및 제2다중 인공신경망 레이어부를 학습한다. Furthermore, the artificial intelligence model according to the embodiments learns the first multiple artificial neural network layer unit and the second multiple artificial neural network layer unit included in the plurality of transformer models by using a loss function derived from the absolute value of the difference between the fractional blood flow reserve value predicted based on the OCT images in the learning data and the correct fractional blood flow reserve value included in the label information.

한편, 실시예들에 따른 인공지능 모델부는 제1트랜스포머 모델 내지 제4트랜스포머 모델을 포함하고, 상기 제1트랜스포머 모델의 제1다중 인공신경망 레이어부 또는 제2다중 인공신경망 레이어부는 2개의 인공신경망 레이어들을 포함하고, 상기 제2트랜스포머 모델의 제1다중 인공신경망 레이어부 또는 제2다중 인공신경망 레이어부는 2개의 인공신경망 레이어들을 포함하고, 상기 제3트랜스포머 모델의 제1다중 인공신경망 레이어부 또는 제2다중 인공신경망 레이어부는 6개의 인공신경망 레이어들을 포함하고, 상기 제4트랜스포머 모델의 제1다중 인공신경망 레이어부 또는 제2다중 인공신경망 레이어부는 2개의 인공신경망 레이어들을 포함하고, 임베딩부는 상기 분할된 각 패치들 각각을 96차원의 벡터로 변환한다.Meanwhile, the artificial intelligence model unit according to the embodiments includes the first transformer model to the fourth transformer model, and the first multiple artificial neural network layer unit or the second multiple artificial neural network layer unit of the first transformer model includes two artificial neural network layers, the first multiple artificial neural network layer unit or the second multiple artificial neural network layer unit of the second transformer model includes two artificial neural network layers, the first multiple artificial neural network layer unit or the second multiple artificial neural network layer unit of the third transformer model includes six artificial neural network layers, the first multiple artificial neural network layer unit or the second multiple artificial neural network layer unit of the fourth transformer model includes two artificial neural network layers, and the embedding unit converts each of the divided patches into a 96-dimensional vector.

실시예들에 따른 시스템은, 이러한 구성으로 인해 의료 이미지 세트 내의 세밀한 특징부터 전체적인 문맥 정보까지 효과적으로 학습할 수 있게 하고, 이를 통해 복잡한 영상 데이터를 처리하고, 높은 정확도의 예측을 가능하게 한다.The system according to the embodiments enables effective learning from detailed features to overall contextual information within a medical image set due to this configuration, thereby processing complex image data and enabling high-accuracy prediction.

실시예들에 따른 시스템은, 서로 다른 방식에 따라 분할된 패치들을 트랜스포머 블록에 통과시킴으로써, 의료 영상 세트 내 기 정해진 패치들 간의 상관관계뿐 아니라 다른 방식으로 분할된 패치 간의 상관관계를 함께 고려하여, 글로벌 문맥 정보를 통합할 수 있게 하고, 입력된 패치 간의 관계를 효과적으로 학습하여 더욱 정교한 고차원 특징을 도출하게 한다.The system according to the embodiments integrates global context information by considering correlations between patches divided in different ways as well as correlations between predetermined patches in a medical image set by passing patches divided in different ways through a transformer block, and effectively learns relationships between input patches to derive more sophisticated high-dimensional features.

실시예들에 따른 시스템은, (N, W, H) = (128, 128, 128)로 규격화함으로써, 트렌스포머 모듈들의 가장 적합한 연산 속도를 유지할 수 있게 한다.The system according to the embodiments maintains the most suitable computational speed of the transformer modules by normalizing (N, W, H) = (128, 128, 128).

도 1은 혈관 의료 정보를 분석하고 제공하는 전체 시스템(이하, '실시예들에 따른 혈관 의료 정보 제공 시스템'이라 한다)을 나타내는 시스템 도면이다.
도 2는 실시예들에 따른 혈관 의료 영상 분석 장치를 나타낸 구성도이다.
도 3은 실시예들에 따른 시스템 또는 서버 내 데이터 전처리부 및 인공지능 모델부의 구성의 예시이다.
도 4는 실시예들에 따른 시스템 또는 서버 내 데이터 전처리부 및 인공지능 모델부의 구성의 다른 예시이다.
도 5는 실시예들에 따른 트랜스포머 블록의 구체적인 구조를 나타낸 것이다.
도 6은 실시예들에 따른 인공지능 모델부에 입력될 의료 영상 데이터의 구조를 나타낸 것이다.
도 7은 실시예들에 따른 인공지능 모델부에 입력될 의료 영상 데이터의 가장 바람직한 구조 및 가장 바람직한 데이터 구조를 생성하기 위한 방법을 나타낸 것이다.
도 8은 실시예들에 따른 혈관 의료 영상 분석 장치가 사용자에게 제공하는 인터페이스 또는 소프트웨어의 화면의 예시를 나타낸다.
도 9는 실시예들에 따른 혈관 의료 영상 분석 장치가 사용자에게 제공하는 인터페이스 또는 소프트웨어의 화면의 다른 예시를 나타낸다.
도 10은 실시예들에 따른 혈관 의료 영상 분석 장치가 분획 혈류 예비력을 예측하는 과정을 나타내는 흐름도이다.
도 11은 실시예들에 따른 시스템 또는 서버의 구성도의 예시이다.
Figure 1 is a system diagram showing an overall system for analyzing and providing vascular medical information (hereinafter referred to as “vascular medical information providing system according to embodiments”).
Figure 2 is a configuration diagram showing a vascular medical image analysis device according to embodiments.
Figure 3 is an example of the configuration of a data preprocessing unit and an artificial intelligence model unit in a system or server according to embodiments.
FIG. 4 is another example of the configuration of a data preprocessing unit and an artificial intelligence model unit in a system or server according to embodiments.
Figure 5 shows a specific structure of a transformer block according to embodiments.
Figure 6 illustrates the structure of medical image data to be input into the artificial intelligence model unit according to embodiments.
FIG. 7 illustrates the most desirable structure of medical image data to be input into an artificial intelligence model unit according to embodiments and a method for generating the most desirable data structure.
FIG. 8 illustrates an example of a screen of an interface or software provided to a user by a vascular medical image analysis device according to embodiments.
FIG. 9 illustrates another example of a screen of an interface or software provided to a user by a vascular medical image analysis device according to embodiments.
FIG. 10 is a flowchart showing a process for predicting fractional blood flow reserve by a vascular medical image analysis device according to embodiments.
FIG. 11 is an example of a configuration diagram of a system or server according to embodiments.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. The present invention can have various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, but should be understood to include all modifications, equivalents, or substitutes included in the spirit and technical scope of the present invention. In describing each drawing, similar reference numerals are used for similar components.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Although the terms first, second, A, B, etc. may be used to describe various components, the components should not be limited by the terms. The terms are used only to distinguish one component from another. For example, without departing from the scope of the present invention, the first component could be referred to as the second component, and similarly, the second component could also be referred to as the first component. The term "and/or" includes any combination of a plurality of related listed items or any item among a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When it is said that a component is "connected" or "connected" to another component, it should be understood that it may be directly connected or connected to that other component, but that there may be other components in between. On the other hand, when it is said that a component is "directly connected" or "directly connected" to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is only used to describe specific embodiments and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly indicates otherwise. In this application, it should be understood that the terms "comprises" or "has" and the like are intended to specify the presence of a feature, number, step, operation, component, part or combination thereof described in the specification, but do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms defined in commonly used dictionaries, such as those defined in common dictionaries, should be interpreted as having a meaning consistent with the meaning they have in the context of the relevant art, and will not be interpreted in an idealized or overly formal sense unless expressly defined in this application.

도 1은 혈관 의료 정보를 분석하고 제공하는 전체 시스템(이하, '실시예들에 따른 혈관 의료 정보 제공 시스템)을 나타내는 시스템 도면이다.Figure 1 is a system diagram showing an overall system for analyzing and providing vascular medical information (hereinafter, “vascular medical information providing system according to embodiments”).

실시예들에 따른 혈관 의료 정보 제공 시스템은, 혈관 내부 또는 외부를 촬영하는 하나 이상의 의료기기(101), 해당 의료기기(101)와 연동되는 카테터(102), AI기반 의료영상 분석 시스템(103), 이미지 관리 시스템(104), 사용자 인터페이스를 제공하는 사용자 단말 장치(105)를 포함할 수 있고, 이들 각각은 상호 통신할 수 있다.A vascular medical information providing system according to embodiments may include one or more medical devices (101) for photographing the inside or outside of a blood vessel, a catheter (102) linked to the medical device (101), an AI-based medical image analysis system (103), an image management system (104), and a user terminal device (105) providing a user interface, each of which may communicate with each other.

도 1을 참조하면, 하나 이상의 의료기기(101)는 카테터(102)와 연동되어, 환자(100)의 혈관 내부의 영상(100a)을 촬영한다. 하나 이상의 의료기기(101)는 광간섭 단층촬영(OCT) 기법에 기반하여 OCT 영상(100a)일 수도 있다. 카테터(102)는 OCT 영상을 촬영하기 위해 구성된 이미징 카테터(imaging catheter)일 수 있으며, 하나 이상의 의료기기(101)와 지속적으로 통신하여 환자(100)의 혈관 내부의 영상을 촬영할 수 있다.Referring to FIG. 1, one or more medical devices (101) are coupled with a catheter (102) to capture an image (100a) of the inside of a blood vessel of a patient (100). The one or more medical devices (101) may be an OCT image (100a) based on an optical coherence tomography (OCT) technique. The catheter (102) may be an imaging catheter configured to capture an OCT image, and may continuously communicate with one or more medical devices (101) to capture an image of the inside of a blood vessel of a patient (100).

도 1을 참조하면, 하나 이상의 의료기기(101)는 환자의 심혈관 내부를 촬영하여 복수의 의료 영상들(100a)을 획득할 수 있다. 예를 들어, 하나 이상의 의료기기(101)는 카테터(102)의 움직임과 연동하여, 카테터(102)의 말단에서 환자의 심혈관 내부를 촬영하며, 심혈관 내부에서의 카테터(102)의 위치별로 의료 영상(100a)을 획득할 수 있다.Referring to FIG. 1, one or more medical devices (101) can capture the inside of a patient's cardiovascular system to obtain multiple medical images (100a). For example, one or more medical devices (101) can capture the inside of a patient's cardiovascular system at the end of the catheter (102) in conjunction with the movement of the catheter (102), and can obtain medical images (100a) according to the location of the catheter (102) inside the cardiovascular system.

하나 이상의 의료기기(101)는 획득한 복수 개의 의료 영상(100a)들을 AI기반 의료 영상 분석 시스템(103)에 전송/전달하고, AI기반 의료 영상 분석 시스템(103)은 복수 개의 의료 영상(100a)들을 분석할 수 있다. One or more medical devices (101) transmit/transmit multiple acquired medical images (100a) to an AI-based medical image analysis system (103), and the AI-based medical image analysis system (103) can analyze multiple medical images (100a).

AI기반 의료 영상 분석 시스템(103)은, 환자(100)의 심혈관 내부의 크기, 모양, 경화반의 존재 여부, 생화학적 정보, 조직적 특성, 표현형(phenotype), 플라크(plaque)의 존재 여부, 석회화의 존재 여부, 및 다양한 진단 관련 지표들(예를 들어, 분획혈류예비력(FFR, Fractional Flow Reserve) 등)과 같은 의료 정보(또는 진단/질병과 관련된 정보)를 포착하거나 분석할 수 있다.The AI-based medical image analysis system (103) can capture or analyze medical information (or information related to diagnosis/disease) such as the size, shape, presence of sclerosis, biochemical information, tissue characteristics, phenotype, presence of plaque, presence of calcification, and various diagnosis-related indicators (e.g., fractional flow reserve (FFR), etc.) inside the cardiovascular system of a patient (100).

한편, 실시예들에 따른 심혈관 의료 영상 분석 시스템은 환자(100) 또는 의료진(106)의 요청 등에 의해 재분석하거나 다시 활용될 수 있도록, 환자(100)의 의료 영상(100a)들을 체계적으로 저장하거나 관리할 수 있도록 구성된 이미지 관리 시스템(104)을 포함할 수 있다. 하나 이상의 의료기기(101)는 촬영된 환자(100)의 의료 영상(100a)들을 이미지 관리 시스템(104)으로 전송할 수 있다. Meanwhile, the cardiovascular medical image analysis system according to the embodiments may include an image management system (104) configured to systematically store or manage medical images (100a) of a patient (100) so that they can be reanalyzed or reused at the request of a patient (100) or medical staff (106). One or more medical devices (101) may transmit captured medical images (100a) of a patient (100) to the image management system (104).

실시예들에 따른 심혈관 의료 영상 분석 시스템은, AI기반 의료 영상 분석 시스템(103)에 의해 분석된 의료 정보를 의료진(106)에게 전달할 수 있다. 구체적으로, 실시예들에 따른 심혈관 의료 영상 분석 시스템은 상기 분석된 의료 정보를 의료진(106)이 사용 가능한 인터페이스 또는 단말 장치(105)로 전송할 수 있으며, 의료 정보는 진단 보고서(105a) 등의 형태로 가공되어 의료진(106)에게 제공될 수 있다.The cardiovascular medical image analysis system according to the embodiments can transmit medical information analyzed by the AI-based medical image analysis system (103) to medical staff (106). Specifically, the cardiovascular medical image analysis system according to the embodiments can transmit the analyzed medical information to an interface or terminal device (105) available to the medical staff (106), and the medical information can be processed in the form of a diagnosis report (105a), etc. and provided to the medical staff (106).

이러한 구성으로, 실시예들에 따른 심혈관 의료 영상 분석 시스템은, 의료진의 진단에 대한 부담과 노고를 효과적으로 감소시킬 수 있다. 또, 이러한 구성으로 실시예들에 따른 심혈관 의료 영상 분석 시스템은, 불필요한 의료인의 수고를 줄일 수 있게 하고, 발생 가능한 오진을 최소화하여, 필수 의료의 품질을 높이는 효과를 제공한다.With this configuration, the cardiovascular medical image analysis system according to the embodiments can effectively reduce the burden and effort of medical staff in diagnosis. In addition, with this configuration, the cardiovascular medical image analysis system according to the embodiments can reduce unnecessary efforts of medical staff, minimize possible misdiagnosis, and provide the effect of improving the quality of essential medical care.

한편, 본 명세서에서 전반적으로 설명하는 '혈관'은 신체 내에 존재하는 다양한 혈관을 의미할 수 있으며, OCT 영상을 촬영할 수 있는 혈관(즉, 이미징 카테터에 의해 내부를 촬영할 수 있는 혈관)을 의미할 수 있다. Meanwhile, the 'blood vessel' generally described in this specification may refer to various blood vessels existing within the body, and may refer to a blood vessel capable of taking an OCT image (i.e., a blood vessel whose interior can be imaged using an imaging catheter).

한편, 본 명세서에서 전반적으로 설명하는 '혈관'의 바람직한 예시는 심혈관을 나타낸다. 이 때, '심혈관'은 심장에 붙어있는 혈관으로, 심장의 기능을 돕는 주요 혈관들로 구성되어 있으며, 심장에 혈액을 공급하고 전신으로 혈액을 순환시키는 역할을 한다. 주요 심혈관에는 관상동맥(Coronary Arteries), 대동맥(Aorta), 폐동맥(Pulmonary Arteries), 폐정맥(Pulmonary Veins), 대정맥(Venae Cavae) 등이 있다.Meanwhile, a preferred example of 'blood vessel' described in this specification generally refers to the cardiovascular system. At this time, the 'cardiovascular system' is a blood vessel attached to the heart, and is composed of major blood vessels that help the heart function, and plays a role in supplying blood to the heart and circulating blood throughout the body. Major cardiovascular systems include coronary arteries, aorta, pulmonary arteries, pulmonary veins, and vena cava.

상기 설명에서는 심혈관을 기반으로 설명하였지만, 심혈관에 국한되지 않을 수 있으며, OCT 영상의 촬영이 가능한 다양한 혈관에 대해서도 적용될 수 있다.Although the above description is based on the cardiovascular system, it may not be limited to the cardiovascular system and may be applied to various blood vessels that can be imaged with OCT.

이하 도 2부터는, 도 1의 AI기반 의료 영상 분석 시스템(103)(또는 그 장치)의 구체적인 구성과 기능에 대하여 설명한다.Below, starting with Fig. 2, the specific configuration and function of the AI-based medical image analysis system (103) (or its device) of Fig. 1 are described.

도 2는 실시예들에 따른 혈관 의료 영상 분석 장치를 나타낸 구성도이다.Figure 2 is a configuration diagram showing a vascular medical image analysis device according to embodiments.

도 2에 나타난 장치는 도 1의 AI기반 의료 영상 분석 시스템(103)의 구성요소일 수 있으며, 혈관 의료 영상 분석 장치(이하, '실시예들에 따른 장치'라 한다)(200)의 구성을 나타낸다. 도 2를 참조하면, 실시예들에 따른 장치(200)는 의료 이미지 획득부(201), 데이터 전처리부(202), 인공지능 모델부(203), 학습부(204), 시각화부(205), 의료정보 제공부(206) 중 적어도 하나를 포함할 수 있다.The device shown in Fig. 2 may be a component of the AI-based medical image analysis system (103) of Fig. 1, and represents the configuration of a vascular medical image analysis device (hereinafter referred to as “device according to embodiments”) (200). Referring to Fig. 2, the device (200) according to embodiments may include at least one of a medical image acquisition unit (201), a data preprocessing unit (202), an artificial intelligence model unit (203), a learning unit (204), a visualization unit (205), and a medical information provision unit (206).

실시예들에 따른 의료 영상 획득부(201)는 하나 이상의 의료기기에 의해 촬영된 의료 영상 세트를 획득한다. 의료 영상 세트는 복수 개의 의료 영상을 포함한다. 각 의료 영상은 예를 들어, 광간섭 단층촬영(OCT) 기법에 기반하여 OCT 영상일 수도 있다. A medical image acquisition unit (201) according to embodiments acquires a set of medical images captured by one or more medical devices. The set of medical images includes a plurality of medical images. Each medical image may be, for example, an OCT image based on an optical coherence tomography (OCT) technique.

의료 영상 세트는 예를 들어, 혈관의 특정 구간에 대해 촬영된 OCT 영상들을 의미할 수 있다. 의료 영상 세트는, 혈관의 제1지점에서 제2지점까지 풀백(pullback) 시 획득되는 OCT 영상들을 의미할 수 있다. 즉, 의료 영상 획득부(201)는, 혈관 내의 위치별로 일정 간격에 따라 촬영된 복수 개의 의료 영상들을 다발로 획득할 수 있다.The medical image set may mean, for example, OCT images captured for a specific section of a blood vessel. The medical image set may mean OCT images acquired when pulling back from a first point to a second point of the blood vessel. That is, the medical image acquisition unit (201) may acquire a plurality of medical images captured at a certain interval for each location within the blood vessel as a bundle.

이하 본 명세서에서, 의료 영상 세트의 각 의료 영상의 너비(Width)는 W로 정의하고, 높이(Height)는 H로 정의한다. 차원이 RGB와 같이 3개로 정의되는 일반적인 컴퓨터비전과 달리, OCT 의료 영상의 경우 흑백으로만 구성되는 것이 일반적이므로 1개의 채널로만 구성될 수 있다. 또, 의료 영상 세트는 N장의 의료 영상(OCT 영상)을 포함하는 것으로 정의한다. 이를 본 명세서에서, 의료 영상 세트는 (N, W, H) 크기를 갖는 것으로 정의한다.Hereinafter, in this specification, the width of each medical image in the medical image set is defined as W, and the height is defined as H. Unlike general computer vision where the dimension is defined as three, such as RGB, OCT medical images are generally composed of only black and white, so they can be composed of only one channel. In addition, the medical image set is defined as including N medical images (OCT images). In this specification, the medical image set is defined as having the size of (N, W, H).

한편, 의료 영상 획득부(201)가 획득하는 의료 영상 세트는, OCT 영상들만 포함할 수도 있지만, 혈관 내 촬영 위치가 어노테이팅되어 있을 수 있는 데이터를 포함할 수 있다.Meanwhile, the medical image set acquired by the medical image acquisition unit (201) may include only OCT images, but may also include data in which the intravascular shooting location may be annotated.

실시예들에 따른 데이터 전처리부(202)는, 의료 영상 획득부(201)에 의해 획득한 의료 영상 세트를 전처리(pre-processing) 또는 가공할 수 있다. 실시예들에 따른 데이터 전처리부(202)는 상기 영상(들) 내 확인되는 특징(feature)들을 추출할 수 있다. 예를 들어, 의료 영상이 OCT 영상인 경우 특징 추출부(202)는, OCT 영상 내 확인되는 카테터(catheter) 영역, 카테터에 의해 생긴 그림자를 나타내는 영역, 카테터에 의해 가려지는 영역, 루멘(lumen) 영역, 분기(bifurcation) 또는 브랜치(branch) 영역을 추출할 수 있다. The data preprocessing unit (202) according to the embodiments can preprocess or process a set of medical images acquired by the medical image acquisition unit (201). The data preprocessing unit (202) according to the embodiments can extract features identified in the image(s). For example, if the medical image is an OCT image, the feature extraction unit (202) can extract a catheter region identified in the OCT image, a region representing a shadow created by the catheter, a region covered by the catheter, a lumen region, a bifurcation or branch region.

데이터 전처리부(202)는, 의료 영상 내에서 일부 특징들을 추출하기 위하여, 룰-기반(rule-based)의 알고리즘을 수행하는 구성을 포함할 수도 있고, CNN(Convolutional Neural Network) 등 인공신경망을 포함할 수 있다.The data preprocessing unit (202) may include a configuration that performs a rule-based algorithm to extract some features from a medical image, and may include an artificial neural network such as a CNN (Convolutional Neural Network).

또, 데이터 전처리부(202)는, 의료 이미지 세트 내 포함된 복수의 OCT 이미지들의 수가 제1값(예를 들어, 128 또는 256)보다 더 큰 경우 복수의 OCT 이미지들 중 제1값의 수만큼 OCT 이미지들을 선택하고, 선택된 OCT 이미지들의 폭(width)과 높이(height)를 제1값 픽셀만큼 리사이즈(resize)할 수 있다. 이와 관련된 구체적인 내용은 도 7에서 자세히 설명하기로 한다.In addition, the data preprocessing unit (202) may select OCT images equal to the number of the first value among the plurality of OCT images when the number of OCT images included in the medical image set is greater than the first value (e.g., 128 or 256), and resize the width and height of the selected OCT images by the first value pixels. Specific details related thereto will be described in detail in FIG. 7.

데이터 전처리부(202)는, 상기 획득한 의료 영상을 인공지능 모델(203)로 입력하기 위해 정규화(regularization)하거나, 복수 개의 차원으로 구성된 벡터로 벡터 임베딩(vector embedding)을 수행할 수 있다. 데이터 전처리부(202)는, 상기 획득한 의료 영상을 인공지능 모델(203)로 입력하기 위해, 호환되거나 적합한 데이터의 구조로 변환할 수 있다.The data preprocessing unit (202) can perform regularization or vector embedding into a vector composed of multiple dimensions in order to input the acquired medical image into the artificial intelligence model (203). The data preprocessing unit (202) can convert the acquired medical image into a compatible or suitable data structure in order to input the acquired medical image into the artificial intelligence model (203).

데이터 전처리부(202)는, 예를 들어, 상기 획득한 의료 영상(또는 의료 영상 다발)을 복수 개의 패치(patch)들로 분할(partition)할 수 있고, 분할한 패치들을 인공지능 모델(203)의 입력 데이터로 전달할 수 있다. 이 때, 패치(patch)란, 분할된 영상 내 픽셀들을 접합(concatenation)함으로써 표현된 데이터로, 이는 벡터 형태로 표현될 수 있다. 또 이때, 데이터 전처리부(202)는, 상기 획득한 의료 영상을 기 설정된 다양한 방식에 따라 복수의 패치들로 분할할 수 있다. 데이터 전처리부(202)가 의료 영상(또는 의료 영상 다발)을 복수 개의 패치(또는 복수 개의 3차원 벡터들)로 분할하는 방법은 도 5 내지 도 6에서 자세히 설명하기로 한다.The data preprocessing unit (202) can, for example, partition the acquired medical image (or medical image bundle) into a plurality of patches, and transmit the divided patches as input data of the artificial intelligence model (203). At this time, a patch refers to data expressed by concatenating pixels in the divided image, and this can be expressed in a vector form. In addition, at this time, the data preprocessing unit (202) can divide the acquired medical image into a plurality of patches according to various preset methods. The method by which the data preprocessing unit (202) divides the medical image (or medical image bundle) into a plurality of patches (or a plurality of 3D vectors) will be described in detail with reference to FIGS. 5 and 6.

구체적으로, 데이터 전처리부(202)는, 실시예들에 따른 의료 영상을 인공지능 모델부(203)에 포함된 하나 이상의 트랜스포머 블록(transformer block)에 입력할 수 있도록 복수 개의 세부 이미지 패치(patch)로 분할(partition)할 수 있다. 또, 데이터 전처리부(202)는, 분할된 각 패치를 하나 이상의 트랜스포머 블록에 입력할 수 있도록 벡터(vector)로 임베딩(embedding)할 수도 있다.Specifically, the data preprocessing unit (202) may partition a medical image according to embodiments into a plurality of detailed image patches so that the image may be input to one or more transformer blocks included in the artificial intelligence model unit (203). In addition, the data preprocessing unit (202) may embed each of the divided patches into a vector so that the image may be input to one or more transformer blocks.

인공지능 모델부(203)는, 의료 영상 획득부(201)에 의해 획득한 의료 영상(들) 및/또는 특징 추출부(202)에 의해 추출된 특징(들)을 입력 받아, 해당 혈관 또는 혈관 구간에 대한 분획 혈류 예비력(Fractional Flow Reserve, FFR)을 예측할 수 있다. The artificial intelligence model unit (203) can receive medical image(s) acquired by the medical image acquisition unit (201) and/or feature(s) extracted by the feature extraction unit (202) as input and predict the fractional flow reserve (FFR) for the corresponding blood vessel or blood vessel section.

인공지능 모델부(203)는, 데이터 전처리부(202)에 의해 분할된 각 패치에 대해 임베딩된 결과 즉, 벡터(vector)를 입력 받아, 의료 영상 세트에 대응하는 혈관의 구간에 대한 FFR 값을 예측한다.The artificial intelligence model unit (203) receives embedded results, i.e. vectors, for each patch segmented by the data preprocessing unit (202) and predicts FFR values for sections of blood vessels corresponding to the medical image set.

인공지능 모델부(203)는 복수 개의 트랜스포머 블록을 포함할 수 있다. 예를 들어, 인공지능 모델부(203)는, 우선 (N, W, H) 크기의 의료 영상 세트를 (2, 4, 4) 크기 (즉, 높이와 너비가 4개의 기본단위이고, 4장의 OCT 영상) 로 분할한다. 인공지능 모델부(203)는 분할된 각각의 패치 각각에 대해 임베딩 또는 정규화하여 N/4 × H/4 × W/4 개의 3D 토큰을 획득한다. 이후, 인공지능 모델부(203)는 각 3D 토큰을 C(C는 임의의 수)개의 차원으로 투영(projection)하여, C 차원의 특징(feature) 데이터를 생성한다. 이후, 인공지능 모델부(203)는, 각 패치에 대응하는 C 차원의 특징 데이터를 취합하고, 이를 제1트랜스포머 블록을 통과하여 각 패치별 관계 정보를 생성한다. 제1트랜스포머 블록을 통과한 결과, 인공지능 모델부(203)는, N/4 × H/4 × W/4 개의 3D 토큰들 서로에 대한 관계를 나타내는 출력 특징(output feature) 데이터를 도출한다.The artificial intelligence model unit (203) may include a plurality of transformer blocks. For example, the artificial intelligence model unit (203) first divides a medical image set of size (N, W, H) into sizes (2, 4, 4) (i.e., height and width are four basic units, and four OCT images). The artificial intelligence model unit (203) obtains N/4 × H/4 × W/4 3D tokens by embedding or normalizing each of the divided patches. Thereafter, the artificial intelligence model unit (203) projects each 3D token into C (C is an arbitrary number) dimensions to generate C-dimensional feature data. Thereafter, the artificial intelligence model unit (203) collects C-dimensional feature data corresponding to each patch, passes the collected data through the first transformer block, and generates relationship information for each patch. As a result of passing through the first transformer block, the artificial intelligence model section (203) derives output feature data indicating the relationship between N/4 × H/4 × W/4 3D tokens.

한편, 각 트랜스포머 블록은, 제1멀티-헤드 자가 어텐션 모듈(multi-head self-attention)과 제2멀티-헤드 자가 어텐션 모듈을 포함 즉, 2개의 멀티-헤드 자가 어텐션 모듈을 포함한다. 또, 각 트랜스포머 블록은, 피드 포워드 및 역전파에 의해 업데이트될 수 있는 복수 개의 뉴럴 네트워크 레이어들과, 레이어 정규화부(layer normalization module) 등을 포함할 수 있다. 여기서, 상기 2개의 멀티-헤드 자가 어텐션 모듈은 직렬(serially)로 연결될 수 있다. 예를 들어, 제1트랜스포머 블록은 (4, 4, 4) 크기 단위로 분할된 패치에 대한 C 차원의 특징 데이터를 생성하여, 제1멀티-헤드 자가 어텐션 모듈을 통과하여, 각 패치마다 C 차원의 중간 출력 특징들을 생성한다. 이 때, (4, 4, 4) 크기 단위로 분할된 패치들은 영상 이미지를 일반적인 방식으로 분할된 패치들(즉, 최-좌측 상단을 기준점으로 하여 일정 너비와 높이를 가지도록 분할)일 수 있다. 이후, 제1트랜스포머 블록은, 중간 출력 특징을 시프트(shift)하고, 시프트된 중간 출력 특징을 상기와 유사한 방식으로 분할할 수 있고, 분할된 결과로 생성된 패치들을 제2멀티-헤드 자가 어텐션 모듈에 통과시킨다. 제1트랜스포머 블록은 제2멀티-헤드 자가 어텐션 모듈을 통과한 결과, 패치마다 C 차원의 최종 출력 특징들을 생성한다.Meanwhile, each transformer block includes a first multi-head self-attention module and a second multi-head self-attention module, i.e., two multi-head self-attention modules. In addition, each transformer block may include a plurality of neural network layers that can be updated by feedforward and backpropagation, and a layer normalization module, etc. Here, the two multi-head self-attention modules may be connected serially. For example, the first transformer block generates C-dimensional feature data for patches divided into (4, 4, 4)-sized units, passes the data through the first multi-head self-attention module, and generates C-dimensional intermediate output features for each patch. At this time, the patches divided into (4, 4, 4) size units can be patches divided in a general manner (i.e., divided to have a constant width and height based on the upper leftmost point as a reference point) of the image image. Thereafter, the first transformer block can shift the intermediate output features, divide the shifted intermediate output features in a similar manner as above, and pass the patches generated as a result of the division to the second multi-head self-attention module. The first transformer block generates C-dimensional final output features for each patch as a result of passing through the second multi-head self-attention module.

이후, 제1트랜스포머 블록은 N/4 × H/4 × W/4 개의 출력 특징들 중 인접한 출력 특징들끼리 병합(merge)한다. 예를 들어, 제1트랜스포머 블록은 N/4 × H/4 × W/4 개의 출력 특징들 중 인접한 출력 특징들끼리 병합하여 8C 차원의 N/8 × H/8 × W/8 개의 출력 특징을 도출할 수 있으나, 다른 방식 및 개수를 기반으로 병합할 수도 있다. 제1트랜스포머 블록은 8C 차원의 N/8 × H/8 × W/8 개의 출력 특징들 각각을 C 차원으로 정규화 및/또는 임베딩한다. 즉, 제1트랜스포머 블록은, N/8 × H/8 × W/8 개의 C 차원의 출력 특징을 최종적으로 도출한다.Thereafter, the first transformer block merges adjacent output features among the N/4 × H/4 × W/4 output features. For example, the first transformer block can derive N/8 × H/8 × W/8 output features of 8C dimensions by merging adjacent output features among the N/4 × H/4 × W/4 output features, but the merge may be performed based on other methods and numbers. The first transformer block normalizes and/or embeds each of the N/8 × H/8 × W/8 output features of 8C dimensions into a C dimension. That is, the first transformer block finally derives N/8 × H/8 × W/8 output features of C dimensions.

이후, 인공지능 모델부(203)는, 상기와 같이 C 차원으로 정규화/임베딩된 N/8 × H/8 × W/8 개의 출력 특징들 각각을 제2트랜스포머 블록에 입력한다. 제2트랜스포머 블록도 마찬가지로, 제1멀티-헤드 자가 어텐션 모듈과 제2멀티-헤드 자가 어텐션 모듈을 포함할 수 있으며, 상기와 같이 직렬로 연결된다. 제2트랜스포머 블록은 C 차원으로 정규화/임베딩된 N/8 × H/8 × W/8 개의 출력 특징들 각각을 입력받아, N/8 × H/8 × W/8 개의 C 차원의 최종 출력 특징들(즉, N/8 × H/8 × W/8 개 각각의 패치들 간의 관계)을 생성한다. 이후, 제2트랜스포머 블록은 N/8 × H/8 × W/8 개의 C 차원의 최종 출력 특징들을 병합하여, N/16 × H/16 × W/16 개의 8C 차원의 출력 특징들을 생성하고, 생성된 출력 특징들의 차원을 줄여, N/16 × H/16 × W/16 개의 2C 차원의 출력 특징들(바람직하게는, 제1트랜스포머의 출력 특징의 차원의 2배의 크기의 차원을 가짐)을 생성한다. Thereafter, the artificial intelligence model unit (203) inputs each of the N/8 × H/8 × W/8 output features normalized/embedded in the C dimension as described above into the second transformer block. The second transformer block may also include a first multi-head self-attention module and a second multi-head self-attention module, and are connected in series as described above. The second transformer block receives each of the N/8 × H/8 × W/8 output features normalized/embedded in the C dimension as input, and generates N/8 × H/8 × W/8 final output features in the C dimension (i.e., relationships between each of the N/8 × H/8 × W/8 patches). Thereafter, the second transformer block merges the N/8 × H/8 × W/8 final output features of C dimensions to generate N/16 × H/16 × W/16 8C-dimensional output features, and reduces the dimension of the generated output features to generate N/16 × H/16 × W/16 2C-dimensional output features (preferably having a dimension twice the size of the dimension of the output features of the first transformer).

인공지능 모델부(203)는, 상기와 같은 방법으로 병합하여, 패치 하나가 하나의 전체 영상 세트로 병합될 때까지 복수 개의 트랜스포머 블록들을 통과시킬 수 있다. 인공지능 모델부(203)는, 상기와 같은 구성으로 의료 이미지 세트를 분할하고, 분할한 패치 각각의 관계를 도출하고, 도출된 특징 데이터를 병합하여 병합된 패치들 간의 관계를 도출하는 방식으로, 피드 포워드(feed forward)를 수행하여 최종적으로 FFR 값을 예측할 수 있다. The artificial intelligence model unit (203) can pass multiple transformer blocks through the above method until one patch is merged into one entire image set. The artificial intelligence model unit (203) can perform feed forward by dividing a medical image set with the above configuration, deriving a relationship between each of the divided patches, and merging the derived feature data to derive a relationship between the merged patches, thereby finally predicting the FFR value.

인공지능 모델부(203)는, 학습 데이터를 학습하는 경우, 상기와 같은 방법으로 학습 데이터를 피드 포워드를 수행하고, 피드 포워드된 최종 예측 결과와 레이블 정보를 기반으로 역전파(back-propagation)을 수행하여 인공지능 모델부(203)에 포함된 뉴럴 네트워크 레이어들을 업데이트할 수 있다.When learning learning data, the artificial intelligence model unit (203) can perform feed-forward on the learning data in the above manner and perform back-propagation based on the feed-forward final prediction result and label information to update the neural network layers included in the artificial intelligence model unit (203).

한편, 도 2에는 도시되지 않았으나, 실시예들에 따른 장치(200)는, 복수 개의 OCT 영상들에 기초하여 혈관 내 스텐트의 위치 및/또는 모양에 대한 정보를 예측하는 제1분류 모델, 복수 개의 OCT 영상들에 기초하여 혈관 내 아티펙트(artifect)의 위치 및 분포에 대한 정보를 예측하는 제2분류 모델, 복수 개의 OCT 영상들에 기초하여 혈관 내 특정 병변(lesion, plaque 등)의 위치 및 분포에 대한 정보를 예측하는 제3분류 모델, 복수 개의 OCT 영상들에 기초하여 혈관 내 석회화(calcification)의 위치 및 분포에 대한 정보를 예측하는 제4분류 모델을 더 포함할 수 있다. 제1분류 모델 내지 제4분류 모델 전부 또는 일부는 하나 이상의 레이어(layer)들 또는 풀링(pooling) 동작을 수행하여, 객체 인식(object detection)을 수행할 수 있는 인공신경망들로 구성된 인공지능 모델일 수 있다.Meanwhile, although not shown in FIG. 2, the device (200) according to the embodiments may further include a first classification model that predicts information about the location and/or shape of a stent within a blood vessel based on a plurality of OCT images, a second classification model that predicts information about the location and distribution of an artifact within a blood vessel based on a plurality of OCT images, a third classification model that predicts information about the location and distribution of a specific lesion (such as a plaque) within a blood vessel based on a plurality of OCT images, and a fourth classification model that predicts information about the location and distribution of calcification within a blood vessel based on a plurality of OCT images. All or part of the first to fourth classification models may be artificial intelligence models composed of artificial neural networks capable of performing object detection by performing one or more layers or a pooling operation.

학습부(204)는, 실시예들에 따른 인공지능 모델부(203) 및/또는 특징 추출부(202)에 포함된 인공지능 모델(들)을 학습한다. 학습부(204)는, 의료 영상(들)과 해당 의료 영상들에 대한 정답(레이블 정보)를 포함하는 학습 데이터를 기반으로, 인공지능 모델부(203) 및/또는 특징 추출부(202)에 포함된 인공지능 모델(들) 학습한다.The learning unit (204) learns the artificial intelligence model(s) included in the artificial intelligence model unit (203) and/or the feature extraction unit (202) according to the embodiments. The learning unit (204) learns the artificial intelligence model(s) included in the artificial intelligence model unit (203) and/or the feature extraction unit (202) based on learning data including medical image(s) and correct answers (label information) for the corresponding medical images.

학습부(204)는, 학습 데이터로 이용될 의료 영상(또는 의료 영상 다발)을 기반으로 학습 데이터를 생성할 수 있다. 학습부(204)는, 데이터 전처리부(202)와 연동하여 상기 의료 영상(또는 의료 영상 다발)에 레이블 정보(label information)을 추가하고, 상기 의료 영상(또는 의료 영상 다발)을 기 설정된 다양한 방식에 따라 복수의 패치들로 분할하며, 분할 및/또는 전처리된 정보를 바탕으로 인공지능 모델부(203)를 학습시킨다.The learning unit (204) can generate learning data based on a medical image (or a group of medical images) to be used as learning data. The learning unit (204) adds label information to the medical image (or a group of medical images) in conjunction with the data preprocessing unit (202), divides the medical image (or a group of medical images) into a plurality of patches according to various preset methods, and trains the artificial intelligence model unit (203) based on the divided and/or preprocessed information.

학습부(204)는, 마찬가지로 실시예들에 따른 제1분류 모델 내지 제4분류 모델 각각 또는 전부를 학습시킬 수 있다.The learning unit (204) can likewise learn each or all of the first to fourth classification models according to the embodiments.

시각화부(205)는, 인공지능 모델부(203)에 의해 도출 및 예측된 분획 혈류 예비력(FFR)을 의료진의 단말 장치 또는 사용자에게 제공하고, 이를 시각화한다. 의료정보 제공부(206)는 인공지능 모델부(203)에 의해 예측된 분획 혈류 예비력(FFR)을 기반으로, 의료인에게 진단과 관련된 정보를 제공한다.The visualization unit (205) provides the fractional flow reserve (FFR) derived and predicted by the artificial intelligence model unit (203) to the terminal device of the medical staff or the user, and visualizes it. The medical information provision unit (206) provides the medical staff with information related to diagnosis based on the fractional flow reserve (FFR) predicted by the artificial intelligence model unit (203).

이러한 구성으로, 실시예들에 따른 혈관 의료 영상 분석 시스템은, 의료진의 진단에 대한 부담과 노고를 효과적으로 감소시킬 수 있다. 또, 이러한 구성으로 실시예들에 따른 혈관 의료 영상 분석 시스템은, 불필요한 의료인의 수고를 줄일 수 있게 하고, 발생 가능한 오진을 최소화하여, 필수 의료의 품질을 높이는 효과를 제공한다.With this configuration, the vascular medical image analysis system according to the embodiments can effectively reduce the burden and effort of medical staff in diagnosis. In addition, with this configuration, the vascular medical image analysis system according to the embodiments can reduce unnecessary efforts of medical staff, minimize possible misdiagnosis, and provide the effect of improving the quality of essential medical care.

또, 이러한 구성으로, 실시예들에 따른 혈관 의료 영상 분석 시스템은, 의료진의 스텐트(stent)를 이식할 혈관의 위치까지 카테터(풍선 카테터 등)를 도달시키기 위한 노력을 줄여줄 수 있다.In addition, with this configuration, the vascular medical image analysis system according to the embodiments can reduce the effort of medical staff to reach the location of the blood vessel where the stent is to be implanted with a catheter (such as a balloon catheter).

이하, 도 3 내지 도 6에서는 실시예들에 따른 인공지능 모델부(203)의 구조 및 입력 데이터에 대해 자세히 설명한다. Below, FIGS. 3 to 6 describe in detail the structure and input data of the artificial intelligence model unit (203) according to embodiments.

도 3은 실시예들에 따른 시스템 또는 서버 내 데이터 전처리부 및 인공지능 모델부의 구성의 예시이다.Figure 3 is an example of the configuration of a data preprocessing unit and an artificial intelligence model unit in a system or server according to embodiments.

구체적으로, 도 3은 실시예들에 따른 시스템이 의료 영상 세트(300) 즉, OCT 이미지들을 획득하고, 3차원 패치 분할부(301)가 이들을 복수 개의 패치들로 분할(partition)하고, 분할된 각 패치를 인공지능 모델부(302)가 입력 받아 최종적으로 혈관 구간에 대한 분획혈류예비력(FFR)을 예측하는 방법에 관한 구성을 나타낸다.Specifically, FIG. 3 shows a configuration of a method in which a system according to embodiments acquires a medical image set (300), i.e., OCT images, a 3D patch segmentation unit (301) segments them into a plurality of patches, and an artificial intelligence model unit (302) receives each of the segmented patches as input to ultimately predict fractional flow reserve (FFR) for a blood vessel section.

한편, 도 3에서는 도 2에서 설명한 트랜스포머 블록이 인공지능 모델부 내 하나만 구현되어 있고, 하나의 트랜스포머 블록이 반복적으로 이용되는 실시예를 나타낸 것이다.Meanwhile, Fig. 3 shows an example in which only one transformer block described in Fig. 2 is implemented in the artificial intelligence model section and one transformer block is repeatedly used.

도 3을 참조하면, 의료 영상 세트(300)는, 도 2의 의료 영상 획득부(200)에서 획득한 의료 영상을 의미하며, 혈관 또는 심혈관에 대한 OCT 영상들을 의미할 수 있다.Referring to FIG. 3, a medical image set (300) refers to medical images acquired by the medical image acquisition unit (200) of FIG. 2, and may refer to OCT images of blood vessels or cardiovascular systems.

도 3을 참조하면, 3차원 패치 분할부(301)는, 도 2의 데이터 전처리부(202)의 동작 일부 또는 전부를 수행한다. 3차원 패치 분할부(301)는, 의료 영상 세트를 복수 개의 패치들로 분할한다. 여기서, 패치의 크기는 관리자에 의해 설정될 수 있으나, 본 명세서에서는 OCT 이미지 프레임, 너비 및 높이가 각각 (4, 4, 4) 크기인 것으로 가정하여 설명한다. Referring to FIG. 3, the 3D patch segmentation unit (301) performs part or all of the operations of the data preprocessing unit (202) of FIG. 2. The 3D patch segmentation unit (301) segments a medical image set into a plurality of patches. Here, the size of the patch can be set by the administrator, but in this specification, it is assumed that the OCT image frame, width, and height are each (4, 4, 4) in size and explained.

도 3을 참조하면, 인공지능 모델부(302)는, 상기와 같이 분할된 패치들을 입력 받아 임베딩(embedding), 트랜스포머 블록 통과 및 차원 병합을 복수 회 수행한다. 인공지능 모델부(302)는 임베딩부(302a), 트랜스포머 블록(302b) 및 차원 병합부(302c)를 포함한다.Referring to FIG. 3, the artificial intelligence model unit (302) receives the patches divided as described above and performs embedding, transformer block passing, and dimension merging multiple times. The artificial intelligence model unit (302) includes an embedding unit (302a), a transformer block (302b), and a dimension merging unit (302c).

임베딩부(302a)는 3차원 패치 분할부(301)로부터 전달받은 분할된 각 패치에 대해 임베딩(embedding)을 수행한다. 각 패치는 OCT 이미지에서 (4, 4, 4) 크기 단위로 분할된 패치이며, 임베딩부(302a)는 이를 C차원 벡터로 투영(projection)한다. 예를 들어, 의료 이미지 세트가 (4, 4, 4) 크기를 가진 N/4 × H/4 × W/4 개의 패치로 분할되었다면, 임베딩부(302a)는 각 패치를 C차원 벡터로 변환하여, N/4 × H/4 × W/4 개의 C차원 임베딩 벡터를 생성한다. 이 과정에서 임베딩된 벡터는 인공지능 모델의 입력으로 적합한 형태로 변환되어, 후속 트랜스포머 블록에서 처리될 준비가 된다.The embedding unit (302a) performs embedding on each of the segmented patches received from the 3D patch segmentation unit (301). Each patch is a patch segmented into units of size (4, 4, 4) in the OCT image, and the embedding unit (302a) projects this into a C-dimensional vector. For example, if a medical image set is segmented into N/4 × H/4 × W/4 patches having a size of (4, 4, 4), the embedding unit (302a) converts each patch into a C-dimensional vector, thereby generating N/4 × H/4 × W/4 C-dimensional embedding vectors. In this process, the embedded vector is converted into a form suitable as an input for an artificial intelligence model, and is ready to be processed in a subsequent transformer block.

트랜스포머 블록(302b)는 임베딩부(302a)에서 생성된 C차원 임베딩 벡터를 입력으로 받아, 패치 간의 관계를 도출한다. 트랜스포머 블록은 제1멀티-헤드 자가 어텐션(multi-head self-attention) 모듈 및 제2멀티-헤드 자가 어텐션 모듈을 통해, 각 패치 간의 상호작용과 공간적 관계를 고려한 새로운 특징 벡터를 생성한다. 예를 들어, 트랜스포머 블록(302b)은 입력된 N/4 × H/4 × W/4 개의 C차원 벡터들에 대해 어텐션 연산을 수행하여, 패치들 간의 상호작용을 반영한 새로운 C차원 출력 벡터들을 생성한다. 이후, 트랜스포머 블록은 중간 출력 특징 벡터를 일정한 규칙에 따라 시프트(shift)하고, 시프트된 벡터를 다시 트랜스포머 블록의 입력으로 사용하여 추가 학습을 수행한다.The transformer block (302b) receives the C-dimensional embedding vector generated from the embedding unit (302a) as input and derives the relationship between patches. The transformer block generates a new feature vector that considers the interaction and spatial relationship between each patch through a first multi-head self-attention module and a second multi-head self-attention module. For example, the transformer block (302b) performs an attention operation on the input N/4 × H/4 × W/4 C-dimensional vectors to generate new C-dimensional output vectors that reflect the interaction between patches. Thereafter, the transformer block shifts the intermediate output feature vector according to a certain rule and uses the shifted vector as an input to the transformer block again to perform additional learning.

차원 병합부(302c)는 트랜스포머 블록(302b)에서 생성된 출력 벡터들 중 인접한 벡터들을 병합하여 차원을 줄이는 역할을 한다. 예를 들어, N/4 × H/4 × W/4 개의 C차원 출력 벡터들 중 인접한 벡터들을 병합하여, N/8 × H/8 × W/8 개의 2C차원 벡터로 축소할 수 있다. 병합된 벡터는 다시 임베딩부(302a)와 트랜스포머 블록(302b)를 거쳐 반복적으로 처리되며, 패치 하나가 하나의 전체 영상 세트로 병합될 때까지 이 과정이 수행된다. 최종적으로, 차원 병합부(302c)는 하나의 영상에 대한 최종 FFR 예측 벡터를 생성하게 된다. 이 예측 벡터는 의료 영상 세트 전체에 대해 혈관 구간의 분획혈류예비력(FFR)을 예측하는 데 사용된다.The dimension merging unit (302c) reduces the dimension by merging adjacent vectors among the output vectors generated from the transformer block (302b). For example, among the N/4 × H/4 × W/4 C-dimensional output vectors, adjacent vectors can be merged to reduce the dimension to N/8 × H/8 × W/8 2C-dimensional vectors. The merged vector is repeatedly processed through the embedding unit (302a) and the transformer block (302b), and this process is performed until one patch is merged into one entire image set. Finally, the dimension merging unit (302c) generates a final FFR prediction vector for one image. This prediction vector is used to predict the fractional flow reserve (FFR) of a vascular segment for the entire medical image set.

도 4는 실시예들에 따른 시스템 또는 서버 내 데이터 전처리부 및 인공지능 모델부의 구성의 다른 예시이다.FIG. 4 is another example of the configuration of a data preprocessing unit and an artificial intelligence model unit in a system or server according to embodiments.

도 3에서는 실시예들에 따른 시스템이, 인공지능 모델부 내에서 하나의 트랜스포머 블록이 수회 반복적으로 사용되는 실시예를 나타낸 것이다. 이하, 도 4에서는 실시예들에 따른 시스템이, 인공지능 모델부 내 복수 개의 트랜스포머 블록이 구비되어, 임베딩 및 차원 병합이 개별적인 설정에 따라 이루이지도록 구성된 실시예를 나타낸다.FIG. 3 illustrates an example of a system according to embodiments in which one transformer block is used repeatedly several times within an artificial intelligence model section. Below, FIG. 4 illustrates an example of a system according to embodiments in which a plurality of transformer blocks are provided within an artificial intelligence model section, and embedding and dimension merging are configured to be performed according to individual settings.

도 4를 참조하면, 의료 영상 세트(400)는, 도 2의 의료 영상 획득부(200)에서 획득한 의료 영상을 의미하며, 혈관 또는 심혈관에 대한 OCT 영상들을 의미할 수 있다. 도 4를 참조하면, 3차원 패치 분할부(401)는, 도 2의 데이터 전처리부(202)의 동작 일부 또는 전부를 수행한다. Referring to FIG. 4, the medical image set (400) refers to medical images acquired by the medical image acquisition unit (200) of FIG. 2, and may refer to OCT images of blood vessels or cardiovascular systems. Referring to FIG. 4, the 3D patch segmentation unit (401) performs part or all of the operations of the data preprocessing unit (202) of FIG. 2.

도 4를 참조하면, 인공지능 모델부(302)는, 복수 개의 스테이지부(402-1, 402-2, 402-3, … , 402-N)를 포함한다. 각 스테이지부는 이전 단계에서 도출된 특징 데이터나 패치들을 입력 받아 임베딩(embedding), 트랜스포머 블록 통과 및 차원 병합을 수행하여, 다음 스테이지부로 전달하거나 최종 FFR 값을 도출한다. 각 스테이지부(402-1, 402-2, 402-3, … , 402-N)는 임베딩부(402-1a, … , 402-Na) 트랜스포머 블록(402-1b, … , 402-Nb) 및 차원 병합부(402-1c, … , 402-Nc)를 포함한다. 임베딩부(402-1a, … , 402-Na) 트랜스포머 블록(402-1b, … , 402-Nb) 및 차원 병합부(402-1c, … , 402-Nc)는 각각 도 3에서 언급한 임베딩부(302a), 트랜스포머 블록(302b), 및 차원 병합부(302c)를 의미한다.Referring to FIG. 4, the artificial intelligence model unit (302) includes a plurality of stage units (402-1, 402-2, 402-3, …, 402-N). Each stage unit receives feature data or patches derived from a previous stage, performs embedding, transformer block passing, and dimension merging, and transfers the data to the next stage unit or derives a final FFR value. Each stage unit (402-1, 402-2, 402-3, …, 402-N) includes an embedding unit (402-1a, …, 402-Na), a transformer block (402-1b, …, 402-Nb), and a dimension merging unit (402-1c, …, 402-Nc). The embedding unit (402-1a, …, 402-Na), the transformer block (402-1b, …, 402-Nb), and the dimension merging unit (402-1c, …, 402-Nc) respectively refer to the embedding unit (302a), the transformer block (302b), and the dimension merging unit (302c) mentioned in Fig. 3.

도 5는 실시예들에 따른 트랜스포머 블록의 구체적인 구조를 나타낸 것이다.Figure 5 shows a specific structure of a transformer block according to embodiments.

도 5는 실시예들에 따른 트랜스포머 블록의 구체적인 구조를 나타낸 것이다. Figure 5 shows a specific structure of a transformer block according to embodiments.

트랜스포머 블록(50)은 도 2의 인공지능 모델부(203)에 포함될 수 있고, 도 3의 트랜스포머 블록(302b), 도 4의 트랜스포머 블록(402-1b, … , 402-Nb)을 의미한다.The transformer block (50) can be included in the artificial intelligence model section (203) of Fig. 2, and refers to the transformer block (302b) of Fig. 3 and the transformer blocks (402-1b, ..., 402-Nb) of Fig. 4.

트랜스포머 블록(50)은 제1멀티-헤드 자가 어텐션(multi-head self-attention) 모듈(500) 및 제2멀티-헤드 자가 어텐션 모듈(501)을 포함한다. 트랜스포머 블록(50)은 입력된 3차원 패치들 간의 관계를 학습하고, 이를 통해 출력 벡터 데이터를 생성한다.The transformer block (50) includes a first multi-head self-attention module (500) and a second multi-head self-attention module (501). The transformer block (50) learns relationships between input 3D patches and generates output vector data through this.

제1멀티-헤드 자가 어텐션 모듈(500)에 대해 설명한다. 제1멀티-헤드 자가 어텐션 모듈(500)은 제1레이어 정규화부(500a), 제1 3차원 멀티헤드 자가 어텐션부(500b), 제2레이어 정규화부(500c), 및 다중 인공신경망 레이어부(500d)를 포함한다. A first multi-head self-attention module (500) is described. The first multi-head self-attention module (500) includes a first layer normalization unit (500a), a first 3D multi-head self-attention unit (500b), a second layer normalization unit (500c), and a multi-artificial neural network layer unit (500d).

제1레이어 정규화부(500a)는 입력된 N/4 × H/4 × W/4 개의 C차원 벡터에 대해 정규화를 수행하여, 데이터의 분포를 조정한다. 이후, 제1레이어 정규화부(500a)에 의해 정규화된 벡터는 제1 3차원 멀티헤드 자가 어텐션부(500b)로 전달된다. 제1 3차원 멀티헤드 자가 어텐션부(500b)에서는 분할된 각 패치의 국부적인 공간적 관계(spatial relationship)를 학습한다. 예를 들어, 제1 3차원 멀티헤드 자가 어텐션부(500b)는 (4, 4, 4) 크기로 분할된 패치 간 3차원 어텐션 연산을 수행하여, 패치 간의 상호작용 정보를 포함하는 새로운 C차원 벡터를 생성한다.The first layer normalization unit (500a) performs normalization on the input N/4 × H/4 × W/4 C-dimensional vectors to adjust the distribution of the data. Thereafter, the vector normalized by the first layer normalization unit (500a) is transferred to the first 3-dimensional multi-head self-attention unit (500b). The first 3-dimensional multi-head self-attention unit (500b) learns the local spatial relationship of each segmented patch. For example, the first 3-dimensional multi-head self-attention unit (500b) performs a 3-dimensional attention operation between patches segmented into a size of (4, 4, 4) to generate a new C-dimensional vector including interaction information between the patches.

제2레이어 정규화부(500c)는 상기 생성된 벡터를 다시 정규화하며, 다중 인공신경망 레이어부(500d)로 전달한다. 다중 인공신경망 레이어부(500d)는 복수 개의 신경망 레이어들이 연결된 뉴럴 네트워크 모델일 수 있다. 인공신경망 레이어부(500d)는 바람직하게는 두 개의 피드 포워드 네트워크로 구성될 수 있으며, 비선형 활성화 함수와 드롭아웃(dropout) 등을 수행하는 모듈을 포함한다. The second layer normalization unit (500c) normalizes the generated vector again and transfers it to the multi-artificial neural network layer unit (500d). The multi-artificial neural network layer unit (500d) may be a neural network model in which multiple neural network layers are connected. The artificial neural network layer unit (500d) may preferably be composed of two feed-forward networks and includes a module that performs a nonlinear activation function and dropout, etc.

한편, 제1레이어 정규화부(500a)에서는 제1 3차원 멀티헤드 자가 어텐션부(500b) 및 다중 인공신경망 레이어부(500d)를 거친 후 기울기 손실 문제(Vanishing Gradient Problem)를 방지하기 위해, 잔차 연결(Residual connection)을 수행할 수 있다.Meanwhile, in the first layer normalization unit (500a), residual connection can be performed to prevent the vanishing gradient problem after passing through the first 3D multi-head self-attention unit (500b) and the multi-artificial neural network layer unit (500d).

제1멀티-헤드 자가 어텐션 모듈(500)을 통과하여 도출한 중간 출력 특징들을 다시 입력 받고, 중간 출력 특징을 시프트(shift)하여 제2멀티-헤드 자가 어텐션 모듈(501)을 통과한다. 제2멀티-헤드 자가 어텐션 모듈(501)은 다시, 제1레이어 정규화부(501a), 3차원 멀티-헤드 자가 어텐션부(501b), 제2레이어 정규화부(501c), 다중 인공신경망 레이어부(501d)를 통과한다. The intermediate output features derived by passing through the first multi-head self-attention module (500) are input again, and the intermediate output features are shifted and passed through the second multi-head self-attention module (501). The second multi-head self-attention module (501) again passes through the first layer normalization unit (501a), the three-dimensional multi-head self-attention unit (501b), the second layer normalization unit (501c), and the multiple artificial neural network layer unit (501d).

여기서, 제2멀티-헤드 자가 어텐션 모듈(501)에 포함된 제2 3차원 멀티-헤드 자가 어텐션부(501b)는 윈도우 이동(shift) 연산이 추가적으로 수행되어, 이전 단계에서 학습된 로컬 정보와 새로운 글로벌 문맥 정보를 결합한다. 즉, 제2 3차원 멀티 헤드 자가 어텐션부(501b)는, 제1 3차원 멀티 헤드 자가 어텐션부(500b)와 달리 윈도우 이동(shift) 연산이 추가적으로 수행된 결과를 바탕으로 멀티 헤드 자가 어텐션을 수행하는 구성이다.Here, the second 3D multi-head self-attention unit (501b) included in the second multi-head self-attention module (501) additionally performs a window shift operation to combine local information learned in the previous step with new global context information. That is, the second 3D multi-head self-attention unit (501b) is configured to perform multi-head self-attention based on the result of additionally performing a window shift operation, unlike the first 3D multi-head self-attention unit (500b).

이러한 구성으로 인해, 실시예들에 따른 트랜스포머 블록은 패치 간의 관계를 더욱 깊이 학습하게 할 수 있고, 전체 의료 이미지 세트 내에서 일관된 공간적 정보를 반영하는 C차원 출력 벡터를 생성할 수 있도록 돕는다.This configuration allows the transformer block according to the embodiments to learn the relationships between patches more deeply and helps generate C-dimensional output vectors that reflect consistent spatial information within the entire medical image set.

이후, 제2 레이어 정규화부(501c)에서 출력 벡터를 정규화하고, 다중 레이어부(501d)를 통해 최종 출력 벡터로 변환한다. 이 최종 출력 벡터는 이후 트랜스포머 블록에서 반복적으로 사용되거나, 최종 예측 단계로 전달된다.Thereafter, the output vector is normalized in the second layer normalization unit (501c) and converted into a final output vector through the multi-layer unit (501d). This final output vector is repeatedly used in the subsequent transformer block or passed to the final prediction step.

실시예들에 따른 시스템은, 이러한 구성으로 인해 의료 이미지 세트 내의 세밀한 특징부터 전체적인 문맥 정보까지 효과적으로 학습할 수 있게 하고, 이를 통해 복잡한 영상 데이터를 처리하고, 높은 정확도의 예측을 가능하게 한다.The system according to the embodiments enables effective learning from detailed features to overall contextual information within a medical image set due to this configuration, thereby processing complex image data and enabling high-accuracy prediction.

도 6은 실시예들에 따른 인공지능 모델부에 입력될 의료 영상 데이터의 구조를 나타낸 것이다.Figure 6 illustrates the structure of medical image data to be input into the artificial intelligence model unit according to embodiments.

구체적으로, 도 6은 실시예들에 따른 의료 영상 세트를 분할하는 방식을 나타낸다. 도 6(A)는 실시예들에 따른 의료 영상 세트를 일반적인 방식인 제1방식에 따라 분할하는 것을 나타낸 것이고, 도 6(B)는 실시예들에 따른 의료 영상 세트를 시프트(shift)하여 분할하는, 제2방식에 따라 분할하는 것을 나타낸 것이다.Specifically, FIG. 6 illustrates a method of dividing a medical image set according to embodiments. FIG. 6(A) illustrates dividing a medical image set according to embodiments according to a first method, which is a general method, and FIG. 6(B) illustrates dividing a medical image set according to embodiments according to a second method, which is a shifted method.

도 6에 나타난 동작들 일부 또는 전부는, 도 2의 데이터 전처리부(202) 및/또는 인공지능 모델부(203), 도 3의 3차원 패치 분할부(301) 및/또는 트랜스포머 블록(302b), 도 5의 제1 3차원 MSA부(500b), 및 제2 3차원 MSA부 (501b)에서 수행될 수 있다. 도 6(A) 및 도 6(B)는 의료 영상 세트를 분할하는 서로 다른 방식을 나타낸 것이다.Some or all of the operations shown in Fig. 6 may be performed in the data preprocessing unit (202) and/or the artificial intelligence model unit (203) of Fig. 2, the 3D patch segmentation unit (301) and/or the transformer block (302b) of Fig. 3, the first 3D MSA unit (500b) and the second 3D MSA unit (501b) of Fig. 5. Figs. 6(A) and 6(B) illustrate different methods of segmenting a medical image set.

한편, 도 6(A)에 나타난 동작은 도 5의 제1 3차원 MSA부(500b)에서 수행되고, 도 6(B)에 나타난 동작은 도 5의 재2 3차원 MSA부(501b)에서 수행될 수 있다. Meanwhile, the operation shown in Fig. 6(A) can be performed in the first 3D MSA section (500b) of Fig. 5, and the operation shown in Fig. 6(B) can be performed in the second 3D MSA section (501b) of Fig. 5.

예를 들어, 일 실시예에 따른 시스템은, 먼저 의료 영상 세트를 제1방식에 따라 분할한 제1패치 세트들을 각각 제1멀티-헤드 자가 어텐션 모듈(500)에 통과시켜, 분할된 제1패치 세트 내 패치들 간의 공간적 연관성(공간적 관계)를 도출할 수 있다. 이후, 실시예들에 따른 시스템은 다시 상기 의료 영상 세트를 제2방식에 따라 분할한 제2패치 세트들을 각각 제2멀티-헤드 자가 어텐션 모듈(501)에 통과시켜, 제2방식에 따라 분할된 제2패치 세트 내 패치들 간의 공간적 연관성(공간적 관계)를 도출할 수 있다.For example, according to one embodiment, the system may first pass each of the first patch sets, which are obtained by segmenting the medical image set according to the first method, through a first multi-head self-attention module (500), and derive spatial associations (spatial relationships) between patches in the segmented first patch set. Thereafter, the system according to the embodiments may again pass each of the second patch sets, which are obtained by segmenting the medical image set according to the second method, through a second multi-head self-attention module (501), and derive spatial associations (spatial relationships) between patches in the second patch set according to the second method.

또 예를 들어, 다른 실시예에 따른 시스템은, 먼저 의료 영상 세트를 제1방식에 따라 분할한 제1패치 세트들을 각각 제1멀티-헤드 자가 어텐션 모듈(500)에 통과시켜, 분할된 제1패치 세트 내 패치들 간의 공간적 연관성(공간적 관계)를 도출할 수 있다. 이후, 분할된 제1패치 세트 내 패치들 간의 공간적 연관성(공간적 관계) 데이터(즉, 패치의 개수만큼 구비된 C 차원의 중간 특징 벡터들)를 다시 제2방식에 따라 분할(즉, 시프트(shift))한 제2패치 세트들을 각각 제2멀티-헤드 자가 어텐션 모듈(501)에 통과시켜, 제2방식에 따라 분할된 제2패치 세트 내 패치들 간의 공간적 연관성(공간적 관계)를 도출할 수 있다.For example, according to another embodiment, the system may first pass the first patch sets, which are divided into a medical image set according to a first method, through a first multi-head self-attention module (500), so as to derive spatial correlations (spatial relationships) between patches in the divided first patch sets. Thereafter, the system may pass the second patch sets, which are divided (i.e., shifted) again according to a second method, through a second multi-head self-attention module (501), so as to derive spatial correlations (spatial relationships) between patches in the second patch sets, which are divided according to the second method, through a second multi-head self-attention module (501).

실시예들에 따른 시스템은, 서로 다른 방식에 따라 분할된 패치들을 트랜스포머 블록에 통과시킴으로써, 의료 영상 세트 내 기 정해진 패치들 간의 상관관계뿐 아니라 다른 방식으로 분할된 패치 간의 상관관계를 함께 고려하여, 글로벌 문맥 정보를 통합할 수 있게 하고, 입력된 패치 간의 관계를 효과적으로 학습하여 더욱 정교한 고차원 특징을 도출하게 한다.The system according to the embodiments integrates global context information by considering correlations between patches divided in different ways as well as correlations between predetermined patches in a medical image set by passing patches divided in different ways through a transformer block, and effectively learns relationships between input patches to derive more sophisticated high-dimensional features.

도 6(A)은, 실시예들에 따른 시스템이 의료 영상 세트로 구성된 블록(block)을 제1방식에 따라 분할하여 패치(600)들을 도출하는 실시예를 나타낸 것이다. 여기서, 제1방식은 블록의 최상단, 최측면 및 최초의 영상 프레임 (즉, (0, 0, 0)에 해당하는 위치)을 기준으로, 일정 간격의 너비, 폭, 프레임 수만큼을 포함하는 데이터를 1개의 패치(patch)로 정의하고, 상기와 같은 일정한 규격에 따라 분할하는 방식이다.FIG. 6(A) illustrates an example in which a system according to embodiments divides a block consisting of a medical image set according to a first method to derive patches (600). Here, the first method is a method in which data including a width, a height, and a number of frames at a certain interval are defined as one patch based on the top, the side, and the first image frame (i.e., the position corresponding to (0, 0, 0)) of the block, and the data is divided according to a certain standard as described above.

도 6(A)은, 실시예들에 따른 시스템은 의료 영상 세트를 제1방식에 따라 복수 개의 패치들로 분할하기 위해, 패치의 기본 단위 크기(즉, 1개의 패치의 너비, 폭, 프레임 수)를 결정한다. 패치의 기본 단위의 크기는 전체 의료 영상 세트의 너비, 폭 및 프레임 수를 정수로 나눈 값에 의해 결정될 수 있다. 바람직하게, 패치의 기본 단위의 크기는 전체 의료 영상 세트의 너비, 폭 및 프레임 수를 2의 거듭제곱(예를 들어, 8, 16 등)으로 나눈 값에 의해 결정될 수 있다. FIG. 6(A) illustrates a system according to embodiments, for dividing a medical image set into a plurality of patches according to a first method, determining a basic unit size of a patch (i.e., a width, a width, and a number of frames of one patch). The size of the basic unit of a patch may be determined by a value obtained by dividing the width, a width, and a number of frames of the entire medical image set by an integer. Preferably, the size of the basic unit of a patch may be determined by a value obtained by dividing the width, a width, and a number of frames of the entire medical image set by a power of 2 (e.g., 8, 16, etc.).

도 6(B)는, 실시예들에 따른 시스템이 의료 영상 세트로 구성된 블록(block)을 제2방식에 따라 분할하여 패치(601)들을 도출하는 실시예를 나타낸 것이다. 여기서, 제2방식은 제1방식에 의해 결정된 패치의 기본 단위의 크기를 유지하되, 패치의 시작 위치를 특정 너비, 특정 폭 및 특정 프레임 수만큼 시프트(shift)하여 포괄되는 의료 영상 세트의 부분을 추출하는 방식이다. FIG. 6(B) illustrates an embodiment in which a system according to embodiments divides a block consisting of a medical image set according to a second method to derive patches (601). Here, the second method is a method in which a portion of a medical image set is extracted by maintaining the size of a basic unit of a patch determined by the first method, but shifting the start position of the patch by a specific width, a specific width, and a specific number of frames.

도 6(B)는, 실시예들에 따른 시스템은 의료 영상 세트를 제2방식에 따라 복수 개의 패치들로 분할하기 위해, 패치의 기본 단위 크기(즉, 1개의 패치의 너비, 폭, 프레임 수)를 결정한다. 패치의 기본 단위의 크기는 전체 의료 영상 세트의 너비, 폭 및 프레임 수를 정수로 나눈 값에 의해 결정될 수 있다. 바람직하게, 패치의 기본 단위의 크기는 전체 의료 영상 세트의 너비, 폭 및 프레임 수를 2의 거듭제곱(예를 들어, 8, 16 등)으로 나눈 값에 의해 결정될 수 있다. FIG. 6(B) illustrates a system according to embodiments, for dividing a medical image set into a plurality of patches according to a second method, determining a basic unit size of a patch (i.e., a width, a width, and a number of frames of one patch). The size of the basic unit of a patch may be determined by a value obtained by dividing the width, a width, and a number of frames of the entire medical image set by an integer. Preferably, the size of the basic unit of a patch may be determined by a value obtained by dividing the width, a width, and a number of frames of the entire medical image set by a power of 2 (e.g., 8, 16, etc.).

또, 여기서 폭(width) 방향으로 시프트(shift)되는 정도(601a), 너비(height) 방향으로 시프트되는 정도(601b), 프레임(frame) 방향으로 시프트되는 정도(601c)는 전체 의료 영상 세트의 너비, 폭 및 프레임 수에 기초하여 결정될 수 있다.Additionally, the degree of shift in the width direction (601a), the degree of shift in the height direction (601b), and the degree of shift in the frame direction (601c) can be determined based on the width of the entire medical image set, the number of widths, and frames.

바람직하게, 폭 방향으로 시프트되는 정도(601a)는 상기 제1방식에 따라 분할된 패치의 기본 단위의 폭보다 작은 값일 수 있고, 더 바람직하게는 상기 제1방식에 따라 분할된 패치의 기본 단위의 폭의 1/2, 1/3, 1/4, … , 1/N 중 하나일 수 있다. 바람직하게, 너비 방향으로 시프트되는 정도(601b)는 상기 제1방식에 따라 분할된 패치의 기본 단위의 너비보다 작은 값일 수 있고, 더 바람직하게는 상기 제1방식에 따라 분할된 패치의 기본 단위의 너비의 1/2, 1/3, 1/4, … , 1/N 중 하나일 수 있다. 또 바람직하게, 프레임 방향으로 시프트되는 정도(601c)는 상기 제1방식에 따라 분할된 패치의 기본 단위의 프레임 수보다 작은 값일 수 있다.Preferably, the degree of shifting in the width direction (601a) may be a value smaller than the width of the basic unit of the patch divided according to the first method, and more preferably may be one of 1/2, 1/3, 1/4, ..., 1/N of the width of the basic unit of the patch divided according to the first method. Preferably, the degree of shifting in the width direction (601b) may be a value smaller than the width of the basic unit of the patch divided according to the first method, and more preferably may be one of 1/2, 1/3, 1/4, ..., 1/N of the width of the basic unit of the patch divided according to the first method. Also preferably, the degree of shifting in the frame direction (601c) may be a value smaller than the number of frames of the basic unit of the patch divided according to the first method.

가장 바람직하게, 폭 방향으로 시프트되는 정도(601a)는 상기 제1방식에 따라 분할된 패치의 기본 단위의 폭의 1/3 또는 2/3이다. 또 가장 바람직하게, 너비 방향으로 시프트되는 정도(601b)는 상기 제1방식에 따라 분할된 패치의 기본 단위의 너비의 1/3 또는 2/3이다. 또 가장 바람직하게, 프레임 방향으로 시프트되는 정도(601c)는 상기 제1방식에 따라 분할된 패치의 기본 단위의 프레임 수의 1/2이다.Most preferably, the degree of shifting in the width direction (601a) is 1/3 or 2/3 of the width of the basic unit of the patch divided according to the first method. Also most preferably, the degree of shifting in the width direction (601b) is 1/3 or 2/3 of the width of the basic unit of the patch divided according to the first method. Also most preferably, the degree of shifting in the frame direction (601c) is 1/2 of the number of frames of the basic unit of the patch divided according to the first method.

도 7은 실시예들에 따른 인공지능 모델부에 입력될 의료 영상 데이터의 가장 바람직한 구조 및 가장 바람직한 데이터 구조를 생성하기 위한 방법을 나타낸 것이다.FIG. 7 illustrates the most desirable structure of medical image data to be input into an artificial intelligence model unit according to embodiments and a method for generating the most desirable data structure.

구체적으로, 도 7은 실시예들에 따른 의료 영상 세트가 제1방식에 따라 분할되는 실시예(도 7(A))와 제2방식에 따라 분할되는 실시예(도 7(B))의 가장 바람직한 예시를 나타낸 것이다.Specifically, FIG. 7 illustrates the most preferred examples of an embodiment in which a medical image set according to embodiments is divided according to the first method (FIG. 7(A)) and an embodiment in which the medical image set is divided according to the second method (FIG. 7(B)).

가장 바람직한 의료 영상 세트는 특정 혈관의 근위부(proximal)에서 말단 끝(distal end)까지의 구간에 대한 의료 영상(OCT 영상)을 포함하고, 각 의료 영상은 영상 카테터(imaging catheter)가 풀백(pullback) 동작 과정에서 촬영된 영상들이다. 또, 가장 바람직한 의료 영상 세트의 크기는 다음과 같다. 가장 바람직한 의료 영상 세트 내 각 영상의 크기는 128 X 128 픽셀(즉, W=512, H=512)이다. 또, 가장 바람직한 의료 영상 세트 내 영상 프레임 수는 128이다. 즉, 실시예들에 따른 시스템은, 의료 영상 세트를 사이즈 재조정(resize)하여 (N, W, H) = (128, 128, 128)인 의료 영상 세트로 가공한다.The most desirable medical image set includes medical images (OCT images) of a section from a proximal end to a distal end of a specific blood vessel, and each medical image is an image captured during a pullback operation of an imaging catheter. In addition, the size of the most desirable medical image set is as follows. The size of each image in the most desirable medical image set is 128 X 128 pixels (i.e., W=512, H=512). In addition, the number of image frames in the most desirable medical image set is 128. That is, the system according to the embodiments resizes the medical image set to a medical image set of (N, W, H) = (128, 128, 128).

실시예들에 따른 시스템(특히 실시예들에 따른 데이터 전처리부 등)은, (N, W, H) = (128, 128, 128)로 규격화함으로써, 트렌스포머 모듈들의 가장 적합한 연산 속도를 유지할 수 있게 한다.The system according to the embodiments (in particular, the data preprocessing unit according to the embodiments) can maintain the most suitable operation speed of the transformer modules by standardizing (N, W, H) = (128, 128, 128).

예를 들어, 실시예들에 따른 시스템(특히 실시예들에 따른 데이터 전처리부 등)은, 의료 영상 세트를 실시예들에 따른 인공지능 모델부로 입력하기 앞서, 각 의료 영상(OCT 영상)을 128 X 128 크기로 크기 조정(resize)할 수 있다. 예를 들어, 실시예들에 따른 시스템은, 각 의료 영상(OCT 영상)이 512 X 512 크기로 구성된 경우 이들을 128 X 128 크기로 크기 조정한다. For example, the system according to the embodiments (in particular, the data preprocessing unit according to the embodiments, etc.) may resize each medical image (OCT image) to a size of 128 X 128 before inputting the medical image set to the artificial intelligence model unit according to the embodiments. For example, the system according to the embodiments may resize each medical image (OCT image) to a size of 128 X 128 when each medical image (OCT image) is configured to a size of 512 X 512.

또, 실시예들에 따른 시스템(특히 실시예들에 따른 데이터 전처리부 등)은, 의료 영상 세트를 실시예들에 따른 인공지능 모델부로 입력하기 앞서, 영상 프레임 수를 128으로 조정할 수 있다. 즉, 의료 영상 세트 내 프레임 수가 128장 이상인 경우, 이들 중 128장을 골고루 선택할 수 있으며, 만약 128장 이하인 경우 이들 중 일부를 복제하여 128장으로 생성할 수 있다. In addition, the system according to the embodiments (particularly, the data preprocessing unit according to the embodiments, etc.) may adjust the number of image frames to 128 before inputting the medical image set into the artificial intelligence model unit according to the embodiments. That is, if the number of frames in the medical image set is 128 or more, 128 of them may be evenly selected, and if the number of frames is 128 or less, some of them may be duplicated to generate 128 frames.

또, 실시예들에 따른 시스템(특히 실시예들에 따른 데이터 전처리부 등)은, 의료 영상 세트 내 프레임 수가 256장 이상인 경우, 이들 중 256장을 골고루 선택할 수 있고, 선택된 256장 중 홀수 번째 프레임 또는 짝수 번째 프레임만 선택하여 128장을 선택할 수 있다.In addition, the system according to the embodiments (in particular, the data preprocessing unit according to the embodiments) can evenly select 256 frames among the medical image set when the number of frames in the medical image set is 256 or more, and select 128 frames by selecting only odd-numbered frames or even-numbered frames among the selected 256 frames.

도 7(A) 및 도 7(B)는 가장 바람직한 방법에 따라 분할된 패치의 예시를 나타낸다. Figures 7(A) and 7(B) show examples of patches segmented according to the most preferred method.

먼저 실시예들에 따른 시스템은, 제1스테이지(1st stage)를 수행한다. 이는, 도 4에 나타난 제1스테이지부(402-1)에 의해 수행되며, 구체적인 동작은 다음과 같다. First, the system according to the embodiments performs the first stage (1 st stage). This is performed by the first stage unit (402-1) shown in Fig. 4, and the specific operation is as follows.

도 7(A)와 같이 상기 제1방식에 의해 의료 영상 세트를 (N, W, H) = (4, 4, 4) 크기의 패치로 분할(700a)하여, 32768개(32*32*32개)의 패치들을 도출한다. 여기서, 각 패치(700a)들은 서로 겹치치 않도록 한다. 이후, 실시예들에 따른 시스템은, 패치(700a)들 각각을 제1멀티-헤드 자가 어텐션 모듈을 통과시켜, 각 패치마다 그 내부에 포함된 픽셀들 간의 국소적인 공간적 관계를 도출한다. As shown in Fig. 7(A), a medical image set is divided (700a) into patches of size (N, W, H) = (4, 4, 4) by the first method, thereby deriving 32768 (32*32*32) patches. Here, each patch (700a) is made not to overlap with each other. Thereafter, the system according to the embodiments passes each of the patches (700a) through a first multi-head self-attention module, thereby deriving a local spatial relationship between pixels included in each patch.

다음으로 실시예들에 따른 시스템은, 도 7(B)와 같이 먼저 상기 제2방식에 의해 의료 영상 세트들 (또는, 제1멀티-헤드 자가 어텐션 모듈을 통과하여 도출된 32768개의 중간 특징 데이터들)를 시프트(shift)하여 (N, W, H) = (4, 4, 4) 크기의 새로운 패치를 생성한다. 여기서, 시프트(shift)란, 도 7(B)와 같이 의료 영상 세트의 일부 영역을 이동(702a, 702b, 702c)시키는 것을 의미하고, 실시예들에 따른 시스템은, 이동시켜 생성된 영상(701)을 기분으로 다시 제1방식에 따라 분할한다. 여기서, 각 패치들은 서로 겹치치 않도록 한다. 이후, 실시예들에 따른 시스템은, 패치들 각각을 제2멀티-헤드 자가 어텐션 모듈을 통과시켜, 새로운 패치마다 그 내부에 포함된 픽셀들 간의 국소적인 공간적 관계(최종 특징 데이터들)를 도출한다. Next, the system according to the embodiments shifts the medical image sets (or, 32768 intermediate feature data derived by passing through the first multi-head self-attention module) by the second method as shown in Fig. 7(B) to generate a new patch having the size of (N, W, H) = (4, 4, 4). Here, the shift means moving (702a, 702b, 702c) a part of the medical image set as shown in Fig. 7(B), and the system according to the embodiments divides the image (701) generated by moving again according to the first method. Here, the individual patches are made not to overlap each other. Thereafter, the system according to the embodiments passes each of the patches through the second multi-head self-attention module to derive the local spatial relationship (final feature data) between the pixels included in each new patch.

여기서, 가장 바람직하게 폭 방향으로 시프트되는 정도(601a)는 상기 제1방식에 따라 분할된 패치의 기본 단위의 폭의 1/3 또는 2/3이다. 또 가장 바람직하게, 너비 방향으로 시프트되는 정도(601b)는 상기 제1방식에 따라 분할된 패치의 기본 단위의 너비의 1/3 또는 2/3이다. 또 가장 바람직하게, 프레임 방향으로 시프트되는 정도(601c)는 상기 제1방식에 따라 분할된 패치의 기본 단위의 프레임 수의 1/2이다.Here, the degree of shifting in the width direction (601a) is most preferably 1/3 or 2/3 of the width of the basic unit of the patch divided according to the first method. Also, most preferably, the degree of shifting in the width direction (601b) is 1/3 or 2/3 of the width of the basic unit of the patch divided according to the first method. Also, most preferably, the degree of shifting in the frame direction (601c) is 1/2 of the number of frames of the basic unit of the patch divided according to the first method.

이후 실시예들에 따른 시스템은, 제2멀티-헤드 자가 어텐션 모듈을 통과시켜 도출한 최종 특징 데이터들 내에서, 서로 인접한 8개(너비 방향으로 인접한 2개의 패치, 높이 방향으로 인접한 2개의 패치, 프레임 방향으로 인접한 2개의 패치)의 최종 특징 데이터들을 병합(merge)(700b)한다. 이는 즉, 실시예들에 따른 시스템은, 최종 특징 데이터들 내에서, 인접한 C 차원의 최종 특징 데이터 32768개를 8개 단위로 접합(concatenate)하여 8C 차원의 접합된 4096개의 특징 데이터들을 다시 C 차원의 특징 데이터로 임베딩(embedding)한 결과이다. 또 이는 곧, (N, W, H) = (8, 8, 8) 크기의 패치로 분할된 결과이며, 4096개(16*16*16개)의 병합된 패치들로 설명된다.In the following embodiments, the system merges (700b) eight adjacent final feature data (two adjacent patches in the width direction, two adjacent patches in the height direction, and two adjacent patches in the frame direction) within the final feature data derived by passing the second multi-head self-attention module. That is, the system according to the embodiments concatenates 32768 adjacent C-dimensional final feature data into eight units within the final feature data, and embeds 4096 concatenated feature data of the 8C dimensions back into the C-dimensional feature data. In addition, this is the result of dividing into patches of the size of (N, W, H) = (8, 8, 8) and is explained by 4096 (16*16*16) merged patches.

이후 실시예들에 따른 시스템은, 국소적인 공간적 관계(최종 특징 데이터들)를 제1스테이지의 트랜스포머 블록(402-1b)에 포함된 인공신경망 레이어들을 통과시켜, 제2스테이지에 입력할 4096개(16*16*16개)의 최종 특징 데이터들을 도출한다.The system according to the following embodiments passes the local spatial relationship (final feature data) through the artificial neural network layers included in the transformer block (402-1b) of the first stage, thereby deriving 4096 (16*16*16) final feature data to be input to the second stage.

이후 실시예들에 따른 시스템은, 제2스테이지(2nd stage)를 수행한다. 이는, 도 4에 나타난 제2스테이지부(402-2)에 의해 수행되며, 구체적인 동작은 다음과 같다.The system according to the following embodiments performs the second stage. This is performed by the second stage unit (402-2) shown in Fig. 4, and the specific operation is as follows.

우선, (N, W, H) = (8, 8, 8) 크기의 패치로 분할된 4096개(16*16*16개)의 패치들을 도출한다. 여기서, 각 패치들은 서로 겹치치 않는다. 실시예들에 따른 패치들 각각을 제1멀티-헤드 자가 어텐션 모듈을 통과시켜, 각 패치마다 그 내부에 포함된 픽셀들 간의 국소적인 공간적 관계를 도출한다. First, 4096 (16*16*16) patches are derived, which are divided into patches of the size of (N, W, H) = (8, 8, 8). Here, each patch does not overlap with each other. Each patch according to the embodiments is passed through the first multi-head self-attention module, and the local spatial relationship between the pixels included in each patch is derived.

다음으로 실시예들에 따른 시스템은, 도 7(B)와 같이 먼저 상기 제2방식에 의해 의료 영상 세트들 (또는, 제1멀티-헤드 자가 어텐션 모듈을 통과하여 도출된 4096개의 중간 특징 데이터들)를 시프트(shift)하여 (N, W, H) = (8, 8, 8) 크기의 새로운 패치를 생성한다. 이후, 실시예들에 따른 시스템은, 패치들 각각을 제2멀티-헤드 자가 어텐션 모듈을 통과시켜, 새로운 패치마다 그 내부에 포함된 픽셀들 간의 국소적인 공간적 관계(최종 특징 데이터들)를 도출한다. Next, the system according to the embodiments shifts the medical image sets (or, 4096 intermediate feature data derived by passing through the first multi-head self-attention module) by the second method as shown in Fig. 7(B) to generate a new patch of the size of (N, W, H) = (8, 8, 8). Thereafter, the system according to the embodiments passes each of the patches through the second multi-head self-attention module to derive local spatial relationships (final feature data) between pixels included in each new patch.

이후 실시예들에 따른 시스템은, 제2멀티-헤드 자가 어텐션 모듈을 통과시켜 도출한 최종 특징 데이터들 내에서, 서로 인접한 8개(너비 방향으로 인접한 2개의 패치, 높이 방향으로 인접한 2개의 패치, 프레임 방향으로 인접한 2개의 패치)의 최종 특징 데이터들을 병합(merge)(700b)한다. 이는 즉, 실시예들에 따른 시스템은, 최종 특징 데이터들 내에서, 인접한 C 차원의 최종 특징 데이터 4096개를 8개 단위로 접합(concatenate)하여 8C 차원의 접합된 512개의 특징 데이터들을 2C 차원의 특징 데이터로 임베딩(embedding)한 결과이다. 여기서, 제2스테이지를 수행함에 있어 임베딩되는 상기 특징 데이터의 차원 수는 제1스테이지를 수행함에 있어 임베딩되는 상기 특징 데이터의 차원 수보다 클 수 있고, 바람직하게는 2배가 될 수 있다. 이는 곧, (N, W, H) = (16, 16, 16) 크기의 패치로 분할된 결과이며, 512개(8*8*8개)의 병합된 패치들로 설명된다.The system according to the embodiments herein merges (700b) eight adjacent final feature data (two adjacent patches in the width direction, two adjacent patches in the height direction, and two adjacent patches in the frame direction) within the final feature data derived by passing the data through the second multi-head self-attention module. That is, the system according to the embodiments concatenates 4096 adjacent C-dimensional final feature data into eight units within the final feature data, and embeds 512 concatenated feature data of 8C dimensions into 2C-dimensional feature data. Here, the number of dimensions of the feature data embedded in performing the second stage may be greater than the number of dimensions of the feature data embedded in performing the first stage, and preferably may be twice as large. This is the result of splitting into patches of size (N, W, H) = (16, 16, 16) and is explained by 512 (8*8*8) merged patches.

이후 실시예들에 따른 시스템은, 국소적인 공간적 관계(최종 특징 데이터들)를 제2스테이지의 트랜스포머 블록(402-2b)에 포함된 인공신경망 레이어들을 통과시켜, 제3스테이지에 입력할 512개(8*8*8개)의 최종 특징 데이터들을 도출한다.The system according to the following embodiments passes the local spatial relationship (final feature data) through the artificial neural network layers included in the transformer block (402-2b) of the second stage, thereby deriving 512 (8*8*8) final feature data to be input to the third stage.

이후 실시예들에 따른 시스템은, 제3스테이지(3nd stage)를 수행한다. 이는, 도 4에 나타난 제3스테이지부(402-3)에 의해 수행되며, 구체적인 동작은 다음과 같다.The system according to the following embodiments performs the third stage. This is performed by the third stage unit (402-3) shown in Fig. 4, and the specific operation is as follows.

(N, W, H) = (16, 16, 16) 크기의 패치로 분할된 512개(8*8*8개)의 패치들을 도출한다. 실시예들에 따른 패치들 각각을 제1멀티-헤드 자가 어텐션 모듈을 통과시켜, 각 패치마다 그 내부에 포함된 픽셀들 간의 국소적인 공간적 관계를 도출한다. (N, W, H) = 512 (8*8*8) patches are derived, each of which is divided into patches of (16, 16, 16) size. Each of the patches according to the embodiments is passed through the first multi-head self-attention module, and the local spatial relationship between the pixels included in each patch is derived.

다음으로 실시예들에 따른 시스템은, 도 7(B)와 같이 먼저 상기 제2방식에 의해 의료 영상 세트들 (또는, 제1멀티-헤드 자가 어텐션 모듈을 통과하여 도출된 2048개의 중간 특징 데이터들)를 시프트(shift)하여 (N, W, H) = (16, 16, 16) 크기의 새로운 패치를 생성한다. 이후, 실시예들에 따른 시스템은, 패치들 각각을 제2멀티-헤드 자가 어텐션 모듈을 통과시켜, 새로운 패치마다 그 내부에 포함된 픽셀들 간의 국소적인 공간적 관계(최종 특징 데이터들)를 도출한다. Next, the system according to the embodiments first shifts the medical image sets (or, 2048 intermediate feature data derived by passing through the first multi-head self-attention module) by the second method as shown in Fig. 7(B) to generate a new patch of the size of (N, W, H) = (16, 16, 16). Thereafter, the system according to the embodiments passes each of the patches through the second multi-head self-attention module to derive local spatial relationships (final feature data) between pixels included in each new patch.

이후 실시예들에 따른 시스템은, 제2멀티-헤드 자가 어텐션 모듈을 통과시켜 도출한 최종 특징 데이터들 내에서, 서로 인접한 8개(너비 방향으로 인접한 2개의 패치, 높이 방향으로 인접한 2개의 패치, 프레임 방향으로 인접한 2개의 패치)의 최종 특징 데이터들을 병합(merge)(700b)한다. 이는 즉, 실시예들에 따른 시스템은, 최종 특징 데이터들 내에서, 인접한 2C 차원의 최종 특징 데이터 512개를 8개 단위로 접합(concatenate)하여 16C 차원의 접합된 64개의 특징 데이터들을 4C 차원의 특징 데이터로 임베딩(embedding)한 결과이다. 또 이는 곧, (N, W, H) = (32, 32, 32) 크기의 패치로 분할된 결과이며, 64개(4*4*4개)의 병합된 패치들로 설명된다.In the following embodiments, the system merges (700b) eight adjacent final feature data (two adjacent patches in the width direction, two adjacent patches in the height direction, and two adjacent patches in the frame direction) within the final feature data derived by passing them through the second multi-head self-attention module. That is, the system according to the embodiments is the result of embedding 64 concatenated feature data of 16C dimensions into 4C dimension feature data by concatenating 512 adjacent final feature data of 2C dimensions into eight units within the final feature data. In addition, this is the result of dividing into patches of the size of (N, W, H) = (32, 32, 32) and is explained by 64 (4*4*4) merged patches.

이후 실시예들에 따른 시스템은, 국소적인 공간적 관계(최종 특징 데이터들)를 제3스테이지의 트랜스포머 블록(402-3b)에 포함된 인공신경망 레이어들을 통과시켜, 제4스테이지에 입력할 64개(4*4*4개)의 최종 특징 데이터들을 도출한다.The system according to the following embodiments passes the local spatial relationship (final feature data) through the artificial neural network layers included in the transformer block (402-3b) of the third stage, thereby deriving 64 (4*4*4) final feature data to be input to the fourth stage.

이후 실시예들에 따른 시스템은, 마지막 스테이지인 제4스테이지(4th stage)를 수행한다. 이는, 도 4에 나타난 제4스테이지부(402-4)에 의해 수행되며, 마지막 스테이지로서 구체적인 동작은 다음과 같다.The system according to the following embodiments performs the fourth stage, which is the last stage. This is performed by the fourth stage unit (402-4) shown in Fig. 4, and the specific operation of the last stage is as follows.

(N, W, H) = (32, 32, 32) 크기의 패치로 분할된 64개(4*4*4개)의 패치들을 도출한다. 실시예들에 따른 패치들 각각을 제1멀티-헤드 자가 어텐션 모듈을 통과시켜, 각 패치마다 그 내부에 포함된 픽셀들 간의 국소적인 공간적 관계를 도출한다. (N, W, H) = 64 (4*4*4) patches divided into patches of size (32, 32, 32) are derived. Each of the patches according to the embodiments is passed through the first multi-head self-attention module, and the local spatial relationship between the pixels included in each patch is derived.

다음으로 실시예들에 따른 시스템은, 도 7(B)와 같이 먼저 상기 제2방식에 의해 의료 영상 세트들 (또는, 제1멀티-헤드 자가 어텐션 모듈을 통과하여 도출된 64개의 중간 특징 데이터들)를 시프트(shift)하여 (N, W, H) = (32, 32, 32) 크기의 새로운 패치를 생성한다. 이후, 실시예들에 따른 시스템은, 패치들 각각을 제2멀티-헤드 자가 어텐션 모듈을 통과시켜, 새로운 패치마다 그 내부에 포함된 픽셀들 간의 국소적인 공간적 관계(최종 특징 데이터들)를 도출한다. Next, the system according to the embodiments shifts the medical image sets (or, 64 intermediate feature data derived by passing through the first multi-head self-attention module) by the second method as shown in Fig. 7(B) to generate a new patch of the size of (N, W, H) = (32, 32, 32). Thereafter, the system according to the embodiments passes each of the patches through the second multi-head self-attention module to derive local spatial relationships (final feature data) between pixels included in each new patch.

실시예들에 따른 시스템은, 국소적인 공간적 관계(최종 특징 데이터들)를 제4스테이지의 트랜스포머 블록(402-4b)에 포함된 인공신경망 레이어들을 통과시켜, 하나의 FFR 값을 도출한다.The system according to the embodiments passes local spatial relationships (final feature data) through artificial neural network layers included in the transformer block (402-4b) of the fourth stage to derive one FFR value.

실시예들에 따른 시스템은, 이러한 구성으로 인해 의료 이미지 세트 내의 세밀한 특징부터 전체적인 문맥 정보까지 효과적으로 학습할 수 있게 하고, 이를 통해 복잡한 영상 데이터를 처리하고, 높은 정확도의 예측을 가능하게 한다.The system according to the embodiments enables effective learning from detailed features to overall contextual information within a medical image set due to this configuration, thereby processing complex image data and enabling high-accuracy prediction.

실시예들에 따른 시스템은, 서로 다른 방식에 따라 분할된 패치들을 트랜스포머 블록에 통과시킴으로써, 의료 영상 세트 내 기 정해진 패치들 간의 상관관계뿐 아니라 다른 방식으로 분할된 패치 간의 상관관계를 함께 고려하여, 글로벌 문맥 정보를 통합할 수 있게 하고, 입력된 패치 간의 관계를 효과적으로 학습하여 더욱 정교한 고차원 특징을 도출하게 한다.The system according to the embodiments integrates global context information by considering correlations between patches divided in different ways as well as correlations between predetermined patches in a medical image set by passing patches divided in different ways through a transformer block, and effectively learns relationships between input patches to derive more sophisticated high-dimensional features.

실시예들에 따른 시스템은, (N, W, H) = (128, 128, 128)로 규격화함으로써, 트렌스포머 모듈들의 가장 적합한 연산 속도를 유지할 수 있게 한다.The system according to the embodiments maintains the most suitable computational speed of the transformer modules by normalizing (N, W, H) = (128, 128, 128).

도 8은 실시예들에 따른 혈관 의료 영상 분석 장치가 사용자에게 제공하는 인터페이스 또는 소프트웨어의 화면의 예시를 나타낸다.FIG. 8 illustrates an example of a screen of an interface or software provided to a user by a vascular medical image analysis device according to embodiments.

도 8을 참조하면, 실시예들에 따른 혈관 의료 영상 분석 장치는 사용자 단말에 다양한 기능을 제공하는 소프트웨어를 사용자 인터페이스를 통하여 제공되며, 도 8에 나타난 화면은 사용자의 단말에 표시되는 UI의 예시를 나타낸다. 도 8에 나타난 소프트웨어는 사용자가 혈관 영상을 효과적으로 분석하고 진단에 활용할 수 있도록 돕는다.Referring to FIG. 8, the vascular medical image analysis device according to the embodiments provides software that provides various functions to a user terminal through a user interface, and the screen shown in FIG. 8 shows an example of a UI displayed on a user terminal. The software shown in FIG. 8 helps the user to effectively analyze vascular images and utilize them for diagnosis.

도 8에 도시된 이미지(또는 UI)는 도 1의 사용자 또는 의료진(106)의 단말 장치(105)에 설치된 소프트웨어를 통해 표시될 수 있다.The image (or UI) illustrated in Fig. 8 can be displayed through software installed in the terminal device (105) of the user or medical staff (106) of Fig. 1.

도 8을 참조하면, 800은 사용자 단말에 나타나는 소프트웨어의 메인 인터페이스를 나타낸다. 메인 인터페이스(800)는 레이어를 설정하고 편집하기 위한 제1컴포넌트(801), 의료 영상을 표시하는 제2컴포넌트(802), 혈관의 종단면을 나타내는 제3컴포넌트(803) 및 의료 영상 세트에 대한 서지적 정보를 표시하는 영역인 제4컴포넌트(804)를 포함한다. Referring to FIG. 8, 800 represents a main interface of software that appears on a user terminal. The main interface (800) includes a first component (801) for setting and editing layers, a second component (802) for displaying a medical image, a third component (803) for displaying a cross-section of a blood vessel, and a fourth component (804) which is an area for displaying bibliographic information about a set of medical images.

제1컴포넌트(801)는 의료 영상 내 하나 이상의 레이어(layer)(802a)들을 표시하거나 편집할 수 있도록 구성된 컴포넌트이다. 제1컴포넌트(801)는 각 레이어(802a)를 가시화하거나 불투명 또는 투명하게 표시하도록 설정할 수 있는 하나 이상의 세부 인터페이스들을 포함할 수 있다. 제1컴포넌트(801)는 사용자가 의료 영상에서 관심 있는 특정 레이어(802a)(예: 루멘, 스텐트, 플라크, 석회화, 분기 혈관 등)를 선택하고 표시하거나 숨길 수 있는 기능을 제공한다. The first component (801) is a component configured to display or edit one or more layers (802a) in a medical image. The first component (801) may include one or more detailed interfaces that can set each layer (802a) to be visible or displayed opaquely or transparently. The first component (801) provides a function that allows a user to select and display or hide a specific layer (802a) of interest (e.g., lumen, stent, plaque, calcification, branch vessel, etc.) in a medical image.

제2컴포넌트(802)는 실제로 촬영된 환자의 의료 영상과 의료 영상 위에 오버레이(overlay)되는 하나 이상의 레이어(802a)를 표시하는 영역을 나타낸다. 이 영역에서는 선택된 레이어가 반투명하게 오버레이(중첩)되어 강조되어 표시될 수 있다. 예를 들어, 802a가 지칭하는 레이어는 사용자가 선택한 특정 레이어로 실시예들에 따른 혈관 의료 영상 분석 장치가 탐지한 오브젝트 나타내는 영역에 대응된다. The second component (802) represents an area that displays an actually captured medical image of a patient and one or more layers (802a) that are overlaid on the medical image. In this area, a selected layer can be highlighted and displayed as a translucent overlay. For example, the layer indicated by 802a corresponds to an area that represents an object detected by a vascular medical image analysis device according to embodiments as a specific layer selected by a user.

제3컴포넌트(803)는 혈관을 종단면으로 나타낸 이미지(맵)를 나타낸다. 제3컴포넌트(803)는 혈관의 전체 길이를 따라 횡단면 영상을 시각적으로 나타낸다. 이 때, 사용자가 제3컴포넌트(803) 내 특정 위치를 클릭(803a)할 경우, 실시예들에 따른 장치(사용자의 단말 장치 또는 혈관 의료 영상 분석 장치 등)는 그 위치에 해당하는 횡단면 영상을 제2컴포넌트(802)에 표시할 수 있다. 이 때에도, 횡단면 영상 내 선택된 특정 영역들이 반투명 레이어로 표시된다.The third component (803) represents an image (map) that represents a cross-sectional view of a blood vessel. The third component (803) visually represents a cross-sectional image along the entire length of the blood vessel. At this time, when a user clicks (803a) a specific location within the third component (803), a device according to the embodiments (such as a user's terminal device or a vascular medical image analysis device) can display a cross-sectional image corresponding to that location on the second component (802). At this time as well, selected specific areas within the cross-sectional image are displayed as a semitransparent layer.

제4컴포넌트(804)는 의료 영상 세트에 대한 서지적 정보를 표시하는 영역으로, 인터페이스 또는 소프트웨어의 화면 내 위치한다. 제4컴포넌트(804)는 제1컴포넌트(801) 내지 제3컴포넌트(803) 내 하위 컴포넌트로 위치할 수도 있으며, 제1컴포넌트(801) 내지 제3컴포넌트(803)와 별도로 위치할 수도 있다.The fourth component (804) is an area that displays bibliographic information about a set of medical images and is located within a screen of an interface or software. The fourth component (804) may be located as a subcomponent within the first component (801) to the third component (803), or may be located separately from the first component (801) to the third component (803).

제4컴포넌트(804)는 도 1 내지 도 7에서 설명한 실시예들에 따라 예측된 분기혈류예비력(FFR)의 값을 표시하는 영역이다.The fourth component (804) is an area that displays the value of the predicted branch flow reserve (FFR) according to the embodiments described in FIGS. 1 to 7.

이러한 구성으로 인해, 실시예들에 따른 혈관 의료 영상 분석 장치는 사용자가 OCT 영상을 직관적으로 분석할 수 있도록 돕고, 관심 영역을 쉽게 식별하여 진단과 치료 계획을 세우는 데 유용한 기능을 제공한다. 또한, 사용자가 특정 위치를 선택하여 상세한 횡단면 영상을 확인할 수 있어, 보다 정확한 분석을 가능하게 한다.Due to this configuration, the vascular medical image analysis device according to the embodiments helps the user to intuitively analyze the OCT image and provides a useful function for easily identifying the area of interest to establish a diagnosis and treatment plan. In addition, the user can select a specific location to check a detailed cross-sectional image, thereby enabling more accurate analysis.

도 9는 실시예들에 따른 혈관 의료 영상 분석 장치가 사용자에게 제공하는 인터페이스 또는 소프트웨어의 화면의 다른 예시를 나타낸다.FIG. 9 illustrates another example of a screen of an interface or software provided to a user by a vascular medical image analysis device according to embodiments.

도 9를 참조하면, 실시예들에 따른 혈관 의료 영상 분석 장치는 사용자가 OCT 영상을 확인하고 분석할 수 있도록 구성된 소프트웨어의 UI/UX를 나타낸 것이다.Referring to FIG. 9, the vascular medical image analysis device according to the embodiments illustrates the UI/UX of software configured to enable a user to check and analyze OCT images.

도 9에 도시된 이미지(또는 UI)는 도 1의 사용자 또는 의료진(106)의 단말 장치(105)에 설치된 소프트웨어를 통해 표시될 수 있다.The image (or UI) illustrated in Fig. 9 can be displayed through software installed in the terminal device (105) of the user or medical staff (106) of Fig. 1.

도 9를 참조하면 900은 사용자 단말에 나타나는 소프트웨어의 메인 인터페이스를 나타낸다. 메인 인터페이스(900)은 레이어를 설정하고 편집하기 위한 제1컴포넌트(901), 혈관의 특정 위치에 대한 OCT 영상을 표시하는 제2컴포넌트(902), 혈관의 종단면을 나타내는 제3컴포넌트(906), 의료 영상 세트에 대한 서지적 정보를 표시하는 영역인 제4컴포넌트(908)를 포함한다. 제1컴포넌트(901), 제2컴포넌트(902), 제3컴포넌트(906) 및 제4컴포넌트(908)는 각각 도 9에서 설명한 제1컴포넌트(801), 제2컴포넌트(802), 제3컴포넌트(803) 및 제4컴포넌트(804)를 의미할 수 있다.Referring to FIG. 9, 900 represents a main interface of software that appears on a user terminal. The main interface (900) includes a first component (901) for setting and editing layers, a second component (902) for displaying an OCT image for a specific location of a blood vessel, a third component (906) for displaying a cross-section of the blood vessel, and a fourth component (908) which is an area for displaying bibliographic information for a medical image set. The first component (901), the second component (902), the third component (906), and the fourth component (908) may respectively refer to the first component (801), the second component (802), the third component (803), and the fourth component (804) described in FIG. 9.

한편, 실시예들에 따른 메인 인터페이스(900)는 혈관의 특정 위치에 대한 다른 포멧의 영상(예를 들어, FLIm(Fluorescence Lifetime) 영상)을 표시하는 제5컴포넌트(903), OCT 영상에 대한 인페이스 맵(Enface map)을 표시하는 제6컴포넌트(904), 다른 포멧의 영상에 대한 인페이스 맵을 표시하는 제7컴포넌트(905) 중 적어도 하나를 더 포함할 수 있다.Meanwhile, the main interface (900) according to the embodiments may further include at least one of a fifth component (903) that displays an image of a different format (e.g., a FLIm (Fluorescence Lifetime) image) for a specific location of a blood vessel, a sixth component (904) that displays an enface map for an OCT image, and a seventh component (905) that displays an enface map for an image of a different format.

제5컴포넌트(903)는 혈관의 해당 위치에 대응하는 다른 포멧의 영상(예를 들어, FLIm 영상)을 나타낸다. 즉, 제5컴포넌트(903)는 혈관의 특정 위치에 대응하는 루멘의 다른 포멧의 영상을 나타내며, 해당 영상은 예를 들어, 혈관의 그 위치에 대한 생화학적 특성을 시각적으로 제공한다.The fifth component (903) represents an image of a different format (e.g., a FLIm image) corresponding to the corresponding location in the blood vessel. That is, the fifth component (903) represents an image of a lumen of a different format corresponding to a specific location in the blood vessel, and the image visually provides biochemical characteristics of the location in the blood vessel, for example.

제6컴포넌트(904)는 혈관 전체에 대한 다른 포멧의 영상을 합성하고, 이를 평면에 투사하여 2D 이미지로 생성한 인페이스 맵(enface map)을 나타낸다. 제5컴포넌트에 표시되는 인페이스 맵의 세로축은, 가이드와이어 또는 이미징 카테터의 말단에 위치하는 카메라를 중심으로 360도 방향으로 촬영한 루멘 표면에 대한 FLIm 영상을 색상으로 표현한 것이고, 가로축은 혈관 내 이미징 카테터 또는 카메라의 위치를 나타낸 것이다. 이 맵은 혈관의 전체 구조를 한눈에 볼 수 있게 하며, 특정 위치의 생화학적 정보를 시각적으로 제공한다. The sixth component (904) represents an enface map that synthesizes images of different formats for the entire blood vessel and projects them onto a plane to create a 2D image. The vertical axis of the enface map displayed in the fifth component is a color representation of a FLIm image of the lumen surface captured in a 360-degree direction centered on a camera positioned at the end of a guide wire or imaging catheter, and the horizontal axis represents the location of the imaging catheter or camera within the blood vessel. This map allows the entire structure of the blood vessel to be viewed at a glance and visually provides biochemical information for a specific location.

도 9의 제7컴포넌트(905)는 혈관 전체에 대한 OCT 이미지를 합성 또는 투사하여 2D 이미지로 펼친 인페이스 맵을 나타낸다. 제6컴포넌트에 표시되는 인페이스 맵의 세로축은, 가이드와이어 또는 이미징 카테터의 말단에 위치하는 카메라를 중심으로 360도 방향으로 촬영한 루멘 표면에 대한 OCT 영상을 표현한 것이고, 가로축은 혈관 내 이미징 카테터 또는 카메라의 위치를 나타낸 것이다. 이 맵은 혈관의 전체 구조를 한눈에 볼 수 있게 하며, 특정 위치의 OCT 정보를 시각적으로 제공한다.The seventh component (905) of FIG. 9 represents an in-face map that is expanded into a 2D image by synthesizing or projecting an OCT image of the entire blood vessel. The vertical axis of the in-face map displayed in the sixth component represents an OCT image of the lumen surface captured in a 360-degree direction centered on a camera located at the end of a guide wire or imaging catheter, and the horizontal axis represents the location of the imaging catheter or camera within the blood vessel. This map allows the entire structure of the blood vessel to be viewed at a glance and visually provides OCT information of a specific location.

한편, 도 9를 참조하면, 실시예들에 따른 메인 인터페이스(900)는, 혈관 내 제1위치와 제2위치를 사용자에 의해 선택할 수 있는 기능을 제공(907a, 907b)한다. 만약, 사용자가 제1위치(907a) 및 제2위치(907b)를 선택하면, 실시예들에 따른 시스템은 도 1 내지 도 7에 나타난 방법에 기초하여 해당 구간에 대한 FFR 정보를 예측한다. 이후, 실시예들에 따른 시스템은, 제4컴포넌트(908)의 위치에 예측된 FFR 정보를 표시한다.Meanwhile, referring to FIG. 9, the main interface (900) according to the embodiments provides a function (907a, 907b) that allows the user to select a first location and a second location within a blood vessel. If the user selects the first location (907a) and the second location (907b), the system according to the embodiments predicts FFR information for the corresponding section based on the method shown in FIGS. 1 to 7. Thereafter, the system according to the embodiments displays the predicted FFR information at the location of the fourth component (908).

이러한 구성으로 인해, 실시예들에 따른 혈관 의료 영상 분석 장치는 사용자가 OCT 영상을 직관적으로 분석할 수 있도록 돕고, 관심 영역을 쉽게 식별하여 진단과 치료 계획을 세우는 데 유용하다. 또한, 사용자가 특정 위치를 선택하여 상세한 횡단면 영상과 해당 위치의 다른 포멧의 이미지를 확인할 수 있어, 보다 정확한 분석이 가능하다.Due to this configuration, the vascular medical image analysis device according to the embodiments helps the user to intuitively analyze the OCT image, and is useful for easily identifying the area of interest to establish a diagnosis and treatment plan. In addition, the user can select a specific location to check a detailed cross-sectional image and images of different formats of the location, enabling more accurate analysis.

도 10은 실시예들에 따른 혈관 의료 영상 분석 장치가 분획 혈류 예비력을 예측하는 과정을 나타내는 흐름도이다.FIG. 10 is a flowchart showing a process for predicting fractional blood flow reserve by a vascular medical image analysis device according to embodiments.

구체적으로, 도 10은 혈관 의료 영상 분석 장치가 실시예들에 따른 인공지능 모델부(203)를 학습시키고, 학습된 인공지능 모델부(203)를 이용하여 의료 영상 세트에 대응하는 혈관 구간의 분획혈류예비력(FFR)을 예측하는 방법에 관한 흐름도이다. 1000 단계 내지 1004 단계는 혈관 의료 영상 분석 장치가 실시예들에 따른 인공지능 모델부(203), 특히 인공지능 모델부(203) 내의 트랜스포머 블록(들) 내 인공신경망 레이어들을 학습시키는 과정으로, 도 2의 학습부(204)에 의해 수행될 수 있다. 1005 단계 내지 1009 단계는 도 2의 인공지능 모델부(203)의해 수행될 수 있다.Specifically, FIG. 10 is a flowchart of a method in which a vascular medical image analysis device trains an artificial intelligence model unit (203) according to embodiments and predicts fractional flow reserve (FFR) of a vascular section corresponding to a medical image set using the trained artificial intelligence model unit (203). Steps 1000 to 1004 are processes in which the vascular medical image analysis device trains the artificial intelligence model unit (203) according to embodiments, particularly, artificial neural network layers within the transformer block(s) within the artificial intelligence model unit (203), and may be performed by the learning unit (204) of FIG. 2. Steps 1005 to 1009 may be performed by the artificial intelligence model unit (203) of FIG. 2.

도 10을 참조하면, 실시예들에 따른 장치는, 학습 데이터를 기반으로 실시예들에 따른 인공지능 모델부(203)를 학습한다. 여기서, 학습 데이터는 혈관의 제1위치에서 제2위치까지에 대응하는 OCT 이미지들 및 상기 혈관의 제1위치에서 제2위치까지에 대한 분획혈류예비력 값을 나타내는 레이블 정보를 포함할 수 있다. 즉, 실시예들에 따른 장치는, 상기와 같은 학습 데이터(1000)를 획득한다.Referring to FIG. 10, the device according to the embodiments learns the artificial intelligence model unit (203) according to the embodiments based on learning data. Here, the learning data may include OCT images corresponding to the first location to the second location of the blood vessel and label information indicating the fractional blood flow reserve value for the first location to the second location of the blood vessel. That is, the device according to the embodiments obtains the learning data (1000) as described above.

다음으로, 실시예들에 따른 장치는 필요한 경우(optionally), 학습 데이터의 의료 이미지 세트의 적합성을 검증(1001)할 수도 있고, 의료 이미지 세트를 더 정확하게 학습하기 위해 특징 정보를 더 추출(1002)할 수도 있다. 예를 들어, 실시예들에 따른 장치는, OCT 영상으로부터 가이드와이어(guidewire), 석회화 (calcification) 영역, 카테터에 의해 생긴 그림자를 나타내는 영역, 카테터에 의해 가려지는 영역, 루멘(lumen) 영역, 분기(bifurcation) 또는 브랜치(branch) 영역 등을 특징 정보를 더 추출할 수 있고, 이들을 학습 데이터에 추가로 어노테이트(annotate)하여, 인공신경망 모델의 학습에 활용될 수 있다.Next, the device according to the embodiments may optionally verify (1001) the suitability of the medical image set of learning data, and may further extract (1002) feature information to more accurately learn the medical image set. For example, the device according to the embodiments may further extract feature information, such as a guidewire, a calcification area, an area representing a shadow caused by a catheter, an area covered by a catheter, a lumen area, a bifurcation or branch area, from the OCT image, and further annotate these to the learning data so that they can be utilized for learning an artificial neural network model.

이후, 실시예들에 따른 장치는 학습 중인 또는 초기화된 인공지능 모델을 이용하여, 상기 의료 이미지 세트 (및 상기 특징 정보)를 기반으로 상기 심혈관의 구간에 대한 FFR(Fractional Flow Reserve) 값을 우선 예측(1003)할 수 있다. 이후, 실시예들에 따른 장치는 상기 예측 또는 식별한 결과와 상기 레이블 정보를 기반으로, 상기 인공지능 모델을 업데이트(1004)할 수 있다.Thereafter, the device according to the embodiments can first predict (1003) the FFR (Fractional Flow Reserve) value for the cardiovascular section based on the medical image set (and the feature information) using the learned or initialized artificial intelligence model. Thereafter, the device according to the embodiments can update (1004) the artificial intelligence model based on the predicted or identified result and the label information.

한편, 도 10을 참조하면, 실시예들에 따른 장치는, 제2혈관의 제1위치에서 제2위치까지에 대한 복수의 OCT 이미지들을 포함하는 의료 이미지 세트를 획득(1005)할 수 있다. 실시예들에 따른 장치는, 1001 단계 내지 1002 단계와 같이 의료 이미지 세트의 적합성을 검증하고, 의료 이미지 세트로부터 특징 정보를 추출(1007)하여, 예측에 추가적으로 도움이 되는 정보를 더 생성할 수 있다.Meanwhile, referring to FIG. 10, the device according to the embodiments can obtain (1005) a medical image set including a plurality of OCT images for a first location to a second location of a second blood vessel. The device according to the embodiments can verify the suitability of the medical image set as in steps 1001 and 1002, and extract feature information from the medical image set (1007), thereby generating additional information that is additionally helpful for prediction.

이후, 도 10을 참조하면 실시예들에 따른 장치는, 상기 의료 이미지 세트를 제1방식에 기반하여, 고정된 크기의 복수의 패치들로 분할(1008)할 수 있다. 1008 단계의 동작은 예를 들어, 도 2의 데이터 전처리부(202), 도 3의 3차원 패치 분할부(301), 도 4의 3차원 패치 분할부(401) 및 도 6 내지 도 7에서 설명한 동작을 의미할 수 있다.Thereafter, referring to FIG. 10, the device according to the embodiments can divide the medical image set into a plurality of patches of a fixed size based on the first method (1008). The operation of step 1008 may mean, for example, the data preprocessing unit (202) of FIG. 2, the three-dimensional patch division unit (301) of FIG. 3, the three-dimensional patch division unit (401) of FIG. 4, and the operations described in FIGS. 6 and 7.

이후, 실시예들에 따른 혈관 의료 영상 분석 장치는, 상기 복수의 패치들을 기반으로, 상기 제1위치에서 상기 제2위치까지에 대한 분획 혈류 예비력을 예측할 수 있다.Thereafter, the vascular medical image analysis device according to the embodiments can predict the fractional blood flow reserve from the first location to the second location based on the plurality of patches.

도 11은 실시예들에 따른 시스템 또는 서버의 구성도의 예시이다.FIG. 11 is an example of a configuration diagram of a system or server according to embodiments.

도 11를 참조하면, 서버(1100)는 입력부(1110), 출력부(1120), 제어부(1130), 저장부(1140) 및 통신부(1150)를 포함한다. Referring to FIG. 11, the server (1100) includes an input unit (1110), an output unit (1120), a control unit (1130), a storage unit (1140), and a communication unit (1150).

입력부(1110)는 관리자로부터 명령이나 정보를 입력 받는다. 입력부(1110)는 오디오 신호를 입력 받기 위한 마이크로폰 및 키 입력부 중에서 하나 이상을 포함할 수 있다. The input unit (1110) receives commands or information from an administrator. The input unit (1110) may include one or more of a microphone and a key input unit for receiving audio signals.

출력부(1120)는 명령 처리 결과나 각종 정보를 관리자에게 출력한다. 예를 들어, 출력부(1120)는 혈관 OCT 영상을 기반으로 예측한 결과(예를 들어, 분획혈류예비력(FFR)의 값 또는 그 범위 등) 정보를 출력한다. 이를 위하여, 출력부(1120)는 도면에 도시되지는 않았으나, 디스플레이, 스피커, 햅틱 출력부(1120) 및 광 출력부(1120)를 포함할 수 있다. 디스플레이는 평판 디스플레이(Flat panel display), 연성 디스플레이(Flexible display), 불투명 디스플레이, 투명 디스플레이, 전자종이(Electronic paper, E-paper), 또는 본 발명이 속하는 기술분야에서 잘 알려진 임의의 형태로 제공될 수 있다. 디스플레이에는 터치 패드가 적층되어 터치 스크린(touch screen)을 구성할 수 있으며, 이러한 터치 스크린을 통해 터치 키가 구현될 수 있다. 출력부(1120)는 디스플레이 및 스피커 외에도 본 발명이 속하는 기술분야에서 잘 알려진 임의의 형태의 출력 수단을 더 포함하여 구성될 수도 있다. The output unit (1120) outputs the command processing result or various information to the manager. For example, the output unit (1120) outputs information on the predicted result (for example, the value or range of fractional flow reserve (FFR)) based on the vascular OCT image. To this end, the output unit (1120) may include a display, a speaker, a haptic output unit (1120), and an optical output unit (1120), although not illustrated in the drawing. The display may be provided in the form of a flat panel display, a flexible display, an opaque display, a transparent display, electronic paper (E-paper), or any other form well known in the technical field to which the present invention belongs. A touch pad may be laminated on the display to form a touch screen, and a touch key may be implemented through this touch screen. In addition to the display and the speaker, the output unit (1120) may further include any other form of output means well known in the technical field to which the present invention belongs.

제어부(1130)는 서버(1100) 내의 구성요소들을 연결하고 제어한다. 일 예로, 혈관 OCT 영상을 기반으로 예측한 결과(예를 들어, 분획혈류예비력(FFR)의 값 또는 그 범위 등)하는 시스템으로부터 생성된 정보가 출력부(1120)를 통해 출력될 수 있도록 각 구성요소들을 제어한다. 다른 예로, 제어부(1130)는 관리자에 의해 판단 정보가 입력되면, 판단 정보가 포함된 응답 신호를 생성한다. 제어부(1130)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. The control unit (1130) connects and controls components within the server (1100). For example, the control unit (1130) controls each component so that information generated from a system that predicts a result based on a vascular OCT image (e.g., a value or range of fractional flow reserve (FFR)) can be output through the output unit (1120). As another example, when judgment information is input by an administrator, the control unit (1130) generates a response signal including judgment information. The control unit (1130) may be configured to include a CPU (Central Processing Unit), an MPU (Micro Processor Unit), an MCU (Micro Controller Unit), a GPU (Graphics Processing Unit), or any other form of processor well known in the art of the present invention.

저장부(1140)는 서버(1100)가 동작하는데 필요한 데이터, 프로그램 및 어플리케이션 등을 저장한다. 이러한 저장부(1140)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크, 광 디스크, 광자기 디스크, 또는 본 발명이 속하는 기술분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함할 수 있다. The storage unit (1140) stores data, programs, applications, etc. required for the server (1100) to operate. The storage unit (1140) may include nonvolatile memory, volatile memory, a hard disk, an optical disk, a magneto-optical disk, or any type of computer-readable recording medium well known in the art to which the present invention pertains.

통신부(1150)는 유무선 네트워크를 통해 혈관 OCT 영상을 기반으로 분획혈류예비력(FFR) 정보를 예측하는 시스템 또는 다른 시스템과 통신한다. The communication unit (1150) communicates with a system or other system that predicts fractional flow reserve (FFR) information based on vascular OCT images via a wired or wireless network.

본 명세서와 도면에 게시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 게시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.The embodiments of the present invention disclosed in this specification and drawings are only specific examples presented to easily explain the technical content of the present invention and to help understand the present invention, and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modified examples based on the technical idea of the present invention can be implemented in addition to the embodiments disclosed herein.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various modifications and changes may be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below.

Claims (10)

심혈관(Cardiovascular)에 대한 OCT(Optical Coherence Tomography) 영상을 기반으로 분획혈류예비력을 예측하는 장치에 있어서,
심혈관의 제1위치에서 제2위치까지에 대한 복수의 OCT 이미지들을 포함하는 의료 이미지 세트를 획득하는 의료 영상 획득부;
상기 의료 이미지 세트를 제1방식에 기반하여, 고정된 크기의 복수의 패치들로 분할하는 3차원 패치 분할부;
상기 의료 이미지 세트 내에서 상기 심혈관의 석회화(calcification) 영역을 탐지하는 제1분류 모델부;
상기 의료 이미지 세트 내에서 상기 심혈관 내 장착된 스텐트(stent)의 위치 및 모양을 탐지하는 제2분류 모델부;
상기 복수의 패치들 및 상기 탐지된 석회화 영역을 기반으로, 상기 제1위치에서 상기 제2위치까지에 대한 분획혈류예비력을 예측하는 인공지능 모델을 포함하는 인공지능 모델부; 및
상기 예측한 분획혈류예비력, 상기 스텐트의 위치 및 모양을 제공하는 의료정보 제공부; 를 포함하고,
상기 인공지능 모델은 복수 개의 트랜스포머 모델들을 포함하고,
상기 인공지능 모델은 심혈관에 대한 학습 OCT 영상 및 상기 학습 OCT 영상에 어노테이트(annotate)된 석회화 영역, 심혈관을 촬영하는 카테터의 가이드와이어(guidewire) 및 상기 카테터의 그림자 영역으로 구성되는 학습 데이터 세트를 기반으로 학습된,
분획혈류예비력 예측 장치.
In a device for predicting fractional blood flow reserve based on OCT (Optical Coherence Tomography) images for cardiovascular systems,
A medical image acquisition unit for acquiring a medical image set including multiple OCT images from a first location to a second location of the cardiovascular system;
A three-dimensional patch segmentation unit for segmenting the above medical image set into a plurality of patches of fixed size based on the first method;
A first classification model unit for detecting an area of cardiovascular calcification within the above medical image set;
A second classification model unit for detecting the location and shape of a stent installed in the cardiovascular system within the above medical image set;
An artificial intelligence model unit including an artificial intelligence model that predicts fractional blood flow reserve from the first location to the second location based on the plurality of patches and the detected calcification area; and
A medical information provider providing the predicted fractional blood flow reserve and the location and shape of the stent;
The above artificial intelligence model includes multiple transformer models,
The above artificial intelligence model is trained based on a training data set consisting of a learning OCT image for the cardiovascular system and an annotated calcified area in the learning OCT image, a guidewire of a catheter for photographing the cardiovascular system, and a shadow area of the catheter.
A device for predicting fractional blood flow reserve.
제1항에 있어서, 제1트랜스포머 모델은
상기 분할된 각 패치들 각각을 C 차원의 벡터로 변환하는 임베딩부;
상기 임베딩된 벡터들 간의 공간적 관계를 나타내는 중간 특징 데이터를 생성하는 제1멀티-헤드 자가 어텐션 모듈; 및
상기 공간적 관계를 학습하기 위한 가중치 정보를 학습하는 제1다중 인공신경망 레이어부; 를 포함하는,
분획혈류예비력 예측 장치.
In the first paragraph, the first transformer model
An embedding unit that converts each of the above-mentioned divided patches into a C-dimensional vector;
A first multi-head self-attention module that generates intermediate feature data representing the spatial relationship between the above embedded vectors; and
A first multi-artificial neural network layer unit for learning weight information for learning the above spatial relationship; including;
A device for predicting fractional blood flow reserve.
제2항에 있어서, 상기 제1트랜스포머 모델은
상기 의료 이미지 세트 또는 상기 중간 특징 데이터를 제2방식에 기초하여 분할된 패치의 공간적 관계를 나타내는 최종 특징 데이터들을 생성하는 제2멀티-헤드 자가 어텐션 모듈; 을 더 포함하고,
분획혈류예비력 예측 장치.
In the second paragraph, the first transformer model
A second multi-head self-attention module for generating final feature data representing the spatial relationship of the segmented patches based on the second method, based on the medical image set or the intermediate feature data; further comprising;
A device for predicting fractional blood flow reserve.
제3항에 있어서,
상기 제2방식은 상기 의료 이미지 세트 또는 상기 중간 특징 데이터를 시프트(shift)하고, 시프트된 결과를 상기 제1방식에 따라 분할하는 방식인,
분획혈류예비력 예측 장치.
In the third paragraph,
The second method is a method of shifting the medical image set or the intermediate feature data and dividing the shifted result according to the first method.
A device for predicting fractional blood flow reserve.
제3항에 있어서, 상기 제1트랜스포머 모델은
상기 생성된 최종 특징 데이터들 중 적어도 일부를 병합하고, 상기 병합된 결과를 C 차원의 벡터로 재-임베딩하는 차원 병합부; 를 더 포함하는,
분획혈류예비력 예측 장치.
In the third paragraph, the first transformer model
A dimension merging unit further comprising: merging at least some of the generated final feature data and re-embedding the merged result into a C-dimensional vector;
A device for predicting fractional blood flow reserve.
제5항에 있어서, 상기 차원 병합부는 상기 생성된 최종 특징 데이터들 중 인접한 8개의 특징 데이터를 접합(concatenate)하는,
분획혈류예비력 예측 장치.
In the fifth paragraph, the dimension merging unit concatenates eight adjacent feature data among the generated final feature data.
A device for predicting fractional blood flow reserve.
제1항에 있어서,
상기 인공지능 모델은 학습 데이터를 기반으로 학습된 모델이고,
상기 학습 데이터는 심혈관의 제1위치에서 제2위치까지에 대응하는 OCT 이미지들 및 상기 심혈관의 제1위치에서 제2위치까지에 대한 분획혈류예비력 값을 나타내는 레이블 정보를 포함하는,
분획혈류예비력 예측 장치.
In the first paragraph,
The above artificial intelligence model is a model learned based on learning data.
The above learning data includes OCT images corresponding to the first to second locations of the cardiovascular system and label information indicating fractional blood flow reserve values for the first to second locations of the cardiovascular system.
A device for predicting fractional blood flow reserve.
제7항에 있어서,
상기 인공지능 모델부는 4개의 트랜스포머 모델을 포함하고,
상기 학습 데이터 내 상기 OCT 이미지들을 기반으로 예측된 분획혈류예비력 값과 상기 레이블 정보에 포함된 정답 분획혈류예비력 값의 차이의 절대값으로 도출되는 손실 함수를 이용하여, 상기 4개의 트랜스포머 모델 각각에 포함된 제1다중 인공신경망 레이어부 및 제2다중 인공신경망 레이어부를 학습하는,
분획혈류예비력 예측 장치.
In Article 7,
The above artificial intelligence model section includes four transformer models,
Using a loss function derived from the absolute value of the difference between the fractional blood flow reserve value predicted based on the OCT images in the learning data and the correct fractional blood flow reserve value included in the label information, the first multi-artificial neural network layer and the second multi-artificial neural network layer included in each of the four transformer models are trained.
A device for predicting fractional blood flow reserve.
제2항에 있어서,
상기 분획혈류예비력 예측 장치는,
상기 의료 이미지 세트 내 포함된 복수의 OCT 이미지들의 수가 제1값보다 더 큰 경우 상기 복수의 OCT 이미지들 중 제1값의 수만큼 OCT 이미지들을 선택하고, 상기 선택된 OCT 이미지들의 폭(width)과 높이(height)를 제1값 픽셀만큼 리사이즈(resize)하는 데이터 전처리부; 를 더 포함하는,
분획혈류예비력 예측 장치.
In the second paragraph,
The above fractional blood flow reserve prediction device is,
A data preprocessing unit further comprising: a data preprocessing unit for selecting OCT images equal to the number of the first value among the plurality of OCT images when the number of OCT images included in the medical image set is greater than the first value, and resizing the width and height of the selected OCT images by the first value pixels;
A device for predicting fractional blood flow reserve.
심혈관(Cardiovascular)에 대한 OCT(Optical Coherence Tomography) 영상을 기반으로 분획혈류예비력을 예측하는 장치에 포함된 적어도 하나의 프로세서에 의해 수행되는, 분획혈류예비력을 예측하는 방법에 있어서,
심혈관의 제1위치에서 제2위치까지에 대한 복수의 OCT 이미지들을 포함하는 의료 이미지 세트를 획득하는 단계;
상기 의료 이미지 세트를 제1방식에 기반하여, 고정된 크기의 복수의 패치들로 분할하는 단계;
상기 의료 이미지 세트 내에서 상기 심혈관의 석회화(calcification) 영역을 탐지하는 단계;
상기 의료 이미지 세트 내에서 상기 심혈관 내 장착된 스텐트(stent)의 위치 및 모양을 탐지하는 단계;
인공지능 모델을 이용하여, 상기 복수의 패치들 및 상기 탐지된 석회화 영역을 기반으로 상기 제1위치에서 상기 제2위치까지에 대한 분획혈류예비력을 예측하는 단계; 및
상기 예측한 분획혈류예비력, 상기 스텐트의 위치 및 모양을 제공하는 단계; 를 포함하고,
상기 인공지능 모델은 복수 개의 트랜스포머 모델들을 포함하고,
상기 인공지능 모델은 심혈관에 대한 학습 OCT 영상 및 상기 학습 OCT 영상에 어노테이트(annotate)된 석회화 영역, 심혈관을 촬영하는 카테터의 가이드와이어(guidewire) 및 상기 카테터의 그림자 영역으로 구성되는 학습 데이터 세트를 기반으로 학습된,
분획혈류예비력 예측 방법.
A method for predicting fractional flow reserve, performed by at least one processor included in a device for predicting fractional flow reserve based on an OCT (Optical Coherence Tomography) image for cardiovascular,
A step of acquiring a medical image set including multiple OCT images from a first location to a second location of the cardiovascular system;
A step of dividing the above medical image set into a plurality of patches of fixed size based on the first method;
A step of detecting an area of calcification of the cardiovascular system within the above medical image set;
A step of detecting the location and shape of the stent installed in the cardiovascular system within the above medical image set;
A step of predicting the fractional blood flow reserve from the first location to the second location based on the plurality of patches and the detected calcification area using an artificial intelligence model; and
A step of providing the predicted fractional blood flow reserve, the position and shape of the stent; including;
The above artificial intelligence model includes multiple transformer models,
The above artificial intelligence model is trained based on a training data set consisting of a learning OCT image for the cardiovascular system and an annotated calcified area in the learning OCT image, a guidewire of a catheter for photographing the cardiovascular system, and a shadow area of the catheter.
Method for predicting fractional blood flow reserve.
KR1020240137939A 2024-10-10 2024-10-10 Method for predicting fractional flow reserve based on vascular oct image and system for the same Active KR102832752B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020240137939A KR102832752B1 (en) 2024-10-10 2024-10-10 Method for predicting fractional flow reserve based on vascular oct image and system for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020240137939A KR102832752B1 (en) 2024-10-10 2024-10-10 Method for predicting fractional flow reserve based on vascular oct image and system for the same

Publications (1)

Publication Number Publication Date
KR102832752B1 true KR102832752B1 (en) 2025-07-10

Family

ID=96395661

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020240137939A Active KR102832752B1 (en) 2024-10-10 2024-10-10 Method for predicting fractional flow reserve based on vascular oct image and system for the same

Country Status (1)

Country Link
KR (1) KR102832752B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150110609A (en) * 2013-01-15 2015-10-02 캐스웍스 엘티디. Calculating a fractional flow reserve
KR20210092963A (en) * 2020-01-17 2021-07-27 세종대학교산학협력단 Mtehod for predicting fractional flow reserve based on machine learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150110609A (en) * 2013-01-15 2015-10-02 캐스웍스 엘티디. Calculating a fractional flow reserve
KR20210092963A (en) * 2020-01-17 2021-07-27 세종대학교산학협력단 Mtehod for predicting fractional flow reserve based on machine learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문 1, An interpretable transformer network for the retinal disease classification using optical coherence tomography *

Similar Documents

Publication Publication Date Title
US12229224B2 (en) Medical image processing method and apparatus, and medical image recognition method and apparatus
US10762637B2 (en) Vascular segmentation using fully convolutional and recurrent neural networks
NL1034718C2 (en) Method and system for creating and using an influence atlas.
JP2022549190A (en) Artificial intelligence co-registration and marker detection including machine learning and use of its results
CN119762473A (en) System and method for classification of arterial image regions and their characteristics
US12315149B2 (en) Systems and methods for utilizing synthetic medical images generated using a neural network
US20220319004A1 (en) Automatic vessel analysis from 2d images
JP6214646B2 (en) Temporal anatomical target tagging in angiograms
US20110228992A1 (en) Method and System for Guiding Catheter Detection in Fluoroscopic Images
CN106793992A (en) Object identifying
JP2006510412A (en) Ultrasound device for estimating arterial parameters
EP3886702A1 (en) Most relevant x-ray image selection for hemodynamic simulation
US20210393109A1 (en) Computer program and endoscope processor
JP2020512885A (en) Method and apparatus for determining physiological function parameters
CN112819818B (en) Image recognition module training method and device
JP2021104337A (en) Estimating endoluminal path of endoluminal device along lumen
JP2018192287A (en) Method of operating processor device
Zia et al. A multilevel deep feature selection framework for diabetic retinopathy image classification
WO2021193015A1 (en) Program, information processing method, information processing device, and model generation method
IT201800001656A1 (en) Image processing method and method for determining the quantitative and / or qualitative characteristics of objects reproduced in an image, image processing system and system for determining the quantitative and / or qualitative characteristics of the objects reproduced in an image
US20230306620A1 (en) Live Angiography Registration
KR102832752B1 (en) Method for predicting fractional flow reserve based on vascular oct image and system for the same
JP2025036696A (en) PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING APPARATUS
JP7441452B2 (en) Training data generation method, learned model generation method, and disease onset prediction method
KR102819607B1 (en) Method for detecting bifurcation based on vascular oct image and system for the same

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PA0302 Request for accelerated examination

St.27 status event code: A-1-2-D10-D17-exm-PA0302

St.27 status event code: A-1-2-D10-D16-exm-PA0302

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601