JP7144292B2 - MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD - Google Patents
MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD Download PDFInfo
- Publication number
- JP7144292B2 JP7144292B2 JP2018221418A JP2018221418A JP7144292B2 JP 7144292 B2 JP7144292 B2 JP 7144292B2 JP 2018221418 A JP2018221418 A JP 2018221418A JP 2018221418 A JP2018221418 A JP 2018221418A JP 7144292 B2 JP7144292 B2 JP 7144292B2
- Authority
- JP
- Japan
- Prior art keywords
- medical data
- artifact
- overflow
- function
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Description
本発明の実施形態は、医用画像処理装置および医用画像処理方法に関する。 TECHNICAL FIELD Embodiments of the present invention relate to a medical image processing apparatus and a medical image processing method.
従来、X線CT装置等の画像診断装置において、被検体の厚さの分布の推定結果に基づいて、検出器が収集したデータを出力する際の増幅率を決定するゲイン(Gain)を調整することにより、カウント値の最大値がオーバーフローしないように検出器の設定を最適化する技術が公開されている。 Conventionally, in an image diagnostic apparatus such as an X-ray CT apparatus, a gain that determines an amplification factor when outputting data collected by a detector is adjusted based on an estimated thickness distribution of a subject. Therefore, a technique for optimizing the settings of the detector so that the maximum count value does not overflow has been disclosed.
しかしながら上述の方法は、回路ノイズにより発生するアーチファクトの低減は考慮されていたが、肩部や骨盤部などの高吸収部を撮影する際に、吸収が少ない体表辺縁でカウント値の最大値がオーバーフローし易く、オーバーフローにより発生するアーチファクトを低減することができない可能性があった。 However, in the above method, although the reduction of artifacts caused by circuit noise was considered, when imaging high-absorption areas such as the shoulder and pelvis, the maximum count value at the edge of the body surface where absorption is low tends to overflow, and there is a possibility that artifacts caused by overflow cannot be reduced.
本発明が解決しようとする課題は、オーバーフローにより発生するアーチファクトを低減することである。 The problem to be solved by the present invention is to reduce artifacts caused by overflow.
実施形態の医用画像処理装置は、取得部と、第1判定部と、補正部とを備える。取得部は、第1の医用データを取得する。第1判定部は、取得した第1の医用データがオーバーフローアーチファクトを含むか否かを判定する。補正部は、医用データが入力されたときにオーバーフローアーチファクトが補正された医用データを出力する補正モデルに対して、前記第1判定部によりオーバーフローアーチファクトを含むと判定された前記第1の医用データを入力することで、前記第1の医用データのオーバーフローアーチファクトが補正された医用データを生成する。 A medical image processing apparatus according to an embodiment includes an acquisition unit, a first determination unit, and a correction unit. The acquisition unit acquires first medical data. The first determination unit determines whether the acquired first medical data includes an overflow artifact. The correcting unit corrects the first medical data determined to include the overflow artifact by the first determining unit for the correction model that outputs the medical data in which the overflow artifact is corrected when the medical data is input. By inputting, medical data in which the overflow artifact of the first medical data is corrected is generated.
以下、実施形態の医用画像処理装置および医用画像処理方法を、図面を参照して説明する。医用画像処理装置は、例えば、X線CT(Computed Tomography:コンピュータ断層診断)装置等の医用画像に対する処理を行って被検体を診断する装置である。 A medical image processing apparatus and a medical image processing method according to embodiments will be described below with reference to the drawings. A medical image processing apparatus is an apparatus, such as an X-ray CT (Computed Tomography) apparatus, for diagnosing a subject by processing a medical image.
(第1の実施形態)
図1は、第1の実施形態に係るX線CT装置1の構成図である。X線CT装置1は、例えば、架台装置10と、寝台装置30と、コンソール装置40とを有する。図1では、説明の都合上、架台装置10をZ軸方向から見た図とX軸方向から見た図の双方を掲載しているが、実際には、架台装置10は一つである。実施形態では、非チルト状態での回転フレーム17の回転軸または寝台装置30の天板33の長手方向をZ軸方向、Z軸方向に直交し、床面に対して水平である軸をX軸方向、Z軸方向に直交し、床面に対して垂直である方向をY軸方向とそれぞれ定義する。
(First embodiment)
FIG. 1 is a configuration diagram of an
架台装置10は、例えば、X線管11と、ウェッジ12と、コリメータ13と、X線高電圧装置14と、X線検出器15と、データ収集システム(以下、DAS:Data Acquisition System)16と、回転フレーム17と、制御装置18とを有する。
The
X線管11は、X線高電圧装置14からの高電圧の印加により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射することでX線を発生させる。X線管11は、真空管を含む。例えば、X線管11は、回転する陽極に熱電子を照射することでX線を発生させる回転陽極型のX線管である。
The X-ray tube 11 generates X-rays by applying a high voltage from the X-ray
ウェッジ12は、X線管11から被検体Pに照射されるX線量を調節するためのフィルタである。ウェッジ12は、X線管11から被検体Pに照射されるX線量の分布が予め定められた分布になるように、自身を透過するX線を減衰させる。ウェッジ12は、ウェッジフィルタ(wedge filter)、ボウタイフィルタ(bow-tie filter)とも呼ばれる。ウェッジ12は、例えば、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したものである。
The
コリメータ13は、ウェッジ12を透過したX線の照射範囲を絞り込むための機構である。コリメータ13は、例えば、複数の鉛板の組み合わせによってスリットを形成することで、X線の照射範囲を絞り込む。コリメータ13は、X線絞りと呼ばれる場合もある。
The
X線高電圧装置14は、例えば、高電圧発生装置と、X線制御装置とを有する。高電圧発生装置は、変圧器(トランス)および整流器などを含む電気回路を有し、X線管11に印加する高電圧を発生させる。X線制御装置は、X線管11に発生させるべきX線量に応じて高電圧発生装置の出力電圧を制御する。高電圧発生装置は、上述した変圧器によって昇圧を行うものであってもよいし、インバータによって昇圧を行うものであってもよい。
X線高電圧装置14は、回転フレーム17に設けられてもよいし、架台装置10の固定フレーム(不図示)の側に設けられてもよい。
The X-ray
The X-ray
X線検出器15は、X線管11が発生させ、被検体Pを通過して入射したX線の強度を検出する。X線検出器15は、検出したX線の強度に応じた電気信号(光信号などでもよい)をDAS18に出力する。X線検出器15は、例えば、複数のX線検出素子列を有する。複数のX線検出素子列のそれぞれは、X線管11の焦点を中心とした円弧に沿ってチャネル方向に複数のX線検出素子が配列されたものである。複数のX線検出素子列は、スライス方向(列方向、row方向)に配列される。
The
X線検出器15は、例えば、グリッドと、シンチレータアレイと、光センサアレイとを有する間接型の検出器である。シンチレータアレイは、複数のシンチレータを有する。それぞれのシンチレータは、シンチレータ結晶を有する。シンチレータ結晶は、入射するX線の強度に応じた光量の光を発する。グリッドは、シンチレータアレイのX線が入射する面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。なお、グリッドは、コリメータ(一次元コリメータまたは二次元コリメータ)と呼ばれる場合もある。光センサアレイは、例えば、光電子増倍管(フォトマルチプライヤー:PMT)等の光センサを有する。光センサアレイは、シンチレータにより発せられる光の光量に応じた電気信号を出力する。X線検出器15は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であってもかまわない。
DAS16は、例えば、増幅器と、積分器と、A/D変換器とを有する。増幅器は、X線検出器15の各X線検出素子により出力される電気信号に対して増幅処理を行う。積分器は、増幅処理が行われた電気信号をビュー期間(後述)に亘って積分する。A/D変換器は、積分結果を示す電気信号をデジタル信号に変換する。DAS16は、デジタル信号に基づく検出データをコンソール装置40に出力する。検出データは、生成元のX線検出素子のチャンネル番号、列番号、及び収集されたビューを示すビュー番号により識別されたX線強度のデジタル値である。ビュー番号は、回転フレーム17の回転に応じて変化する番号であり、例えば、回転フレーム17の回転に応じてインクリメントされる番号である。従って、ビュー番号は、X線管11の回転角度を示す情報である。ビュー期間とは、あるビュー番号に対応する回転角度から、次のビュー番号に対応する回転角度に到達するまでの間に収まる期間である。DAS16は、ビューの切り替わりを、制御装置18から入力されるタイミング信号によって検知してもよいし、内部のタイマーによって検知してもよいし、図示しないセンサから取得される信号によって検知してもよい。フルスキャンを行う場合においてX線管11によりX線が連続曝射されている場合、DAS16は、全周囲分(360度分)の検出データ群を収集する。ハーフスキャンを行う場合においてX線管11によりX線が連続曝射されている場合、DAS16は、半周囲分(180度分)の検出データを収集する。
回転フレーム17は、X線管11、ウェッジ12、およびコリメータ13と、X線検出器15とを対向支持する円環状の部材である。回転フレーム17は、固定フレームによって、内部に導入された被検体Pを中心として回転自在に支持される。回転フレーム17は、更にDAS16を支持する。DAS16が出力する検出データは、回転フレーム17に設けられた発光ダイオード(LED)を有する送信機から、光通信によって、架台装置10の非回転部分(例えば固定フレーム)に設けられたフォトダイオードを有する受信機に送信され、受信機によってコンソール装置40に転送される。なお、回転フレーム17から非回転部分への検出データの送信方法として、前述の光通信を用いた方法に限らず、非接触型の任意の送信方法を採用してよい。回転フレーム17は、X線管11などを支持して回転させることができるものであれば、円環状の部材に限らず、アームのような部材であってもよい。
The rotating
X線CT装置1は、例えば、X線管11とX線検出器15の双方が回転フレーム17によって支持されて被検体Pの周囲を回転するRotate/Rotate-TypeのX線CT装置(第3世代CT)であるが、これに限らず、円環状に配列された複数のX線検出素子が固定フレームに固定され、X線管11が被検体Pの周囲を回転するStationary/Rotate-TypeのX線CT装置(第4世代CT)であってもよい。
The
制御装置18は、例えば、CPU(Central Processing Unit)などのプロセッサを有する処理回路と、モータやアクチュエータなどを含む駆動機構とを有する。制御装置18は、コンソール装置40または架台装置10に取り付けられた入力インターフェース43からの入力信号を受け付けて、架台装置10および寝台装置30の動作を制御する。
The
制御装置18は、例えば、回転フレーム17を回転させたり、架台装置10をチルトさせたり、寝台装置30の天板33を移動させたりする。架台装置10をチルトさせる場合、制御装置18は、入力インターフェース43に入力された傾斜角度(チルト角度)に基づいて、Z軸方向に平行な軸を中心に回転フレーム17を回転させる。制御装置18は、図示しないセンサの出力等によって回転フレーム17の回転角度を把握している。また、制御装置18は、回転フレーム17の回転角度を随時、処理回路50に提供する。制御装置18は、架台装置10に設けられてもよいし、コンソール装置40に設けられてもよい。
The
寝台装置30は、スキャン対象の被検体Pを載置して移動させ、架台装置10の回転フレーム17の内部に導入する装置である。寝台装置30は、例えば、基台31と、寝台駆動装置32と、天板33と、支持フレーム34とを有する。基台31は、支持フレーム34を鉛直方向(Y軸方向)に移動可能に支持する筐体を含む。寝台駆動装置32は、モータやアクチュエータを含む。寝台駆動装置32は、被検体Pが載置された天板33を、支持フレーム34に沿って、天板33の長手方向(Z軸方向)に移動させる。天板33は、被検体Pが載置される板状の部材である。
The
寝台駆動装置32は、天板33だけでなく、支持フレーム34を天板33の長手方向に移動させてもよい。また、上記とは逆に、架台装置10がZ軸方向に移動可能であり、架台装置10の移動によって回転フレーム17が被検体Pの周囲に来るように制御されてもよい。また、架台装置10と天板33の双方が移動可能な構成であってもよい。
The
コンソール装置40は、例えば、メモリ41と、ディスプレイ42と、入力インターフェース43と、メモリ41と、ネットワーク接続回路44と、処理回路50とを有する。実施形態では、コンソール装置40は架台装置10とは別体として説明するが、架台装置10にコンソール装置40の各構成要素の一部または全部が含まれてもよい。
The
メモリ41は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。メモリ41は、例えば、検出データや投影データ、再構成画像、CT画像等を記憶する。これらのデータは、メモリ41ではなく(或いはメモリ41に加えて)、X線CT装置1が通信可能な外部メモリに記憶されてもよい。外部メモリは、例えば、外部メモリを管理するクラウドサーバが読み書きの要求を受け付けることで、クラウドサーバによって制御されるものである。
The
ディスプレイ42は、各種の情報を表示する。例えば、ディスプレイ42は、処理回路によって生成された医用画像(CT画像)や、操作者による各種操作を受け付けるGUI(Graphical User Interface)画像等を表示する。ディスプレイ42は、例えば、液晶ディスプレイやCRT(Cathode Ray Tube)、有機EL(Electroluminescence)ディスプレイ等である。ディスプレイ42は、架台装置10に設けられてもよい。ディスプレイ42は、デスクトップ型でもよいし、コンソール装置40の本体部と無線通信可能な表示装置(例えばタブレット端末)であってもよい。
The
入力インターフェース43は、操作者による各種の入力操作を受け付け、受け付けた入力操作の内容を示す電気信号を処理回路50に出力する。例えば、入力インターフェース43は、検出データまたは投影データ(後述)を収集する際の収集条件、CT画像を再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件などの入力操作を受け付ける。例えば、入力インターフェース43は、マウスやキーボード、タッチパネル、ドラッグボール、スイッチ、ボタン、ジョイスティック、フットペダル、カメラ、赤外線センサ、マイク等により実現される。入力インターフェース43は、架台装置10に設けられてもよい。また、入力インターフェース43は、コンソール装置40の本体部と無線通信可能な表示装置(例えばタブレット端末)により実現されてもよい。
The
ネットワーク接続回路44は、例えば、プリント回路基板を有するネットワークカード、或いは無線通信モジュールなどを含む。ネットワーク接続回路44は、接続する対象のネットワークの形態に応じた情報通信用プロトコルを実装する。ネットワークは、例えば、LAN(Local Area Network)やWAN(Wide Area Network)、インターネット、セルラー網、専用回線等を含む。
The
処理回路50は、X線CT装置1の全体の動作を制御する。処理回路50は、例えば、システム制御機能51、前処理機能52、再構成処理機能53、画像処理機能54、スキャン制御機能55、表示制御機能56、第1学習機能57、第2学習機能58などを実行する。処理回路50は、例えば、ハードウェアプロセッサがメモリ41に記憶されたプログラムを実行することにより、これらの機能を実現するものである。
A
ハードウェアプロセッサとは、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit; ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device; SPLD)または複合プログラマブル論理デバイス(Complex Programmable Logic Device; CPLD)や、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array; FPGA))などの回路(circuitry)を意味する。メモリ41にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。
A hardware processor is, for example, a CPU, a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (e.g., a simple programmable logic device (Simple Programmable Logic Device; SPLD) or Circuitry such as a Complex Programmable Logic Device (CPLD) or a Field Programmable Gate Array (FPGA). Instead of storing the program in the
コンソール装置40または処理回路50が有する各構成要素は、分散化されて複数のハードウェアにより実現されてもよい。処理回路50は、コンソール装置40が有する構成ではなく、コンソール装置40と通信可能な処理装置によって実現されてもよい。処理装置は、例えば、一つのX線CT装置と接続されたワークステーション、あるいは複数のX線CT装置に接続され、以下に説明する処理回路50と同等の処理を一括して実行する装置(例えばクラウドサーバ)である。
Each component of the
システム制御機能51は、入力インターフェース43が受け付けた入力操作に基づいて、処理回路50の各種機能を制御する。
The
前処理機能52は、DAS16により出力された検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を行って、投影データを生成し、生成した投影データをメモリ41に記憶させる。
A
再構成処理機能53は、前処理機能52によって生成された投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等による再構成処理を行って、CT画像を生成し、生成したCT画像をメモリ41に記憶させる。
The
画像処理機能54は、入力インターフェース43が受け付けた入力操作に基づいて、CT画像を公知の方法により、三次元画像や任意断面の断面像データに変換する。三次元画像への変換は、前処理機能52によって行われてもよい。
Based on the input operation received by the
また、画像処理機能54は、入力インターフェース43が受け付けた入力操作に基づいて、アーチファクトの検出されたCT画像からアーチファクトを軽減または削除するアーチファクト補正処理を行う。アーチファクト補正処理については後述する。以下において、アーチファクトを軽減または削除することを、単に「軽減する」という。
Further, the
スキャン制御機能55は、X線高電圧装置14、DAS16、制御装置18、および寝台駆動装置32に指示することで、架台装置10における検出データの収集処理を制御する。スキャン制御機能55は、スキャノ画像を収集する撮影、および診断に用いる画像を撮影する際の各部の動作をそれぞれ制御する。
The
表示制御機能56は、ディスプレイ42の表示態様を制御する。
The
第1学習機能57は、画像処理機能54により処理されたCT画像がアーチファクトを含むか否かを学習し、後述する判定モデル41-6を生成する。第1学習機能57は、「判定モデル生成部」の一例である。
The
第2学習機能58は、被検体の情報と、画像処理機能54により処理されたCT画像からアーチファクトを軽減した補正画像と、元のCT画像との関係を学習し、後述する補正モデル41-7を生成する。第2学習機能58は、「補正モデル生成部」の一例である。
The
上記構成により、X線CT装置1は、ヘリカルスキャン、コンベンショナルスキャン、ステップアンドシュートなどの態様で被検体Pのスキャンを行う。ヘリカルスキャンとは、天板33を移動させながら回転フレーム17を回転させて被検体Pをらせん状にスキャンする態様である。コンベンショナルスキャンとは、天板33を静止させた状態で回転フレーム17を回転させて被検体Pを円軌道でスキャンする態様である。コンベンショナルスキャンを実行する。ステップアンドシュートとは、天板33の位置を一定間隔で移動させてコンベンショナルスキャンを複数のスキャンエリアで行う態様である。
With the above configuration, the
図2は、メモリ41に格納されるデータの一例を示す図である。図2に示すように、メモリ41には、例えば、処理回路50により生成される被検体情報41-1、検出データ41-2、投影データ41-3、再構成画像41-4、補正画像41-5、判定モデル41-6、補正モデル41-7などの情報が格納される。
FIG. 2 is a diagram showing an example of data stored in the
[画像処理機能]
図3は、画像処理機能54の構成図である。画像処理機能54は、例えば、再構成画像取得機能54-1と、アーチファクト判定機能54-2と、アーチファクト補正処理機能54-3とを備える。
[Image processing function]
FIG. 3 is a configuration diagram of the
再構成画像取得機能54-1は、メモリ41から、撮影された再構成画像41-4と、被検体Pに対応付けられた被検体情報41-1とを取得する。被検体情報41-1は、例えば、被検体Pを識別するID情報や、被検体Pの性別、身長、体重等の被検体Pの特性を示す情報、撮影部位の情報等の情報を含む。再構成画像取得機能54-1は、「取得部」の一例である。
The reconstructed image acquisition function 54-1 acquires the captured reconstructed image 41-4 and subject information 41-1 associated with the subject P from the
アーチファクト判定機能54-2は、再構成画像取得機能54-1により取得された再構成画像41-4がオーバーフローアーチファクトを含むか否かを判定する。ここで、オーバーフローアーチファクトについて説明する。アーチファクトとは、再構成画像に現れるノイズのことである。オーバーフローアーチファクトとは、X線検出器15で扱えるカウントの最大値を超えた場合に、再構成画像上に現れるノイズのことである。アーチファクト判定機能54-2は、操作者による判定入力を受け付けてもよいし、後述する判定モデル41-6の出力結果を判定結果としてもよいし、その他の既知の判定方法による判定結果を用いるものであってもよい。アーチファクト判定機能54-2は、「第1判定部」の一例である。
The artifact determination function 54-2 determines whether or not the reconstructed image 41-4 acquired by the reconstructed image acquisition function 54-1 contains an overflow artifact. Overflow artifacts will now be described. Artifacts are noise that appears in reconstructed images. An overflow artifact is noise that appears on a reconstructed image when the maximum count that can be handled by the
アーチファクト補正処理機能54-3は、アーチファクト判定機能54-2によりオーバーフローアーチファクトが含まれると判定された再構成画像41-4のオーバーフローアーチファクトを軽減するためのアーチファクト補正処理を行う。アーチファクト補正処理機能54-3は、「補正部」の一例である。 The artifact correction processing function 54-3 performs artifact correction processing for reducing overflow artifacts in the reconstructed image 41-4 determined to include overflow artifacts by the artifact determination function 54-2. The artifact correction processing function 54-3 is an example of a "corrector".
なお、判定モデル41-6および補正モデル41-7に適用される再構成画像41-4は、「第1の医用データ」の一例である。 The reconstructed image 41-4 applied to the judgment model 41-6 and the correction model 41-7 is an example of "first medical data".
なお、アーチファクト判定機能54-2は、後述する判定モデル41-6に再構成画像41-4を入力することで得られる出力に基づいてアーチファクト判定処理を行ってもよいし、操作者による入力操作に応じてアーチファクト判定処理を行ってもよい。 Note that the artifact determination function 54-2 may perform artifact determination processing based on the output obtained by inputting the reconstructed image 41-4 to the determination model 41-6, which will be described later, or the input operation by the operator. Artifact determination processing may be performed according to .
なお、アーチファクト補正処理機能54-3は、後述する補正モデル41-7に再構成画像41-4を入力することでアーチファクト補正処理を行ってもよいし、操作者による入力操作に応じてアーチファクト補正処理を行ってもよい。アーチファクト補正処理とは、例えば、アーチファクト補正フィルタの適用や、さらなるビームハードニング補正等のソフト処理により実現される。補正モデル41-7を用いたアーチファクト補正処理については後述する。 The artifact correction processing function 54-3 may perform the artifact correction processing by inputting the reconstructed image 41-4 into the correction model 41-7 described later, or may perform the artifact correction processing in accordance with the operator's input operation. processing may be performed. The artifact correction processing is realized by, for example, application of an artifact correction filter and software processing such as further beam hardening correction. Artifact correction processing using the correction model 41-7 will be described later.
なお、アーチファクト補正処理機能54-3は、再構成画像取得機能54-1により取得された被検体情報41-1に対して好適な補正モデル41-7を選択し、選択した補正モデル41-7に再構成画像41-4を適用する。好適な補正モデル41-7とは、例えば、被検体Pのみの再構成画像41-4を機械学習した学習済みモデルである。 Note that the artifact correction processing function 54-3 selects a suitable correction model 41-7 for the subject information 41-1 acquired by the reconstructed image acquisition function 54-1, and the selected correction model 41-7 , the reconstructed image 41-4 is applied to . A suitable correction model 41-7 is, for example, a learned model obtained by machine-learning the reconstructed image 41-4 of only the subject P. FIG.
なお、アーチファクト補正処理機能54-3は、被検体Pのみの再構成画像41-4を機械学習した補正モデル41-7が存在しない場合には、被検体Pの再構成画像41-4と他の被検体の再構成画像41-4とが反映された学習済みモデルを選択してもよいし、被検体情報41-1が類似する(例えば、性別、身長、体重、撮影部位等の一部または全部が類似する)他の被検体の再構成画像41-4が反映された学習済みモデルを選択してもよい。 Note that the artifact correction processing function 54-3 does not have a correction model 41-7 obtained by machine-learning the reconstructed image 41-4 of only the subject P, and the reconstructed image 41-4 of the subject P and other images. A trained model reflecting the reconstructed image 41-4 of the subject may be selected, or the subject information 41-1 is similar (for example, sex, height, weight, part of the imaged part, etc.) may be selected. Alternatively, a trained model in which the reconstructed image 41-4 of another subject (all similar) is reflected may be selected.
[第1学習機能]
以下、第1学習機能57による処理について説明する。図4は、第1学習機能57の構成図である。第1学習機能57は、例えば、再構成画像取得機能57-1と、アーチファクト判定結果受付機能57-2と、判定モデル生成機能57-3とを備える。
[First learning function]
Processing by the
再構成画像取得機能57-1は、メモリ41から、学習データである被検体情報41-1と再構成画像41-4を取得する。
The reconstructed image acquisition function 57-1 acquires subject information 41-1 and reconstructed image 41-4, which are learning data, from the
アーチファクト判定結果受付機能57-2は、アーチファクト判定機能54-2により判定された、再構成画像41-4に含まれるアーチファクトを含むか否かに関する判定結果を受け付ける。 The artifact determination result reception function 57-2 receives the determination result regarding whether or not the reconstructed image 41-4 includes artifacts, which is determined by the artifact determination function 54-2.
判定モデル生成機能57-3は、再構成画像取得機能57-1により取得された再構成画像41-4と、アーチファクト判定結果受付機能57-2により受け付けられた判定結果とに基づいて、再構成画像41-4が入力されたときに該再構成画像41-4がオーバーフローアーチファクトを含むか否かを示す情報を出力する判定モデル41-6を生成する。 The determination model generation function 57-3 reconstructs images based on the reconstructed image 41-4 acquired by the reconstructed image acquisition function 57-1 and the determination result received by the artifact determination result reception function 57-2. A determination model 41-6 is generated that outputs information indicating whether or not the reconstructed image 41-4 contains an overflow artifact when the image 41-4 is input.
[判定モデル]
判定モデル生成機能57-3は、再構成画像取得機能57-1により取得された再構成画像41-4を学習データとし、その再構成画像41-4に対応付けられた、再構成画像41-4にオーバーフローアーチファクトが含まれるか否かを示す情報(アーチファクト判定結果受付機能57-2により判定された判定結果)を教師データとして機械学習を行うことで、判定モデル41-6を生成する。なお、判定モデル生成機能57-3は、外部装置により実現されてもよい。
[Judgment model]
The judgment model generation function 57-3 uses the reconstructed image 41-4 acquired by the reconstructed image acquisition function 57-1 as learning data, and the reconstructed image 41-4 associated with the reconstructed image 41-4. 4 (determination result determined by the artifact determination result receiving function 57-2) is used as teaching data to perform machine learning to generate a determination model 41-6. Note that the judgment model generation function 57-3 may be realized by an external device.
図5は、判定モデル41-6による処理の内容について説明するための図である。アーチファクト判定機能54-2は、再構成画像41-4をパラメータとして判定モデル41-6に入力することで、再構成画像41-4にオーバーフローアーチファクトが含まれるか否かを示す情報を出力する。 FIG. 5 is a diagram for explaining the details of processing by the judgment model 41-6. The artifact determination function 54-2 inputs the reconstructed image 41-4 as a parameter to the determination model 41-6, thereby outputting information indicating whether or not the reconstructed image 41-4 contains an overflow artifact.
なお、図5に示した処理において、再構成画像41-4の代替として、投影データ41-3が入力パラメータとして利用されてもよい。 Note that in the processing shown in FIG. 5, the projection data 41-3 may be used as an input parameter instead of the reconstructed image 41-4.
図6は、判定モデル生成機能57-3による判定モデル生成処理を説明するための図である。判定モデル生成機能57-3は、予め接続情報等が定義されると共に接続係数等のパラメータが暫定的に設定された機械学習モデル(以下、第1の機械学習モデルと称する場合がある)に対して、複数セットの学習データを入力し、その結果が、学習データに対応する教師データに近づくように、機械学習モデルにおけるパラメータを調整する。判定モデル生成機能57-3は、例えば、被検体情報41-1に含まれる、ある被検体Pの再構成画像41-4を学習データとし、その撮影時の再構成画像41-4にオーバーフローアーチファクトが含まれるか否かを示す情報を教師データとする学習済みモデルを生成する機械学習モデルを生成する。 FIG. 6 is a diagram for explaining judgment model generation processing by the judgment model generation function 57-3. The judgment model generation function 57-3 generates a machine learning model (hereinafter sometimes referred to as a first machine learning model) in which connection information etc. are defined in advance and parameters such as connection coefficients are provisionally set. Then, a plurality of sets of learning data are input, and the parameters in the machine learning model are adjusted so that the result approaches the teacher data corresponding to the learning data. The judgment model generation function 57-3 uses, for example, a reconstructed image 41-4 of a certain subject P included in the subject information 41-1 as learning data, and an overflow artifact in the reconstructed image 41-4 at the time of imaging. A machine learning model is generated that generates a trained model using information indicating whether or not is included as teacher data.
判定モデル生成機能57-3は、例えば、バックプロパゲーション(逆誤差伝搬法)によって機械学習モデルのパラメータを調整する。機械学習モデルは、例えば、CNN(Convolution Neural Network)を利用したDNN(Deep Neural Network)である。なお、機械学習モデルは、より新しい学習データがアウトプットとして反映されやすくなるように、学習データ毎に重み付け設定などを行ってもよい。 The judgment model generation function 57-3 adjusts the parameters of the machine learning model by, for example, back propagation (back propagation method). The machine learning model is, for example, a DNN (Deep Neural Network) using a CNN (Convolution Neural Network). Note that the machine learning model may perform weighting setting for each learning data so that newer learning data is more likely to be reflected as an output.
判定モデル生成機能57-3は、予め定められたセット数の学習データと、対応する教師データについてバックプロパゲーションを行うと、処理を終了する。その時点の機械学習モデルが判定モデル41-6として記憶される。なお、判定モデル生成機能57-3は、ある被検体Pの再構成画像41-4と、その再構成画像41-4にオーバーフローアーチファクトが含まれるか否かを示す情報とのセットとを用いて判定モデル41-6を生成してもよい。 The judgment model generation function 57-3 ends the process after performing back propagation on a predetermined number of sets of learning data and the corresponding teacher data. The machine learning model at that time is stored as the judgment model 41-6. Note that the judgment model generation function 57-3 uses a set of the reconstructed image 41-4 of a subject P and information indicating whether or not the reconstructed image 41-4 contains an overflow artifact. A judgment model 41-6 may be generated.
[第2学習機能]
以下、第2学習機能58による処理について説明する。図7は、第2学習機能58の構成図である。第2学習機能58は、例えば、再構成画像取得機能58-1と、アーチファクト補正結果受付機能58-2と、補正モデル生成機能58-3とを備える。
[Second learning function]
Processing by the
再構成画像取得機能58-1は、メモリ41から、学習データである被検体情報41-1と再構成画像41-4、および教師データである補正画像41-5を取得する。
The reconstructed image acquisition function 58-1 acquires from the
アーチファクト補正結果受付機能58-2は、アーチファクト補正処理機能54-3により学習データである再構成画像41-4に対して補正処理が行われたか否かを示す情報を受け付ける。 The artifact correction result reception function 58-2 receives information indicating whether or not the artifact correction processing function 54-3 has performed correction processing on the reconstructed image 41-4, which is the learning data.
補正モデル生成機能58-3は、再構成画像取得機能58-1により取得された再構成画像41-4と、アーチファクト補正結果受付機能58-2により受け付けられた補正処理が行われたか否かを示す情報に基づいて、補正モデル41-7を生成する。 The correction model generation function 58-3 determines whether or not the correction processing accepted by the artifact correction result acceptance function 58-2 has been performed with the reconstructed image 41-4 acquired by the reconstructed image acquisition function 58-1. A correction model 41-7 is generated based on the indicated information.
[補正モデル]
図8は、補正モデル41-7による処理の内容について説明するための図である。アーチファクト補正処理機能54-3は、被検体情報41-1と再構成画像41-4とをパラメータとして補正モデル41-7に入力することで、再構成画像41-4に含まれるオーバーフローアーチファクトを補正した補正画像41-5を出力する。
[Correction model]
FIG. 8 is a diagram for explaining the contents of processing by the correction model 41-7. The artifact correction processing function 54-3 corrects overflow artifacts contained in the reconstructed image 41-4 by inputting the subject information 41-1 and the reconstructed image 41-4 as parameters into the correction model 41-7. A corrected image 41-5 is output.
図8に示す処理は、同一被検体Pの再構成画像41-4のみを学習データとすることで後続処理であるアーチファクト補正の処理の正確性を高めることが望ましい。しかしながら、必要数の学習データが収集できない段階においては、被検体Pと類似する被検体情報41-1に対応付けられた再構成画像41-4を学習データに含めてもよい。 In the processing shown in FIG. 8, it is preferable to use only the reconstructed image 41-4 of the same subject P as learning data to improve the accuracy of the subsequent processing of artifact correction. However, at the stage where the required number of learning data cannot be collected, the reconstructed image 41-4 associated with the subject information 41-1 similar to the subject P may be included in the learning data.
図9は、補正モデル生成機能58-3の補正モデル生成処理を説明するための図である。補正モデル生成機能58-3は、予め接続情報等が定義されると共に接続係数等のパラメータが暫定的に設定された機械学習モデル(以下、第2の機械学習モデルと称する場合がある)に対して、複数セットの学習データを入力し、その結果が、学習データに対応する教師データに近づくように、機械学習モデルにおけるパラメータを調整する。補正モデル生成機能58-3は、例えば、被検体情報41-1に含まれる、ある被検体Pの被検体情報41-1と再構成画像41-4とのセットとを学習データとし、その撮影時の再構成画像41-4を補正した補正画像41-5を教師データとする学習済みモデルを生成する機械学習モデルを生成する。 FIG. 9 is a diagram for explaining the correction model generation processing of the correction model generation function 58-3. The correction model generation function 58-3 generates a machine learning model in which connection information etc. are defined in advance and parameters such as connection coefficients are provisionally set (hereinafter sometimes referred to as a second machine learning model). Then, a plurality of sets of learning data are input, and the parameters in the machine learning model are adjusted so that the result approaches the teacher data corresponding to the learning data. The correction model generation function 58-3 uses, for example, a set of object information 41-1 and a reconstructed image 41-4 of a certain object P, which are included in the object information 41-1, as learning data, and performs imaging thereof. A machine learning model is generated for generating a learned model using a corrected image 41-5 obtained by correcting the reconstructed image 41-4 at the time as teacher data.
補正モデル生成機能58-3は、例えば、判定モデル生成機能57-3と同様に、バックプロパゲーション(逆誤差伝搬法)によってDNN等の機械学習モデルのパラメータを調整する。なお、機械学習モデルは、より新しい学習データがアウトプットとして反映されやすくなるように、学習データ毎に重み付け設定などを行ってもよい。 The correction model generation function 58-3, for example, similarly to the judgment model generation function 57-3, adjusts the parameters of the machine learning model such as DNN by back propagation. Note that the machine learning model may perform weighting setting for each learning data so that newer learning data is more likely to be reflected as an output.
補正モデル生成機能58-3は、予め定められたセット数の学習データと、対応する教師データについてバックプロパゲーションを行うと、処理を終了する。その時点の機械学習モデルが補正モデル41-7として記憶される。なお、補正モデル生成機能58-3は、ある被検体Pの被検体情報41-1と再構成画像41-4とのセットと、その再構成画像41-4に対応付いた補正画像41-5とのセットとを用いて補正モデル41-7を生成してもよい。 The correction model generation function 58-3 ends the process after performing back propagation on a predetermined number of sets of learning data and the corresponding teacher data. The machine learning model at that time is stored as a correction model 41-7. Note that the correction model generation function 58-3 generates a set of the object information 41-1 of a certain object P and the reconstructed image 41-4, and the corrected image 41-5 associated with the reconstructed image 41-4. and a set of , may be used to generate the correction model 41-7.
なお、補正モデル生成機能58-3は、予め定められたセット数以上の学習データの被検体Pのみの再構成画像41-4が存在する場合、被検体Pのみの再構成画像41-4を機械学習した学習済みモデルを生成する。補正モデル生成機能58-3は、被検体Pのみの再構成画像41-4が予め定められたセット数存在しない場合には、被検体Pの再構成画像41-4と他の被検体の再構成画像41-4とが反映された補正モデル41-7を生成してもよいし、被検体情報41-1が類似する(例えば、性別、身長、体重、撮影部位等が類似する)他の被検体の再構成画像41-4が反映された補正モデル41-7を生成してもよい。 Note that the correction model generation function 58-3 generates the reconstructed image 41-4 of only the subject P of the learning data of the number of sets equal to or more than the predetermined number. Generate a machine-learned trained model. The correction model generating function 58-3 generates the reconstructed image 41-4 of the subject P and the reconstructed images 41-4 of the other subjects when the predetermined number of sets of the reconstructed image 41-4 of only the subject P does not exist. A correction model 41-7 that reflects the configuration image 41-4 may be generated, or other models having similar subject information 41-1 (for example, similar sex, height, weight, and radiographed parts) may be generated. A correction model 41-7 may be generated in which the reconstructed image 41-4 of the subject is reflected.
[人工的なアーチファクト]
以下、人工的なアーチファクトを用いた補正方法について説明する。図10は、補正画像41-5の生成方法について説明するための図である。X線管11から被検体Pに照射されるX線量を検出するX線検出器15の領域a1+a2において、領域a1は想定通りに再構成画像41-4が取得できた(オーバーフローしない)場合であっても、オーバーフローを誘発しやすい撮影部位(肩部や骨盤部を測定する際に、吸収が少ない体表辺縁)を透過したX線を検出する領域a2においてカウント値の最大値がオーバーフローすることがある。
[artificial artifact]
A correction method using artificial artifacts will be described below. FIG. 10 is a diagram for explaining the method of generating the corrected image 41-5. In the area a1+a2 of the
アーチファクト補正処理機能54-3は、領域a2に対応付いた検出データ41-2のカウント値のオーバーフローを検出した場合、領域a1および領域a2に対応付いた検出データ41-2を補正対象とする。アーチファクト補正処理機能54-3は、領域a2に対応付いた検出データ41-2のカウント値のみを補正するものではない。 When an overflow of the count value of the detection data 41-2 associated with the area a2 is detected, the artifact correction processing function 54-3 makes the detection data 41-2 associated with the areas a1 and a2 to be corrected. The artifact correction processing function 54-3 does not only correct the count value of the detection data 41-2 associated with the area a2.
アーチファクト補正処理機能54-3は、例えば、過去に取得された再構成画像41-4のうち、オーバーフローアーチファクトが含まれないことが操作者によって確認されているものに対応付いた検出データ41-2に、オーバーフローアーチファクトが検出された再構成画像41-4を再現するカウントゲインを施す。カウントゲインは、例えば、領域a2に対応付いたカウント値を、オーバーフロー状態を再現する値になるまで上昇させることである。アーチファクト補正処理機能54-3は、このようにして撮影部位に基づく人工的なオーバーフローアーチファクトを追加した再構成画像を生成する。アーチファクト補正処理機能54-3は、上述のカウントゲインの逆演算をオーバーフローアーチファクトが検出された再構成画像41-4に行うことで、アーチファクト補正処理を行う。 The artifact correction processing function 54-3, for example, among the reconstructed images 41-4 acquired in the past, detects the detected data 41-2 associated with the image that the operator has confirmed does not contain the overflow artifact. is subjected to a count gain that reproduces the reconstructed image 41-4 in which the overflow artifact is detected. The count gain is, for example, to increase the count value associated with area a2 to a value that reproduces the overflow state. The artifact correction processing function 54-3 thus generates a reconstructed image to which artificial overflow artifacts based on the imaging region are added. The artifact correction processing function 54-3 performs artifact correction processing by performing the above-described inverse calculation of the count gain on the reconstructed image 41-4 in which overflow artifacts are detected.
また、補正モデル生成機能58-3は、上述の人工的なオーバーフローアーチファクトを追加した再構成画像とその被検体情報とを学習データとしてもよいし、元の再構成画像を学習データとしてもよい。 Further, the correction model generation function 58-3 may use the reconstructed image to which the above artificial overflow artifact is added and the object information thereof as learning data, or may use the original reconstructed image as learning data.
[処理フロー1]
図11は、X線CT装置1による撮影処理の流れの一例を示すフローチャートである。
[Processing flow 1]
FIG. 11 is a flowchart showing an example of the flow of imaging processing by the
まず、再構成画像取得機能54-1は、再構成画像41-4と、再構成画像41-4に対応付いた被検体情報41-1を取得する(ステップS100)。次に、アーチファクト判定機能54-2は、再構成画像41-4にオーバーフローアーチファクトが含まれるか否かを判定する(ステップS102)。アーチファクト判定機能54-2は、オーバーフローアーチファクトが含まれないと判定した場合、処理を終了する。 First, the reconstructed image acquisition function 54-1 acquires the reconstructed image 41-4 and subject information 41-1 associated with the reconstructed image 41-4 (step S100). Next, the artifact determination function 54-2 determines whether or not the reconstructed image 41-4 contains an overflow artifact (step S102). When the artifact determination function 54-2 determines that the overflow artifact is not included, the processing ends.
アーチファクト判定機能54-2は、ステップS102においてオーバーフローアーチファクトを含むと判定した場合、メモリ41に記憶された補正モデル41-7の中に、同一被検体の再構成画像のみを学習データとした補正モデル41-7が存在するか否かを判定する(ステップS104)。
When the artifact determination function 54-2 determines that an overflow artifact is included in step S102, the correction model 41-7 stored in the
アーチファクト補正処理機能54-3は、ステップS104においてアーチファクト判定機能54-2により同一被検体の再構成画像のみを補正モデル41-7が存在すると判定された場合、その補正モデル41-7に再構成画像41-4と、対応付いた被検体情報41-1を入力して、オーバーフローアーチファクトの補正された補正画像41-5を得る(ステップS106)。 If the artifact determination function 54-2 determines in step S104 that only the reconstructed image of the same subject is present in the correction model 41-7, the artifact correction processing function 54-3 reconstructs the image using the correction model 41-7. By inputting the image 41-4 and the associated object information 41-1, a corrected image 41-5 in which the overflow artifact is corrected is obtained (step S106).
アーチファクト判定機能54-2は、ステップS104において、同一被検体の再構成画像のみを学習済みモデルが存在すると判定されなかった場合、他の好適な補正モデル41-7があるか否かを判定する(ステップS108)。アーチファクト判定機能54-2は、他の好適な学習済みモデルがあると判定した場合、選択した補正モデル41-7に再構成画像41-4と、対応付いた被検体情報41-1を入力して、アーチファクトの補正された補正画像41-5を得る(ステップS110)。アーチファクト判定機能54-2は、他の好適な学習済みモデルがあると判定しなかった場合、後述するステップS112に処理を進める。 The artifact determination function 54-2 determines whether or not there is another suitable correction model 41-7 if it is not determined in step S104 that there is a trained model for only the reconstructed image of the same subject. (Step S108). When the artifact determination function 54-2 determines that there is another suitable learned model, it inputs the reconstructed image 41-4 and the associated subject information 41-1 to the selected correction model 41-7. to obtain a corrected image 41-5 in which artifacts have been corrected (step S110). If the artifact determination function 54-2 does not determine that there is another suitable trained model, the process proceeds to step S112, which will be described later.
ステップS106またはS110の処理の後、第1学習機能57および第2学習機能は、それぞれ学習データを保存する(ステップS112)。なお、ステップS112の処理において、アーチファクト補正処理機能54-3は、操作者によるアーチファクト補正(補正のやり直し、または微調整)の操作を受け付けてもよい。以上、本フローチャートの処理の説明を終了する。
After the process of step S106 or S110, the
[処理フロー2]
図12は、第1学習機能57による第1の学習処理の流れの一例を示すフローチャートである。図12のフローチャートは、例えば、図10のステップS114により、所定セット数以上の学習データが保存された場合に行われる。
[Processing flow 2]
FIG. 12 is a flow chart showing an example of the flow of the first learning process by the
まず、第1学習機能57は、1セットの学習データを取得する(ステップS200)。次に、第1学習機能57は、ステップS200で取得した1セットの学習データを第1の機械学習モデルに入力し(ステップS202)、1セットの学習データに対応する教師データから誤差を逆伝搬させる(ステップS204)。
First, the
次に、第1学習機能57は、所定セット数の学習データについてステップS202およびS204の処理を行ったか否かを判定する(ステップS206)。所定セット数の学習データについてステップS202およびS204の処理を行っていない場合、第1学習機能57は、ステップS200に処理を戻す。所定セット数の学習データについてステップS202およびS204の処理を行った場合、第1学習機能57は、その時点のパラメータを用いて判定モデル41-6を確定し(ステップS208)、本フローチャートの処理を終了する。
Next, the
[処理フロー3]
図13は、第2学習機能58による第2の学習処理の流れの一例を示すフローチャートである。図13のフローチャートは、例えば、図10のステップS114により、所定セット数以上の学習データが保存された場合に行われる。
[Processing flow 3]
FIG. 13 is a flow chart showing an example of the flow of the second learning process by the
まず、第2学習機能58は、1セットの学習データを取得する(ステップS300)。次に、第2学習機能58は、ステップS300で取得した1セットの学習データを第2の機械学習モデルに入力し(ステップS302)、1セットの学習データに対応する教師データから誤差を逆伝搬させる(ステップS304)。
First, the
次に、第2学習機能58は、所定セット数の学習データについてステップS302およびS304の処理を行ったか否かを判定する(ステップS306)。所定セット数の学習データについてステップS302およびS304の処理を行っていない場合、第2学習機能58は、ステップS300に処理を戻す。所定セット数の学習データについてステップS302およびS304の処理を行った場合、第2学習機能58は、その時点のパラメータを用いて補正モデル41-7を確定し(ステップS308)、本フローチャートの処理を終了する。
Next, the
なお、上述の画像処理機能54が処理する再構成画像41-4は、投影データ41-3に基づいて生成されたサイノグラムであってもよい。サイノグラムとは、種々の投影測定に対するX線検出器15に沿った位置の関数として、或いはX線管11とX線検出器15との間の投影角の関数として、身体を通過したX線の減衰を示すデータである。
The reconstructed image 41-4 processed by the
以上説明した第1の実施形態のX線CT装置1によれば、再構成画像41-4と被検体情報41-1とを取得する再構成画像取得機能54-1と、再構成画像41-4がオーバーフローアーチファクトを含むか否かを示す情報を出力する判定モデル41-6に対して、再構成画像取得機能54-1が取得した再構成画像41-4を入力することで、その再構成画像41-4がオーバーフローアーチファクトを含むか否かを示す情報を出力するアーチファクト判定機能54-2と、再構成画像41-4に基づいて、その再構成画像41-4に含まれるオーバーフローアーチファクトが補正された補正画像41-5を出力する補正モデル41-7に対して、再構成画像取得機能54-1が取得した再構成画像41-4を入力することで、その再構成画像取得機能54-1のオーバーフローアーチファクトが補正された補正画像41-5を生成するアーチファクト判定機能54-2と、を備えることで、オーバーフローアーチファクトの発生を抑制することができる。
According to the
(第2の実施形態)
以下、第2の実施形態のX線CT装置1Aについて説明する。なお、以下の説明において、第1の実施形態と同一の構成及び機能については第1の実施形態と同一の符号を付し、詳細な説明を省略する。また、第1の実施形態と同じ名称であるが構成または機能が異なるものについては、符号の末尾に「A」を付すものとする。
(Second embodiment)
The X-ray CT apparatus 1A of the second embodiment will be described below. In the following description, the same reference numerals as in the first embodiment are given to the same configurations and functions as in the first embodiment, and detailed description thereof will be omitted. Further, "A" is added to the end of the reference numerals for components that have the same names as those of the first embodiment but have different configurations or functions.
図14は、第2の実施形態に係る第1学習機能57Aの構成図である。第1学習機能57Aは、例えば、再構成画像取得機能57-1と、アーチファクト種別受付機能57-2Aと、種別判定モデル生成機能57-3Aとを備える。
FIG. 14 is a configuration diagram of the
アーチファクト種別受付機能57-2Aは、再構成画像取得機能57-1により取得された再構成画像41-4に含まれるアーチファクトの種別を受け付ける。アーチファクト種別受付機能57-2Aは、「第2判定部」の一例である。 The artifact type receiving function 57-2A receives the type of artifact included in the reconstructed image 41-4 acquired by the reconstructed image acquiring function 57-1. The artifact type reception function 57-2A is an example of the "second determination unit".
アーチファクト種別受付機能57-2Aは、例えば、操作者による、再構成画像取得機能57-1により取得された再構成画像41-4に含まれるアーチファクトの種別の入力を受け付けてもよいし、後述する種別判定モデル41-6Aにより出力されたアーチファクトの種別を示す情報を受け付けてもよい。また、アーチファクト種別受付機能57-2Aは、操作者により間接的に入力されるアーチファクトの種別を受け付けるであってもよい。間接的に入力されるとは、例えば、アーチファクト補正処理機能54-3が行った補正処理の内容から、アーチファクトの種別を類推し、その類推結果を入力とすることである。 The artifact type receiving function 57-2A may, for example, receive input by the operator of the type of artifact included in the reconstructed image 41-4 acquired by the reconstructed image acquiring function 57-1. Information indicating the type of artifact output by the type determination model 41-6A may be accepted. Further, the artifact type receiving function 57-2A may receive the type of artifact indirectly input by the operator. Indirect input means, for example, inferring the type of artifact from the content of the correction processing performed by the artifact correction processing function 54-3, and using the result of the analogy as an input.
種別判定モデル生成機能57-3Aは、再構成画像取得機能57-1により取得された再構成画像41-4に含まれるアーチファクトの種別を判別する種別判定モデル41-6Aを生成する。種別判定モデル生成機能57-3Aは、「種別判定モデル生成部」の一例である。 The type determination model generation function 57-3A generates a type determination model 41-6A for determining the type of artifact included in the reconstructed image 41-4 acquired by the reconstructed image acquisition function 57-1. The type determination model generation function 57-3A is an example of a "type determination model generation unit".
アーチファクトの種別とは、例えば、オーバーフローアーチファクトに加え、X線検出素子の出力異常を示すアーチファクト(リングアーチファクト)、X線検出器15の異常やX線管11の放電を示すアーチファクト(シャワーアーチファクト)、信号伝送ノイズにより生成されたアーチファクト(モアレアーチファクト)、検出フォトンの大幅な減少・欠落に起因するアーチファクト(ダークバンドアーチファクト)等である。なお、被検体Pが撮影中に動いたことに起因するアーチファクト(モーションアーチファクト)や、インプラントや人工関節等の被検体Pの体内の金属に起因するアーチファクト(メタルアーチファクト)等の画像補正が困難で通常再撮影を要するアーチファクトも、上述のアーチファクトの種別に含めてもよい。種別判定モデル41-6Aは、例えば、上述のアーチファクトの種別毎に生成され、単一のアーチファクトの種別を判定するものであってもよいし、単一の種別判定モデル41-6Aが複数種類のアーチファクトの種別を判定するものであってもよい。
The types of artifacts include, for example, in addition to overflow artifacts, artifacts indicating an abnormal output of the X-ray detection element (ring artifact), artifacts indicating an abnormality in the
種別判定モデル生成機能57-3Aは、種別判定モデル41-6Aを生成する。種別判定モデル41-6Aについては後述する。 The type determination model generation function 57-3A generates a type determination model 41-6A. The type determination model 41-6A will be described later.
[種別判定モデル]
種別判定モデル生成機能57-3Aは、再構成画像取得機能57-1により取得された再構成画像41-4を学習データとし、その再構成画像41-4に対応付けられた、アーチファクトの種別を示す情報を教師データとして機械学習を行うことで、種別判定モデル41-6Aを生成する。なお、種別判定モデル生成機能57-3Aは、外部装置により実現されてもよい。
[Type determination model]
The type determination model generation function 57-3A uses the reconstructed image 41-4 acquired by the reconstructed image acquisition function 57-1 as learning data, and determines the artifact type associated with the reconstructed image 41-4. By performing machine learning using the indicated information as teacher data, the type determination model 41-6A is generated. The type determination model generation function 57-3A may be realized by an external device.
図15は、種別判定モデル41-6Aによる処理の内容について説明するための図である。アーチファクト判定機能54-2Aは、再構成画像41-4をパラメータとして種別判定モデル41-6Aに入力することで、再構成画像41-4に含まれるアーチファクトの種別を示す情報を出力する。 FIG. 15 is a diagram for explaining the details of processing by the type determination model 41-6A. The artifact determination function 54-2A inputs the reconstructed image 41-4 as a parameter to the type determination model 41-6A, thereby outputting information indicating the type of artifact included in the reconstructed image 41-4.
アーチファクト判定機能54-2Aは、好適な種別判定モデル41-6Aを選択し、その種別判定モデル41-6Aに再構成画像41-4を入力することで得られる出力に基づいてアーチファクトの有無および種別の判定処理を行ってもよい。また、アーチファクト判定機能54-2Aは、操作者による種別判定モデル41-6Aの選択を示す入力操作を受け付け、選択された種別判定モデル41-6Aに再構成画像41-4を入力することで得られる出力に基づいてアーチファクトの有無および種別の判定処理を行ってもよい。 The artifact determination function 54-2A selects a suitable type determination model 41-6A, and determines the presence or absence and type of artifact based on the output obtained by inputting the reconstructed image 41-4 to the type determination model 41-6A. may be performed. Further, the artifact determination function 54-2A receives an input operation indicating selection of the type determination model 41-6A by the operator, and inputs the reconstructed image 41-4 to the selected type determination model 41-6A. The presence or absence and type of artifact may be determined based on the output obtained.
なお、図15に示した処理において、再構成画像41-4の代替として、投影データ41-3が入力パラメータとして入力されてもよい。 Note that in the processing shown in FIG. 15, the projection data 41-3 may be input as an input parameter instead of the reconstructed image 41-4.
アーチファクト補正処理機能54-3は、再構成画像41-4の補正に関する操作者の入力を受け付け、補正画像41-5を生成してもよい。また、アーチファクト補正処理機能54-3は、アーチファクト判定機能54-2Aの判定結果に基づいて、好適な補正モデル41-7を選択して、選択した補正モデル41-7に再構成画像41-4を入力することで、補正画像41-5を生成してもよい。 The artifact correction processing function 54-3 may receive an operator's input regarding correction of the reconstructed image 41-4 and generate a corrected image 41-5. Further, the artifact correction processing function 54-3 selects a suitable correction model 41-7 based on the determination result of the artifact determination function 54-2A, and converts the selected correction model 41-7 into the reconstructed image 41-4. may be input to generate the corrected image 41-5.
図16は、種別判定モデル生成機能57-3Aの種別判定モデル生成処理を説明するための図である。種別判定モデル生成機能57-3Aは、予め接続情報等が定義されると共に接続係数等のパラメータが暫定的に設定された機械学習モデル(以下、第3の機械学習モデルと称する場合がある)に対して、複数セットの学習データを入力し、その結果が、学習データに対応する教師データに近づくように、第3の機械学習モデルにおけるパラメータを調整する。判定モデル生成機能57-3は、例えば、再構成画像41-4を学習データとし、その再構成画像41-4に含まれるアーチファクトの種別を示す情報を教師データとする学習済みモデルを生成する第3の機械学習モデルを生成する。 FIG. 16 is a diagram for explaining the type determination model generation processing of the type determination model generation function 57-3A. The type determination model generation function 57-3A creates a machine learning model (hereinafter sometimes referred to as a third machine learning model) in which connection information etc. are defined in advance and parameters such as connection coefficients are provisionally set. On the other hand, a plurality of sets of learning data are input, and the parameters in the third machine learning model are adjusted so that the result approaches teacher data corresponding to the learning data. The judgment model generation function 57-3 generates a trained model using, for example, the reconstructed image 41-4 as learning data and information indicating the type of artifact contained in the reconstructed image 41-4 as training data. Generate 3 machine learning models.
種別判定モデル生成機能57-3Aは、例えば、第1の実施形態の判定モデル生成機能57-3と同様に、DNN等のバックプロパゲーション(逆誤差伝搬法)によって第3の機械学習モデルのパラメータを調整する。なお、第3の機械学習モデルは、より新しい学習データがアウトプットとして反映されやすくなるように、学習データ毎に重み付け設定などを行ってもよい。 The type determination model generation function 57-3A, for example, similarly to the determination model generation function 57-3 of the first embodiment, uses back propagation (back propagation method) such as DNN to generate the parameters of the third machine learning model. to adjust. Note that the third machine learning model may perform weighting setting for each learning data so that newer learning data is more likely to be reflected as an output.
種別判定モデル生成機能57-3Aは、予め定められたセット数の学習データと、対応する教師データについてバックプロパゲーションを行うと、処理を終了する。その時点の第3の機械学習モデルが種別判定モデル41-6Aとして記憶される。なお、種別判定モデル生成機能57-3Aは、ある再構成画像41-4と、その再構成画像41-4に含まれるアーチファクトの種別を示す情報とのセットとを用いて種別判定モデル41-6Aを生成してもよい。 When the type determination model generation function 57-3A performs back propagation on a predetermined number of sets of learning data and the corresponding teacher data, the process ends. The third machine learning model at that time is stored as the type determination model 41-6A. The type determination model generation function 57-3A generates a type determination model 41-6A using a set of a reconstructed image 41-4 and information indicating the type of artifact included in the reconstructed image 41-4. may be generated.
[処理フロー4]
図17は、X線CT装置1Aによる撮影処理の流れの一例を示すフローチャートである。
[Processing flow 4]
FIG. 17 is a flow chart showing an example of the flow of imaging processing by the X-ray CT apparatus 1A.
まず、再構成画像取得機能54-1は、再構成画像41-4を取得する(ステップS400)。次に、アーチファクト判定機能54-2Aは、種別判定モデル41-6Aに再構成画像41-4を入力し、アーチファクトの種別を示す情報を取得する(ステップS402)。次に、画像処理機能54は、特定したアーチファクトの種別をディスプレイ42に出力するよう表示制御機能56に出力指示し(ステップS404)、操作者によるアーチファクト補正の操作を受け付ける(ステップS406)。なお、ステップS406は、第1の実施形態と同様に、補正モデル41-7に再構成画像41-4を入力することで、補正画像41-5を生成してもよい。次に、第1学習機能57Aは、ステップS406の処理結果を学習データであるアーチファクトの種別を示す情報として保存する(ステップS408)。以上、本フローチャートの処理の説明を終了する。
First, the reconstructed image acquisition function 54-1 acquires the reconstructed image 41-4 (step S400). Next, the artifact determination function 54-2A inputs the reconstructed image 41-4 to the type determination model 41-6A and acquires information indicating the type of artifact (step S402). Next, the
[処理フロー5]
図18は、第1学習機能57Aによる第3の学習処理の流れの一例を示すフローチャートである。図18のフローチャートは、例えば、図17のステップS408により所定セット数以上の学習データが保存された場合や、X線CT装置1Aが1名の被検体の撮影を終了する度などのタイミングで行われる。
[Processing flow 5]
FIG. 18 is a flow chart showing an example of the flow of the third learning process by the
まず、第1学習機能57Aは、1セットの学習データを取得する(ステップS500)。次に、第1学習機能57Aは、ステップS200で取得した1セットの学習データを第3の機械学習モデルに入力し(ステップS502)、1セットの学習データに対応する教師データから誤差を逆伝搬させる(ステップS504)。
First, the
次に、第1学習機能57Aは、所定セット数の学習データについてステップS502およびS504の処理を行ったか否かを判定する(ステップS506)。所定セット数の学習データについてステップS502およびS504の処理を行っていない場合、第1学習機能57Aは、ステップS500に処理を戻す。所定セット数の学習データについてステップS502およびS504の処理を行った場合、第1学習機能57Aは、その時点のパラメータを用いて種別判定モデル41-6Aを確定し(ステップS508)、本フローチャートの処理を終了する。
Next, the
以上説明した第2の実施形態のX線CT装置1Aによれば、再構成画像41-4を取得する再構成画像取得機能54-1と、再構成画像41-4に含まれるアーチファクトの種別を出力する種別判定モデル41-6Aに対して、再構成画像41-4を入力することで、アーチファクトの種別を判定するアーチファクト判定機能54-2Aと、を備えることで、アーチファクトの補正に要する負荷(特に、アーチファクトの種別の判定に要する負荷と、そのアーチファクトの種別に応じた補正方法の選択に要する負荷)を低減させることができる。 According to the X-ray CT apparatus 1A of the second embodiment described above, the reconstructed image acquisition function 54-1 for acquiring the reconstructed image 41-4 and the type of artifact included in the reconstructed image 41-4 are By providing an artifact determination function 54-2A that determines the type of artifact by inputting the reconstructed image 41-4 to the output type determination model 41-6A, the load required for correcting the artifact ( In particular, the load required for determining the type of artifact and the load required for selecting a correction method according to the type of artifact can be reduced.
上記説明した実施形態は、以下のように表現することができる。
ハードウェアプロセッサと、
プログラムを記憶した記憶装置と、を備え、
第1の医用データを取得し、
前記取得された第1の医用データがオーバーフローアーチファクトを含むか否かを判定し、
医用データが入力されたときにオーバーフローアーチファクトが補正された医用データを出力する補正モデルに対して、前記オーバーフローアーチファクトを含むと判定された前記第1の医用データを入力することで、前記第1の医用データのオーバーフローアーチファクトが補正された医用データを生成する、
ように構成されている、医用画像処理装置。
The embodiment described above can be expressed as follows.
a hardware processor;
a storage device storing a program,
obtaining first medical data;
determining whether the acquired first medical data includes an overflow artifact;
By inputting the first medical data determined to include the overflow artifact to a correction model that outputs medical data in which the overflow artifact is corrected when the medical data is input, generating medical data corrected for medical data overflow artifacts;
A medical image processing apparatus configured as follows.
以上説明した少なくともひとつの実施形態のX線CT装置によれば、第1の医用データ(41-4)を取得する取得部(54-1)と、前記取得された第1の医用データがオーバーフローアーチファクトを含むか否かを判定する第1判定部(54-2)と、医用データが入力されたときにオーバーフローアーチファクトが補正された医用データを出力する補正モデル(41-7)に対して、前記第1判定部によりオーバーフローアーチファクトを含むと判定された前記第1の医用データを入力することで、前記第1の医用データのオーバーフローアーチファクトが補正された医用データ(41-5)を生成する補正部(54-3)と、を備えることにより、オーバーフローにより発生するアーチファクトを低減することができる。 According to the X-ray CT apparatus of at least one embodiment described above, the acquisition unit (54-1) for acquiring the first medical data (41-4) and the acquired first medical data overflow For a first determination unit (54-2) that determines whether or not an artifact is included, and a correction model (41-7) that outputs medical data in which overflow artifacts are corrected when medical data is input, Correction for generating medical data (41-5) in which the overflow artifact of the first medical data is corrected by inputting the first medical data determined to include the overflow artifact by the first determining unit. By providing the part (54-3), it is possible to reduce artifacts caused by overflow.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の軽減、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be embodied in various other forms, and various reductions, substitutions, and alterations can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.
1…X線CT装置
10…架台装置
11…X線管
12…ウェッジ
13…コリメータ
14…X線高電圧装置
15…X線検出器
16…データ収集システム
17…回転フレーム
18…制御装置
30…寝台装置
31…基台
32…寝台駆動装置
33…天板
34…支持フレーム
40…コンソール装置
50…処理回路
54-1…再構成画像取得機能
54-2、54-2A…アーチファクト判定機能
54-3…アーチファクト補正処理機能
57、57A…第1学習機能
57-3…判定モデル生成機能
57-3A…種別判定モデル生成機能
58…第2学習機能
58-3…補正モデル生成機能
DESCRIPTION OF
Claims (9)
前記取得された第1の医用データがオーバーフローアーチファクトを含むか否かを判定する第1判定部と、
医用データおよび前記医用データに対応付けられた被検体情報が入力されたときにオーバーフローアーチファクトが補正された医用データを出力する補正モデルに対して、前記第1判定部によりオーバーフローアーチファクトを含むと判定された前記第1の医用データおよび前記第1の医用データに対応付けられた前記被検体情報を入力することで、前記第1の医用データのオーバーフローアーチファクトが補正された医用データを生成する補正部と、
を備える医用画像処理装置。 an acquisition unit that acquires first medical data and subject information associated with the first medical data ;
a first determination unit that determines whether the acquired first medical data includes an overflow artifact;
When the medical data and the subject information associated with the medical data are input, the first determination unit determines that the overflow artifact is included in the correction model that outputs the medical data in which the overflow artifact is corrected. a correction unit that generates medical data in which overflow artifacts of the first medical data are corrected by inputting the first medical data and the subject information associated with the first medical data; ,
A medical image processing apparatus comprising:
請求項1に記載の医用画像処理装置。 The first determination unit inputs the obtained first medical data to a determination model that outputs information indicating whether an overflow artifact is included when the first medical data is input. determining whether the obtained first medical data includes an overflow artifact;
The medical image processing apparatus according to claim 1.
請求項1または2に記載の医用画像処理装置。 When there is a correction model that reflects medical data corrected for overflow artifacts of the same subject as the subject identified by the subject information associated with the first medical data, the correction unit correcting the medical data using a correction model that reflects the medical data in which the overflow artifact of the same subject is corrected;
The medical image processing apparatus according to claim 1 or 2.
前記補正モデル生成部は、オーバーフローアーチファクトを含まない医用データの被検体の撮影部位に基づく人工的なアーチファクトを、前記オーバーフローアーチファクトを含まない医用データに追加した医用データを用いて前記補正モデルを生成する、
請求項1から3のうちいずれか1項に記載の医用画像処理装置。 further comprising a correction model generation unit that generates the correction model,
The correction model generation unit generates the correction model using medical data obtained by adding an artificial artifact based on an imaging region of a subject in medical data not including overflow artifacts to the medical data not including overflow artifacts. ,
The medical image processing apparatus according to any one of claims 1 to 3.
請求項4に記載の医用画像処理装置。 The correction model generation unit adds the artificial artifact to the medical data that does not contain the overflow artifact by increasing the count value for the medical data that does not contain the overflow artifact.
The medical image processing apparatus according to claim 4.
をさらに備える、請求項1から5のうちいずれか1項に記載の医用画像処理装置。 a determination model generation unit that generates a determination model using the first medical data as learning data and a determination result of the first medical data by the first determination unit as teacher data;
The medical image processing apparatus according to any one of claims 1 to 5, further comprising:
第1の医用データおよび前記第1の医用データに対応付けられた被検体情報を取得し、
前記取得された第1の医用データがオーバーフローアーチファクトを含むか否かを判定し、
医用データおよび前記医用データに対応付けられた被検体情報が入力されたときにオーバーフローアーチファクトが補正された医用データを出力する補正モデルに対して、前記オーバーフローアーチファクトを含むと判定された前記第1の医用データおよび前記第1の医用データに対応付けられた前記被検体情報を入力することで、前記第1の医用データのオーバーフローアーチファクトが補正された医用データを生成する、
医用画像処理方法。 the computer
obtaining first medical data and subject information associated with the first medical data ;
determining whether the acquired first medical data includes an overflow artifact;
The first method determined to include the overflow artifact with respect to a correction model that outputs medical data in which the overflow artifact is corrected when medical data and subject information associated with the medical data are input. generating medical data in which an overflow artifact of the first medical data is corrected by inputting medical data and the subject information associated with the first medical data;
Medical image processing method.
請求項1から6のうちいずれか1項に記載の医用画像処理装置。 By inputting the acquired first medical data to a type determination model that outputs information indicating the type of artifact contained in the medical data based on the medical data, the acquired first medical data includes Further comprising a second determination unit that determines the type of artifact,
The medical image processing apparatus according to any one of claims 1 to 6 .
前記種別判定モデル生成部は、前記第1の医用データを学習データとし、前記第1の医用データに含まれるアーチファクトの種別を示す情報を教師データとして機械学習を行うことで、前記種別判定モデルを生成する、
請求項8に記載の医用画像処理装置。 further comprising a type determination model generation unit that generates the type determination model,
The type determination model generation unit generates the type determination model by performing machine learning using the first medical data as learning data and information indicating the type of the artifact included in the first medical data as training data. generate,
The medical image processing apparatus according to claim 8.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018221418A JP7144292B2 (en) | 2018-11-27 | 2018-11-27 | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD |
| JP2022145479A JP7309988B2 (en) | 2018-11-27 | 2022-09-13 | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018221418A JP7144292B2 (en) | 2018-11-27 | 2018-11-27 | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022145479A Division JP7309988B2 (en) | 2018-11-27 | 2022-09-13 | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020081460A JP2020081460A (en) | 2020-06-04 |
| JP7144292B2 true JP7144292B2 (en) | 2022-09-29 |
Family
ID=70904990
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018221418A Active JP7144292B2 (en) | 2018-11-27 | 2018-11-27 | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7144292B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023168941A (en) * | 2022-05-16 | 2023-11-29 | 富士フイルムヘルスケア株式会社 | Ultrasonic time-series data processing device and ultrasonic time-series data processing program |
| JP2023180385A (en) * | 2022-06-09 | 2023-12-21 | 富士フイルムヘルスケア株式会社 | Ultrasonic time series data processing device and ultrasound time series data processing program |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013158630A (en) | 2012-02-09 | 2013-08-19 | Toshiba Corp | X-ray diagnostic system and x-ray diagnostic method |
| JP2015514491A (en) | 2012-04-23 | 2015-05-21 | コーニンクレッカ フィリップス エヌ ヴェ | Artifact removal by shape detection |
| US20170365047A1 (en) | 2016-06-15 | 2017-12-21 | General Electric Company | Artifact management in imaging |
| US20170372193A1 (en) | 2016-06-23 | 2017-12-28 | Siemens Healthcare Gmbh | Image Correction Using A Deep Generative Machine-Learning Model |
| CN107945132A (en) | 2017-11-29 | 2018-04-20 | 深圳安科高技术股份有限公司 | A kind of artifact correction method and device of the CT images based on neutral net |
-
2018
- 2018-11-27 JP JP2018221418A patent/JP7144292B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013158630A (en) | 2012-02-09 | 2013-08-19 | Toshiba Corp | X-ray diagnostic system and x-ray diagnostic method |
| JP2015514491A (en) | 2012-04-23 | 2015-05-21 | コーニンクレッカ フィリップス エヌ ヴェ | Artifact removal by shape detection |
| US20170365047A1 (en) | 2016-06-15 | 2017-12-21 | General Electric Company | Artifact management in imaging |
| US20170372193A1 (en) | 2016-06-23 | 2017-12-28 | Siemens Healthcare Gmbh | Image Correction Using A Deep Generative Machine-Learning Model |
| CN107945132A (en) | 2017-11-29 | 2018-04-20 | 深圳安科高技术股份有限公司 | A kind of artifact correction method and device of the CT images based on neutral net |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2020081460A (en) | 2020-06-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11410350B2 (en) | Medical image processing apparatus and X-ray CT apparatus | |
| JP7678056B2 (en) | X-ray CT device | |
| US11080898B2 (en) | Adaptive processing of medical images to reduce noise magnitude | |
| US11241212B2 (en) | Medical apparatus | |
| JP7144292B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD | |
| JP2023119375A (en) | X-ray ct apparatus, determination method, and program | |
| JP7462433B2 (en) | Medical diagnostic system, medical diagnostic device, and medical information processing device | |
| US11328460B2 (en) | X-ray CT system and processing method | |
| JP2024054373A (en) | Medical image diagnostic device and medical image diagnostic method | |
| JP7179479B2 (en) | X-ray CT device | |
| JP7309988B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD | |
| JP7619869B2 (en) | Medical image processing method, medical image processing device, and X-ray CT device | |
| JP7309381B2 (en) | Medical image diagnostic device and medical bed device | |
| JP5595724B2 (en) | X-ray CT system | |
| JP7301607B2 (en) | Radiological diagnostic equipment | |
| JP7224208B2 (en) | Medical processing equipment and medical diagnostic systems | |
| CN111973211A (en) | Medical image diagnosis device | |
| JP2020192319A (en) | Medical diagnostic imaging equipment | |
| JP7370802B2 (en) | Medical image processing equipment and X-ray CT equipment | |
| JP7320934B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD | |
| US20250311995A1 (en) | Medical image diagnostic device and method of controlling medical image diagnostic device | |
| US20240099675A1 (en) | Medical image processing device and medical image processing method | |
| JP2020005971A (en) | X-ray CT apparatus and correction method | |
| US20230145523A1 (en) | Medical image processing apparatus, x-ray ct apparatus, medical image processing method and non-volatile storage medium storing program | |
| JP7062514B2 (en) | X-ray CT device and X-ray tube control device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211005 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220817 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220915 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7144292 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |