[go: up one dir, main page]

JP7144292B2 - MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD - Google Patents

MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD Download PDF

Info

Publication number
JP7144292B2
JP7144292B2 JP2018221418A JP2018221418A JP7144292B2 JP 7144292 B2 JP7144292 B2 JP 7144292B2 JP 2018221418 A JP2018221418 A JP 2018221418A JP 2018221418 A JP2018221418 A JP 2018221418A JP 7144292 B2 JP7144292 B2 JP 7144292B2
Authority
JP
Japan
Prior art keywords
medical data
artifact
overflow
function
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018221418A
Other languages
Japanese (ja)
Other versions
JP2020081460A (en
Inventor
修也 南部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018221418A priority Critical patent/JP7144292B2/en
Publication of JP2020081460A publication Critical patent/JP2020081460A/en
Priority to JP2022145479A priority patent/JP7309988B2/en
Application granted granted Critical
Publication of JP7144292B2 publication Critical patent/JP7144292B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、医用画像処理装置および医用画像処理方法に関する。 TECHNICAL FIELD Embodiments of the present invention relate to a medical image processing apparatus and a medical image processing method.

従来、X線CT装置等の画像診断装置において、被検体の厚さの分布の推定結果に基づいて、検出器が収集したデータを出力する際の増幅率を決定するゲイン(Gain)を調整することにより、カウント値の最大値がオーバーフローしないように検出器の設定を最適化する技術が公開されている。 Conventionally, in an image diagnostic apparatus such as an X-ray CT apparatus, a gain that determines an amplification factor when outputting data collected by a detector is adjusted based on an estimated thickness distribution of a subject. Therefore, a technique for optimizing the settings of the detector so that the maximum count value does not overflow has been disclosed.

しかしながら上述の方法は、回路ノイズにより発生するアーチファクトの低減は考慮されていたが、肩部や骨盤部などの高吸収部を撮影する際に、吸収が少ない体表辺縁でカウント値の最大値がオーバーフローし易く、オーバーフローにより発生するアーチファクトを低減することができない可能性があった。 However, in the above method, although the reduction of artifacts caused by circuit noise was considered, when imaging high-absorption areas such as the shoulder and pelvis, the maximum count value at the edge of the body surface where absorption is low tends to overflow, and there is a possibility that artifacts caused by overflow cannot be reduced.

特開2018-050664号公報JP 2018-050664 A

本発明が解決しようとする課題は、オーバーフローにより発生するアーチファクトを低減することである。 The problem to be solved by the present invention is to reduce artifacts caused by overflow.

実施形態の医用画像処理装置は、取得部と、第1判定部と、補正部とを備える。取得部は、第1の医用データを取得する。第1判定部は、取得した第1の医用データがオーバーフローアーチファクトを含むか否かを判定する。補正部は、医用データが入力されたときにオーバーフローアーチファクトが補正された医用データを出力する補正モデルに対して、前記第1判定部によりオーバーフローアーチファクトを含むと判定された前記第1の医用データを入力することで、前記第1の医用データのオーバーフローアーチファクトが補正された医用データを生成する。 A medical image processing apparatus according to an embodiment includes an acquisition unit, a first determination unit, and a correction unit. The acquisition unit acquires first medical data. The first determination unit determines whether the acquired first medical data includes an overflow artifact. The correcting unit corrects the first medical data determined to include the overflow artifact by the first determining unit for the correction model that outputs the medical data in which the overflow artifact is corrected when the medical data is input. By inputting, medical data in which the overflow artifact of the first medical data is corrected is generated.

第1の実施形態に係るX線CT装置1の構成図。1 is a configuration diagram of an X-ray CT apparatus 1 according to a first embodiment; FIG. メモリ41に格納されるデータの一例を示す図。4 is a diagram showing an example of data stored in a memory 41; FIG. 画像処理機能54の構成図。FIG. 4 is a configuration diagram of an image processing function 54; 第1学習機能57の構成図。4 is a configuration diagram of a first learning function 57; FIG. 判定モデル41-6による処理の内容について説明するための図。FIG. 4 is a diagram for explaining the details of processing by a judgment model 41-6; 判定モデル生成機能57-3による判定モデル生成処理を説明するための図。FIG. 11 is a diagram for explaining judgment model generation processing by a judgment model generation function 57-3; 第2学習機能58の構成図。FIG. 4 is a configuration diagram of a second learning function 58; 補正モデル41-7による処理の内容について説明するための図。FIG. 4 is a diagram for explaining the details of processing by a correction model 41-7; 補正モデル生成機能58-3の補正モデル生成処理を説明するための図。FIG. 11 is a diagram for explaining correction model generation processing of a correction model generation function 58-3; 補正画像41-5の生成方法について説明するための図。FIG. 4 is a diagram for explaining a method of generating a corrected image 41-5; X線CT装置1による撮影処理の流れの一例を示すフローチャート。4 is a flowchart showing an example of the flow of imaging processing by the X-ray CT apparatus 1; 第1学習機能57による第1の学習処理の流れの一例を示すフローチャート。4 is a flowchart showing an example of the flow of first learning processing by a first learning function 57; 第2学習機能58による第2の学習処理の流れの一例を示すフローチャート。4 is a flowchart showing an example of the flow of second learning processing by a second learning function 58; 第2の実施形態に係る第1学習機能57Aの構成図。The block diagram of 57 A of 1st learning functions which concern on 2nd Embodiment. 種別判定モデル41-6Aによる処理の内容について説明するための図。FIG. 4 is a diagram for explaining the details of processing by a type determination model 41-6A; 種別判定モデル生成機能57-3Aの種別判定モデル生成処理を説明するための図。FIG. 11 is a diagram for explaining the type determination model generation processing of the type determination model generation function 57-3A; X線CT装置1Aによる撮影処理の流れの一例を示すフローチャート。4 is a flow chart showing an example of the flow of imaging processing by the X-ray CT apparatus 1A. 第1学習機能57Aによる第3の学習処理の流れの一例を示すフローチャート。5 is a flowchart showing an example of the flow of third learning processing by the first learning function 57A;

以下、実施形態の医用画像処理装置および医用画像処理方法を、図面を参照して説明する。医用画像処理装置は、例えば、X線CT(Computed Tomography:コンピュータ断層診断)装置等の医用画像に対する処理を行って被検体を診断する装置である。 A medical image processing apparatus and a medical image processing method according to embodiments will be described below with reference to the drawings. A medical image processing apparatus is an apparatus, such as an X-ray CT (Computed Tomography) apparatus, for diagnosing a subject by processing a medical image.

(第1の実施形態)
図1は、第1の実施形態に係るX線CT装置1の構成図である。X線CT装置1は、例えば、架台装置10と、寝台装置30と、コンソール装置40とを有する。図1では、説明の都合上、架台装置10をZ軸方向から見た図とX軸方向から見た図の双方を掲載しているが、実際には、架台装置10は一つである。実施形態では、非チルト状態での回転フレーム17の回転軸または寝台装置30の天板33の長手方向をZ軸方向、Z軸方向に直交し、床面に対して水平である軸をX軸方向、Z軸方向に直交し、床面に対して垂直である方向をY軸方向とそれぞれ定義する。
(First embodiment)
FIG. 1 is a configuration diagram of an X-ray CT apparatus 1 according to the first embodiment. The X-ray CT apparatus 1 has a gantry device 10, a bed device 30, and a console device 40, for example. For convenience of explanation, FIG. 1 shows both a view of the gantry device 10 viewed from the Z-axis direction and a view of the gantry device 10 viewed from the X-axis direction. In the embodiment, the rotation axis of the rotating frame 17 in the non-tilt state or the longitudinal direction of the top plate 33 of the bed device 30 is the Z-axis direction, and the axis perpendicular to the Z-axis direction and horizontal to the floor surface is the X-axis. A direction perpendicular to the Z-axis direction and perpendicular to the floor surface is defined as a Y-axis direction.

架台装置10は、例えば、X線管11と、ウェッジ12と、コリメータ13と、X線高電圧装置14と、X線検出器15と、データ収集システム(以下、DAS:Data Acquisition System)16と、回転フレーム17と、制御装置18とを有する。 The gantry device 10 includes, for example, an X-ray tube 11, a wedge 12, a collimator 13, an X-ray high voltage device 14, an X-ray detector 15, and a data acquisition system (DAS: Data Acquisition System) 16. , a rotating frame 17 and a control device 18 .

X線管11は、X線高電圧装置14からの高電圧の印加により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射することでX線を発生させる。X線管11は、真空管を含む。例えば、X線管11は、回転する陽極に熱電子を照射することでX線を発生させる回転陽極型のX線管である。 The X-ray tube 11 generates X-rays by applying a high voltage from the X-ray high voltage device 14 and irradiating thermal electrons from a cathode (filament) toward an anode (target). X-ray tube 11 includes a vacuum tube. For example, the X-ray tube 11 is a rotating anode type X-ray tube that generates X-rays by irradiating a rotating anode with thermal electrons.

ウェッジ12は、X線管11から被検体Pに照射されるX線量を調節するためのフィルタである。ウェッジ12は、X線管11から被検体Pに照射されるX線量の分布が予め定められた分布になるように、自身を透過するX線を減衰させる。ウェッジ12は、ウェッジフィルタ(wedge filter)、ボウタイフィルタ(bow-tie filter)とも呼ばれる。ウェッジ12は、例えば、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したものである。 The wedge 12 is a filter for adjusting the dose of X-rays irradiated from the X-ray tube 11 to the subject P. As shown in FIG. The wedge 12 attenuates the X-rays passing through itself so that the X-ray dose distribution irradiated from the X-ray tube 11 to the subject P becomes a predetermined distribution. The wedge 12 is also called a wedge filter or a bow-tie filter. The wedge 12 is, for example, processed aluminum so as to have a predetermined target angle and a predetermined thickness.

コリメータ13は、ウェッジ12を透過したX線の照射範囲を絞り込むための機構である。コリメータ13は、例えば、複数の鉛板の組み合わせによってスリットを形成することで、X線の照射範囲を絞り込む。コリメータ13は、X線絞りと呼ばれる場合もある。 The collimator 13 is a mechanism for narrowing down the irradiation range of X-rays transmitted through the wedge 12 . The collimator 13 narrows down the X-ray irradiation range by, for example, forming a slit by combining a plurality of lead plates. The collimator 13 is sometimes called an X-ray diaphragm.

X線高電圧装置14は、例えば、高電圧発生装置と、X線制御装置とを有する。高電圧発生装置は、変圧器(トランス)および整流器などを含む電気回路を有し、X線管11に印加する高電圧を発生させる。X線制御装置は、X線管11に発生させるべきX線量に応じて高電圧発生装置の出力電圧を制御する。高電圧発生装置は、上述した変圧器によって昇圧を行うものであってもよいし、インバータによって昇圧を行うものであってもよい。
X線高電圧装置14は、回転フレーム17に設けられてもよいし、架台装置10の固定フレーム(不図示)の側に設けられてもよい。
The X-ray high voltage device 14 has, for example, a high voltage generator and an X-ray controller. The high voltage generator has an electric circuit including a transformer, a rectifier, etc., and generates a high voltage to be applied to the X-ray tube 11 . The X-ray controller controls the output voltage of the high voltage generator in accordance with the amount of X-rays to be generated by the X-ray tube 11 . The high voltage generator may be one that boosts the voltage with the transformer described above, or one that boosts the voltage with an inverter.
The X-ray high voltage device 14 may be provided on the rotating frame 17 or may be provided on the fixed frame (not shown) side of the gantry device 10 .

X線検出器15は、X線管11が発生させ、被検体Pを通過して入射したX線の強度を検出する。X線検出器15は、検出したX線の強度に応じた電気信号(光信号などでもよい)をDAS18に出力する。X線検出器15は、例えば、複数のX線検出素子列を有する。複数のX線検出素子列のそれぞれは、X線管11の焦点を中心とした円弧に沿ってチャネル方向に複数のX線検出素子が配列されたものである。複数のX線検出素子列は、スライス方向(列方向、row方向)に配列される。 The X-ray detector 15 detects the intensity of X-rays generated by the X-ray tube 11 and incident through the subject P. FIG. The X-ray detector 15 outputs to the DAS 18 an electrical signal (which may be an optical signal or the like) corresponding to the intensity of the detected X-rays. The X-ray detector 15 has, for example, multiple X-ray detection element arrays. Each of the plurality of X-ray detection element arrays has a plurality of X-ray detection elements arranged in the channel direction along an arc centered on the focal point of the X-ray tube 11 . A plurality of X-ray detection element arrays are arranged in a slice direction (column direction, row direction).

X線検出器15は、例えば、グリッドと、シンチレータアレイと、光センサアレイとを有する間接型の検出器である。シンチレータアレイは、複数のシンチレータを有する。それぞれのシンチレータは、シンチレータ結晶を有する。シンチレータ結晶は、入射するX線の強度に応じた光量の光を発する。グリッドは、シンチレータアレイのX線が入射する面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。なお、グリッドは、コリメータ(一次元コリメータまたは二次元コリメータ)と呼ばれる場合もある。光センサアレイは、例えば、光電子増倍管(フォトマルチプライヤー:PMT)等の光センサを有する。光センサアレイは、シンチレータにより発せられる光の光量に応じた電気信号を出力する。X線検出器15は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であってもかまわない。 X-ray detector 15 is, for example, an indirect detector having a grid, a scintillator array, and a photosensor array. The scintillator array has a plurality of scintillators. Each scintillator has a scintillator crystal. The scintillator crystal emits an amount of light corresponding to the intensity of incident X-rays. The grid has an X-ray shielding plate arranged on the surface of the scintillator array on which X-rays are incident and having a function of absorbing scattered X-rays. Note that the grid may also be called a collimator (one-dimensional collimator or two-dimensional collimator). The photosensor array has photosensors such as, for example, photomultiplier tubes (photomultipliers: PMTs). The photosensor array outputs an electrical signal corresponding to the amount of light emitted by the scintillator. The X-ray detector 15 may be a direct conversion detector having a semiconductor element that converts incident X-rays into electrical signals.

DAS16は、例えば、増幅器と、積分器と、A/D変換器とを有する。増幅器は、X線検出器15の各X線検出素子により出力される電気信号に対して増幅処理を行う。積分器は、増幅処理が行われた電気信号をビュー期間(後述)に亘って積分する。A/D変換器は、積分結果を示す電気信号をデジタル信号に変換する。DAS16は、デジタル信号に基づく検出データをコンソール装置40に出力する。検出データは、生成元のX線検出素子のチャンネル番号、列番号、及び収集されたビューを示すビュー番号により識別されたX線強度のデジタル値である。ビュー番号は、回転フレーム17の回転に応じて変化する番号であり、例えば、回転フレーム17の回転に応じてインクリメントされる番号である。従って、ビュー番号は、X線管11の回転角度を示す情報である。ビュー期間とは、あるビュー番号に対応する回転角度から、次のビュー番号に対応する回転角度に到達するまでの間に収まる期間である。DAS16は、ビューの切り替わりを、制御装置18から入力されるタイミング信号によって検知してもよいし、内部のタイマーによって検知してもよいし、図示しないセンサから取得される信号によって検知してもよい。フルスキャンを行う場合においてX線管11によりX線が連続曝射されている場合、DAS16は、全周囲分(360度分)の検出データ群を収集する。ハーフスキャンを行う場合においてX線管11によりX線が連続曝射されている場合、DAS16は、半周囲分(180度分)の検出データを収集する。 DAS 16 has, for example, an amplifier, an integrator, and an A/D converter. The amplifier amplifies the electrical signal output from each X-ray detection element of the X-ray detector 15 . The integrator integrates the amplified electrical signal over a view period (described later). The A/D converter converts an electrical signal representing the result of integration into a digital signal. The DAS 16 outputs detection data based on digital signals to the console device 40 . Detected data is a digital value of x-ray intensity identified by the channel number of the x-ray detector element from which it was generated, the row number, and the view number indicating the acquired view. The view number is a number that changes according to the rotation of the rotating frame 17, and is a number that is incremented according to the rotation of the rotating frame 17, for example. Therefore, the view number is information indicating the rotation angle of the X-ray tube 11 . A view period is a period that falls between the rotation angle corresponding to a certain view number and the rotation angle corresponding to the next view number. The DAS 16 may detect the switching of the view by a timing signal input from the control device 18, by an internal timer, or by a signal obtained from a sensor (not shown). . When X-rays are continuously emitted from the X-ray tube 11 when performing a full scan, the DAS 16 collects detection data groups for the entire circumference (for 360 degrees). When X-rays are continuously emitted from the X-ray tube 11 when half scanning is performed, the DAS 16 collects detection data for a half circumference (180 degrees).

回転フレーム17は、X線管11、ウェッジ12、およびコリメータ13と、X線検出器15とを対向支持する円環状の部材である。回転フレーム17は、固定フレームによって、内部に導入された被検体Pを中心として回転自在に支持される。回転フレーム17は、更にDAS16を支持する。DAS16が出力する検出データは、回転フレーム17に設けられた発光ダイオード(LED)を有する送信機から、光通信によって、架台装置10の非回転部分(例えば固定フレーム)に設けられたフォトダイオードを有する受信機に送信され、受信機によってコンソール装置40に転送される。なお、回転フレーム17から非回転部分への検出データの送信方法として、前述の光通信を用いた方法に限らず、非接触型の任意の送信方法を採用してよい。回転フレーム17は、X線管11などを支持して回転させることができるものであれば、円環状の部材に限らず、アームのような部材であってもよい。 The rotating frame 17 is an annular member that supports the X-ray tube 11, the wedge 12, the collimator 13, and the X-ray detector 15 so as to face each other. The rotating frame 17 is rotatably supported by the stationary frame around the subject P introduced therein. Rotating frame 17 also supports DAS 16 . Detection data output by the DAS 16 is transmitted by optical communication from a transmitter having a light emitting diode (LED) mounted on the rotating frame 17 to a photodiode mounted on a non-rotating portion (e.g., fixed frame) of the gantry 10. It is transmitted to the receiver and transferred to the console device 40 by the receiver. The method of transmitting the detection data from the rotating frame 17 to the non-rotating portion is not limited to the above-described method using optical communication, and any non-contact transmission method may be employed. The rotating frame 17 is not limited to an annular member, and may be a member such as an arm as long as it can support and rotate the X-ray tube 11 or the like.

X線CT装置1は、例えば、X線管11とX線検出器15の双方が回転フレーム17によって支持されて被検体Pの周囲を回転するRotate/Rotate-TypeのX線CT装置(第3世代CT)であるが、これに限らず、円環状に配列された複数のX線検出素子が固定フレームに固定され、X線管11が被検体Pの周囲を回転するStationary/Rotate-TypeのX線CT装置(第4世代CT)であってもよい。 The X-ray CT apparatus 1 is, for example, a Rotate/Rotate-type X-ray CT apparatus (third Generation CT), but not limited to this, Stationary/Rotate-Type in which a plurality of annularly arranged X-ray detection elements are fixed to a fixed frame, and the X-ray tube 11 rotates around the subject P. It may be an X-ray CT device (fourth generation CT).

制御装置18は、例えば、CPU(Central Processing Unit)などのプロセッサを有する処理回路と、モータやアクチュエータなどを含む駆動機構とを有する。制御装置18は、コンソール装置40または架台装置10に取り付けられた入力インターフェース43からの入力信号を受け付けて、架台装置10および寝台装置30の動作を制御する。 The control device 18 has, for example, a processing circuit having a processor such as a CPU (Central Processing Unit), and a driving mechanism including a motor, an actuator, and the like. The control device 18 receives an input signal from an input interface 43 attached to the console device 40 or the gantry device 10 and controls the operations of the gantry device 10 and the bed device 30 .

制御装置18は、例えば、回転フレーム17を回転させたり、架台装置10をチルトさせたり、寝台装置30の天板33を移動させたりする。架台装置10をチルトさせる場合、制御装置18は、入力インターフェース43に入力された傾斜角度(チルト角度)に基づいて、Z軸方向に平行な軸を中心に回転フレーム17を回転させる。制御装置18は、図示しないセンサの出力等によって回転フレーム17の回転角度を把握している。また、制御装置18は、回転フレーム17の回転角度を随時、処理回路50に提供する。制御装置18は、架台装置10に設けられてもよいし、コンソール装置40に設けられてもよい。 The control device 18 rotates the rotating frame 17, tilts the gantry device 10, and moves the top board 33 of the bed device 30, for example. When tilting the gantry device 10 , the control device 18 rotates the rotating frame 17 about an axis parallel to the Z-axis direction based on the tilt angle (tilt angle) input to the input interface 43 . The control device 18 grasps the rotation angle of the rotating frame 17 from the output of a sensor (not shown) or the like. The control device 18 also provides the rotation angle of the rotating frame 17 to the processing circuit 50 at any time. The control device 18 may be provided in the gantry device 10 or may be provided in the console device 40 .

寝台装置30は、スキャン対象の被検体Pを載置して移動させ、架台装置10の回転フレーム17の内部に導入する装置である。寝台装置30は、例えば、基台31と、寝台駆動装置32と、天板33と、支持フレーム34とを有する。基台31は、支持フレーム34を鉛直方向(Y軸方向)に移動可能に支持する筐体を含む。寝台駆動装置32は、モータやアクチュエータを含む。寝台駆動装置32は、被検体Pが載置された天板33を、支持フレーム34に沿って、天板33の長手方向(Z軸方向)に移動させる。天板33は、被検体Pが載置される板状の部材である。 The bed device 30 is a device on which the subject P to be scanned is placed, moved, and introduced into the rotating frame 17 of the gantry device 10 . The bed device 30 has, for example, a base 31 , a bed driving device 32 , a top board 33 and a support frame 34 . The base 31 includes a housing that supports the support frame 34 so as to be movable in the vertical direction (Y-axis direction). The bed driving device 32 includes motors and actuators. The bed driving device 32 moves the tabletop 33 on which the subject P is placed in the longitudinal direction (Z-axis direction) of the tabletop 33 along the support frame 34 . The top plate 33 is a plate-like member on which the subject P is placed.

寝台駆動装置32は、天板33だけでなく、支持フレーム34を天板33の長手方向に移動させてもよい。また、上記とは逆に、架台装置10がZ軸方向に移動可能であり、架台装置10の移動によって回転フレーム17が被検体Pの周囲に来るように制御されてもよい。また、架台装置10と天板33の双方が移動可能な構成であってもよい。 The bed drive device 32 may move not only the top plate 33 but also the support frame 34 in the longitudinal direction of the top plate 33 . Contrary to the above, the gantry device 10 may be movable in the Z-axis direction, and the rotation frame 17 may be controlled to come around the subject P by moving the gantry device 10 . Moreover, both the gantry device 10 and the top plate 33 may be configured to be movable.

コンソール装置40は、例えば、メモリ41と、ディスプレイ42と、入力インターフェース43と、メモリ41と、ネットワーク接続回路44と、処理回路50とを有する。実施形態では、コンソール装置40は架台装置10とは別体として説明するが、架台装置10にコンソール装置40の各構成要素の一部または全部が含まれてもよい。 The console device 40 has, for example, a memory 41 , a display 42 , an input interface 43 , a memory 41 , a network connection circuit 44 and a processing circuit 50 . In the embodiment, the console device 40 is described as being separate from the gantry device 10 , but the gantry device 10 may include some or all of the components of the console device 40 .

メモリ41は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。メモリ41は、例えば、検出データや投影データ、再構成画像、CT画像等を記憶する。これらのデータは、メモリ41ではなく(或いはメモリ41に加えて)、X線CT装置1が通信可能な外部メモリに記憶されてもよい。外部メモリは、例えば、外部メモリを管理するクラウドサーバが読み書きの要求を受け付けることで、クラウドサーバによって制御されるものである。 The memory 41 is implemented by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. The memory 41 stores, for example, detection data, projection data, reconstructed images, CT images, and the like. These data may be stored in an external memory with which the X-ray CT apparatus 1 can communicate, instead of the memory 41 (or in addition to the memory 41). The external memory is controlled by the cloud server, for example, when the cloud server that manages the external memory receives a read/write request.

ディスプレイ42は、各種の情報を表示する。例えば、ディスプレイ42は、処理回路によって生成された医用画像(CT画像)や、操作者による各種操作を受け付けるGUI(Graphical User Interface)画像等を表示する。ディスプレイ42は、例えば、液晶ディスプレイやCRT(Cathode Ray Tube)、有機EL(Electroluminescence)ディスプレイ等である。ディスプレイ42は、架台装置10に設けられてもよい。ディスプレイ42は、デスクトップ型でもよいし、コンソール装置40の本体部と無線通信可能な表示装置(例えばタブレット端末)であってもよい。 The display 42 displays various information. For example, the display 42 displays a medical image (CT image) generated by the processing circuit, a GUI (Graphical User Interface) image for receiving various operations by the operator, and the like. The display 42 is, for example, a liquid crystal display, a CRT (Cathode Ray Tube), an organic EL (Electroluminescence) display, or the like. The display 42 may be provided on the gantry device 10 . The display 42 may be of a desktop type, or may be a display device (for example, a tablet terminal) capable of wireless communication with the main body of the console device 40 .

入力インターフェース43は、操作者による各種の入力操作を受け付け、受け付けた入力操作の内容を示す電気信号を処理回路50に出力する。例えば、入力インターフェース43は、検出データまたは投影データ(後述)を収集する際の収集条件、CT画像を再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件などの入力操作を受け付ける。例えば、入力インターフェース43は、マウスやキーボード、タッチパネル、ドラッグボール、スイッチ、ボタン、ジョイスティック、フットペダル、カメラ、赤外線センサ、マイク等により実現される。入力インターフェース43は、架台装置10に設けられてもよい。また、入力インターフェース43は、コンソール装置40の本体部と無線通信可能な表示装置(例えばタブレット端末)により実現されてもよい。 The input interface 43 accepts various input operations by the operator and outputs an electrical signal indicating the content of the accepted input operation to the processing circuit 50 . For example, the input interface 43 accepts acquisition conditions for acquiring detection data or projection data (described later), reconstruction conditions for reconstructing CT images, image processing conditions for generating post-processed images from CT images, and the like. accepts the input operation of For example, the input interface 43 is implemented by a mouse, keyboard, touch panel, drag ball, switch, button, joystick, foot pedal, camera, infrared sensor, microphone, and the like. The input interface 43 may be provided on the gantry device 10 . Also, the input interface 43 may be realized by a display device (for example, a tablet terminal) capable of wireless communication with the main body of the console device 40 .

ネットワーク接続回路44は、例えば、プリント回路基板を有するネットワークカード、或いは無線通信モジュールなどを含む。ネットワーク接続回路44は、接続する対象のネットワークの形態に応じた情報通信用プロトコルを実装する。ネットワークは、例えば、LAN(Local Area Network)やWAN(Wide Area Network)、インターネット、セルラー網、専用回線等を含む。 The network connection circuit 44 includes, for example, a network card having a printed circuit board, or a wireless communication module. The network connection circuit 44 implements an information communication protocol according to the form of the network to be connected. Networks include, for example, LANs (Local Area Networks), WANs (Wide Area Networks), the Internet, cellular networks, dedicated lines, and the like.

処理回路50は、X線CT装置1の全体の動作を制御する。処理回路50は、例えば、システム制御機能51、前処理機能52、再構成処理機能53、画像処理機能54、スキャン制御機能55、表示制御機能56、第1学習機能57、第2学習機能58などを実行する。処理回路50は、例えば、ハードウェアプロセッサがメモリ41に記憶されたプログラムを実行することにより、これらの機能を実現するものである。 A processing circuit 50 controls the overall operation of the X-ray CT apparatus 1 . The processing circuit 50 includes, for example, a system control function 51, a preprocessing function 52, a reconstruction processing function 53, an image processing function 54, a scan control function 55, a display control function 56, a first learning function 57, a second learning function 58, and the like. to run. The processing circuit 50 implements these functions by executing a program stored in the memory 41 by a hardware processor, for example.

ハードウェアプロセッサとは、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit; ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device; SPLD)または複合プログラマブル論理デバイス(Complex Programmable Logic Device; CPLD)や、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array; FPGA))などの回路(circuitry)を意味する。メモリ41にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。 A hardware processor is, for example, a CPU, a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (e.g., a simple programmable logic device (Simple Programmable Logic Device; SPLD) or Circuitry such as a Complex Programmable Logic Device (CPLD) or a Field Programmable Gate Array (FPGA). Instead of storing the program in the memory 41, the program may be directly embedded in the circuitry of the hardware processor. In this case, the hardware processor realizes its function by reading and executing the program embedded in the circuit. The hardware processor is not limited to being configured as a single circuit, and may be configured as one hardware processor by combining a plurality of independent circuits to implement each function. Also, a plurality of components may be integrated into one hardware processor to realize each function.

コンソール装置40または処理回路50が有する各構成要素は、分散化されて複数のハードウェアにより実現されてもよい。処理回路50は、コンソール装置40が有する構成ではなく、コンソール装置40と通信可能な処理装置によって実現されてもよい。処理装置は、例えば、一つのX線CT装置と接続されたワークステーション、あるいは複数のX線CT装置に接続され、以下に説明する処理回路50と同等の処理を一括して実行する装置(例えばクラウドサーバ)である。 Each component of the console device 40 or the processing circuit 50 may be distributed and realized by a plurality of pieces of hardware. The processing circuit 50 may be realized by a processing device that can communicate with the console device 40 instead of the configuration that the console device 40 has. The processing device is, for example, a workstation connected to one X-ray CT device, or a device connected to a plurality of X-ray CT devices and collectively executing processing equivalent to the processing circuit 50 described below (for example, cloud server).

システム制御機能51は、入力インターフェース43が受け付けた入力操作に基づいて、処理回路50の各種機能を制御する。 The system control function 51 controls various functions of the processing circuit 50 based on input operations received by the input interface 43 .

前処理機能52は、DAS16により出力された検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を行って、投影データを生成し、生成した投影データをメモリ41に記憶させる。 A preprocessing function 52 performs preprocessing such as logarithmic conversion processing, offset correction processing, inter-channel sensitivity correction processing, and beam hardening correction on the detection data output from the DAS 16 to generate projection data. The projection data thus obtained are stored in the memory 41 .

再構成処理機能53は、前処理機能52によって生成された投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等による再構成処理を行って、CT画像を生成し、生成したCT画像をメモリ41に記憶させる。 The reconstruction processing function 53 performs reconstruction processing on the projection data generated by the preprocessing function 52 using a filtered back projection method, an iterative reconstruction method, or the like, generates a CT image, and generates a CT image. The image is stored in memory 41 .

画像処理機能54は、入力インターフェース43が受け付けた入力操作に基づいて、CT画像を公知の方法により、三次元画像や任意断面の断面像データに変換する。三次元画像への変換は、前処理機能52によって行われてもよい。 Based on the input operation received by the input interface 43, the image processing function 54 converts the CT image into a three-dimensional image or cross-sectional image data of an arbitrary cross-section by a known method. Conversion to a three-dimensional image may be performed by preprocessing function 52 .

また、画像処理機能54は、入力インターフェース43が受け付けた入力操作に基づいて、アーチファクトの検出されたCT画像からアーチファクトを軽減または削除するアーチファクト補正処理を行う。アーチファクト補正処理については後述する。以下において、アーチファクトを軽減または削除することを、単に「軽減する」という。 Further, the image processing function 54 performs artifact correction processing for reducing or removing artifacts from the CT image in which the artifacts are detected, based on the input operation received by the input interface 43 . Artifact correction processing will be described later. In the following, reducing or eliminating artifacts is simply referred to as "mitigating."

スキャン制御機能55は、X線高電圧装置14、DAS16、制御装置18、および寝台駆動装置32に指示することで、架台装置10における検出データの収集処理を制御する。スキャン制御機能55は、スキャノ画像を収集する撮影、および診断に用いる画像を撮影する際の各部の動作をそれぞれ制御する。 The scan control function 55 controls detection data collection processing in the gantry device 10 by instructing the X-ray high-voltage device 14 , the DAS 16 , the control device 18 , and the bed driving device 32 . The scan control function 55 controls the operation of each unit when capturing a scanogram image and when capturing an image used for diagnosis.

表示制御機能56は、ディスプレイ42の表示態様を制御する。 The display control function 56 controls the display mode of the display 42 .

第1学習機能57は、画像処理機能54により処理されたCT画像がアーチファクトを含むか否かを学習し、後述する判定モデル41-6を生成する。第1学習機能57は、「判定モデル生成部」の一例である。 The first learning function 57 learns whether or not the CT image processed by the image processing function 54 contains artifacts, and generates a judgment model 41-6, which will be described later. The first learning function 57 is an example of a "judgment model generator".

第2学習機能58は、被検体の情報と、画像処理機能54により処理されたCT画像からアーチファクトを軽減した補正画像と、元のCT画像との関係を学習し、後述する補正モデル41-7を生成する。第2学習機能58は、「補正モデル生成部」の一例である。 The second learning function 58 learns the relationship between subject information, a corrected image obtained by reducing artifacts from the CT image processed by the image processing function 54, and the original CT image, and uses a correction model 41-7 to be described later. to generate The second learning function 58 is an example of a "correction model generator".

上記構成により、X線CT装置1は、ヘリカルスキャン、コンベンショナルスキャン、ステップアンドシュートなどの態様で被検体Pのスキャンを行う。ヘリカルスキャンとは、天板33を移動させながら回転フレーム17を回転させて被検体Pをらせん状にスキャンする態様である。コンベンショナルスキャンとは、天板33を静止させた状態で回転フレーム17を回転させて被検体Pを円軌道でスキャンする態様である。コンベンショナルスキャンを実行する。ステップアンドシュートとは、天板33の位置を一定間隔で移動させてコンベンショナルスキャンを複数のスキャンエリアで行う態様である。 With the above configuration, the X-ray CT apparatus 1 scans the subject P in a manner such as helical scanning, conventional scanning, and step-and-shoot. Helical scanning is a mode in which the subject P is helically scanned by rotating the rotating frame 17 while moving the top plate 33 . Conventional scanning is a mode in which the subject P is scanned in a circular orbit by rotating the rotation frame 17 while the tabletop 33 is stationary. Run a conventional scan. Step-and-shoot is a mode in which the position of the top plate 33 is moved at regular intervals to perform conventional scanning in a plurality of scan areas.

図2は、メモリ41に格納されるデータの一例を示す図である。図2に示すように、メモリ41には、例えば、処理回路50により生成される被検体情報41-1、検出データ41-2、投影データ41-3、再構成画像41-4、補正画像41-5、判定モデル41-6、補正モデル41-7などの情報が格納される。 FIG. 2 is a diagram showing an example of data stored in the memory 41. As shown in FIG. As shown in FIG. 2, the memory 41 stores subject information 41-1 generated by the processing circuit 50, detection data 41-2, projection data 41-3, a reconstructed image 41-4, and a corrected image 41, for example. -5, determination model 41-6, correction model 41-7, etc. are stored.

[画像処理機能]
図3は、画像処理機能54の構成図である。画像処理機能54は、例えば、再構成画像取得機能54-1と、アーチファクト判定機能54-2と、アーチファクト補正処理機能54-3とを備える。
[Image processing function]
FIG. 3 is a configuration diagram of the image processing function 54. As shown in FIG. The image processing function 54 includes, for example, a reconstructed image acquisition function 54-1, an artifact determination function 54-2, and an artifact correction processing function 54-3.

再構成画像取得機能54-1は、メモリ41から、撮影された再構成画像41-4と、被検体Pに対応付けられた被検体情報41-1とを取得する。被検体情報41-1は、例えば、被検体Pを識別するID情報や、被検体Pの性別、身長、体重等の被検体Pの特性を示す情報、撮影部位の情報等の情報を含む。再構成画像取得機能54-1は、「取得部」の一例である。 The reconstructed image acquisition function 54-1 acquires the captured reconstructed image 41-4 and subject information 41-1 associated with the subject P from the memory 41. FIG. The subject information 41-1 includes, for example, information such as ID information for identifying the subject P, information indicating characteristics of the subject P such as the sex, height, and weight of the subject P, and information on the imaging region. The reconstructed image acquisition function 54-1 is an example of an "acquisition unit".

アーチファクト判定機能54-2は、再構成画像取得機能54-1により取得された再構成画像41-4がオーバーフローアーチファクトを含むか否かを判定する。ここで、オーバーフローアーチファクトについて説明する。アーチファクトとは、再構成画像に現れるノイズのことである。オーバーフローアーチファクトとは、X線検出器15で扱えるカウントの最大値を超えた場合に、再構成画像上に現れるノイズのことである。アーチファクト判定機能54-2は、操作者による判定入力を受け付けてもよいし、後述する判定モデル41-6の出力結果を判定結果としてもよいし、その他の既知の判定方法による判定結果を用いるものであってもよい。アーチファクト判定機能54-2は、「第1判定部」の一例である。 The artifact determination function 54-2 determines whether or not the reconstructed image 41-4 acquired by the reconstructed image acquisition function 54-1 contains an overflow artifact. Overflow artifacts will now be described. Artifacts are noise that appears in reconstructed images. An overflow artifact is noise that appears on a reconstructed image when the maximum count that can be handled by the X-ray detector 15 is exceeded. The artifact determination function 54-2 may receive a determination input by the operator, may use the output result of the determination model 41-6 described later as the determination result, or may use the determination result of another known determination method. may be The artifact determination function 54-2 is an example of the "first determination section".

アーチファクト補正処理機能54-3は、アーチファクト判定機能54-2によりオーバーフローアーチファクトが含まれると判定された再構成画像41-4のオーバーフローアーチファクトを軽減するためのアーチファクト補正処理を行う。アーチファクト補正処理機能54-3は、「補正部」の一例である。 The artifact correction processing function 54-3 performs artifact correction processing for reducing overflow artifacts in the reconstructed image 41-4 determined to include overflow artifacts by the artifact determination function 54-2. The artifact correction processing function 54-3 is an example of a "corrector".

なお、判定モデル41-6および補正モデル41-7に適用される再構成画像41-4は、「第1の医用データ」の一例である。 The reconstructed image 41-4 applied to the judgment model 41-6 and the correction model 41-7 is an example of "first medical data".

なお、アーチファクト判定機能54-2は、後述する判定モデル41-6に再構成画像41-4を入力することで得られる出力に基づいてアーチファクト判定処理を行ってもよいし、操作者による入力操作に応じてアーチファクト判定処理を行ってもよい。 Note that the artifact determination function 54-2 may perform artifact determination processing based on the output obtained by inputting the reconstructed image 41-4 to the determination model 41-6, which will be described later, or the input operation by the operator. Artifact determination processing may be performed according to .

なお、アーチファクト補正処理機能54-3は、後述する補正モデル41-7に再構成画像41-4を入力することでアーチファクト補正処理を行ってもよいし、操作者による入力操作に応じてアーチファクト補正処理を行ってもよい。アーチファクト補正処理とは、例えば、アーチファクト補正フィルタの適用や、さらなるビームハードニング補正等のソフト処理により実現される。補正モデル41-7を用いたアーチファクト補正処理については後述する。 The artifact correction processing function 54-3 may perform the artifact correction processing by inputting the reconstructed image 41-4 into the correction model 41-7 described later, or may perform the artifact correction processing in accordance with the operator's input operation. processing may be performed. The artifact correction processing is realized by, for example, application of an artifact correction filter and software processing such as further beam hardening correction. Artifact correction processing using the correction model 41-7 will be described later.

なお、アーチファクト補正処理機能54-3は、再構成画像取得機能54-1により取得された被検体情報41-1に対して好適な補正モデル41-7を選択し、選択した補正モデル41-7に再構成画像41-4を適用する。好適な補正モデル41-7とは、例えば、被検体Pのみの再構成画像41-4を機械学習した学習済みモデルである。 Note that the artifact correction processing function 54-3 selects a suitable correction model 41-7 for the subject information 41-1 acquired by the reconstructed image acquisition function 54-1, and the selected correction model 41-7 , the reconstructed image 41-4 is applied to . A suitable correction model 41-7 is, for example, a learned model obtained by machine-learning the reconstructed image 41-4 of only the subject P. FIG.

なお、アーチファクト補正処理機能54-3は、被検体Pのみの再構成画像41-4を機械学習した補正モデル41-7が存在しない場合には、被検体Pの再構成画像41-4と他の被検体の再構成画像41-4とが反映された学習済みモデルを選択してもよいし、被検体情報41-1が類似する(例えば、性別、身長、体重、撮影部位等の一部または全部が類似する)他の被検体の再構成画像41-4が反映された学習済みモデルを選択してもよい。 Note that the artifact correction processing function 54-3 does not have a correction model 41-7 obtained by machine-learning the reconstructed image 41-4 of only the subject P, and the reconstructed image 41-4 of the subject P and other images. A trained model reflecting the reconstructed image 41-4 of the subject may be selected, or the subject information 41-1 is similar (for example, sex, height, weight, part of the imaged part, etc.) may be selected. Alternatively, a trained model in which the reconstructed image 41-4 of another subject (all similar) is reflected may be selected.

[第1学習機能]
以下、第1学習機能57による処理について説明する。図4は、第1学習機能57の構成図である。第1学習機能57は、例えば、再構成画像取得機能57-1と、アーチファクト判定結果受付機能57-2と、判定モデル生成機能57-3とを備える。
[First learning function]
Processing by the first learning function 57 will be described below. FIG. 4 is a configuration diagram of the first learning function 57. As shown in FIG. The first learning function 57 includes, for example, a reconstructed image acquisition function 57-1, an artifact determination result reception function 57-2, and a determination model generation function 57-3.

再構成画像取得機能57-1は、メモリ41から、学習データである被検体情報41-1と再構成画像41-4を取得する。 The reconstructed image acquisition function 57-1 acquires subject information 41-1 and reconstructed image 41-4, which are learning data, from the memory 41. FIG.

アーチファクト判定結果受付機能57-2は、アーチファクト判定機能54-2により判定された、再構成画像41-4に含まれるアーチファクトを含むか否かに関する判定結果を受け付ける。 The artifact determination result reception function 57-2 receives the determination result regarding whether or not the reconstructed image 41-4 includes artifacts, which is determined by the artifact determination function 54-2.

判定モデル生成機能57-3は、再構成画像取得機能57-1により取得された再構成画像41-4と、アーチファクト判定結果受付機能57-2により受け付けられた判定結果とに基づいて、再構成画像41-4が入力されたときに該再構成画像41-4がオーバーフローアーチファクトを含むか否かを示す情報を出力する判定モデル41-6を生成する。 The determination model generation function 57-3 reconstructs images based on the reconstructed image 41-4 acquired by the reconstructed image acquisition function 57-1 and the determination result received by the artifact determination result reception function 57-2. A determination model 41-6 is generated that outputs information indicating whether or not the reconstructed image 41-4 contains an overflow artifact when the image 41-4 is input.

[判定モデル]
判定モデル生成機能57-3は、再構成画像取得機能57-1により取得された再構成画像41-4を学習データとし、その再構成画像41-4に対応付けられた、再構成画像41-4にオーバーフローアーチファクトが含まれるか否かを示す情報(アーチファクト判定結果受付機能57-2により判定された判定結果)を教師データとして機械学習を行うことで、判定モデル41-6を生成する。なお、判定モデル生成機能57-3は、外部装置により実現されてもよい。
[Judgment model]
The judgment model generation function 57-3 uses the reconstructed image 41-4 acquired by the reconstructed image acquisition function 57-1 as learning data, and the reconstructed image 41-4 associated with the reconstructed image 41-4. 4 (determination result determined by the artifact determination result receiving function 57-2) is used as teaching data to perform machine learning to generate a determination model 41-6. Note that the judgment model generation function 57-3 may be realized by an external device.

図5は、判定モデル41-6による処理の内容について説明するための図である。アーチファクト判定機能54-2は、再構成画像41-4をパラメータとして判定モデル41-6に入力することで、再構成画像41-4にオーバーフローアーチファクトが含まれるか否かを示す情報を出力する。 FIG. 5 is a diagram for explaining the details of processing by the judgment model 41-6. The artifact determination function 54-2 inputs the reconstructed image 41-4 as a parameter to the determination model 41-6, thereby outputting information indicating whether or not the reconstructed image 41-4 contains an overflow artifact.

なお、図5に示した処理において、再構成画像41-4の代替として、投影データ41-3が入力パラメータとして利用されてもよい。 Note that in the processing shown in FIG. 5, the projection data 41-3 may be used as an input parameter instead of the reconstructed image 41-4.

図6は、判定モデル生成機能57-3による判定モデル生成処理を説明するための図である。判定モデル生成機能57-3は、予め接続情報等が定義されると共に接続係数等のパラメータが暫定的に設定された機械学習モデル(以下、第1の機械学習モデルと称する場合がある)に対して、複数セットの学習データを入力し、その結果が、学習データに対応する教師データに近づくように、機械学習モデルにおけるパラメータを調整する。判定モデル生成機能57-3は、例えば、被検体情報41-1に含まれる、ある被検体Pの再構成画像41-4を学習データとし、その撮影時の再構成画像41-4にオーバーフローアーチファクトが含まれるか否かを示す情報を教師データとする学習済みモデルを生成する機械学習モデルを生成する。 FIG. 6 is a diagram for explaining judgment model generation processing by the judgment model generation function 57-3. The judgment model generation function 57-3 generates a machine learning model (hereinafter sometimes referred to as a first machine learning model) in which connection information etc. are defined in advance and parameters such as connection coefficients are provisionally set. Then, a plurality of sets of learning data are input, and the parameters in the machine learning model are adjusted so that the result approaches the teacher data corresponding to the learning data. The judgment model generation function 57-3 uses, for example, a reconstructed image 41-4 of a certain subject P included in the subject information 41-1 as learning data, and an overflow artifact in the reconstructed image 41-4 at the time of imaging. A machine learning model is generated that generates a trained model using information indicating whether or not is included as teacher data.

判定モデル生成機能57-3は、例えば、バックプロパゲーション(逆誤差伝搬法)によって機械学習モデルのパラメータを調整する。機械学習モデルは、例えば、CNN(Convolution Neural Network)を利用したDNN(Deep Neural Network)である。なお、機械学習モデルは、より新しい学習データがアウトプットとして反映されやすくなるように、学習データ毎に重み付け設定などを行ってもよい。 The judgment model generation function 57-3 adjusts the parameters of the machine learning model by, for example, back propagation (back propagation method). The machine learning model is, for example, a DNN (Deep Neural Network) using a CNN (Convolution Neural Network). Note that the machine learning model may perform weighting setting for each learning data so that newer learning data is more likely to be reflected as an output.

判定モデル生成機能57-3は、予め定められたセット数の学習データと、対応する教師データについてバックプロパゲーションを行うと、処理を終了する。その時点の機械学習モデルが判定モデル41-6として記憶される。なお、判定モデル生成機能57-3は、ある被検体Pの再構成画像41-4と、その再構成画像41-4にオーバーフローアーチファクトが含まれるか否かを示す情報とのセットとを用いて判定モデル41-6を生成してもよい。 The judgment model generation function 57-3 ends the process after performing back propagation on a predetermined number of sets of learning data and the corresponding teacher data. The machine learning model at that time is stored as the judgment model 41-6. Note that the judgment model generation function 57-3 uses a set of the reconstructed image 41-4 of a subject P and information indicating whether or not the reconstructed image 41-4 contains an overflow artifact. A judgment model 41-6 may be generated.

[第2学習機能]
以下、第2学習機能58による処理について説明する。図7は、第2学習機能58の構成図である。第2学習機能58は、例えば、再構成画像取得機能58-1と、アーチファクト補正結果受付機能58-2と、補正モデル生成機能58-3とを備える。
[Second learning function]
Processing by the second learning function 58 will be described below. FIG. 7 is a configuration diagram of the second learning function 58. As shown in FIG. The second learning function 58 includes, for example, a reconstructed image acquisition function 58-1, an artifact correction result reception function 58-2, and a correction model generation function 58-3.

再構成画像取得機能58-1は、メモリ41から、学習データである被検体情報41-1と再構成画像41-4、および教師データである補正画像41-5を取得する。 The reconstructed image acquisition function 58-1 acquires from the memory 41 the object information 41-1 and reconstructed image 41-4, which are learning data, and the corrected image 41-5, which is teacher data.

アーチファクト補正結果受付機能58-2は、アーチファクト補正処理機能54-3により学習データである再構成画像41-4に対して補正処理が行われたか否かを示す情報を受け付ける。 The artifact correction result reception function 58-2 receives information indicating whether or not the artifact correction processing function 54-3 has performed correction processing on the reconstructed image 41-4, which is the learning data.

補正モデル生成機能58-3は、再構成画像取得機能58-1により取得された再構成画像41-4と、アーチファクト補正結果受付機能58-2により受け付けられた補正処理が行われたか否かを示す情報に基づいて、補正モデル41-7を生成する。 The correction model generation function 58-3 determines whether or not the correction processing accepted by the artifact correction result acceptance function 58-2 has been performed with the reconstructed image 41-4 acquired by the reconstructed image acquisition function 58-1. A correction model 41-7 is generated based on the indicated information.

[補正モデル]
図8は、補正モデル41-7による処理の内容について説明するための図である。アーチファクト補正処理機能54-3は、被検体情報41-1と再構成画像41-4とをパラメータとして補正モデル41-7に入力することで、再構成画像41-4に含まれるオーバーフローアーチファクトを補正した補正画像41-5を出力する。
[Correction model]
FIG. 8 is a diagram for explaining the contents of processing by the correction model 41-7. The artifact correction processing function 54-3 corrects overflow artifacts contained in the reconstructed image 41-4 by inputting the subject information 41-1 and the reconstructed image 41-4 as parameters into the correction model 41-7. A corrected image 41-5 is output.

図8に示す処理は、同一被検体Pの再構成画像41-4のみを学習データとすることで後続処理であるアーチファクト補正の処理の正確性を高めることが望ましい。しかしながら、必要数の学習データが収集できない段階においては、被検体Pと類似する被検体情報41-1に対応付けられた再構成画像41-4を学習データに含めてもよい。 In the processing shown in FIG. 8, it is preferable to use only the reconstructed image 41-4 of the same subject P as learning data to improve the accuracy of the subsequent processing of artifact correction. However, at the stage where the required number of learning data cannot be collected, the reconstructed image 41-4 associated with the subject information 41-1 similar to the subject P may be included in the learning data.

図9は、補正モデル生成機能58-3の補正モデル生成処理を説明するための図である。補正モデル生成機能58-3は、予め接続情報等が定義されると共に接続係数等のパラメータが暫定的に設定された機械学習モデル(以下、第2の機械学習モデルと称する場合がある)に対して、複数セットの学習データを入力し、その結果が、学習データに対応する教師データに近づくように、機械学習モデルにおけるパラメータを調整する。補正モデル生成機能58-3は、例えば、被検体情報41-1に含まれる、ある被検体Pの被検体情報41-1と再構成画像41-4とのセットとを学習データとし、その撮影時の再構成画像41-4を補正した補正画像41-5を教師データとする学習済みモデルを生成する機械学習モデルを生成する。 FIG. 9 is a diagram for explaining the correction model generation processing of the correction model generation function 58-3. The correction model generation function 58-3 generates a machine learning model in which connection information etc. are defined in advance and parameters such as connection coefficients are provisionally set (hereinafter sometimes referred to as a second machine learning model). Then, a plurality of sets of learning data are input, and the parameters in the machine learning model are adjusted so that the result approaches the teacher data corresponding to the learning data. The correction model generation function 58-3 uses, for example, a set of object information 41-1 and a reconstructed image 41-4 of a certain object P, which are included in the object information 41-1, as learning data, and performs imaging thereof. A machine learning model is generated for generating a learned model using a corrected image 41-5 obtained by correcting the reconstructed image 41-4 at the time as teacher data.

補正モデル生成機能58-3は、例えば、判定モデル生成機能57-3と同様に、バックプロパゲーション(逆誤差伝搬法)によってDNN等の機械学習モデルのパラメータを調整する。なお、機械学習モデルは、より新しい学習データがアウトプットとして反映されやすくなるように、学習データ毎に重み付け設定などを行ってもよい。 The correction model generation function 58-3, for example, similarly to the judgment model generation function 57-3, adjusts the parameters of the machine learning model such as DNN by back propagation. Note that the machine learning model may perform weighting setting for each learning data so that newer learning data is more likely to be reflected as an output.

補正モデル生成機能58-3は、予め定められたセット数の学習データと、対応する教師データについてバックプロパゲーションを行うと、処理を終了する。その時点の機械学習モデルが補正モデル41-7として記憶される。なお、補正モデル生成機能58-3は、ある被検体Pの被検体情報41-1と再構成画像41-4とのセットと、その再構成画像41-4に対応付いた補正画像41-5とのセットとを用いて補正モデル41-7を生成してもよい。 The correction model generation function 58-3 ends the process after performing back propagation on a predetermined number of sets of learning data and the corresponding teacher data. The machine learning model at that time is stored as a correction model 41-7. Note that the correction model generation function 58-3 generates a set of the object information 41-1 of a certain object P and the reconstructed image 41-4, and the corrected image 41-5 associated with the reconstructed image 41-4. and a set of , may be used to generate the correction model 41-7.

なお、補正モデル生成機能58-3は、予め定められたセット数以上の学習データの被検体Pのみの再構成画像41-4が存在する場合、被検体Pのみの再構成画像41-4を機械学習した学習済みモデルを生成する。補正モデル生成機能58-3は、被検体Pのみの再構成画像41-4が予め定められたセット数存在しない場合には、被検体Pの再構成画像41-4と他の被検体の再構成画像41-4とが反映された補正モデル41-7を生成してもよいし、被検体情報41-1が類似する(例えば、性別、身長、体重、撮影部位等が類似する)他の被検体の再構成画像41-4が反映された補正モデル41-7を生成してもよい。 Note that the correction model generation function 58-3 generates the reconstructed image 41-4 of only the subject P of the learning data of the number of sets equal to or more than the predetermined number. Generate a machine-learned trained model. The correction model generating function 58-3 generates the reconstructed image 41-4 of the subject P and the reconstructed images 41-4 of the other subjects when the predetermined number of sets of the reconstructed image 41-4 of only the subject P does not exist. A correction model 41-7 that reflects the configuration image 41-4 may be generated, or other models having similar subject information 41-1 (for example, similar sex, height, weight, and radiographed parts) may be generated. A correction model 41-7 may be generated in which the reconstructed image 41-4 of the subject is reflected.

[人工的なアーチファクト]
以下、人工的なアーチファクトを用いた補正方法について説明する。図10は、補正画像41-5の生成方法について説明するための図である。X線管11から被検体Pに照射されるX線量を検出するX線検出器15の領域a1+a2において、領域a1は想定通りに再構成画像41-4が取得できた(オーバーフローしない)場合であっても、オーバーフローを誘発しやすい撮影部位(肩部や骨盤部を測定する際に、吸収が少ない体表辺縁)を透過したX線を検出する領域a2においてカウント値の最大値がオーバーフローすることがある。
[artificial artifact]
A correction method using artificial artifacts will be described below. FIG. 10 is a diagram for explaining the method of generating the corrected image 41-5. In the area a1+a2 of the X-ray detector 15 that detects the amount of X-rays irradiated from the X-ray tube 11 to the subject P, the area a1 is the case where the reconstructed image 41-4 can be acquired as expected (no overflow). However, the maximum value of the count value overflows in the area a2 that detects X-rays that have passed through the imaging site that is likely to cause overflow (the edge of the body surface where absorption is low when measuring the shoulder or pelvis). There is

アーチファクト補正処理機能54-3は、領域a2に対応付いた検出データ41-2のカウント値のオーバーフローを検出した場合、領域a1および領域a2に対応付いた検出データ41-2を補正対象とする。アーチファクト補正処理機能54-3は、領域a2に対応付いた検出データ41-2のカウント値のみを補正するものではない。 When an overflow of the count value of the detection data 41-2 associated with the area a2 is detected, the artifact correction processing function 54-3 makes the detection data 41-2 associated with the areas a1 and a2 to be corrected. The artifact correction processing function 54-3 does not only correct the count value of the detection data 41-2 associated with the area a2.

アーチファクト補正処理機能54-3は、例えば、過去に取得された再構成画像41-4のうち、オーバーフローアーチファクトが含まれないことが操作者によって確認されているものに対応付いた検出データ41-2に、オーバーフローアーチファクトが検出された再構成画像41-4を再現するカウントゲインを施す。カウントゲインは、例えば、領域a2に対応付いたカウント値を、オーバーフロー状態を再現する値になるまで上昇させることである。アーチファクト補正処理機能54-3は、このようにして撮影部位に基づく人工的なオーバーフローアーチファクトを追加した再構成画像を生成する。アーチファクト補正処理機能54-3は、上述のカウントゲインの逆演算をオーバーフローアーチファクトが検出された再構成画像41-4に行うことで、アーチファクト補正処理を行う。 The artifact correction processing function 54-3, for example, among the reconstructed images 41-4 acquired in the past, detects the detected data 41-2 associated with the image that the operator has confirmed does not contain the overflow artifact. is subjected to a count gain that reproduces the reconstructed image 41-4 in which the overflow artifact is detected. The count gain is, for example, to increase the count value associated with area a2 to a value that reproduces the overflow state. The artifact correction processing function 54-3 thus generates a reconstructed image to which artificial overflow artifacts based on the imaging region are added. The artifact correction processing function 54-3 performs artifact correction processing by performing the above-described inverse calculation of the count gain on the reconstructed image 41-4 in which overflow artifacts are detected.

また、補正モデル生成機能58-3は、上述の人工的なオーバーフローアーチファクトを追加した再構成画像とその被検体情報とを学習データとしてもよいし、元の再構成画像を学習データとしてもよい。 Further, the correction model generation function 58-3 may use the reconstructed image to which the above artificial overflow artifact is added and the object information thereof as learning data, or may use the original reconstructed image as learning data.

[処理フロー1]
図11は、X線CT装置1による撮影処理の流れの一例を示すフローチャートである。
[Processing flow 1]
FIG. 11 is a flowchart showing an example of the flow of imaging processing by the X-ray CT apparatus 1. As shown in FIG.

まず、再構成画像取得機能54-1は、再構成画像41-4と、再構成画像41-4に対応付いた被検体情報41-1を取得する(ステップS100)。次に、アーチファクト判定機能54-2は、再構成画像41-4にオーバーフローアーチファクトが含まれるか否かを判定する(ステップS102)。アーチファクト判定機能54-2は、オーバーフローアーチファクトが含まれないと判定した場合、処理を終了する。 First, the reconstructed image acquisition function 54-1 acquires the reconstructed image 41-4 and subject information 41-1 associated with the reconstructed image 41-4 (step S100). Next, the artifact determination function 54-2 determines whether or not the reconstructed image 41-4 contains an overflow artifact (step S102). When the artifact determination function 54-2 determines that the overflow artifact is not included, the processing ends.

アーチファクト判定機能54-2は、ステップS102においてオーバーフローアーチファクトを含むと判定した場合、メモリ41に記憶された補正モデル41-7の中に、同一被検体の再構成画像のみを学習データとした補正モデル41-7が存在するか否かを判定する(ステップS104)。 When the artifact determination function 54-2 determines that an overflow artifact is included in step S102, the correction model 41-7 stored in the memory 41 includes only the reconstructed image of the same subject as learning data. 41-7 exists (step S104).

アーチファクト補正処理機能54-3は、ステップS104においてアーチファクト判定機能54-2により同一被検体の再構成画像のみを補正モデル41-7が存在すると判定された場合、その補正モデル41-7に再構成画像41-4と、対応付いた被検体情報41-1を入力して、オーバーフローアーチファクトの補正された補正画像41-5を得る(ステップS106)。 If the artifact determination function 54-2 determines in step S104 that only the reconstructed image of the same subject is present in the correction model 41-7, the artifact correction processing function 54-3 reconstructs the image using the correction model 41-7. By inputting the image 41-4 and the associated object information 41-1, a corrected image 41-5 in which the overflow artifact is corrected is obtained (step S106).

アーチファクト判定機能54-2は、ステップS104において、同一被検体の再構成画像のみを学習済みモデルが存在すると判定されなかった場合、他の好適な補正モデル41-7があるか否かを判定する(ステップS108)。アーチファクト判定機能54-2は、他の好適な学習済みモデルがあると判定した場合、選択した補正モデル41-7に再構成画像41-4と、対応付いた被検体情報41-1を入力して、アーチファクトの補正された補正画像41-5を得る(ステップS110)。アーチファクト判定機能54-2は、他の好適な学習済みモデルがあると判定しなかった場合、後述するステップS112に処理を進める。 The artifact determination function 54-2 determines whether or not there is another suitable correction model 41-7 if it is not determined in step S104 that there is a trained model for only the reconstructed image of the same subject. (Step S108). When the artifact determination function 54-2 determines that there is another suitable learned model, it inputs the reconstructed image 41-4 and the associated subject information 41-1 to the selected correction model 41-7. to obtain a corrected image 41-5 in which artifacts have been corrected (step S110). If the artifact determination function 54-2 does not determine that there is another suitable trained model, the process proceeds to step S112, which will be described later.

ステップS106またはS110の処理の後、第1学習機能57および第2学習機能は、それぞれ学習データを保存する(ステップS112)。なお、ステップS112の処理において、アーチファクト補正処理機能54-3は、操作者によるアーチファクト補正(補正のやり直し、または微調整)の操作を受け付けてもよい。以上、本フローチャートの処理の説明を終了する。 After the process of step S106 or S110, the first learning function 57 and the second learning function each save learning data (step S112). Note that in the processing of step S112, the artifact correction processing function 54-3 may accept an operation for artifact correction (re-correction or fine adjustment) by the operator. This completes the description of the processing of this flowchart.

[処理フロー2]
図12は、第1学習機能57による第1の学習処理の流れの一例を示すフローチャートである。図12のフローチャートは、例えば、図10のステップS114により、所定セット数以上の学習データが保存された場合に行われる。
[Processing flow 2]
FIG. 12 is a flow chart showing an example of the flow of the first learning process by the first learning function 57. As shown in FIG. The flowchart of FIG. 12 is performed, for example, when a predetermined number of sets or more of learning data are stored in step S114 of FIG.

まず、第1学習機能57は、1セットの学習データを取得する(ステップS200)。次に、第1学習機能57は、ステップS200で取得した1セットの学習データを第1の機械学習モデルに入力し(ステップS202)、1セットの学習データに対応する教師データから誤差を逆伝搬させる(ステップS204)。 First, the first learning function 57 acquires one set of learning data (step S200). Next, the first learning function 57 inputs the one set of learning data acquired in step S200 to the first machine learning model (step S202), and back-propagates the error from the teacher data corresponding to the one set of learning data. (step S204).

次に、第1学習機能57は、所定セット数の学習データについてステップS202およびS204の処理を行ったか否かを判定する(ステップS206)。所定セット数の学習データについてステップS202およびS204の処理を行っていない場合、第1学習機能57は、ステップS200に処理を戻す。所定セット数の学習データについてステップS202およびS204の処理を行った場合、第1学習機能57は、その時点のパラメータを用いて判定モデル41-6を確定し(ステップS208)、本フローチャートの処理を終了する。 Next, the first learning function 57 determines whether or not the processing of steps S202 and S204 has been performed for a predetermined number of sets of learning data (step S206). If the processing of steps S202 and S204 has not been performed for the predetermined number of sets of learning data, the first learning function 57 returns the processing to step S200. When the processing of steps S202 and S204 is performed for a predetermined number of sets of learning data, the first learning function 57 determines the judgment model 41-6 using the parameters at that time (step S208), and performs the processing of this flowchart. finish.

[処理フロー3]
図13は、第2学習機能58による第2の学習処理の流れの一例を示すフローチャートである。図13のフローチャートは、例えば、図10のステップS114により、所定セット数以上の学習データが保存された場合に行われる。
[Processing flow 3]
FIG. 13 is a flow chart showing an example of the flow of the second learning process by the second learning function 58. As shown in FIG. The flowchart of FIG. 13 is performed, for example, when a predetermined number of sets or more of learning data are saved in step S114 of FIG.

まず、第2学習機能58は、1セットの学習データを取得する(ステップS300)。次に、第2学習機能58は、ステップS300で取得した1セットの学習データを第2の機械学習モデルに入力し(ステップS302)、1セットの学習データに対応する教師データから誤差を逆伝搬させる(ステップS304)。 First, the second learning function 58 acquires one set of learning data (step S300). Next, the second learning function 58 inputs the set of learning data acquired in step S300 to the second machine learning model (step S302), and back-propagates the error from the teacher data corresponding to the set of learning data. (step S304).

次に、第2学習機能58は、所定セット数の学習データについてステップS302およびS304の処理を行ったか否かを判定する(ステップS306)。所定セット数の学習データについてステップS302およびS304の処理を行っていない場合、第2学習機能58は、ステップS300に処理を戻す。所定セット数の学習データについてステップS302およびS304の処理を行った場合、第2学習機能58は、その時点のパラメータを用いて補正モデル41-7を確定し(ステップS308)、本フローチャートの処理を終了する。 Next, the second learning function 58 determines whether or not the processing of steps S302 and S304 has been performed for a predetermined number of sets of learning data (step S306). If the processing of steps S302 and S304 has not been performed for the predetermined number of sets of learning data, the second learning function 58 returns the processing to step S300. When the processing of steps S302 and S304 is performed for a predetermined number of sets of learning data, the second learning function 58 determines the correction model 41-7 using the parameters at that time (step S308), and performs the processing of this flowchart. finish.

なお、上述の画像処理機能54が処理する再構成画像41-4は、投影データ41-3に基づいて生成されたサイノグラムであってもよい。サイノグラムとは、種々の投影測定に対するX線検出器15に沿った位置の関数として、或いはX線管11とX線検出器15との間の投影角の関数として、身体を通過したX線の減衰を示すデータである。 The reconstructed image 41-4 processed by the image processing function 54 may be a sinogram generated based on the projection data 41-3. A sinogram is a plot of x-rays passing through the body as a function of position along x-ray detector 15 for various projection measurements, or as a function of projection angle between x-ray tube 11 and x-ray detector 15. Data showing attenuation.

以上説明した第1の実施形態のX線CT装置1によれば、再構成画像41-4と被検体情報41-1とを取得する再構成画像取得機能54-1と、再構成画像41-4がオーバーフローアーチファクトを含むか否かを示す情報を出力する判定モデル41-6に対して、再構成画像取得機能54-1が取得した再構成画像41-4を入力することで、その再構成画像41-4がオーバーフローアーチファクトを含むか否かを示す情報を出力するアーチファクト判定機能54-2と、再構成画像41-4に基づいて、その再構成画像41-4に含まれるオーバーフローアーチファクトが補正された補正画像41-5を出力する補正モデル41-7に対して、再構成画像取得機能54-1が取得した再構成画像41-4を入力することで、その再構成画像取得機能54-1のオーバーフローアーチファクトが補正された補正画像41-5を生成するアーチファクト判定機能54-2と、を備えることで、オーバーフローアーチファクトの発生を抑制することができる。 According to the X-ray CT apparatus 1 of the first embodiment described above, the reconstructed image acquisition function 54-1 for acquiring the reconstructed image 41-4 and the subject information 41-1, and the reconstructed image 41- 4 includes an overflow artifact. An artifact determination function 54-2 that outputs information indicating whether or not the image 41-4 contains an overflow artifact, and based on the reconstructed image 41-4, the overflow artifact contained in the reconstructed image 41-4 is corrected. By inputting the reconstructed image 41-4 acquired by the reconstructed image acquisition function 54-1 to the correction model 41-7 that outputs the corrected image 41-5, the reconstructed image acquisition function 54- and the artifact determination function 54-2 for generating the corrected image 41-5 in which the overflow artifact of 1 is corrected, it is possible to suppress the occurrence of the overflow artifact.

(第2の実施形態)
以下、第2の実施形態のX線CT装置1Aについて説明する。なお、以下の説明において、第1の実施形態と同一の構成及び機能については第1の実施形態と同一の符号を付し、詳細な説明を省略する。また、第1の実施形態と同じ名称であるが構成または機能が異なるものについては、符号の末尾に「A」を付すものとする。
(Second embodiment)
The X-ray CT apparatus 1A of the second embodiment will be described below. In the following description, the same reference numerals as in the first embodiment are given to the same configurations and functions as in the first embodiment, and detailed description thereof will be omitted. Further, "A" is added to the end of the reference numerals for components that have the same names as those of the first embodiment but have different configurations or functions.

図14は、第2の実施形態に係る第1学習機能57Aの構成図である。第1学習機能57Aは、例えば、再構成画像取得機能57-1と、アーチファクト種別受付機能57-2Aと、種別判定モデル生成機能57-3Aとを備える。 FIG. 14 is a configuration diagram of the first learning function 57A according to the second embodiment. The first learning function 57A includes, for example, a reconstructed image acquisition function 57-1, an artifact type reception function 57-2A, and a type determination model generation function 57-3A.

アーチファクト種別受付機能57-2Aは、再構成画像取得機能57-1により取得された再構成画像41-4に含まれるアーチファクトの種別を受け付ける。アーチファクト種別受付機能57-2Aは、「第2判定部」の一例である。 The artifact type receiving function 57-2A receives the type of artifact included in the reconstructed image 41-4 acquired by the reconstructed image acquiring function 57-1. The artifact type reception function 57-2A is an example of the "second determination unit".

アーチファクト種別受付機能57-2Aは、例えば、操作者による、再構成画像取得機能57-1により取得された再構成画像41-4に含まれるアーチファクトの種別の入力を受け付けてもよいし、後述する種別判定モデル41-6Aにより出力されたアーチファクトの種別を示す情報を受け付けてもよい。また、アーチファクト種別受付機能57-2Aは、操作者により間接的に入力されるアーチファクトの種別を受け付けるであってもよい。間接的に入力されるとは、例えば、アーチファクト補正処理機能54-3が行った補正処理の内容から、アーチファクトの種別を類推し、その類推結果を入力とすることである。 The artifact type receiving function 57-2A may, for example, receive input by the operator of the type of artifact included in the reconstructed image 41-4 acquired by the reconstructed image acquiring function 57-1. Information indicating the type of artifact output by the type determination model 41-6A may be accepted. Further, the artifact type receiving function 57-2A may receive the type of artifact indirectly input by the operator. Indirect input means, for example, inferring the type of artifact from the content of the correction processing performed by the artifact correction processing function 54-3, and using the result of the analogy as an input.

種別判定モデル生成機能57-3Aは、再構成画像取得機能57-1により取得された再構成画像41-4に含まれるアーチファクトの種別を判別する種別判定モデル41-6Aを生成する。種別判定モデル生成機能57-3Aは、「種別判定モデル生成部」の一例である。 The type determination model generation function 57-3A generates a type determination model 41-6A for determining the type of artifact included in the reconstructed image 41-4 acquired by the reconstructed image acquisition function 57-1. The type determination model generation function 57-3A is an example of a "type determination model generation unit".

アーチファクトの種別とは、例えば、オーバーフローアーチファクトに加え、X線検出素子の出力異常を示すアーチファクト(リングアーチファクト)、X線検出器15の異常やX線管11の放電を示すアーチファクト(シャワーアーチファクト)、信号伝送ノイズにより生成されたアーチファクト(モアレアーチファクト)、検出フォトンの大幅な減少・欠落に起因するアーチファクト(ダークバンドアーチファクト)等である。なお、被検体Pが撮影中に動いたことに起因するアーチファクト(モーションアーチファクト)や、インプラントや人工関節等の被検体Pの体内の金属に起因するアーチファクト(メタルアーチファクト)等の画像補正が困難で通常再撮影を要するアーチファクトも、上述のアーチファクトの種別に含めてもよい。種別判定モデル41-6Aは、例えば、上述のアーチファクトの種別毎に生成され、単一のアーチファクトの種別を判定するものであってもよいし、単一の種別判定モデル41-6Aが複数種類のアーチファクトの種別を判定するものであってもよい。 The types of artifacts include, for example, in addition to overflow artifacts, artifacts indicating an abnormal output of the X-ray detection element (ring artifact), artifacts indicating an abnormality in the X-ray detector 15 and discharge of the X-ray tube 11 (shower artifact), Artifacts generated by signal transmission noise (moire artifacts), artifacts caused by a large decrease or lack of detected photons (dark band artifacts), and the like. It should be noted that it is difficult to correct images such as artifacts (motion artifacts) caused by the movement of the subject P during imaging and artifacts (metal artifacts) caused by metals in the body of the subject P such as implants and artificial joints. Artifacts that normally require recapture may also be included in the above types of artifacts. The type determination model 41-6A, for example, may be generated for each type of artifact described above and may determine the type of a single artifact. It may also determine the type of artifact.

種別判定モデル生成機能57-3Aは、種別判定モデル41-6Aを生成する。種別判定モデル41-6Aについては後述する。 The type determination model generation function 57-3A generates a type determination model 41-6A. The type determination model 41-6A will be described later.

[種別判定モデル]
種別判定モデル生成機能57-3Aは、再構成画像取得機能57-1により取得された再構成画像41-4を学習データとし、その再構成画像41-4に対応付けられた、アーチファクトの種別を示す情報を教師データとして機械学習を行うことで、種別判定モデル41-6Aを生成する。なお、種別判定モデル生成機能57-3Aは、外部装置により実現されてもよい。
[Type determination model]
The type determination model generation function 57-3A uses the reconstructed image 41-4 acquired by the reconstructed image acquisition function 57-1 as learning data, and determines the artifact type associated with the reconstructed image 41-4. By performing machine learning using the indicated information as teacher data, the type determination model 41-6A is generated. The type determination model generation function 57-3A may be realized by an external device.

図15は、種別判定モデル41-6Aによる処理の内容について説明するための図である。アーチファクト判定機能54-2Aは、再構成画像41-4をパラメータとして種別判定モデル41-6Aに入力することで、再構成画像41-4に含まれるアーチファクトの種別を示す情報を出力する。 FIG. 15 is a diagram for explaining the details of processing by the type determination model 41-6A. The artifact determination function 54-2A inputs the reconstructed image 41-4 as a parameter to the type determination model 41-6A, thereby outputting information indicating the type of artifact included in the reconstructed image 41-4.

アーチファクト判定機能54-2Aは、好適な種別判定モデル41-6Aを選択し、その種別判定モデル41-6Aに再構成画像41-4を入力することで得られる出力に基づいてアーチファクトの有無および種別の判定処理を行ってもよい。また、アーチファクト判定機能54-2Aは、操作者による種別判定モデル41-6Aの選択を示す入力操作を受け付け、選択された種別判定モデル41-6Aに再構成画像41-4を入力することで得られる出力に基づいてアーチファクトの有無および種別の判定処理を行ってもよい。 The artifact determination function 54-2A selects a suitable type determination model 41-6A, and determines the presence or absence and type of artifact based on the output obtained by inputting the reconstructed image 41-4 to the type determination model 41-6A. may be performed. Further, the artifact determination function 54-2A receives an input operation indicating selection of the type determination model 41-6A by the operator, and inputs the reconstructed image 41-4 to the selected type determination model 41-6A. The presence or absence and type of artifact may be determined based on the output obtained.

なお、図15に示した処理において、再構成画像41-4の代替として、投影データ41-3が入力パラメータとして入力されてもよい。 Note that in the processing shown in FIG. 15, the projection data 41-3 may be input as an input parameter instead of the reconstructed image 41-4.

アーチファクト補正処理機能54-3は、再構成画像41-4の補正に関する操作者の入力を受け付け、補正画像41-5を生成してもよい。また、アーチファクト補正処理機能54-3は、アーチファクト判定機能54-2Aの判定結果に基づいて、好適な補正モデル41-7を選択して、選択した補正モデル41-7に再構成画像41-4を入力することで、補正画像41-5を生成してもよい。 The artifact correction processing function 54-3 may receive an operator's input regarding correction of the reconstructed image 41-4 and generate a corrected image 41-5. Further, the artifact correction processing function 54-3 selects a suitable correction model 41-7 based on the determination result of the artifact determination function 54-2A, and converts the selected correction model 41-7 into the reconstructed image 41-4. may be input to generate the corrected image 41-5.

図16は、種別判定モデル生成機能57-3Aの種別判定モデル生成処理を説明するための図である。種別判定モデル生成機能57-3Aは、予め接続情報等が定義されると共に接続係数等のパラメータが暫定的に設定された機械学習モデル(以下、第3の機械学習モデルと称する場合がある)に対して、複数セットの学習データを入力し、その結果が、学習データに対応する教師データに近づくように、第3の機械学習モデルにおけるパラメータを調整する。判定モデル生成機能57-3は、例えば、再構成画像41-4を学習データとし、その再構成画像41-4に含まれるアーチファクトの種別を示す情報を教師データとする学習済みモデルを生成する第3の機械学習モデルを生成する。 FIG. 16 is a diagram for explaining the type determination model generation processing of the type determination model generation function 57-3A. The type determination model generation function 57-3A creates a machine learning model (hereinafter sometimes referred to as a third machine learning model) in which connection information etc. are defined in advance and parameters such as connection coefficients are provisionally set. On the other hand, a plurality of sets of learning data are input, and the parameters in the third machine learning model are adjusted so that the result approaches teacher data corresponding to the learning data. The judgment model generation function 57-3 generates a trained model using, for example, the reconstructed image 41-4 as learning data and information indicating the type of artifact contained in the reconstructed image 41-4 as training data. Generate 3 machine learning models.

種別判定モデル生成機能57-3Aは、例えば、第1の実施形態の判定モデル生成機能57-3と同様に、DNN等のバックプロパゲーション(逆誤差伝搬法)によって第3の機械学習モデルのパラメータを調整する。なお、第3の機械学習モデルは、より新しい学習データがアウトプットとして反映されやすくなるように、学習データ毎に重み付け設定などを行ってもよい。 The type determination model generation function 57-3A, for example, similarly to the determination model generation function 57-3 of the first embodiment, uses back propagation (back propagation method) such as DNN to generate the parameters of the third machine learning model. to adjust. Note that the third machine learning model may perform weighting setting for each learning data so that newer learning data is more likely to be reflected as an output.

種別判定モデル生成機能57-3Aは、予め定められたセット数の学習データと、対応する教師データについてバックプロパゲーションを行うと、処理を終了する。その時点の第3の機械学習モデルが種別判定モデル41-6Aとして記憶される。なお、種別判定モデル生成機能57-3Aは、ある再構成画像41-4と、その再構成画像41-4に含まれるアーチファクトの種別を示す情報とのセットとを用いて種別判定モデル41-6Aを生成してもよい。 When the type determination model generation function 57-3A performs back propagation on a predetermined number of sets of learning data and the corresponding teacher data, the process ends. The third machine learning model at that time is stored as the type determination model 41-6A. The type determination model generation function 57-3A generates a type determination model 41-6A using a set of a reconstructed image 41-4 and information indicating the type of artifact included in the reconstructed image 41-4. may be generated.

[処理フロー4]
図17は、X線CT装置1Aによる撮影処理の流れの一例を示すフローチャートである。
[Processing flow 4]
FIG. 17 is a flow chart showing an example of the flow of imaging processing by the X-ray CT apparatus 1A.

まず、再構成画像取得機能54-1は、再構成画像41-4を取得する(ステップS400)。次に、アーチファクト判定機能54-2Aは、種別判定モデル41-6Aに再構成画像41-4を入力し、アーチファクトの種別を示す情報を取得する(ステップS402)。次に、画像処理機能54は、特定したアーチファクトの種別をディスプレイ42に出力するよう表示制御機能56に出力指示し(ステップS404)、操作者によるアーチファクト補正の操作を受け付ける(ステップS406)。なお、ステップS406は、第1の実施形態と同様に、補正モデル41-7に再構成画像41-4を入力することで、補正画像41-5を生成してもよい。次に、第1学習機能57Aは、ステップS406の処理結果を学習データであるアーチファクトの種別を示す情報として保存する(ステップS408)。以上、本フローチャートの処理の説明を終了する。 First, the reconstructed image acquisition function 54-1 acquires the reconstructed image 41-4 (step S400). Next, the artifact determination function 54-2A inputs the reconstructed image 41-4 to the type determination model 41-6A and acquires information indicating the type of artifact (step S402). Next, the image processing function 54 instructs the display control function 56 to output the identified artifact type to the display 42 (step S404), and receives an artifact correction operation by the operator (step S406). In step S406, similarly to the first embodiment, the corrected image 41-5 may be generated by inputting the reconstructed image 41-4 into the corrected model 41-7. Next, the first learning function 57A stores the processing result of step S406 as information indicating the type of artifact, which is learning data (step S408). This completes the description of the processing of this flowchart.

[処理フロー5]
図18は、第1学習機能57Aによる第3の学習処理の流れの一例を示すフローチャートである。図18のフローチャートは、例えば、図17のステップS408により所定セット数以上の学習データが保存された場合や、X線CT装置1Aが1名の被検体の撮影を終了する度などのタイミングで行われる。
[Processing flow 5]
FIG. 18 is a flow chart showing an example of the flow of the third learning process by the first learning function 57A. The flowchart of FIG. 18 is executed, for example, when a predetermined number of sets or more of learning data are saved in step S408 of FIG. will be

まず、第1学習機能57Aは、1セットの学習データを取得する(ステップS500)。次に、第1学習機能57Aは、ステップS200で取得した1セットの学習データを第3の機械学習モデルに入力し(ステップS502)、1セットの学習データに対応する教師データから誤差を逆伝搬させる(ステップS504)。 First, the first learning function 57A acquires one set of learning data (step S500). Next, the first learning function 57A inputs the one set of learning data acquired in step S200 to the third machine learning model (step S502), and back-propagates the error from the teacher data corresponding to the one set of learning data. (step S504).

次に、第1学習機能57Aは、所定セット数の学習データについてステップS502およびS504の処理を行ったか否かを判定する(ステップS506)。所定セット数の学習データについてステップS502およびS504の処理を行っていない場合、第1学習機能57Aは、ステップS500に処理を戻す。所定セット数の学習データについてステップS502およびS504の処理を行った場合、第1学習機能57Aは、その時点のパラメータを用いて種別判定モデル41-6Aを確定し(ステップS508)、本フローチャートの処理を終了する。 Next, the first learning function 57A determines whether or not the processing of steps S502 and S504 has been performed for a predetermined number of sets of learning data (step S506). If the processing of steps S502 and S504 has not been performed for the predetermined number of sets of learning data, the first learning function 57A returns the processing to step S500. When the processing of steps S502 and S504 is performed for a predetermined number of sets of learning data, the first learning function 57A determines the type determination model 41-6A using the parameters at that time (step S508), and performs the processing of this flowchart. exit.

以上説明した第2の実施形態のX線CT装置1Aによれば、再構成画像41-4を取得する再構成画像取得機能54-1と、再構成画像41-4に含まれるアーチファクトの種別を出力する種別判定モデル41-6Aに対して、再構成画像41-4を入力することで、アーチファクトの種別を判定するアーチファクト判定機能54-2Aと、を備えることで、アーチファクトの補正に要する負荷(特に、アーチファクトの種別の判定に要する負荷と、そのアーチファクトの種別に応じた補正方法の選択に要する負荷)を低減させることができる。 According to the X-ray CT apparatus 1A of the second embodiment described above, the reconstructed image acquisition function 54-1 for acquiring the reconstructed image 41-4 and the type of artifact included in the reconstructed image 41-4 are By providing an artifact determination function 54-2A that determines the type of artifact by inputting the reconstructed image 41-4 to the output type determination model 41-6A, the load required for correcting the artifact ( In particular, the load required for determining the type of artifact and the load required for selecting a correction method according to the type of artifact can be reduced.

上記説明した実施形態は、以下のように表現することができる。
ハードウェアプロセッサと、
プログラムを記憶した記憶装置と、を備え、
第1の医用データを取得し、
前記取得された第1の医用データがオーバーフローアーチファクトを含むか否かを判定し、
医用データが入力されたときにオーバーフローアーチファクトが補正された医用データを出力する補正モデルに対して、前記オーバーフローアーチファクトを含むと判定された前記第1の医用データを入力することで、前記第1の医用データのオーバーフローアーチファクトが補正された医用データを生成する、
ように構成されている、医用画像処理装置。
The embodiment described above can be expressed as follows.
a hardware processor;
a storage device storing a program,
obtaining first medical data;
determining whether the acquired first medical data includes an overflow artifact;
By inputting the first medical data determined to include the overflow artifact to a correction model that outputs medical data in which the overflow artifact is corrected when the medical data is input, generating medical data corrected for medical data overflow artifacts;
A medical image processing apparatus configured as follows.

以上説明した少なくともひとつの実施形態のX線CT装置によれば、第1の医用データ(41-4)を取得する取得部(54-1)と、前記取得された第1の医用データがオーバーフローアーチファクトを含むか否かを判定する第1判定部(54-2)と、医用データが入力されたときにオーバーフローアーチファクトが補正された医用データを出力する補正モデル(41-7)に対して、前記第1判定部によりオーバーフローアーチファクトを含むと判定された前記第1の医用データを入力することで、前記第1の医用データのオーバーフローアーチファクトが補正された医用データ(41-5)を生成する補正部(54-3)と、を備えることにより、オーバーフローにより発生するアーチファクトを低減することができる。 According to the X-ray CT apparatus of at least one embodiment described above, the acquisition unit (54-1) for acquiring the first medical data (41-4) and the acquired first medical data overflow For a first determination unit (54-2) that determines whether or not an artifact is included, and a correction model (41-7) that outputs medical data in which overflow artifacts are corrected when medical data is input, Correction for generating medical data (41-5) in which the overflow artifact of the first medical data is corrected by inputting the first medical data determined to include the overflow artifact by the first determining unit. By providing the part (54-3), it is possible to reduce artifacts caused by overflow.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の軽減、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be embodied in various other forms, and various reductions, substitutions, and alterations can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1…X線CT装置
10…架台装置
11…X線管
12…ウェッジ
13…コリメータ
14…X線高電圧装置
15…X線検出器
16…データ収集システム
17…回転フレーム
18…制御装置
30…寝台装置
31…基台
32…寝台駆動装置
33…天板
34…支持フレーム
40…コンソール装置
50…処理回路
54-1…再構成画像取得機能
54-2、54-2A…アーチファクト判定機能
54-3…アーチファクト補正処理機能
57、57A…第1学習機能
57-3…判定モデル生成機能
57-3A…種別判定モデル生成機能
58…第2学習機能
58-3…補正モデル生成機能
DESCRIPTION OF SYMBOLS 1... X-ray CT apparatus 10... Mounting apparatus 11... X-ray tube 12... Wedge 13... Collimator 14... X-ray high-voltage apparatus 15... X-ray detector 16... Data collection system 17... Rotating frame 18... Control device 30... Bed Device 31 Base 32 Bed drive device 33 Top plate 34 Support frame 40 Console device 50 Processing circuit 54-1 Reconstructed image acquisition functions 54-2, 54-2A Artifact determination function 54-3 Artifact correction processing functions 57, 57A First learning function 57-3 Judgment model generation function 57-3A Type judgment model generation function 58 Second learning function 58-3 Correction model generation function

Claims (9)

第1の医用データおよび前記第1の医用データに対応付けられた被検体情報を取得する取得部と、
前記取得された第1の医用データがオーバーフローアーチファクトを含むか否かを判定する第1判定部と、
医用データおよび前記医用データに対応付けられた被検体情報が入力されたときにオーバーフローアーチファクトが補正された医用データを出力する補正モデルに対して、前記第1判定部によりオーバーフローアーチファクトを含むと判定された前記第1の医用データおよび前記第1の医用データに対応付けられた前記被検体情報を入力することで、前記第1の医用データのオーバーフローアーチファクトが補正された医用データを生成する補正部と、
を備える医用画像処理装置。
an acquisition unit that acquires first medical data and subject information associated with the first medical data ;
a first determination unit that determines whether the acquired first medical data includes an overflow artifact;
When the medical data and the subject information associated with the medical data are input, the first determination unit determines that the overflow artifact is included in the correction model that outputs the medical data in which the overflow artifact is corrected. a correction unit that generates medical data in which overflow artifacts of the first medical data are corrected by inputting the first medical data and the subject information associated with the first medical data; ,
A medical image processing apparatus comprising:
前記第1判定部は、前記第1の医用データが入力されたときにオーバーフローアーチファクトを含むか否かを示す情報を出力する判定モデルに対して、前記取得した第1の医用データを入力することで、前記取得した第1の医用データがオーバーフローアーチファクトを含むか否かを判定する、
請求項1に記載の医用画像処理装置。
The first determination unit inputs the obtained first medical data to a determination model that outputs information indicating whether an overflow artifact is included when the first medical data is input. determining whether the obtained first medical data includes an overflow artifact;
The medical image processing apparatus according to claim 1.
前記補正部は、前記第1の医用データに対応付けられた前記被検体情報により識別される被検体と同一の被検体のオーバーフローアーチファクトが補正された医用データが反映された補正モデルが存在する場合、前記同一の被検体のオーバーフローアーチファクトが補正された医用データが反映された補正モデルを用いて前記医用データを補正する、
請求項1または2に記載の医用画像処理装置。
When there is a correction model that reflects medical data corrected for overflow artifacts of the same subject as the subject identified by the subject information associated with the first medical data, the correction unit correcting the medical data using a correction model that reflects the medical data in which the overflow artifact of the same subject is corrected;
The medical image processing apparatus according to claim 1 or 2.
前記補正モデルを生成する補正モデル生成部を更に備え、
前記補正モデル生成部は、オーバーフローアーチファクトを含まない医用データの被検体の撮影部位に基づく人工的なアーチファクトを、前記オーバーフローアーチファクトを含まない医用データに追加した医用データを用いて前記補正モデルを生成する、
請求項1から3のうちいずれか1項に記載の医用画像処理装置。
further comprising a correction model generation unit that generates the correction model,
The correction model generation unit generates the correction model using medical data obtained by adding an artificial artifact based on an imaging region of a subject in medical data not including overflow artifacts to the medical data not including overflow artifacts. ,
The medical image processing apparatus according to any one of claims 1 to 3.
前記補正モデル生成部は、オーバーフローアーチファクトを含まない医用データに対して、カウント値を上昇させることで、前記人工的なアーチファクトを、前記オーバーフローアーチファクトを含まない医用データに追加する、
請求項4に記載の医用画像処理装置。
The correction model generation unit adds the artificial artifact to the medical data that does not contain the overflow artifact by increasing the count value for the medical data that does not contain the overflow artifact.
The medical image processing apparatus according to claim 4.
前記第1の医用データを学習データとし、前記第1判定部による前記第1の医用データに対する判定結果を教師データとする判定モデルを生成する、判定モデル生成部、
をさらに備える、請求項1から5のうちいずれか1項に記載の医用画像処理装置。
a determination model generation unit that generates a determination model using the first medical data as learning data and a determination result of the first medical data by the first determination unit as teacher data;
The medical image processing apparatus according to any one of claims 1 to 5, further comprising:
コンピュータが、
第1の医用データおよび前記第1の医用データに対応付けられた被検体情報を取得し、
前記取得された第1の医用データがオーバーフローアーチファクトを含むか否かを判定し、
医用データおよび前記医用データに対応付けられた被検体情報が入力されたときにオーバーフローアーチファクトが補正された医用データを出力する補正モデルに対して、前記オーバーフローアーチファクトを含むと判定された前記第1の医用データおよび前記第1の医用データに対応付けられた前記被検体情報を入力することで、前記第1の医用データのオーバーフローアーチファクトが補正された医用データを生成する、
医用画像処理方法。
the computer
obtaining first medical data and subject information associated with the first medical data ;
determining whether the acquired first medical data includes an overflow artifact;
The first method determined to include the overflow artifact with respect to a correction model that outputs medical data in which the overflow artifact is corrected when medical data and subject information associated with the medical data are input. generating medical data in which an overflow artifact of the first medical data is corrected by inputting medical data and the subject information associated with the first medical data;
Medical image processing method.
医用データに基づいて前記医用データが含むアーチファクトの種別を示す情報を出力する種別判定モデルに対して、前記取得した第1の医用データを入力することで、前記取得した第1の医用データが含むアーチファクトの種別を判定する第2判定部を更に備える
請求項1から6のうちいずれか1項に記載の医用画像処理装置。
By inputting the acquired first medical data to a type determination model that outputs information indicating the type of artifact contained in the medical data based on the medical data, the acquired first medical data includes Further comprising a second determination unit that determines the type of artifact,
The medical image processing apparatus according to any one of claims 1 to 6 .
前記種別判定モデルを生成する種別判定モデル生成部を更に備え、
前記種別判定モデル生成部は、前記第1の医用データを学習データとし、前記第1の医用データに含まれるアーチファクトの種別を示す情報を教師データとして機械学習を行うことで、前記種別判定モデルを生成する、
請求項8に記載の医用画像処理装置。
further comprising a type determination model generation unit that generates the type determination model,
The type determination model generation unit generates the type determination model by performing machine learning using the first medical data as learning data and information indicating the type of the artifact included in the first medical data as training data. generate,
The medical image processing apparatus according to claim 8.
JP2018221418A 2018-11-27 2018-11-27 MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD Active JP7144292B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018221418A JP7144292B2 (en) 2018-11-27 2018-11-27 MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
JP2022145479A JP7309988B2 (en) 2018-11-27 2022-09-13 MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221418A JP7144292B2 (en) 2018-11-27 2018-11-27 MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022145479A Division JP7309988B2 (en) 2018-11-27 2022-09-13 MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD

Publications (2)

Publication Number Publication Date
JP2020081460A JP2020081460A (en) 2020-06-04
JP7144292B2 true JP7144292B2 (en) 2022-09-29

Family

ID=70904990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018221418A Active JP7144292B2 (en) 2018-11-27 2018-11-27 MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD

Country Status (1)

Country Link
JP (1) JP7144292B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023168941A (en) * 2022-05-16 2023-11-29 富士フイルムヘルスケア株式会社 Ultrasonic time-series data processing device and ultrasonic time-series data processing program
JP2023180385A (en) * 2022-06-09 2023-12-21 富士フイルムヘルスケア株式会社 Ultrasonic time series data processing device and ultrasound time series data processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013158630A (en) 2012-02-09 2013-08-19 Toshiba Corp X-ray diagnostic system and x-ray diagnostic method
JP2015514491A (en) 2012-04-23 2015-05-21 コーニンクレッカ フィリップス エヌ ヴェ Artifact removal by shape detection
US20170365047A1 (en) 2016-06-15 2017-12-21 General Electric Company Artifact management in imaging
US20170372193A1 (en) 2016-06-23 2017-12-28 Siemens Healthcare Gmbh Image Correction Using A Deep Generative Machine-Learning Model
CN107945132A (en) 2017-11-29 2018-04-20 深圳安科高技术股份有限公司 A kind of artifact correction method and device of the CT images based on neutral net

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013158630A (en) 2012-02-09 2013-08-19 Toshiba Corp X-ray diagnostic system and x-ray diagnostic method
JP2015514491A (en) 2012-04-23 2015-05-21 コーニンクレッカ フィリップス エヌ ヴェ Artifact removal by shape detection
US20170365047A1 (en) 2016-06-15 2017-12-21 General Electric Company Artifact management in imaging
US20170372193A1 (en) 2016-06-23 2017-12-28 Siemens Healthcare Gmbh Image Correction Using A Deep Generative Machine-Learning Model
CN107945132A (en) 2017-11-29 2018-04-20 深圳安科高技术股份有限公司 A kind of artifact correction method and device of the CT images based on neutral net

Also Published As

Publication number Publication date
JP2020081460A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
US11410350B2 (en) Medical image processing apparatus and X-ray CT apparatus
JP7678056B2 (en) X-ray CT device
US11080898B2 (en) Adaptive processing of medical images to reduce noise magnitude
US11241212B2 (en) Medical apparatus
JP7144292B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
JP2023119375A (en) X-ray ct apparatus, determination method, and program
JP7462433B2 (en) Medical diagnostic system, medical diagnostic device, and medical information processing device
US11328460B2 (en) X-ray CT system and processing method
JP2024054373A (en) Medical image diagnostic device and medical image diagnostic method
JP7179479B2 (en) X-ray CT device
JP7309988B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
JP7619869B2 (en) Medical image processing method, medical image processing device, and X-ray CT device
JP7309381B2 (en) Medical image diagnostic device and medical bed device
JP5595724B2 (en) X-ray CT system
JP7301607B2 (en) Radiological diagnostic equipment
JP7224208B2 (en) Medical processing equipment and medical diagnostic systems
CN111973211A (en) Medical image diagnosis device
JP2020192319A (en) Medical diagnostic imaging equipment
JP7370802B2 (en) Medical image processing equipment and X-ray CT equipment
JP7320934B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
US20250311995A1 (en) Medical image diagnostic device and method of controlling medical image diagnostic device
US20240099675A1 (en) Medical image processing device and medical image processing method
JP2020005971A (en) X-ray CT apparatus and correction method
US20230145523A1 (en) Medical image processing apparatus, x-ray ct apparatus, medical image processing method and non-volatile storage medium storing program
JP7062514B2 (en) X-ray CT device and X-ray tube control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220915

R150 Certificate of patent or registration of utility model

Ref document number: 7144292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150