[go: up one dir, main page]

JP2000157519A - Image processor - Google Patents

Image processor

Info

Publication number
JP2000157519A
JP2000157519A JP10334688A JP33468898A JP2000157519A JP 2000157519 A JP2000157519 A JP 2000157519A JP 10334688 A JP10334688 A JP 10334688A JP 33468898 A JP33468898 A JP 33468898A JP 2000157519 A JP2000157519 A JP 2000157519A
Authority
JP
Japan
Prior art keywords
image
radiation
image data
image processing
irradiation field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10334688A
Other languages
Japanese (ja)
Inventor
Akiko Yanagida
亜紀子 柳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP10334688A priority Critical patent/JP2000157519A/en
Publication of JP2000157519A publication Critical patent/JP2000157519A/en
Pending legal-status Critical Current

Links

Landscapes

  • Radiography Using Non-Light Waves (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To correctly and automatically judge the direction of images and to process the images. SOLUTION: An irradiation field area is recognized by using the image data of radiation images and four areas Ard-1 to Ard-4 for direction discrimination close to the respective sides of the area Ard inside an irradiation field are set. Based on the cumulative histogram of the image data inside the respective areas for the direction discrimination, direction discrimination representative values are decided. The size relation of the direction discrimination representative values inside the respective areas for the direction discrimination becomes prescribed size relation corresponding to a photographing part. Thus, from information for indicating the photographing part and the size relation of the direction discrimination representative values, the direction of the image is discriminated depending on which is the area for the direction discrimination for maximizing or minimizing the direction discrimination representative value for instance. By generating the image data in a correct direction based on a discriminated result, deciding an image processing condition and processing the image, the radiation image suitable for a diagnosis is obtained.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、放射線画像の画
像信号を用いて画像の向きを自動的に判定できる画像処
理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus capable of automatically determining the direction of an image using an image signal of a radiation image.

【0002】[0002]

【従来の技術】従来、疾病診断用の人体X線画像等の放
射線画像の画像信号を得る方法として、フィルムディジ
タイザや輝尽性蛍光体ディテクタを用いる方法が知られ
ている。
2. Description of the Related Art Conventionally, as a method for obtaining an image signal of a radiation image such as a human body X-ray image for diagnosing a disease, a method using a film digitizer or a stimulable phosphor detector is known.

【0003】フィルムディジタイザを用いる方法では、
化学的現像および定着等の処理が行われた放射線写真フ
ィルムにレーザー光を照射し、その透過光あるいは反射
光をフォトマルチプライヤ等の光電変換手段を用いて電
気信号に変換することにより、放射線画像の画像信号が
得られる。
In a method using a film digitizer,
A radiographic film that has been subjected to chemical development and fixing is irradiated with laser light, and the transmitted or reflected light is converted into an electrical signal using a photoelectric conversion means such as a photomultiplier, thereby producing a radiographic image. Is obtained.

【0004】また、輝尽性蛍光体ディテクタを用いる方
法では、放射線エネルギーの一部を蓄積して、その後可
視光等の励起光を照射すると蓄積されたエネルギーに応
じて輝尽発光を示す輝尽性蛍光体を利用し、平板状の支
持体上に輝尽性蛍光体層が形成された放射線画像変換プ
レートに被写体の放射線画像の潜像を形成したのちレー
ザ光等を照射し、輝尽発光を光電変換手段により電気信
号に変換して放射線画像の画像信号が得られる。
In the method using a stimulable phosphor detector, when a part of radiation energy is accumulated and then irradiated with excitation light such as visible light, the stimulable phosphor emits stimulable light in accordance with the accumulated energy. A latent image of a radiation image of a subject is formed on a radiation image conversion plate having a stimulable phosphor layer formed on a flat support using a stimulable phosphor, and then irradiated with a laser beam or the like, thereby stimulating light emission. Is converted into an electric signal by a photoelectric conversion unit, and an image signal of a radiation image is obtained.

【0005】さらに、フィルムディジタイザや輝尽性蛍
光体ディテクタを用いる場合のように透過光や反射光あ
るいは輝尽発光を集光しなくとも、放射線画像の画像信
号を得ることができるFPD(Flat Panel Detector)を
用いる方法も知られている。
Further, an FPD (Flat Panel) which can obtain an image signal of a radiation image without condensing transmitted light, reflected light or stimulated luminescence as in the case of using a film digitizer or a stimulable phosphor detector. Detector) is also known.

【0006】このFPDを用いる方法では、複数の検出
素子を2次元的に配列させて撮像パネルを形成し、この
撮像パネルの各検出素子で検出された放射線量に基づい
て画像信号が生成されるので、鮮鋭度の高い放射線画像
を得ることができる。
In the method using the FPD, an image pickup panel is formed by arranging a plurality of detection elements two-dimensionally, and an image signal is generated based on the radiation dose detected by each detection element of the image pickup panel. Therefore, a radiation image with high sharpness can be obtained.

【0007】このようにして得られた画像信号に基づく
放射線画像を表示したり出力する場合、撮影条件の変動
を受けることなく見やすい放射線画像となるように画像
処理が行われる。
When displaying or outputting a radiographic image based on the image signal obtained in this way, image processing is performed so that the radiographic image can be easily viewed without being affected by changes in imaging conditions.

【0008】この画像処理を行う場合、例えば特開平5
ー7578号公報で示されているように、人体の解剖学
的構造に対応して関心領域を設定し、この関心領域内の
画像信号に基づいて画像処理条件が決定される。
When this image processing is performed, for example, Japanese Patent Application Laid-Open
As disclosed in Japanese Patent No. 7578, a region of interest is set corresponding to the anatomical structure of a human body, and image processing conditions are determined based on image signals in the region of interest.

【0009】ここで、ディテクタが放射線画像読取装置
に固定されているビルトインタイプの放射線画像撮像装
置を用いる場合にはディテクタに対して被写体の向きが
一定となるが、ディテクタが装置に固定されていないカ
セッテタイプである場合には、撮影部位に応じてディテ
クタの位置を自由に変えることができるので、ディテク
タに対して被写体の向きが一定とならない。例えば胸部
正面の放射線画像を撮影する場合、体型が肥満型でない
ときには図15Aに示すように、撮影領域の長手方向が
縦方向となるようにして撮影が行われる。また、体型が
肥満型であるときには図15Bに示すように、胸部が撮
影領域からはみ出ないように撮影領域の長手方向が横方
向となるようにして撮影が行われる。
Here, when using a built-in type radiation image pickup apparatus in which the detector is fixed to the radiation image reading apparatus, the direction of the subject is fixed with respect to the detector, but the detector is not fixed to the apparatus. In the case of the cassette type, since the position of the detector can be freely changed according to the imaging region, the orientation of the subject with respect to the detector is not constant. For example, when a radiographic image of the front of the chest is taken, when the body shape is not obese, as shown in FIG. 15A, the image is taken so that the longitudinal direction of the imaging region is the vertical direction. When the body type is obese, as shown in FIG. 15B, imaging is performed such that the longitudinal direction of the imaging region is horizontal so that the chest does not protrude from the imaging region.

【0010】このように、画像内の人体の向きが異なる
場合、撮影領域の長手方向を撮影画像の縦方向として関
心領域を設定した場合、撮影領域の長手方向が撮影画像
の横方向とされているときには関心領域を適正に設定す
ることができず画像処理を正しく行うことができなくな
ってしまう。
As described above, when the direction of the human body in the image is different, when the region of interest is set with the longitudinal direction of the photographing region being the vertical direction of the photographed image, the longitudinal direction of the photographing region is defined as the horizontal direction of the photographed image. In such a case, the region of interest cannot be properly set, and image processing cannot be performed correctly.

【0011】また、医師が診断等を行う場合の放射線画
像の向きは、例えば人体の頭部が放射線画像の上部側と
されるのが通例であることから、放射線画像の向きが異
なると診断し難くなってしまう。
[0011] In addition, when a doctor makes a diagnosis or the like, the direction of the radiation image is usually, for example, the head of the human body is set to the upper side of the radiation image. It will be difficult.

【0012】このため、特開昭63−304378号公
報で示されているように、画像中央を含む縦方向と横方
向の帯状領域の特性値を比較して画像が正立か横転かを
判定する方法が提案されている。
For this reason, as disclosed in Japanese Patent Application Laid-Open No. 63-304378, it is determined whether the image is erect or rolled over by comparing the characteristic values of the vertical band and the horizontal band including the center of the image. A way to do that has been proposed.

【0013】[0013]

【発明が解決しようとする課題】ところで、上述した特
開昭63−304378号公報の画像の横転判別方法で
は、正立であるか横転であるかのいずれであるかを判別
するものであって、例えば画像の逆転等を判別すること
はできない。
In the above-described method of judging rollover of an image disclosed in Japanese Patent Application Laid-Open No. Sho 63-304378, it is determined whether the image is upright or rollover. For example, it is not possible to determine the reverse of the image.

【0014】また、骨盤正面画像のように縦方向には椎
骨が撮影されており横方向には骨盤が撮影されているよ
うな場合、画像信号のレベルの合計値や平均値の差が小
さいことから、撮影部位によって正立か横転かを判定す
ることができない場合が生じてしまう。
When the vertebra is photographed in the vertical direction and the pelvis is photographed in the horizontal direction as in the front image of the pelvis, the difference between the total value and the average value of the image signal levels is small. Therefore, there may be a case where it is not possible to determine whether the object is upright or overturning depending on the imaging part.

【0015】また、被写体の位置が上下方向や左右方向
にずれたり、傾いたりすることによって、帯状領域に含
まれる画像信号のレベルの合計値や平均値が変化する
と、正立か横転かを正しく判定することができなくなっ
てしまう。
When the total value or average value of the image signal levels included in the band-shaped area changes due to the position of the subject shifting or tilting in the vertical direction or the horizontal direction, whether the object is erect or rollover is correctly determined. The judgment cannot be made.

【0016】さらに、特性値として画像信号のレベルの
合計値や平均値を用いる場合、画素欠陥やノイズ等によ
って画像信号のレベルが大きく異なる画素が生じたとき
には、この画素によって合計値や平均値が影響を受けて
しまう。
Further, when the sum or average of the levels of the image signal is used as the characteristic value, when a pixel having a significantly different level of the image signal occurs due to a pixel defect, noise, or the like, the sum or the average of the image signal is changed by this pixel. Affected.

【0017】このように、放射線画像の画像の向きを正
しく判定することができない場合が生じてしまうことか
ら、特開昭63−304378号公報の画像の横転判別
方法を用いても関心領域を適正に設定することができず
画像処理を正しく行うことができない場合が生じてしま
う。また、画像の向きを正しく判定することができない
ときには、放射線画像を診断等に適した向きとすること
ができない。
As described above, a case may occur where the orientation of the radiation image cannot be correctly determined. Therefore, even if the rollover determination method of the image disclosed in JP-A-63-304378 is used, the region of interest can be properly determined. And the image processing cannot be performed correctly. Further, when the orientation of the image cannot be determined correctly, the radiation image cannot be set to a direction suitable for diagnosis or the like.

【0018】そこで、この発明では画像の向きを正しく
自動的に判定して画像処理を行うことができる画像処理
装置を提供するものである。
Accordingly, an object of the present invention is to provide an image processing apparatus capable of correctly and automatically determining the direction of an image and performing image processing.

【0019】[0019]

【課題を解決するための手段】この発明に係る画像処理
装置は、被写体を透過した放射線に基づいて生成された
放射線画像の画像データを用いて放射線画像の画像処理
を行う画像処理装置にであって、放射線の照射野領域を
認識する照射野認識手段と、認識された照射野領域内
に、互いに重ならない複数の方向判別用領域を設定する
領域設定手段と、設定された方向判別用領域のそれぞれ
について、方向判別用領域内の画像データの方向判別代
表値を決定する代表値決定手段と、決定された複数の方
向判別代表値を用いて所定の演算を行い、演算結果に基
づいて放射線画像の画像方向を判別する画像方向判別手
段と、画像方向判別手段における判別結果および画像デ
ータに基づいて画像処理条件を決定して放射線画像の画
像処理を行う画像データ処理手段とを有するものであ
る。また、画像データ処理手段によって画像処理が施さ
れた画像データを用いて放射線画像を表示する画像表示
手段や、画像方向判別手段における判別結果および画像
データ処理手段で決定された画像処理条件を、放射線画
像の画像データに対応付けて外部機器に出力する出力手
段、放射線画像の撮影部位情報を入力する撮影部位情報
入力手段、画像方向修正情報を入力する修正情報入力手
段を有するものである。
An image processing apparatus according to the present invention is an image processing apparatus that performs image processing of a radiation image using image data of a radiation image generated based on radiation transmitted through a subject. An irradiation field recognizing means for recognizing an irradiation field area of radiation, an area setting means for setting a plurality of direction discriminating areas which do not overlap each other in the recognized irradiation field area, For each of them, a representative value determining means for determining a direction determination representative value of image data in the direction determination area, and a predetermined calculation is performed using the determined plurality of direction determination representative values, and a radiation image is determined based on the calculation result. Image direction discriminating means for discriminating the image direction of an image, and image data for performing image processing of a radiation image by determining image processing conditions based on the discrimination result and image data in the image direction discriminating means. Those having a data processing unit. Further, the image display means for displaying a radiation image using image data subjected to image processing by the image data processing means, the discrimination result of the image direction discriminating means, and the image processing conditions determined by the image data processing means, The apparatus includes an output unit for outputting to an external device in association with image data of an image, an imaging region information input unit for inputting imaging region information of a radiation image, and a correction information input unit for inputting image direction correction information.

【0020】この発明においては、放射線画像の画像デ
ータを用いて照射野領域が認識されて、この認識された
照射野領域内に、放射線画像の向きの判別方向数に応じ
た数の互いに重なることのない複数の方向判別用領域が
設定される。例えば、略矩形の照射野領域が認識され
て、4つの向きの判別を行うものとしたときには、略矩
形の照射野領域の各辺に近接して4つの方向判別用領域
が設定される。この設定された方向判別用領域内の画像
データの累積ヒストグラムに基づいて方向判別代表値が
決定されて、この判別代表値を用いて所定の演算を行
い、判別代表値の大小関係から放射線画像の向きが判別
される。この判別結果に基づき正しい向きの画像データ
を生成して画像処理条件を決定し、階調処理等を含む画
像処理が行われる。また、入力された撮影部位情報を用
いて放射線画像の向きの判別や画像処理条件の決定が行
われると共に、画像方向修正情報によって放射線画像の
向きの判別結果が修正される。さらに、放射線画像の向
きの判別結果と画像処理条件および画像処理前の画像デ
ータが対応付けられて出力される。
According to the present invention, the irradiation field area is recognized using the image data of the radiation image, and the recognized irradiation field area is overlapped by a number corresponding to the number of directions for determining the direction of the radiation image. A plurality of direction discriminating areas without the mark are set. For example, when a substantially rectangular irradiation field area is recognized and four directions are determined, four direction discrimination areas are set near each side of the substantially rectangular irradiation field area. A direction discrimination representative value is determined based on the cumulative histogram of the image data in the set direction discrimination area, and a predetermined calculation is performed using the discrimination representative value. The orientation is determined. Based on the determination result, image data in a correct direction is generated to determine image processing conditions, and image processing including gradation processing and the like is performed. In addition, the determination of the direction of the radiation image and the determination of the image processing condition are performed using the input imaging region information, and the determination result of the direction of the radiation image is corrected by the image direction correction information. Further, the determination result of the orientation of the radiation image, the image processing condition, and the image data before the image processing are output in association with each other.

【0021】[0021]

【発明の実施の形態】次に、この発明の実施の一形態に
ついて図を用いて詳細に説明する。図1は、放射線画像
撮像システムの構成を示しており、放射線発生器10か
ら放射された放射線は、被写体5を通してカセッテ型放
射線画像読取器(以下「放射線画像読取器」という)2
0の撮像パネルに照射される。放射線画像読取器20で
は、照射された放射線の強度に基づいて画像データが生
成される。コントローラ40では、放射線画像読取器2
0から供給された画像データを用いて画質の良好な放射
線画像の表示や出力等が行われる。
Next, an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 shows a configuration of a radiation image capturing system. Radiation emitted from a radiation generator 10 passes through a subject 5 and is a cassette type radiation image reader (hereinafter, referred to as “radiation image reader”) 2.
The image is irradiated on the imaging panel of No. 0. In the radiation image reader 20, image data is generated based on the intensity of the irradiated radiation. In the controller 40, the radiation image reader 2
The display and output of a radiographic image with good image quality are performed using the image data supplied from 0.

【0022】図2は、FPDを用いた放射線画像読取器
20の構成を示している。撮像パネル21は所定の剛性
を得られるだけの厚みを有する基板を有しており、この
基板上には照射された放射線の線量に応じて電気信号を
出力する検出素子212-(1,1)〜212-(m,n)が2次元
配置されている。また、走査線215-1〜215-mと信
号線216-1〜216-nが例えば直交するように配設さ
れる。
FIG. 2 shows a configuration of the radiation image reader 20 using the FPD. The imaging panel 21 has a substrate having a thickness enough to obtain a predetermined rigidity, and a detection element 212- (1,1) that outputs an electric signal in accordance with the dose of the irradiated radiation is provided on the substrate. ~ 212- (m, n) are two-dimensionally arranged. Further, the scanning lines 215-1 to 215-m and the signal lines 216-1 to 216-n are arranged, for example, to be orthogonal.

【0023】撮像パネル21の走査線215-1〜215
-mは、走査駆動回路24と接続されている。走査駆動回
路24から走査線215-1〜215-mのうちの1つ走査
線215-p(pは1〜mのいずれかの値)に読出信号RS
が供給されると、この走査線215-pに接続された検出
素子から照射された放射線の線量に応じた電気信号SV
-1〜SV-nが出力されて、信号線216-1〜216-nを
介して画像データ生成回路26に供給される。
The scanning lines 215-1 to 215 of the imaging panel 21
-m is connected to the scan drive circuit 24. The readout signal RS is sent from the scan drive circuit 24 to one of the scan lines 215-1 to 215 -m (p is one of 1 to m).
Is supplied, the electric signal SV corresponding to the dose of the radiation emitted from the detection element connected to the scanning line 215-p.
-1 to SV-n are output and supplied to the image data generation circuit 26 via the signal lines 216-1 to 216-n.

【0024】この検出素子212は、照射された放射線
の線量に応じた電気信号を出力するものであれば良い。
例えば放射線が照射されたときに電子−正孔対が生成さ
れて抵抗値が変化する光導電層を用いて検出素子が形成
されている場合、この光導電層で生成された放射線量に
応じた量の電荷が電荷蓄積コンデンサに蓄えられて、こ
の電荷蓄積コンデンサに蓄えられた電荷が電気信号とし
て画像データ生成回路26に供給される。なお、光導電
層としては暗抵抗値が高いものが望ましく、アモルファ
スセレン、酸化鉛、硫化カドミウム、ヨウ化第2水銀、
または光導電性を示す有機材料(X線吸収コンパウンド
が添加された光伝導性ポリマを含む)などが用いられ、
特にアモルファスセレンが望ましい。
The detection element 212 may be any element that outputs an electric signal corresponding to the dose of the irradiated radiation.
For example, when a detection element is formed using a photoconductive layer in which an electron-hole pair is generated when radiation is irradiated and the resistance value changes, the amount of radiation generated in the photoconductive layer depends on the amount of radiation generated in the photoconductive layer. An amount of charge is stored in the charge storage capacitor, and the charge stored in the charge storage capacitor is supplied to the image data generation circuit 26 as an electric signal. The photoconductive layer desirably has a high dark resistance value, and is preferably amorphous selenium, lead oxide, cadmium sulfide, mercuric iodide,
Or, a photoconductive organic material (including a photoconductive polymer to which an X-ray absorbing compound is added) is used,
Particularly, amorphous selenium is desirable.

【0025】また、検出素子212が、例えば放射線が
照射されることにより蛍光を生ずるシンチレータ等を用
いて形成されている場合、フォトダイオードでこのシン
チレータで生じた蛍光強度に基づく電気信号を生成して
画像データ生成回路26に供給するものとしてもよい。
When the detecting element 212 is formed using, for example, a scintillator or the like that generates fluorescence when irradiated with radiation, a photodiode generates an electric signal based on the intensity of the fluorescent light generated by the scintillator. It may be supplied to the image data generation circuit 26.

【0026】画像データ生成回路26では、後述する読
取制御回路28からの出力制御信号SCに基づいて供給
された電気信号SVを順次選択して、ディジタルの画像
データDTに変換する。この画像データDTは読取制御
回路28に供給される。
The image data generation circuit 26 sequentially selects the supplied electric signals SV based on an output control signal SC from a read control circuit 28 described later, and converts them into digital image data DT. The image data DT is supplied to the reading control circuit 28.

【0027】この読取制御回路28には、書き換え可能
な読み出し専用メモリ(例えばフラッシュメモリ)等を
用いたメモリ29や、放射線画像読取器20の動作を切
り換えるための操作部30、放射線の照射を検出するセ
ンサ31、撮影された放射線画像の表示や放射線画像の
撮影準備の完了等を表示するための表示部32が接続さ
れており、メモリ29には画像データ生成回路26から
の画像データDTが書き込まれる。また、操作部30か
らの操作信号PSやセンサ31からのセンサ信号SSに
基づいて走査制御信号RCや出力制御信号SCを生成し
て走査駆動回路24や画像データ生成回路26に供給し
たり、電源部33から撮像パネル21への電源の供給を
制御することにより、撮像パネル21の初期化や放射線
照射の待機状態、あるいは放射線画像の読み取りが行わ
れる。また、読取制御回路28に接続されたコネクタ3
4を介して放射線発生器10から放射線照射終了信号D
FEが供給されたときにも放射線画像の読み取りが行わ
れる。なお、電源部33によって放射線画像読取器20
の各回路に対して電源の供給が行われる。
The read control circuit 28 includes a memory 29 using a rewritable read-only memory (for example, a flash memory), an operation unit 30 for switching the operation of the radiation image reader 20, a detection of radiation irradiation. And a display unit 32 for displaying a captured radiographic image, completion of radiographic image preparation, and the like. The memory 29 stores image data DT from the image data generating circuit 26. It is. In addition, a scan control signal RC and an output control signal SC are generated based on an operation signal PS from the operation unit 30 and a sensor signal SS from the sensor 31 and supplied to the scan drive circuit 24 and the image data generation circuit 26. By controlling the supply of power from the unit 33 to the imaging panel 21, initialization of the imaging panel 21, a standby state of radiation irradiation, or reading of a radiation image is performed. The connector 3 connected to the read control circuit 28
4, a radiation irradiation end signal D from the radiation generator 10
The radiation image is also read when the FE is supplied. Note that the radiation image reader 20 is
Power is supplied to each of the circuits.

【0028】放射線画像読取器20で得られた画像デー
タDTは、メモリ29から読み出されて読取制御回路2
8を介してコントローラ40に供給される。あるいは、
メモリ29が放射線画像読取器20から取り外されたの
ちコントローラ40に装着されて、画像データDTがコ
ントローラ40に供給される。
The image data DT obtained by the radiation image reader 20 is read from the memory 29 and read by the read control circuit 2.
8 to the controller 40. Or,
After the memory 29 is removed from the radiation image reader 20, it is mounted on the controller 40, and the image data DT is supplied to the controller 40.

【0029】次に、コントローラ40の構成を図3に示
す。コントローラ40の動作を制御するためのCPU(C
entral Processing Unit)41には、システムバス42
と画像バス43が接続されると共に入力インタフェース
47が接続される。このコントローラ40の動作を制御
するためのCPU41は、メモリ44に記憶された制御
プログラムに基づいて動作が制御される。
Next, the configuration of the controller 40 is shown in FIG. CPU (C) for controlling the operation of the controller 40
The central processing unit 41 includes a system bus 42
And the image bus 43 and the input interface 47 are connected. The operation of the CPU 41 for controlling the operation of the controller 40 is controlled based on a control program stored in the memory 44.

【0030】システムバス42と画像バス43には、表
示制御部45、フレームメモリ制御部46、出力インタ
フェース48、データ読出制御部49、ディスク制御部
50等が接続されており、システムバス42を利用しC
PU41によって各部の動作が制御されると共に、画像
バス43を介して各部間での画像データの転送等が行わ
れる。
A display controller 45, a frame memory controller 46, an output interface 48, a data read controller 49, a disk controller 50, and the like are connected to the system bus 42 and the image bus 43. C
The operation of each unit is controlled by the PU 41, and image data is transferred between the units via the image bus 43.

【0031】フレームメモリ制御部46には、フレーム
メモリ51が接続されており、放射線画像読取器20で
得られた画像データDTがデータ読出制御部49やフレ
ームメモリ制御部46を介して記憶される。フレームメ
モリ51に記憶された画像データは読み出されて表示制
御部45やディスク制御部50に供給される。また、フ
レームメモリ51には、放射線画像読取器20から供給
された画像データDTをCPU41で処理してから記憶
するものとしてもよい。
The frame memory 51 is connected to the frame memory controller 46, and the image data DT obtained by the radiation image reader 20 is stored via the data read controller 49 and the frame memory controller 46. . The image data stored in the frame memory 51 is read and supplied to the display control unit 45 and the disk control unit 50. The frame memory 51 may store the image data DT supplied from the radiation image reader 20 after the CPU 41 processes the image data DT.

【0032】表示制御部45には、画像表示装置52が
接続されており画像表示装置52の画面上に表示制御部
45に供給された画像データに基づく放射線撮影画像が
表示される。ここで、放射線画像読取器20の画素数よ
りも画像表示装置52の表示画素数が少ない場合には、
画像データを間引きして読み出すことにより、画面上に
撮影画像全体を表示させることができる。また、画像表
示装置52の表示画素数分に相当する領域の画像データ
を読み出すものとすれば、所望の位置の撮影画像を詳細
に表示させることができる。
An image display device 52 is connected to the display control unit 45, and a radiographic image based on the image data supplied to the display control unit 45 is displayed on the screen of the image display device 52. Here, when the number of display pixels of the image display device 52 is smaller than the number of pixels of the radiation image reader 20,
By thinning out and reading out the image data, the entire captured image can be displayed on the screen. In addition, if the image data of the area corresponding to the number of display pixels of the image display device 52 is read out, a captured image at a desired position can be displayed in detail.

【0033】フレームメモリ51からディスク制御部5
0に画像データが供給される際には、例えば連続して画
像データが読み出されてディスク制御部50内のFIF
Oメモリに書き込まれ、その後順次ディスク装置53に
記録される。
From the frame memory 51 to the disk controller 5
When the image data is supplied to the disk controller 50, for example, the image data is read continuously and
The data is written into the O memory, and then sequentially recorded on the disk device 53.

【0034】さらに、フレームメモリ51から読み出さ
れた画像データやディスク装置53から読み出された画
像データを出力インタフェース48を介して外部機器1
00に供給することもできる。
Further, the image data read from the frame memory 51 and the image data read from the disk device 53 are transmitted to the external device 1 via the output interface 48.
00 can also be supplied.

【0035】画像処理部55では、放射線画像読取器2
0からデータ読出制御部49を介して供給された画像デ
ータDTの照射野認識処理、関心領域設定、画像の向き
の判定処理、正規化処理および階調処理などが行われ
る。また、周波数強調処理やダイナミックレンジ圧縮処
理等を行うものとしてもよい。なお、画像処理部55を
CPU41が兼ねる構成として画像処理等を行うことも
できる。
In the image processing section 55, the radiation image reader 2
From 0, an irradiation field recognition process, a region of interest setting, an image orientation determination process, a normalization process, a gradation process, and the like of the image data DT supplied via the data read control unit 49 are performed. Further, frequency emphasis processing, dynamic range compression processing, and the like may be performed. Note that the image processing unit 55 may be configured to also serve as the CPU 41 to perform image processing or the like.

【0036】入力インタフェース47にはキーボード等
の入力装置54が接続される。この入力装置54を操作
することで、撮影によって得られた画像データを識別す
るための情報や撮影部位を示す撮影部位情報、および放
射線の管電圧や放射線量等の撮影条件を示す撮影条件情
報等の管理情報の入力が行われる。
The input interface 47 is connected to an input device 54 such as a keyboard. By operating the input device 54, information for identifying image data obtained by imaging, imaging region information indicating an imaging region, imaging condition information indicating imaging conditions such as a tube voltage and a radiation dose of radiation, and the like. Is input.

【0037】出力インタフェース48に接続される外部
機器100としては、レーザーイメージャとも呼ばれる
走査型レーザ露光装置が用いられる。この走査型レーザ
露光装置では、画像データによりレーザビーム強度を変
調し、従来のハロゲン化銀写真感光材料や熱現象ハロゲ
ン化銀写真感光材に露光したあと適切な現像処理を行う
ことによって放射線画像のハードコピーが得られるもの
である。
As the external device 100 connected to the output interface 48, a scanning laser exposure device also called a laser imager is used. In this scanning laser exposure apparatus, the intensity of a laser beam is modulated by image data, exposed to a conventional silver halide photographic material or a thermal phenomenon silver halide photographic material, and then subjected to an appropriate development process to thereby obtain a radiation image. A hard copy is obtained.

【0038】なお、フレームメモリ51には、放射線画
像読取器20から供給された画像データを記憶するもの
としたが、供給された画像データをCPU41で処理し
てから記憶するものとしてもよい。また、ディスク装置
53には、フレームメモリ51に記憶されている画像デ
ータ、すなわち放射線画像読取器20から供給された画
像データやその画像データをCPU41で処理した画像
データを、管理情報などと共に保存することができる。
Although the frame memory 51 stores the image data supplied from the radiation image reader 20, the CPU 41 may process the supplied image data before storing the image data. Further, the disk device 53 stores image data stored in the frame memory 51, that is, image data supplied from the radiation image reader 20, and image data obtained by processing the image data by the CPU 41, together with management information and the like. be able to.

【0039】また、FPDを用いた放射線画像読取器2
0に変えて、輝尽性蛍光体ディテクタを用いた放射線画
像読取器60を使用するものとしてもよい。図4は、輝
尽性蛍光体ディテクタを用いたときの構成を示してお
り、カセッテスタッカ部61には放射線画像変換プレー
ト(以下「変換プレート」という)62を収納したカセ
ッテ63を複数収納できるように構成されている。
A radiation image reader 2 using an FPD
Instead of 0, a radiation image reader 60 using a stimulable phosphor detector may be used. FIG. 4 shows a configuration in which a stimulable phosphor detector is used. The cassette stacker unit 61 can accommodate a plurality of cassettes 63 accommodating a radiation image conversion plate (hereinafter, referred to as “conversion plate”) 62. Is configured.

【0040】この変換プレート62は、支持体上に輝尽
性蛍光体層が輝尽性蛍光体の気相堆積あるいは輝尽性蛍
光体塗料塗布によって設けられており、輝尽性蛍光体層
は環境による悪影響及び損傷を遮断するために、保護部
材によって遮蔽若しくは被覆されている。この変換プレ
ート62の輝尽性蛍光体層には人体の放射線透過率分布
に従ったエネルギーが蓄積されて、放射線画像の潜像が
形成されるものである。
In this conversion plate 62, a stimulable phosphor layer is provided on a support by vapor deposition of a stimulable phosphor or application of a stimulable phosphor paint. It is shielded or covered by a protective member to prevent adverse effects and damage due to the environment. Energy according to the radiation transmittance distribution of the human body is accumulated in the stimulable phosphor layer of the conversion plate 62, and a latent image of a radiation image is formed.

【0041】ここで、放射線照射後の変換プレート62
を収納したカセッテ63がカセッテスタッカ部61に収
納された状態で、後述する読取制御部80からスタッカ
制御信号STCがスタッカ駆動制御部64に供給される
と、スタッカ駆動制御部64ではスタッカ制御信号ST
Cに基づいてカセッテスタッカ部61を駆動するための
スタッカ駆動信号STDを生成してスタッカ駆動部65
に供給する。スタッカ駆動部65では、スタッカ駆動信
号STDに基づきカセッテスタッカ部61を駆動する。
また、読取制御部80からプレート搬送制御信号PTC
がプレート搬送制御部66に供給されると、プレート搬
送制御部66ではプレート搬送制御信号PTCに基づい
てカセッテ63から変換プレート62を取り出して所定
の位置まで搬送し、あるいは所定の位置に取り出されて
いる変換プレート62をカセッテ63に収納するための
プレート搬送駆動信号PTDを生成してプレート搬送部
67に供給する。プレート搬送部67では、プレート搬
送駆動信号PTDに基づいて変換プレート62の搬送を
行う。このため、読取制御部80からのスタッカ制御信
号STCとプレート搬送制御信号PTCによって、カセ
ッテスタッカ部61に収納されているカセッテ63から
所望のカセッテを選択して、この選択されたカセッテに
収納されている変換プレート62を用いることができ
る。なお、変換プレート62の搬送位置に沿って消去部
68が設けられており、変換プレート62に形成された
潜像に基づく放射線画像の画像データの生成が完了した
ときには、この変換プレート62をカセッテ63に収納
する際、読取制御部80から消去信号ERが消去部68
に供給されて、変換プレート62の輝尽性蛍光体層に形
成された潜像の消去が行われる。
Here, the conversion plate 62 after the radiation irradiation
When a cassette control signal STC, which will be described later, is supplied from the reading control unit 80 to the stacker drive control unit 64 in a state where the cassette 63 in which the cassette 63 is stored in the cassette stacker unit 61, the stacker control signal ST
C to generate a stacker drive signal STD for driving the cassette stacker 61, and
To supply. The stacker driving section 65 drives the cassette stacker section 61 based on the stacker driving signal STD.
Also, a plate transport control signal PTC
Is supplied to the plate transport control unit 66, the plate transport control unit 66 takes out the conversion plate 62 from the cassette 63 based on the plate transport control signal PTC and transports the conversion plate 62 to a predetermined position, or is taken out to a predetermined position. A plate transport drive signal PTD for storing the existing conversion plate 62 in the cassette 63 is generated and supplied to the plate transport section 67. The plate transport section 67 transports the conversion plate 62 based on the plate transport drive signal PTD. For this reason, a desired cassette is selected from the cassettes 63 stored in the cassette stacker unit 61 by the stacker control signal STC and the plate transport control signal PTC from the reading control unit 80, and the selected cassette is stored in the selected cassette. Conversion plate 62 can be used. An erasing section 68 is provided along the transfer position of the conversion plate 62. When the generation of the image data of the radiation image based on the latent image formed on the conversion plate 62 is completed, the conversion plate 62 is moved to the cassette 63. Is stored in the erasing unit 68, the erasing signal ER is sent from the reading control unit 80.
And the latent image formed on the stimulable phosphor layer of the conversion plate 62 is erased.

【0042】光ビーム発生部(ガスレーザ、固体レー
ザ、半導体レーザ等)70は、読取制御部80から供給
された読取制御信号LCに基づき、出射強度が制御され
た光ビームを発生する。この光ビームは種々の光学系を
経由して走査部71に到達し、走査部71で偏向を受
け、更に反射鏡72で光路を偏向させて、カセッテスタ
ッカ部61から取り出された変換プレート62に輝尽励
起走査光として導かれる。
The light beam generator (gas laser, solid-state laser, semiconductor laser, etc.) 70 generates a light beam whose emission intensity is controlled based on the read control signal LC supplied from the read controller 80. This light beam reaches the scanning unit 71 via various optical systems, is deflected by the scanning unit 71, and further deflected the optical path by the reflection mirror 72 to the conversion plate 62 extracted from the cassette stacker unit 61. Guided as stimulating excitation scanning light.

【0043】集光体73の光ファイバー又はシート状光
ガイド部材からなる集光端は、輝尽励起光が走査される
変換プレート62に近接して配設されて、光ビーム発生
部70からの光ビームの走査によって変換プレート62
に形成されている潜像のエネルギーに比例した発光強度
の輝尽発光を受光する。
The light-collecting end of the light-collecting body 73 formed of an optical fiber or a sheet-like light guide member is disposed close to the conversion plate 62 on which the stimulating excitation light is scanned. The conversion plate 62 is scanned by the beam.
Stimulable emission having a light emission intensity proportional to the energy of the latent image formed in the light source.

【0044】フィルタ74は、集光体73より導入され
た光から輝尽発光波長領域の光のみを通過させるもので
あり、このフィルタ74を通過した光は、フォトマルチ
プライヤ75に入射される。
The filter 74 allows only light in the stimulating emission wavelength region from the light introduced from the light collector 73 to pass therethrough. The light passing through the filter 74 is incident on the photomultiplier 75.

【0045】フォトマルチプライヤ75では、光電変換
によって入射光に対応した電流信号を生成する。この電
流信号は、電流/電圧変換部76に供給されて電圧信号
VSに変換される。さらに、電圧信号VSは増幅部77
で増幅された後、A/D変換部78でディジ夕ルの画像
データDTに変換される。ここで、増幅部77として対
数変換増幅部(logアンプ)を用いることにより、そ
の後の画像データの処理を簡単に行うことができる。こ
のA/D変換部78から得られた画像データDTはメイ
ンCPU90に供給される。
The photomultiplier 75 generates a current signal corresponding to the incident light by photoelectric conversion. This current signal is supplied to the current / voltage converter 76 and converted into a voltage signal VS. Further, the voltage signal VS is supplied to the amplifier 77
After that, the data is converted into digital image data DT by the A / D converter 78. Here, by using a logarithmic conversion amplifying unit (log amplifier) as the amplifying unit 77, the subsequent processing of the image data can be easily performed. The image data DT obtained from the A / D converter 78 is supplied to the main CPU 90.

【0046】読取制御部80には、後述するメインCP
U(Central Processing Unit)90が接続されており、
メインCPU90からの動作制御信号CTに基づき、ス
タッカ制御信号STCやプレート搬送制御信号PTCお
よび消去信号ERの生成、光ビーム発生部70の光ビー
ム強度調整、フォトマルチプライヤ用高圧電源81の電
源電圧調整によるフォトマルチプライヤ75のゲイン調
整、電流/電圧変換部76と増幅部77のゲイン調整、
及びA/D変換部78の入力ダイナミックレンジの調整
が行なわれ、放射線画像の読み取りや、読取ゲインの総
合的調整が行われる。
The reading control unit 80 includes a main CP (to be described later).
U (Central Processing Unit) 90 is connected,
Based on an operation control signal CT from the main CPU 90, generation of a stacker control signal STC, a plate transport control signal PTC, and an erasure signal ER, adjustment of the light beam intensity of the light beam generator 70, and adjustment of the power supply voltage of the high voltage power supply 81 for the photomultiplier. Gain adjustment of the photomultiplier 75, gain adjustment of the current / voltage conversion unit 76 and the amplification unit 77,
The adjustment of the input dynamic range of the A / D converter 78 is performed, and the reading of the radiation image and the comprehensive adjustment of the reading gain are performed.

【0047】メインCPU90には、操作部91や画像
処理部92、記憶装置93、画像表示装置94およびイ
ンタフェース部95が接続されており、操作部91の操
作に応じて動作制御信号CTを生成して読取制御部80
に供給する。またメインCPU90では、供給された画
像データDTを画像処理部92に供給する。この画像デ
ータDTが画像処理部92に供給されることにより、画
像処理部92で画像データDTの照射野認識処理、関心
領域設定、画像の向きの判定処理、正規化処理および階
調処理などが行われる。また、周波数強調処理やダイナ
ミックレンジ圧縮処理等を行うものとしてもよい。な
お、画像処理部92をメインCPU90が兼ねる構成と
して画像処理等を行うこともできる。
An operation unit 91, an image processing unit 92, a storage device 93, an image display device 94, and an interface unit 95 are connected to the main CPU 90, and generate an operation control signal CT in accordance with the operation of the operation unit 91. Reading control unit 80
To supply. Further, the main CPU 90 supplies the supplied image data DT to the image processing unit 92. When the image data DT is supplied to the image processing unit 92, the image processing unit 92 performs an irradiation field recognition process, a region of interest setting, an image orientation determination process, a normalization process, a gradation process, and the like of the image data DT. Done. Further, frequency emphasis processing, dynamic range compression processing, and the like may be performed. It should be noted that the image processing section 92 may be configured to also serve as the main CPU 90 to perform image processing and the like.

【0048】また、操作部91あるいは後述する患者登
録ターミナル98等によって、撮影によって得られた画
像データを識別するための情報や撮影部位を示す撮影部
位情報、および放射線の管電圧や放射線量等の撮影条件
を示す撮影条件情報等がメインCPU90に供給され
る。
Further, information for identifying image data obtained by imaging, imaging part information indicating an imaging part, and radiation tube voltage, radiation amount, and the like are operated by the operation unit 91 or a patient registration terminal 98 described later. Photographing condition information and the like indicating the photographing conditions are supplied to the main CPU 90.

【0049】メインCPU90に接続された記憶装置9
3には、A/D変換部78から供給された画像データや
画像処理部92で画像処理された画像データ等が記憶さ
れる。また、メインCPU90に接続された画像表示装
置94の画面上には、画像処理前の放射線画像や画像処
理後の放射線画像が表示される。さらに、メインCPU
90には、インタフェース部95を介してホストコンピ
ュータ96や診断装置97および患者登録ターミナル9
8等が接続される。
Storage device 9 connected to main CPU 90
3 stores image data supplied from the A / D conversion unit 78, image data processed by the image processing unit 92, and the like. On the screen of the image display device 94 connected to the main CPU 90, a radiation image before image processing and a radiation image after image processing are displayed. Furthermore, the main CPU
Reference numeral 90 denotes a host computer 96, a diagnostic device 97, and a patient registration terminal 9 via an interface unit 95.
8 etc. are connected.

【0050】なお、フィルムディジタイザを用いたとき
には、放射線写真フィルムにレーザー光を照射し、その
透過光あるいは反射光をフォトマルチプライヤ等の光電
手段で電気信号を変換することにより画像データが生成
されて、上述の画像処理部55,92と同様な画像処理
部によって、この画像データを用いて画像処理が行われ
る。
When a film digitizer is used, image data is generated by irradiating a radiographic film with a laser beam and converting the transmitted or reflected light into an electrical signal by a photoelectric means such as a photomultiplier. The image processing is performed using the image data by an image processing unit similar to the image processing units 55 and 92 described above.

【0051】次に、動作について説明する。被写体5の
放射線画像を得る際には、放射線発生器10と放射線画
像読取器20の撮像パネル21の間に被写体5が位置す
るものとされて、放射線発生器10から放射された放射
線が被写体5に照射されると共に、被写体5を透過した
放射線が撮像パネル21に入射される。
Next, the operation will be described. When obtaining a radiation image of the subject 5, it is assumed that the subject 5 is located between the radiation generator 10 and the imaging panel 21 of the radiation image reader 20, and the radiation emitted from the radiation generator 10 And the radiation transmitted through the subject 5 is incident on the imaging panel 21.

【0052】放射線画像読取器20の電源スイッチがオ
ン状態とされると、放射線画像読取器20の読取制御回
路28等によって撮像パネル21の初期化が行われる。
この初期化は、撮像パネル21から照射された放射線量
に応じた正しい電気信号を得るためのものである。
When the power switch of the radiation image reader 20 is turned on, the image pickup panel 21 is initialized by the reading control circuit 28 and the like of the radiation image reader 20.
This initialization is for obtaining a correct electric signal corresponding to the radiation dose emitted from the imaging panel 21.

【0053】放射線画像読取器20での撮像パネル21
の初期化が完了すると、放射線発生器10からの放射線
の照射が可能とされる。ここで、例えば放射線を照射す
るためのスイッチが放射線発生器10に設けられてお
り、このスイッチが操作されると、放射線発生器10か
ら被写体5に向けて放射線が所定時間だけ照射される。
Imaging panel 21 in radiation image reader 20
Is completed, irradiation of radiation from the radiation generator 10 is enabled. Here, for example, a switch for irradiating radiation is provided in the radiation generator 10, and when this switch is operated, radiation is emitted from the radiation generator 10 toward the subject 5 for a predetermined time.

【0054】このとき、放射線画像読取器20の撮像パ
ネル21に照射される放射線の放射線量は、被写体5に
よる放射線吸収の度合いが異なるため、被写体5によっ
て変調される。撮像パネル21の検出素子212-(1,1)
〜212-(m,n)では、被写体5によって変調された放射
線に基づく電気信号が生成される。
At this time, the radiation dose of the radiation applied to the imaging panel 21 of the radiation image reader 20 is modulated by the subject 5 because the degree of absorption of the radiation by the subject 5 differs. Detection element 212- (1,1) of imaging panel 21
At 212 to (m, n), an electric signal based on the radiation modulated by the subject 5 is generated.

【0055】放射線画像読取器20では、センサ信号S
Sに基づいて放射線の照射終了を判別した後、あるいは
放射線発生器10からの放射線照射終了信号DFEが供
給されたときに、放射線画像読取器20の読取制御部2
8によって放射線画像の読み取りが行われて、メモリ2
9に画像データDTが書き込まれる。
In the radiation image reader 20, the sensor signal S
After determining the radiation irradiation end based on S, or when the radiation irradiation end signal DFE is supplied from the radiation generator 10, the reading control unit 2 of the radiation image reader 20
The reading of the radiation image is performed by the
9, the image data DT is written.

【0056】このメモリ29が放射線画像読取器20か
ら取り出されると共にコントローラ40に装着されて画
像データDTが読み出されると、あるいはメモリ29に
書き込まれた画像データDTが読取制御回路28を介し
てコントローラ40に伝送されると、この画像データD
Tは、データ読出制御部49やフレームメモリ制御部4
6等を介してフレームメモリ51に記憶される。このフ
レームメモリ51に記憶された画像データを用いて、画
像表示装置52に放射線画像を表示させることができ
る。
When the memory 29 is taken out of the radiation image reader 20 and attached to the controller 40 to read out the image data DT, or the image data DT written in the memory 29 is sent to the controller 40 via the reading control circuit 28. Is transmitted to the image data D
T is the data read control unit 49 or the frame memory control unit 4
6 and the like, and are stored in the frame memory 51. Using the image data stored in the frame memory 51, a radiation image can be displayed on the image display device 52.

【0057】また、フレームメモリ51に記憶された画
像データを画像処理部55で処理して表示制御部45に
供給したり、画像処理が行われた画像データをフレーム
メモリ51に記憶したのち、この記憶された画像データ
を表示制御部45に供給することにより、輝度やコント
ラストあるいは鮮鋭度等が調整されて、診断等に適した
放射線画像を表示することができる。また、画像処理が
行われた画像データを外部機器100に供給すること
で、診断等に適した放射線画像のハードコピーを得るこ
とができる。
The image data stored in the frame memory 51 is processed by the image processing unit 55 and supplied to the display control unit 45, or the image data on which the image processing has been performed is stored in the frame memory 51. By supplying the stored image data to the display control unit 45, the brightness, contrast, sharpness, and the like are adjusted, and a radiation image suitable for diagnosis or the like can be displayed. In addition, by supplying the image data subjected to the image processing to the external device 100, a hard copy of a radiation image suitable for diagnosis or the like can be obtained.

【0058】また、輝尽性蛍光体ディテクタを用いた放
射線画像読取器60を用いた場合、放射線画像読取器6
0の変換プレート62には、カセッテ63に収納された
状態で被写体5によって変調された放射線が照射され
て、この変調された放射線に基づく潜像が形成される。
ここで、潜像が形成された変換プレート62を収納した
カセッテ63をカセッテスタッカ部61に収納すると、
直ちに変換プレート62が所定位置まで搬送されて画像
データDTの生成が行われる。また、画像データDTの
生成を行うことなく潜像が形成された変換プレート62
をカセッテスタッカ部61に収納し、順次新たな変換プ
レート62を用いて放射線画像の撮影を行い、その後、
潜像が形成された複数の変換プレート62を順次カセッ
テスタッカ部61から取り出して、この取り出された変
換プレート62に光ビームを照射して画像データDTを
生成することも行われる。このようにして得られた画像
データDTは、診断等に適した放射線画像が得られるよ
うに画像処理部92で画像処理される。
When the radiation image reader 60 using the stimulable phosphor detector is used, the radiation image reader 6
The 0 conversion plate 62 is irradiated with radiation modulated by the subject 5 in a state of being housed in the cassette 63, and a latent image based on the modulated radiation is formed.
Here, when the cassette 63 containing the conversion plate 62 on which the latent image is formed is stored in the cassette stacker 61,
Immediately, the conversion plate 62 is transported to a predetermined position to generate the image data DT. The conversion plate 62 on which the latent image is formed without generating the image data DT.
Is stored in the cassette stacker unit 61, and radiation images are sequentially taken using the new conversion plate 62, and thereafter,
A plurality of conversion plates 62 on which latent images are formed are sequentially taken out from the cassette stacker unit 61, and the taken-out conversion plates 62 are irradiated with a light beam to generate image data DT. The image data DT obtained in this way is subjected to image processing by the image processing unit 92 so as to obtain a radiation image suitable for diagnosis or the like.

【0059】次に、画像処理部55での画像処理動作を
説明する。なお、画像処理部92やフィルムディジタイ
ザを用いたときの画像処理部は、画像処理部55と同様
な画像処理を行うものであり、画像処理動作の説明は省
略する。
Next, the image processing operation of the image processing section 55 will be described. Note that the image processing unit 92 and the image processing unit using the film digitizer perform the same image processing as the image processing unit 55, and the description of the image processing operation is omitted.

【0060】画像処理部55では、放射線量が異なるこ
とにより、撮像パネル21から出力された画像データの
レベルの分布が変動した場合であっても、常に安定した
放射線画像が得られるように画像データDTの正規化処
理が行われる。また、画像データのレベルの分布が変動
しても、診断等に適した濃度およびコントラストの放射
線画像を得るために正規化処理後の画像データである正
規化画像データDTregに対して階調処理が行われる。
さらに画像処理部55では、正規化画像データDTreg
に対して正規化放射線画像の鮮鋭度を制御する周波数強
調処理や、ダイナミックレンジの広い放射線画像の全体
を、被写体の細かい構造部分のコントラストを低下させ
ることなく見やすい濃度範囲内に収めるためのダイナミ
ックレンジ圧縮処理を行うものとしてもよい。
In the image processing unit 55, even if the distribution of the level of the image data output from the imaging panel 21 fluctuates due to the difference in the radiation dose, the image data is always obtained so that a stable radiation image can be obtained. DT normalization processing is performed. Further, even if the level distribution of the image data fluctuates, the gradation processing is performed on the normalized image data DTreg which is the image data after the normalization processing in order to obtain a radiation image having a density and contrast suitable for diagnosis and the like. Done.
Further, in the image processing unit 55, the normalized image data DTreg
Frequency enhancement processing to control the sharpness of the normalized radiographic image, and dynamic range to fit the entire radiographic image with a wide dynamic range within a concentration range that is easy to see without reducing the contrast of the fine structure of the subject A compression process may be performed.

【0061】ところで、放射線画像の撮影に際しては、
例えば診断に必要とされない部分に放射線が照射されな
いようにするため、あるいは診断に必要とされない部分
に放射線が照射されて、この部分で散乱された放射線が
診断に必要とされる部分に入射されて分解能が低下する
ことを防止するため、被写体5の一部や放射線発生器1
0に鉛板等の放射線非透過物質を設置して、被写体5に
対する放射線の照射野を制限する照射野絞りが行われ
る。
By the way, when taking a radiographic image,
For example, to prevent radiation from being irradiated to a part not required for diagnosis, or to irradiate radiation to a part not required for diagnosis, radiation scattered in this part is incident on a part required for diagnosis. In order to prevent the resolution from decreasing, a part of the subject 5 and the radiation generator 1
A radiation non-transmissive substance such as a lead plate is placed at 0, and an irradiation field stop for limiting an irradiation field of the radiation to the subject 5 is performed.

【0062】この照射野絞りが行われた場合、照射野内
領域と照射野外領域の画像データを用いてレベルの変換
処理やその後の階調処理を行うものとすると、照射野外
領域の画像データによって、照射野内の診断に必要とさ
れる部分の画像処理が適正に行われなくなってしまう。
このため、画像処理部55では、照射野内領域と照射野
外領域を判別する照射野認識が行われる。
When this irradiation field aperture is performed, if level conversion processing and subsequent gradation processing are performed using the image data of the irradiation field inside area and the irradiation field outside area, the image data of the outside irradiation field area will be used. Image processing of a portion required for diagnosis in the irradiation field is not properly performed.
For this reason, the image processing unit 55 performs irradiation field recognition for discriminating the irradiation field inside area and the irradiation field outside area.

【0063】照射野認識では、例えば特開昭63−25
9538号で示される方法が用いられて、図5Aに示す
ように撮像面上の所定の位置Pから撮像面の端部側に向
かう線分上の画像データを用いて例えば微分処理が行わ
れる。この微分処理によって得られた微分信号Sdは、
図5Bに示すように照射野エッジ部で信号レベルが大き
くなるため、微分信号Sdの信号レベルを判別して1つ
の照射野エッジ候補点EP1が求められる。この照射野
エッジ候補点を求める処理を、撮像面上の所定の位置を
中心として放射状に行うことにより複数の照射野エッジ
候補点EP1〜EPkが求められる。このようにして得ら
れた複数の照射野エッジ候補点EP1〜EPkの隣接する
エッジ候補点を直線あるいは曲線で結ぶことにより照射
野エッジ部が求められる。
In the irradiation field recognition, for example, Japanese Patent Application Laid-Open No. 63-25 / 1988
For example, as shown in FIG. 5A, a differentiation process is performed using image data on a line segment from a predetermined position P on the imaging surface toward the end of the imaging surface, using a method described in No. 9538. The differential signal Sd obtained by this differential processing is
As shown in FIG. 5B, since the signal level increases at the irradiation field edge, one signal field edge candidate point EP1 is obtained by determining the signal level of the differential signal Sd. A plurality of irradiation field edge candidate points EP1 to EPk are obtained by radially performing the process of obtaining the irradiation field edge candidate points around a predetermined position on the imaging surface. The irradiation field edge portion is obtained by connecting the edge candidate points adjacent to the plurality of irradiation field edge candidate points EP1 to EPk thus obtained by a straight line or a curve.

【0064】また、特開平5−7579号で示される方
法を用いることもできる。この方法では、撮像面を複数
の小領域に分割したとき、照射野絞りによって放射線の
照射が遮られた照射野外の小領域では、略一様に放射線
の放射線量が小さくなり画像データの分散値が小さくな
る。また、照射野内の小領域では、被写体によって放射
線量が変調されることから照射野外に比べて分散値が高
くなる。さらに、照射野エッジ部を含む小領域では最も
放射線量が小さい部分と被写体によって変調された放射
線量の部分が混在することから分散値は最も高くなる。
このことから、分散値によって照射野エッジ部を含む小
領域が判別される。
Further, a method disclosed in JP-A-5-7579 can be used. According to this method, when the imaging surface is divided into a plurality of small regions, in a small region outside the irradiation field where the irradiation of the radiation is blocked by the irradiation field diaphragm, the radiation dose of the radiation becomes substantially uniform, and the variance of the image data is reduced. Becomes smaller. Also, in a small area inside the irradiation field, the radiation amount is modulated by the subject, so that the variance value is higher than in the outside of the irradiation field. Further, in a small region including the irradiation field edge portion, the portion having the smallest radiation dose and the portion of the radiation dose modulated by the subject are mixed, so that the variance value is the highest.
From this, the small area including the irradiation field edge is determined based on the variance value.

【0065】また、特開平7−181609号で示され
る方法を用いることもできる。この方法では、画像デー
タを所定の回転中心に関して回転移動させて、平行状態
検出手段によって照射野の境界線が画像上に設定された
直交座標の座標軸と平行となるまで回転を行うものと
し、平行状態が検出されると、直線方程式算出手段によ
って回転角度と回転中心から境界線までの距離によって
回転前の境界の直線方程式が算出される。その後、複数
の境界線に囲まれる領域を直線方程式から決定すること
で、照射野の領域を判別することができる。また照射野
エッジ部が曲線である場合には、境界点抽出手段で画像
データに基づき例えば1つの境界点を抽出し、この境界
点の周辺の境界候補点群から次の境界点を抽出する。以
下同様に、境界点の周辺の境界候補点群から境界点を順
次抽出することにより、照射野エッジ部が曲線であって
も判別することができる。
Further, a method disclosed in JP-A-7-181609 can be used. In this method, the image data is rotated and moved with respect to a predetermined center of rotation, and rotated by the parallel state detection means until the boundary line of the irradiation field is parallel to the coordinate axis of the rectangular coordinates set on the image. When the state is detected, the straight-line equation calculating means calculates the straight-line equation of the boundary before rotation based on the rotation angle and the distance from the rotation center to the boundary. After that, the area of the irradiation field can be determined by determining the area surrounded by the plurality of boundary lines from the linear equation. If the irradiation field edge is a curve, the boundary point extracting means extracts, for example, one boundary point based on the image data, and extracts the next boundary point from a group of boundary candidate points around the boundary point. Similarly, by sequentially extracting the boundary points from the boundary candidate point group around the boundary point, it is possible to determine even if the irradiation field edge portion is a curve.

【0066】ここで、カセッテ型の放射線画像読取器2
0や変換プレート62がカセッテスタッカ部61に収納
される放射線画像読取器60では、放射線画像読取器2
0の向きやカセッテスタッカ部61に収納された変換プ
レート62の向き等によって画像の向きが一定でない場
合が生ずる。例えば、被写体5に応じて放射線画像読取
器20の向きを変えたり、画像データDTの生成の際に
変換プレート62が放射線画像の撮影時とは異なる向き
でカセッテスタッカ部61に収納されることで、画像の
向きが一定でない場合が生ずる。このため画像処理部5
5では、照射野認識が行われた後、画像の向きの判別が
行われる。
Here, the cassette type radiation image reader 2
0 and the conversion plate 62 are stored in the cassette stacker 61, the radiation image reader 2
Depending on the direction of 0, the direction of the conversion plate 62 stored in the cassette stacker 61, and the like, the direction of the image may not be constant. For example, the orientation of the radiation image reader 20 is changed according to the subject 5, or the conversion plate 62 is stored in the cassette stacker 61 in a different direction from that at the time of capturing a radiation image when generating the image data DT. In some cases, the orientation of the image is not constant. Therefore, the image processing unit 5
In 5, after the irradiation field recognition is performed, the orientation of the image is determined.

【0067】この画像の向きの判別では、向きの判別方
向数以上の数の方向判別用領域を照射野領域内に互いに
重ならないように設定して、各方向判別用領域のそれぞ
れに対して方向判別代表値を算出し、この方向判別代表
値を用いて向きの判別が行われる。ここで、画像の向き
が正しいか、90°,180°,270°の何れかの角
度で回転しているかを判別するためには、判別方向数が
「4」であることから4つの方向判別用領域を設定し、
各方向判別用領域毎に方向判別代表値を算出して、この
方向判別代表値を用いて向きの判別を行う。
In the determination of the orientation of the image, the number of direction determination regions equal to or greater than the number of direction determination directions is set so as not to overlap each other in the irradiation field region, and the direction is determined for each of the direction determination regions. The determination representative value is calculated, and the direction is determined using the direction determination representative value. Here, in order to determine whether the orientation of the image is correct or whether the image is rotated at any angle of 90 °, 180 °, or 270 °, four direction determinations are performed because the number of determination directions is “4”. Set the area for
A direction discrimination representative value is calculated for each direction discrimination area, and the direction discrimination is performed using the direction discrimination representative value.

【0068】図6は方向判別用領域を示しており、図6
A〜6Dでは例えば略矩形の照射野内領域Araの互いに
異なる一辺に近接して4つの方向判別用領域Ard-1〜A
rd−4が設定される。ここで、図6Aは照射野内領域
Araを縦方向と横方向に均等に3分割して9つの領域
を設けて、四隅と中央を除いた4つの領域を方向判別用
領域Ard-1〜Ard-4とするものである。また、図6Bは
図6Aに示す中央の領域を大きくした場合である。さら
に図6Aおよび図6Bでは1つの方向判別用領域の角が
2つの方向判別用領域と接しているが、図6Cに示すよ
うに離れて設けるものである。また、図6Dに示すよう
に照射野内領域を対角線を利用して4つに分割して方向
判別用領域Ard-1〜Ard-4に設定することもできる。
FIG. 6 shows a direction discriminating area.
In A to 6D, for example, four direction discriminating areas Ard-1 to Ard close to different sides of the substantially rectangular irradiation field area Ara
rd-4 is set. Here, FIG. 6A shows that the irradiation field area Ara is equally divided into three in the vertical and horizontal directions to provide nine areas, and the four areas excluding the four corners and the center are divided into direction discriminating areas Ard-1 to Ard-. 4 FIG. 6B shows a case where the central region shown in FIG. 6A is enlarged. Further, in FIGS. 6A and 6B, the corner of one direction discriminating area is in contact with the two direction discriminating areas, but they are provided apart as shown in FIG. 6C. Also, as shown in FIG. 6D, the irradiation field area can be divided into four using diagonal lines and set as direction discriminating areas Ard-1 to Ard-4.

【0069】ここで、図6Aおよび図6Dに示すような
方向判別用領域の設定は、胸部、腹部、骨盤等の全ての
部位の撮影画像の向き判別に用いることができるもので
あり、特に胸部撮影画像の向き判別に適するものであ
る。なぜなら、画像の中心に近い部分の情報も用いるの
で、肺野と縦隔の信号差を有効に利用できるからであ
る。また、図6Bおよび図6Cに示すような方向判別用
領域の設定は、腹部、骨盤等の肺野を含まない部位の撮
影画像の向き判別に適するものである。さらに、図6A
および図6Cに示すような方向判別用領域の設定は、身
体の小さい被写体(小児など)の撮影画像の向き判別に
適するものである。なぜなら、図6Bおよび図6Dに示
すように方向判別用領域の幅が広いと、身体が細い被写
体では4つの方向判別用領域の全てに放射線が直接照射
された領域が含まれてしまい、信号差が出にくくなる場
合が生ずるからである。
The setting of the direction discriminating areas as shown in FIGS. 6A and 6D can be used for discriminating the directions of the photographed images of all parts such as the chest, abdomen, and pelvis. This is suitable for determining the orientation of a captured image. This is because the information near the center of the image is also used, so that the signal difference between the lung field and the mediastinum can be used effectively. The setting of the direction discriminating area as shown in FIG. 6B and FIG. 6C is suitable for discriminating the direction of a captured image of a part that does not include a lung field, such as the abdomen and the pelvis. Further, FIG.
The setting of the direction discriminating area as shown in FIG. 6C is suitable for discriminating the orientation of a captured image of a subject with a small body (such as a child). This is because, as shown in FIGS. 6B and 6D, if the width of the direction discriminating area is wide, in a subject having a small body, all of the four direction discriminating areas include the area directly irradiated with radiation, and the signal difference. This is because there is a case where it becomes difficult to obtain the image.

【0070】ところで、図6A〜6Dに示すように方向
判別用領域を設定した場合には、4方向の判別だけでな
く2方向の判別も可能であるが、放射線画像の向きが例
えば正しいか、あるいは90°回転されているかの2種
類しか存在しないときには、図6E,6Fに示すように
2つの方向判別用領域を設定することで、2方向の判別
を行うことができる。
By the way, when the direction discrimination area is set as shown in FIGS. 6A to 6D, not only discrimination in four directions but also discrimination in two directions is possible. Alternatively, when there are only two types of rotation by 90 °, two directions can be determined by setting two direction determination areas as shown in FIGS. 6E and 6F.

【0071】図6Eは、図6Aの4つの方向判別用領域
から隣接する2つの方向判別用領域、例えば方向判別用
領域Ard-3,Ard-4を用いたものであり、図6Fは、図
6Dの4つの方向判別用領域から隣接する2つの方向判
別用領域、例えば方向判別用領域Ard-3,Ard-4を用い
たものである。なお、4つの方向判別用領域から隣接す
る2つの方向判別用領域の選択する場合には、撮影部位
や放射線画像の回転方向に応じて2つの方向判別用領域
を選択することにより、精度良く2方向の判別を行うこ
とができる。
FIG. 6E uses two adjacent direction discriminating areas, for example, the direction discriminating areas Ard-3 and Ard-4 from the four direction discriminating areas in FIG. 6A, and FIG. It uses two adjacent direction discriminating areas, for example, direction discriminating areas Ard-3 and Ard-4 from four 6D direction discriminating areas. When selecting two adjacent direction determination areas from the four direction determination areas, two direction determination areas are selected with high accuracy by selecting two direction determination areas according to the imaging region and the rotation direction of the radiation image. The direction can be determined.

【0072】次に、設定された方向判別用領域のそれぞ
れに対して方向判別代表値を算出する。この方向判別代
表値は、方向判別用領域内の画像データの平均値や最大
値、累積ヒストグラムが所定の割合、例えば50パーセ
ントや99パーセント等となる信号値が用いられる。こ
こで、累積ヒストグラムを用いて方向判別代表値を算出
することにより、方向判別用領域内で信号レベルが大き
く離れた画素が多少含まれていても、この画素による影
響を少なくすることができる。また、例えば平均値を用
いた場合よりも、方向判別用領域内の主要な構造物を良
く反映した代表値とすることができる。
Next, a direction discrimination representative value is calculated for each of the set direction discrimination areas. As the direction determination representative value, an average value or a maximum value of image data in the direction determination area, or a signal value at which a cumulative histogram has a predetermined ratio, for example, 50% or 99% is used. Here, by calculating the direction discrimination representative value using the cumulative histogram, even if the direction discrimination area includes some pixels whose signal levels are greatly separated from each other, the influence of these pixels can be reduced. In addition, for example, a representative value that better reflects a main structure in the direction determination area can be used as compared with a case where an average value is used.

【0073】このようにして各方向判別用領域毎に方向
判別代表値が算出されると、この方向判別代表値と、入
力装置54等から入力された撮影部位情報に基づき、こ
の撮影部位の解剖学的構造の特徴に基づいて画像の向き
の判別が行われる。ここで、解剖学的構造の特徴として
は、脊椎の通っている体幹中央部は、放射線の吸収量が
最も大きいことから画像信号の信号レベルは小さくな
る。また、体側部は体厚が薄いことから放射線の吸収量
が小さく画像信号の信号レベルは大きくなる。さらに、
体側部を撮影した領域では直接放射線が照射された部分
も含まれる場合があり、このような部分では画像信号の
信号レベルが更に大きくなる。また、撮影部位の画像信
号の信号レベルは、例えば脊椎を軸として対称となる。
When the direction discrimination representative value is calculated for each direction discrimination area in this manner, the anatomy of this photographed part is determined based on the direction discrimination representative value and the photographed part information input from the input device 54 or the like. The orientation of the image is determined based on the features of the geometric structure. Here, as a feature of the anatomical structure, the signal level of the image signal is low in the central part of the trunk passing through the spine because the radiation absorption amount is the largest. Further, since the body side has a small body thickness, the radiation absorption amount is small and the signal level of the image signal is high. further,
The region where the body part is imaged may include a part directly irradiated with radiation, and the signal level of the image signal is further increased in such a part. The signal level of the image signal of the imaging region is symmetric with respect to the spine, for example.

【0074】このため、例えば撮影画像に対して4方向
の判別を行うために方向判別用領域Ard-1,Ard-2,A
rd-3,Ard-4を設定し、この方向判別用領域Ard-1,A
rd-2,Ard-3,Ard-4の方向判別代表値V1,V2,V
3,V4を求め、方向判別代表値V1,V2,V3,V
4と、入力された撮影部位情報に基づき、解剖学的構造
の特徴を利用して方向判別代表値V1,V2,V3,V
4の大小関係とから方向を判別することができる。
For this reason, for example, in order to determine the four directions with respect to the photographed image, the direction determination areas Ard-1, Ard-2, Ad
rd-3 and Ard-4 are set, and the direction discriminating areas Ard-1 and Ard-4 are set.
Direction determination representative values V1, V2, V of rd-2, Ard-3, Ard-4
3, V4 are obtained, and the direction determination representative values V1, V2, V3, V
4 and direction identification representative values V1, V2, V3, V based on the anatomical structure features based on the input imaging region information.
The direction can be determined from the magnitude relation of No. 4.

【0075】図7は、撮影部位と方向判別代表値V1,
V2,V3,V4の関係を示す図である。なお図7で
は、図6Aに示すように方向判別用領域を設定した場合
を示している。ここで、図7Aに示すように胸部正面を
撮影した場合、領域Ard-1,Ard-3では脊椎が含まれ、
領域Ard-2,Ard-4では肺野が多く含まれると同時に、
ほとんどの場合で体側の直線放射線照射領域が含まれる
ことから方向判別代表値V1,V3は、方向判別代表値
V2,V4よりも小さい値となる。また、領域Ard-1で
は肺野が含まれ、領域Ard-3では肺野がほとんど含まれ
ないことから方向判別代表値V1は、方向判別代表値V
3よりも大きい値となり、図7Bに示す関係となる。
FIG. 7 shows a photographed part and a direction discrimination representative value V1,
It is a figure which shows the relationship of V2, V3, and V4. FIG. 7 shows a case where the direction discriminating area is set as shown in FIG. 6A. Here, when the front of the chest is photographed as shown in FIG. 7A, the spine is included in the regions Ard-1 and Ard-3,
Regions Ard-2 and Ard-4 contain many lung fields,
In most cases, since the linear radiation irradiation area on the body side is included, the direction determination representative values V1 and V3 are smaller than the direction determination representative values V2 and V4. Further, since the lung area is included in the region Ard-1 and the lung field is hardly included in the region Ard-3, the representative direction determination value V1 is
It becomes a value larger than 3 and has the relationship shown in FIG. 7B.

【0076】このため、方向判別代表値V3が方向判別
代表値V1〜V4の内の最小値である場合、画像の向き
は正しいものと判別される。また、方向判別代表値V1
が最小値である場合、画像は180°あるいは−180
°回転された向きであると判別される。同様に、方向判
別代表値V2が最小値である場合、画像は270°ある
いは−90°回転された向きであると判別されると共
に、方向判別代表値V4が最小値である場合に画像は9
0°あるいは−270°回転されていると判別される。
For this reason, when the direction determination representative value V3 is the minimum value among the direction determination representative values V1 to V4, it is determined that the orientation of the image is correct. Also, the direction determination representative value V1
Is the minimum, the image is 180 ° or -180.
° The direction is determined to be rotated. Similarly, if the direction determination representative value V2 is the minimum value, the image is determined to be in the direction rotated by 270 ° or −90 °, and if the direction determination representative value V4 is the minimum value, the image is 9 pixels.
It is determined that the rotation is 0 ° or -270 °.

【0077】図7Cに示すように腹部正面を撮影した場
合、領域Ard-1,Ard-3では脊椎が含まれ、領域Ard-
2,Ard-4では消化器官等が多く含まれることから方向
判別代表値V1,V3は、方向判別代表値V2,V4よ
りも小さい値となる。また、領域Ard-3では骨盤が含ま
れることから方向判別代表値V3は、方向判別代表値V
1よりも小さい値となり、図7Dに示す関係となる。
When the front of the abdomen is photographed as shown in FIG. 7C, the vertebra is included in the regions Ard-1 and Ard-3, and the region Ard-
In 2, Ard-4, since a large number of digestive organs and the like are included, the direction determination representative values V1 and V3 are smaller than the direction determination representative values V2 and V4. In addition, since the pelvis is included in the region Ard-3, the direction determination representative value V3 is
It becomes a value smaller than 1 and has the relationship shown in FIG. 7D.

【0078】このため、胸部正面を撮影した場合と同様
に、方向判別代表値V3が最小値である場合に画像の向
きは正しいものと判別され、方向判別代表値V1が最小
値である場合に画像は180°あるいは−180°回転
された向きであると判別され、方向判別代表値V2が最
小値である場合に画像は270°あるいは−90°回転
された向きであると判別され、方向判別代表値V4が最
小値である場合に画像は90°あるいは−270°回転
されていると判別される。
Therefore, as in the case where the front of the chest is photographed, the orientation of the image is determined to be correct when the representative value V3 is the minimum value, and when the representative value V1 is the minimum value. The image is determined to be rotated by 180 ° or −180 °, and when the direction determination representative value V2 is the minimum value, the image is determined to be rotated by 270 ° or −90 °, and the direction is determined. When the representative value V4 is the minimum value, it is determined that the image is rotated by 90 degrees or -270 degrees.

【0079】また、図7Eに示すように骨盤あるいは両
股関節正面を撮影した場合、領域Ard-1では脊椎が含ま
れ、領域Ard-2,Ard-4では骨の比較的厚い骨盤が含ま
れ、領域Ard-3では骨の薄い恥骨が含まれると同時に放
射線が直接照射される部分が股間部に生じる場合がある
ことから、方向判別代表値は図7Fに示す関係となる。
When the pelvis or the front of the hip joint is photographed as shown in FIG. 7E, the region Ard-1 includes the spine, and the regions Ard-2 and Ard-4 include the pelvis having a relatively thick bone. Since the region Ard-3 includes a pubic bone having a thin bone and a portion directly irradiated with radiation at the same time as the crotch region, the representative direction determination value has the relationship shown in FIG. 7F.

【0080】このため、上述の場合と同様にして、方向
判別代表値V1,V2,V3,V4のいずれが最小値で
あるかを判別することで、画像はどのように回転されて
いるかを判別することができる。
For this reason, in the same manner as described above, it is determined which of the direction determination representative values V1, V2, V3, and V4 is the minimum value, thereby determining how the image is rotated. can do.

【0081】なお、上述の場合には、撮影部位情報と方
向判別代表値V1,V2,V3,V4を用いて4方向の
判別を行うものとしたが、方向判別代表値V1,V2,
V3,V4を用いて2方向の判別を行うこともできる。
In the above-described case, the four directions are determined using the imaged part information and the representative direction determination values V1, V2, V3, and V4.
It is also possible to make a determination in two directions using V3 and V4.

【0082】例えば方向判別代表値V2,V4から値の
小さい方向判別代表値を判別して方向判別代表値Vaと
すると共に、方向判別代表値V1,V3から値の小さい
方向判別代表値を判別して方向判別代表値Vbとして、
方向判別代表値Vaから方向判別代表値Vbを減算した
値が「0」以上である場合、画像の向きは正しいものと
判別される。また、方向判別代表値Vaから方向判別代
表値Vbを減算した値が「0」未満である場合、画像は
90°回転された向きであると判別される。
For example, a direction discriminating representative value having a small value is discriminated from the direction discriminating representative values V2 and V4 to obtain a direction discriminating representative value Va, and a direction discriminating representative value having a small value is discriminated from the direction discriminating representative values V1 and V3. As the direction determination representative value Vb,
When the value obtained by subtracting the representative direction determination value Vb from the representative direction determination value Va is equal to or greater than “0”, it is determined that the orientation of the image is correct. If the value obtained by subtracting the representative direction determination value Vb from the representative direction determination value Va is less than “0”, the image is determined to be rotated 90 °.

【0083】さらに、撮影画像の対称性を利用して2方
向の判別を行うこともできる。例えば、方向判別代表値
V1から方向判別代表値V3を減算したときの減算値の
絶対値Waと方向判別代表値V2から方向判別代表値V
4を減算したときの減算値の絶対値Wbを求めて、絶対
値Waから絶対値Wbを減算した値が「0」以上である場
合、画像の向きは正しいものと判別される。また、絶対
値Waから絶対値Wbを減算した値が「0」未満である場
合、画像は90°回転された向きであると判別される。
Further, discrimination in two directions can be performed by utilizing the symmetry of the photographed image. For example, the direction discrimination representative value V3 is calculated from the absolute value Wa of the subtraction value obtained by subtracting the direction discrimination representative value V3 from the direction discrimination representative value V1 and the direction discrimination representative value V2.
The absolute value Wb of the subtraction value obtained by subtracting 4 is obtained, and if the value obtained by subtracting the absolute value Wb from the absolute value Wa is “0” or more, the orientation of the image is determined to be correct. If the value obtained by subtracting the absolute value Wb from the absolute value Wa is less than “0”, it is determined that the image is rotated 90 °.

【0084】なお、画像の向きの判別では、複数の方法
で画像の向きの判別を行うものとし、それぞれの判別結
果に基づいて最終的な向きの判別を行うものとしてもよ
い。例えば、方向判別代表値として平均値や最大値、累
積ヒストグラムが50%あるいは99%となる値等を用
いて向きの判別を複数回行い、複数の判別結果から最終
的な向きの判別を行うものとしてもよい。また、例えば
2方向の判別では、上述の方向判別代表値Vaと方向判
別代表値Vbの大小関係に基づく向きの判別結果と、絶
対値Waと絶対値Wbの大小関係に基づく向きの判別結果
から最終的な向きの判別を行うものとしてもよい。
In the determination of the orientation of the image, the orientation of the image may be determined by a plurality of methods, and the final orientation may be determined based on the determination results. For example, direction determination is performed a plurality of times using an average value or a maximum value as a direction determination representative value, a value at which the cumulative histogram is 50% or 99%, and the final direction is determined from a plurality of determination results. It may be. For example, in the two-direction determination, the direction determination result based on the magnitude relationship between the above-described direction determination representative value Va and the direction determination representative value Vb, and the direction determination result based on the magnitude relationship between the absolute value Wa and the absolute value Wb are obtained. The final orientation may be determined.

【0085】このようにして画像の向きの判別が行われ
ると、判別結果に基づき画像の向きを正しい向きとする
処理が行われる。ここで、画像が正しい向きでないと判
別された場合、例えば画像は180°あるいは−180
°回転された向きであると判別されたときには、画像を
180°回転させる処理が行われる。また、画像は27
0°あるいは−90°回転された向きであると判別され
たときには、画像を90°あるいは−270°回転させ
る処理が行われる。さらに、画像は90°あるいは−2
70°回転された向きであると判別されたときには、画
像を270°あるいは−90°回転させる処理が行われ
る。このため、図8Aが画像の正しい向きであるとき
に、図8B〜図8Dに示すように画像が横転等していて
も、画像を回転する処理が行われて、図8B〜図8Dに
示す画像の画像データから図8Aに示す画像の向きの画
像データが生成される。
When the orientation of the image is determined in this way, a process for setting the orientation of the image to the correct orientation is performed based on the determination result. Here, when it is determined that the image is not in the correct orientation, for example, the image is 180 ° or −180.
If it is determined that the image has been rotated by an angle, a process of rotating the image by 180 ° is performed. The image is 27
When it is determined that the image is rotated by 0 ° or −90 °, a process of rotating the image by 90 ° or −270 ° is performed. In addition, the image is 90 ° or -2.
When it is determined that the image is rotated by 70 °, a process of rotating the image by 270 ° or −90 ° is performed. For this reason, when FIG. 8A is in the correct orientation of the image, even if the image is rolled over as shown in FIG. 8B to FIG. 8D, a process of rotating the image is performed, and the process shown in FIG. 8B to FIG. Image data in the direction of the image shown in FIG. 8A is generated from the image data of the image.

【0086】次に、画像の向きの正しい画像データが生
成されると、この画像データの分布を所望のレベルの分
布に変換する正規化処理を行う際に、この画像データの
レベルの分布を決定するための領域(以下「関心領域」
という)の設定が行われる。この関心領域内の画像デー
タから代表値を決定し、この代表値を所望のレベルに変
換することで、所望のレベルの画像データを得ることが
できる。
Next, when the image data with the correct orientation of the image is generated, the level distribution of the image data is determined at the time of performing a normalization process for converting the distribution of the image data into a distribution of a desired level. Area (hereinafter referred to as “region of interest”)
Is set. By determining a representative value from the image data in the region of interest and converting the representative value to a desired level, image data of a desired level can be obtained.

【0087】この関心領域は、照射野内領域と等しい場
合に限られるものではない。例えば診断を行う上で最も
重要な部分を照射野の中央として撮影を行うことが一般
的に行われていることから、照射野内領域の中央に円形
あるいは矩形等の領域を設定して関心領域とするものと
してもよい。ここで、円形あるいは矩形等の領域は、円
の直径や矩形の一辺の長さが、例えば照射野の長辺や短
辺あるいは対角線の「1/2〜「1/5」として設定さ
れる。
The region of interest is not limited to the case where the region of interest is equal to the region within the irradiation field. For example, since it is common to perform imaging with the most important part in performing a diagnosis as the center of the irradiation field, a region such as a circle or rectangle is set at the center of the irradiation field region and the region of interest is set as You may do it. Here, in the area such as a circle or a rectangle, the diameter of the circle or the length of one side of the rectangle is set as, for example, “1 / to“ 1 / ”of the long side or the short side of the irradiation field or the diagonal line.

【0088】さらに、照射野内領域に所定の人体構造に
対応する関心領域を設定してもよい。例えば、特開平3
ー218578号で示されているように、縦方向と横方
向とのプロジェクション(画像データの一方向の累積
値)を求め、このデータから解剖学的領域決定手段によ
って肺野部分の領域を決定し、この決定された領域が関
心領域として設定される。また特開平5ー7578号で
示されているように、各画素の画像データと閾値を比較
して、比較結果に基づき識別符号を画素毎に付加するも
のとし、閾値以上であることを示す識別符号の連続する
画素群毎にラベリングを行って領域を決定し、この決定
された領域が関心領域として設定される。
Further, a region of interest corresponding to a predetermined human body structure may be set in the region within the irradiation field. For example, Japanese Unexamined Patent Publication
As described in Japanese Patent No. 218578, projections in the vertical direction and the horizontal direction (cumulative values in one direction of image data) are obtained, and an anatomical region determining unit determines an area of a lung field portion from the data. The determined area is set as a region of interest. As disclosed in JP-A-5-7578, the image data of each pixel is compared with a threshold, and an identification code is added to each pixel based on the comparison result. A region is determined by performing labeling for each group of consecutive pixels, and the determined region is set as a region of interest.

【0089】次に、設定された関心領域内の画像データ
から代表値D1,D2が設定されて、この代表値を所望の
レベルS1,S2に変換する処理が行われる。あるいは、
関心領域内から代表値を設定するための領域(以下「信
号領域」という)を抽出して、抽出された信号領域内の
画像データから代表値D1,D2が設定される。
Next, representative values D1 and D2 are set from the image data in the set region of interest, and a process of converting the representative values to desired levels S1 and S2 is performed. Or,
A region for setting a representative value (hereinafter referred to as a “signal region”) is extracted from the region of interest, and representative values D1 and D2 are set from the image data in the extracted signal region.

【0090】この信号領域の抽出では、特開昭63−2
62141号で示される方法を用いることができる。こ
の方法では、画像データのヒストグラムを判別基準法な
どを用いた自動しきい値選別法により複数の小領域に分
割し、分割された小領域のうち所望の画像部分が信号領
域として抽出される。
The extraction of this signal area is described in
No. 62141 can be used. In this method, a histogram of image data is divided into a plurality of small areas by an automatic threshold selection method using a discrimination criterion method or the like, and a desired image portion among the divided small areas is extracted as a signal area.

【0091】ここで、関心領域の設定や信号領域の抽出
の際に、撮影部位情報を用いることにより、人体構造に
対応した関心領域の設定や信号領域の抽出を行うことが
できる。
Here, the setting of the region of interest and the extraction of the signal region can be performed by using the imaging region information when setting the region of interest and extracting the signal region.

【0092】代表値D1,D2の設定では、例えば関心領
域内や抽出された信号領域内の略最小値と略最大値が代
表値として用いられる。また信号領域内の累積ヒストグ
ラムが所定の値、例えば20%と80%となるような信
号値が代表信号値として用いられる。また代表値を1つ
として例えば信号領域内の累積ヒストグラムが60%と
なる信号値が代表信号値として用いられる。代表値D
1,D2の設定では、信号領域内の画像データを用いるこ
とで関心領域内の画像データを用いる場合よりもさらに
被写体に適した正規化処理を行うことができる。
In setting the representative values D1 and D2, for example, a substantially minimum value and a substantially maximum value in a region of interest or an extracted signal region are used as representative values. Also, a signal value such that the cumulative histogram in the signal area becomes a predetermined value, for example, 20% and 80% is used as a representative signal value. In addition, a signal value in which the cumulative histogram in the signal area is 60% with one representative value used, for example, is used as the representative signal value. Representative value D
In the setting of 1 and D2, by using the image data in the signal area, it is possible to perform a normalization process more suitable for the subject than in the case of using the image data in the area of interest.

【0093】このようにして代表値D1,D2が設定され
ると、予め設けられた正規化処理ルックアップテーブル
を参照して、図9に示すように代表値D1,D2を所望の
基準値S1,S2にレベル変換する正規化処理が行われ
る。ここで、特性曲線CCは、撮像パネル21に照射さ
れた放射線の放射線量に応じて出力される信号のレベル
を示している。また、正規化処理ルックアップテーブル
は、撮像パネル21の特性曲線CCを示す関数の逆関数
を用いた演算によって生成されるものである。なお、正
規化処理ルックアップテーブルを用いることなく演算処
理によって正規化処理を行うものとしても良いことは勿
論である。
When the representative values D1 and D2 are set in this manner, the representative values D1 and D2 are set to the desired reference value S1 as shown in FIG. , S2 are normalized. Here, the characteristic curve CC indicates the level of a signal output according to the radiation dose of the radiation applied to the imaging panel 21. Further, the normalization processing lookup table is generated by an operation using an inverse function of the function indicating the characteristic curve CC of the imaging panel 21. It is needless to say that the normalization processing may be performed by arithmetic processing without using the normalization processing lookup table.

【0094】この正規化処理によって、図10に示すよ
うに、放射線が所望の基準値S1〜S2の画像データを得
ることができる線量R1〜R2よりも低い放射線量Ra〜
Rbであっても、所望の基準値S1〜S2の画像データを
得ることができるので、被写体の被曝量を軽減させるこ
とができる。
As a result of this normalization processing, as shown in FIG. 10, the radiation doses Ra to Ra are lower than the doses R1 to R2 at which the radiation can obtain image data of the desired reference values S1 to S2.
Even with Rb, the image data of the desired reference values S1 to S2 can be obtained, so that the exposure of the subject can be reduced.

【0095】次に、正規化処理によって得られた正規化
画像データDTregを用いて階調処理が行われる。図1
1は階調変換特性を示しており、階調処理では図に示す
階調変換曲線が用いられて、正規化画像データDTreg
の基準値S1,S2がパラメータ値のレベルS1’,S2’
となるよう正規化画像データDTregが出力画像データ
DToutに変換される。このレベルS1’,S2’は、出
力画像における所定の輝度または写真濃度と対応するも
のである。
Next, gradation processing is performed using the normalized image data DTreg obtained by the normalization processing. FIG.
Reference numeral 1 denotes a gradation conversion characteristic. In the gradation processing, a gradation conversion curve shown in FIG.
Are the parameter value levels S1 ', S2'
The normalized image data DTreg is converted into output image data DTout such that The levels S1 'and S2' correspond to predetermined luminance or photographic density in the output image.

【0096】階調変換曲線は、正規化画像データDTre
gの全信号領域にわたって連続な関数であることが好ま
しく、またその微分関数も連続であることが好ましい。
また、全信号領域にわたって、その微分係数の符号が一
定であることが好ましい。
The gradation conversion curve is represented by the normalized image data DTre.
It is preferably a continuous function over the entire signal region of g, and its differential function is also preferably continuous.
Further, it is preferable that the sign of the differential coefficient is constant over the entire signal region.

【0097】また、撮影部位や撮影体位、撮影条件、撮
影方法等によって好ましい階調変換曲線の形状やレベル
S1’,S2’が異なることから、階調変換曲線は画像毎
にその都度作成してもよく、また例えば特公平5ー26
138号で示されているように、予め複数の基本階調変
換曲線を記憶しておくものとし、いずれかの基本階調変
換曲線を読み出して回転および平行移動することにより
所望の階調変換曲線を容易に得ることができる。なお、
画像処理部55では、複数の基本階調曲線に対応する階
調処理ルックアップテーブルが設けられており、正規化
画像データDTregに基づいて階調処理ルックアップテ
ーブルを参照して得られた画像データを、基本階調変換
曲線の回転および平行移動に応じて補正することで階調
変換が行われた出力画像データDToutを得ることがで
きる。なお、階調変換処理では、2つの基準値S1,S2
を用いるだけでなく、1つの基準値や3つ以上の基準値
を用いるものとしてもよい。
Further, since the preferred shape of the gradation conversion curve and the levels S1 'and S2' differ depending on the photographing site, photographing position, photographing condition, photographing method, etc., the gradation transformation curve is created for each image. Or, for example,
As shown in No. 138, a plurality of basic tone conversion curves are stored in advance, and one of the basic tone conversion curves is read out and rotated and translated to obtain a desired tone conversion curve. Can be easily obtained. In addition,
The image processing unit 55 is provided with a gradation processing look-up table corresponding to a plurality of basic gradation curves. The image processing unit 55 obtains image data obtained by referring to the gradation processing lookup table based on the normalized image data DTreg. Is corrected in accordance with the rotation and parallel movement of the basic gradation conversion curve, so that output image data DTout subjected to gradation conversion can be obtained. In the gradation conversion process, two reference values S1, S2
, A single reference value or three or more reference values may be used.

【0098】ここで、基本階調曲線の選択や基本階調曲
線の回転および平行移動は、撮影部位、撮影条件、撮影
方法等に基づいて行われる。これらの情報が入力装置5
4を用いて管理情報として入力されている場合には、こ
の管理情報を利用することで、容易に基本階調曲線を選
択することができると共に基本階調曲線の回転方向およ
び平行移動の移動量を決定することができる。また、撮
影部位や撮影体位、撮影条件、撮影方法に基づいて基準
値S1,S2のレベルを変更するものとしてもよい。
Here, the selection of the basic gradation curve and the rotation and translation of the basic gradation curve are performed based on the photographing part, photographing conditions, photographing method and the like. The information is input to the input device 5
4, the basic gradation curve can be easily selected by using this management information, and the amount of rotation of the basic gradation curve and the moving amount of the parallel movement can be selected. Can be determined. Further, the levels of the reference values S1 and S2 may be changed based on an imaging part, an imaging position, an imaging condition, and an imaging method.

【0099】さらに、基本階調曲線の選択や基本階調曲
線の回転あるいは平行移動は、画像表示装置の種類や画
像出力のための外部機器の種類に関する情報に基づいて
行うものとしてもよい。これは、画像の出力方式に依存
して、好ましい階調が異なる場合があるためである。
Further, the selection of the basic gradation curve and the rotation or translation of the basic gradation curve may be performed based on information on the type of image display device and the type of external device for image output. This is because the preferable gradation may differ depending on the image output method.

【0100】次に、周波数強調処理およびダイナミック
レンジ圧縮処理について説明する。周波数強調処理で
は、例えば式(1)に示す非鮮鋭マスク処理によって鮮
鋭度を制御するために、関数Fが特公昭62−6237
3号や特公昭62−62376号で示される方法によっ
て定められる。 Soua=Sorg+F(Sorg−Sus) ・・・(1) なお、Souaは処理後の画像データ、Sorgは周波数強調
処理前の画像データであり、Susは周波数強調処理前の
画像データを平均化処理等によって求められた非鮮鋭デ
ータである。
Next, the frequency emphasis processing and the dynamic range compression processing will be described. In the frequency emphasizing process, for example, in order to control the sharpness by the non-sharp mask process shown in Expression (1), the function F is calculated as follows.
3 and JP-B-62-62376. Soua = Sorg + F (Sorg−Sus) (1) where Soua is image data after processing, Sorg is image data before frequency enhancement processing, and Sus is image data before frequency enhancement processing. This is the unsharp data obtained by.

【0101】この周波数強調処理では、例えばF(Sor
g−Sus)がβ×(Sorg−Sus)とされて、β(強調係
数)が図12に示すように基準値T1,T2間でほぼ線形
に変化される。また図13の実線で示すように、値
「A」,「B」を設定して、低輝度を強調する場合には
基準値S1〜値「A」までのβが最大とされて、値
「B」〜基準値T2まで最小とされる。また値「A」〜
値「B」までは、βがほぼ線形に変化される。高輝度を
強調する場合には破線で示すように、基準値T1〜値
「A」までのβが最小とされて、値「B」〜基準値T2
まで最大とされる。また値「A」〜値「B」までは、β
がほぼ線形に変化される。なお、図示せずも中輝度を強
調する場合には値「A」〜値「B」のβが最大とされ
る。このように周波数強調処理では、関数Fによって任
意の輝度部分の鮮鋭度を制御することができる。
In this frequency emphasis processing, for example, F (Sor
g−Sus) is set to β × (Sorg−Sus), and β (emphasis coefficient) is changed substantially linearly between the reference values T1 and T2 as shown in FIG. As shown by the solid line in FIG. 13, when the values “A” and “B” are set to emphasize low luminance, β from the reference value S1 to the value “A” is maximized, and the value “ B "to the reference value T2. Also, the value "A" ~
Up to the value “B”, β is changed almost linearly. When the high luminance is emphasized, as shown by the broken line, β from the reference value T1 to the value “A” is minimized, and the value “B” to the reference value T2.
Up to the maximum. Further, from the value “A” to the value “B”, β
Is changed almost linearly. It should be noted that although not shown, β of the value “A” to the value “B” is maximized when the medium luminance is emphasized. Thus, in the frequency emphasis processing, the sharpness of an arbitrary luminance portion can be controlled by the function F.

【0102】ここで、基準値T1,T2および値「A」,
「B」は、上述した階調処理条件の設定における代表値
D1,D2の決定方法と同様な方法により求められる。
Here, the reference values T1, T2 and the value "A",
“B” is obtained by a method similar to the method of determining the representative values D1 and D2 in the above-described setting of the gradation processing conditions.

【0103】また、周波数強調処理の方法は、上記非鮮
鋭マスク処理に限られるものではなく、特開平9−44
645号で示される多重解像度法などの手法を用いても
よい。なお、周波数強調処理では、強調する周波数帯域
や強調の程度は、階調処理での基本階調曲線の選択等と
同様に撮影部位や撮影体位、撮影条件、撮影方法等に基
づいて設定される。
The method of the frequency emphasis processing is not limited to the above unsharp mask processing.
For example, a technique such as the multi-resolution method disclosed in Japanese Patent No. 645 may be used. In the frequency emphasizing process, the frequency band to be emphasized and the degree of emphasis are set based on the photographing site, photographing position, photographing condition, photographing method, and the like, similarly to the selection of the basic gradation curve in the gradation process. .

【0104】ダイナミックレンジ圧縮処理では、式
(2)に示す圧縮処理によって見やすい濃度範囲に収め
る制御を行うため、関数Gが特許公報266318号で
示される方法によって定められる。 Stb=Sorg+G(Sus) ・・・(2) なお、Stbは処理後の画像データ、Sorgはダイナミッ
クレンジ圧縮処理前の画像データ、Susはダイナミック
レンジ圧縮処理前の画像データを平均化処理等によって
求められた非鮮鋭データである。
In the dynamic range compression processing, a function G is determined by a method disclosed in Japanese Patent Publication No. 266318 in order to perform control such that the density is within a legible range by the compression processing shown in equation (2). Stb = Sorg + G (Sus) (2) where Stb is image data after processing, Sorg is image data before dynamic range compression processing, and Sus is image data before dynamic range compression processing by averaging processing or the like. Unsharp data.

【0105】ここで、G(Sus)は図14Aに示すよう
に、非鮮鋭データSusがレベル「La」よりも小さくな
るとG(Sus)が増加するような特性を有する場合、低
濃度領域の濃度が高いものとされて、図14Bに示す画
像データSorgは図14Cに示すように低濃度側のダイ
ナミックレンジが圧縮された画像データStbとされる。
また、G(Sus)は図14Dに示すように、非鮮鋭デー
タSusがレベル「Lb」よりも小さくなるとG(Sus)
が減少するような特性を有する場合には、高濃度領域の
濃度が高いものとされて、図14Bに示す画像データS
orgは図14Eに示すように高濃度側のダイナミックレ
ンジが圧縮される。ここで、レベル「La」「Lb」
は、上述した階調処理条件の設定における代表値D1,
D2の決定方法と同様な方法により求められる。なお、
ダイナミックレンジ圧縮処理も、撮影部位や撮影体位、
撮影条件、撮影方法等に基づいて補正周波数帯域や補正
の程度が設定される。
Here, as shown in FIG. 14A, if the non-sharp data Sus has such a characteristic that G (Sus) increases when the level of the non-sharp data Sus becomes smaller than the level “La”, the density of the low-density area is reduced. Is high, and the image data Sorg shown in FIG. 14B is image data Stb in which the dynamic range on the low density side is compressed as shown in FIG. 14C.
Also, as shown in FIG. 14D, G (Sus) becomes G (Sus) when the non-sharp data Sus becomes smaller than the level “Lb”.
Is reduced, the density of the high-density area is determined to be high, and the image data S shown in FIG.
For org, the dynamic range on the high density side is compressed as shown in FIG. 14E. Here, the levels “La” and “Lb”
Are the representative values D1,
It is obtained by a method similar to the method of determining D2. In addition,
Dynamic range compression processing also includes
A correction frequency band and a degree of correction are set based on a shooting condition, a shooting method, and the like.

【0106】本発明の画像処理装置において、上述の照
射野認識処理や画像方向の判別を行う際、または階調処
理、周波数処理およびダイナミックレンジ圧縮処理など
の画像処理条件を定める際には、診断の対象となる放射
線画像の画像データの全情報量を利用して実行する必要
はなく、例えば画素の間引き処理を行うことにより得ら
れた縮小画像の画像データを利用することにより、処理
速度の向上およびメモリ使用量の節減を図ることができ
るので好ましい。
In the image processing apparatus of the present invention, when performing the above-described irradiation field recognition processing and image direction determination, or when determining image processing conditions such as gradation processing, frequency processing, and dynamic range compression processing, diagnosis is performed. It is not necessary to execute the processing by using the entire information amount of the image data of the radiation image to be processed. For example, by using the image data of the reduced image obtained by performing the pixel thinning processing, the processing speed is improved. Further, it is preferable because the amount of memory used can be reduced.

【0107】このように画像処理部55で画像処理して
得られた画像データは、画像の向きの判別結果に基づい
て回転処理されて、フレームメモリ51やディスク装置
53、あるいは記憶装置93に記憶される。また、画像
処理部55で画像処理して得られた画像データを、画像
の向きの変更を行うことなく画像の向きの判別結果を示
す方向判別フラグと共に記憶するものとしてもよい。
The image data obtained by performing image processing in the image processing unit 55 is subjected to rotation processing based on the determination result of the image direction, and stored in the frame memory 51, the disk device 53, or the storage device 93. Is done. Further, the image data obtained by performing the image processing in the image processing unit 55 may be stored together with the direction determination flag indicating the determination result of the image direction without changing the image direction.

【0108】また、出力インタフェース48やインタフ
ェース部95を介して外部機器100等に出力する画像
データは、画像処理後の画像データであっても良いが、
画像処理前の画像データと方向判別フラグおよび画像処
理部55で求めた画像処理条件等を対応付けて出力する
ことが好ましい。なぜなら、外部機器100等によっ
て、方向判別フラグや画像処理条件等を利用して画像処
理前の画像データを処理することにより、画像処理され
た画像データを得ることができると共に、画像処理条件
等を変更して画像処理前の画像データを処理することに
より、新たな画像データを得ることができるからであ
る。
The image data output to the external device 100 or the like via the output interface 48 or the interface unit 95 may be image data after image processing.
It is preferable to output the image data before image processing in association with the direction determination flag, the image processing conditions obtained by the image processing unit 55, and the like. This is because the image data before image processing can be obtained by processing the image data before image processing using the direction determination flag, the image processing conditions, and the like by the external device 100 and the like, and the image processing conditions and the like can be obtained. This is because new image data can be obtained by changing and processing the image data before image processing.

【0109】また、画像処理部55では、画像の向きを
自動判別するものとしたが、入力装置54や操作部91
を操作して、画像処理部55での画像の向きの判別結果
を修正可能とすれば、画像の向きの判別結果に係らず画
像の向きを強制的に所定の向きとして、その後の処理を
行わせることもできる。なお、画像の向きの判別結果を
修正可能とすることにより、画像の向きが万一誤って判
別された場合でも、画像の向きを正しくできることは勿
論である。
Although the image processing unit 55 automatically determines the direction of the image, the input unit 54 and the operation unit 91
Is operated to correct the determination result of the image direction in the image processing unit 55, the image direction is forcibly set to the predetermined direction regardless of the determination result of the image direction, and the subsequent processing is performed. It can also be done. It should be noted that, by making the determination result of the orientation of the image correctable, even if the orientation of the image is erroneously determined, the orientation of the image can of course be corrected.

【0110】このように上述の実施の形態によれば、画
像の向きが横転等されていても、画像の向きを判別して
正しい向きとすることができる。また多種類の撮影部位
の撮影画像について適用することができる。さらに、照
射野認識によって認識された照射野内の画像データを用
いて画像の向きの判別が行われるので、精度の良い判定
結果を得ることができる。また、累積ヒストグラムに基
づく代表値を使用して画像の向きの判別が行われるの
で、判定精度を高めることができる。
As described above, according to the above-described embodiment, even if the orientation of the image is turned over or the like, it is possible to determine the orientation of the image and determine the correct orientation. Further, the present invention can be applied to photographed images of various kinds of photographed parts. Further, since the orientation of the image is determined using the image data in the irradiation field recognized by the irradiation field recognition, a highly accurate determination result can be obtained. Further, since the orientation of the image is determined using the representative value based on the cumulative histogram, the determination accuracy can be improved.

【0111】[0111]

【発明の効果】この発明によれば、放射線画像の画像デ
ータを用いて照射野領域が認識されて、この認識された
照射野領域内に複数の方向判別用領域が設定れて、方向
判別用領域内の画像データの方向判別代表値を用いて放
射線画像の向きが判別されて、この判別結果および画像
データを用いて放射線画像の画像処理が行われる。この
ため、画像が横転あるいは逆転していても放射線画像の
向きを判別することができ、放射線画像の画像処理を正
しく行うことができる。
According to the present invention, an irradiation field region is recognized using image data of a radiation image, and a plurality of direction discrimination regions are set in the recognized irradiation field region. The direction of the radiation image is determined using the direction determination representative value of the image data in the area, and image processing of the radiation image is performed using the determination result and the image data. For this reason, the direction of the radiation image can be determined even if the image is turned over or reversed, and image processing of the radiation image can be performed correctly.

【0112】また、方向判別代表値は方向判別用領域内
の画像データの累積ヒストグラムに基づいて設定され
る。このため、方向判別用領域内での画像データのレベ
ルが大きく離れた画素の影響を少なくして、正しく画像
の向きを判別できる。
The direction discrimination representative value is set based on the cumulative histogram of the image data in the direction discrimination area. For this reason, the influence of the pixels in the direction determination area where the image data levels are far apart can be reduced, and the direction of the image can be correctly determined.

【0113】また、放射線画像の向きの判別結果と画像
処理条件および画像処理前の画像データが対応付けられ
て出力されるので、これらを用いて新たな画像処理を行
うことができる。
Further, since the determination result of the orientation of the radiation image, the image processing condition, and the image data before image processing are output in association with each other, new image processing can be performed using these.

【0114】さらに、画像方向修正情報によって放射線
画像の向きの判別結果を修正することができるので、画
像の向きを所望の向きに強制的に変更して画像処理を行
うこともできる。
Further, since the determination result of the direction of the radiation image can be corrected by the image direction correction information, the image processing can be performed by forcibly changing the direction of the image to a desired direction.

【図面の簡単な説明】[Brief description of the drawings]

【図1】放射線画像撮像システムの構成を示す図であ
る。
FIG. 1 is a diagram illustrating a configuration of a radiation image capturing system.

【図2】FPDを用いた放射線画像読取器の構成を示す
図である。
FIG. 2 is a diagram illustrating a configuration of a radiation image reader using an FPD.

【図3】コントローラの構成を示す図である。FIG. 3 is a diagram showing a configuration of a controller.

【図4】輝尽性蛍光ディテクタを用いたときの構成を示
す図である。
FIG. 4 is a diagram showing a configuration when a stimulable fluorescence detector is used.

【図5】照射野認識処理を説明するための図である。FIG. 5 is a diagram for explaining irradiation field recognition processing.

【図6】方向判別用領域を示す図である。FIG. 6 is a diagram showing a direction discrimination area.

【図7】撮影部位と方向判別代表値の関係を示す図であ
る。
FIG. 7 is a diagram illustrating a relationship between an imaging region and a direction determination representative value.

【図8】画像の向きの回転を説明するための図である。FIG. 8 is a diagram for explaining rotation of the direction of an image.

【図9】レベル変換を説明するための図である。FIG. 9 is a diagram for explaining level conversion.

【図10】正規化処理を示す図である。FIG. 10 is a diagram showing a normalization process.

【図11】階調変換特性を示す図である。FIG. 11 is a diagram showing gradation conversion characteristics.

【図12】強調係数と画像データの関係を示す図であ
る。
FIG. 12 is a diagram illustrating a relationship between an enhancement coefficient and image data.

【図13】強調係数と画像データの関係を示す図であ
る。
FIG. 13 is a diagram illustrating a relationship between an enhancement coefficient and image data.

【図14】ダイナミックレンジ圧縮処理を説明するため
の図である。
FIG. 14 is a diagram illustrating a dynamic range compression process.

【図15】被写体の向きを示す図である。FIG. 15 is a diagram showing the orientation of a subject.

【符号の説明】[Explanation of symbols]

10 放射線発生器 20,60 放射線画像読取器 21 撮像パネル 24 走査駆動回路 26 画像データ生成回路 28 読取制御回路 29 メモリ 40 コントローラ 41 CPU(Central Processing Unit) 45 表示制御部 46 フレームメモリ制御部 47 入力インタフェース 48 出力インタフェース 49 データ読出制御部 50 ディスク制御部 51 フレームメモリ 52 画像表示装置 53 ディスク装置 54 入力装置 55 画像処理部 61 カセッテスタッカ部 62 変換プレート 63 カセッテ 64 スタッカ駆動制御部 65 スタッカ駆動部 66 プレート搬送制御部 67 プレート搬送部 68 消去部 70 光ビーム発生部 71 走査部 72 反射鏡 73 集光体 74 フィルタ 75 フォトマルチプライヤ 76 電流/電圧変換部 77 増幅部 78 変換部 80 読取制御部 81 フォトマルチプライヤ用高圧電源 90 メインCPU(Central Processing Unit) 91 操作部 92 画像処理部 93 記憶装置 94 画像表示装置 95 インタフェース部 96 ホストコンピュータ 97 診断装置 98 患者登録ターミナル 100 外部機器 DESCRIPTION OF SYMBOLS 10 Radiation generator 20, 60 Radiation image reader 21 Imaging panel 24 Scan drive circuit 26 Image data generation circuit 28 Reading control circuit 29 Memory 40 Controller 41 CPU (Central Processing Unit) 45 Display control unit 46 Frame memory control unit 47 Input interface 48 output interface 49 data read control unit 50 disk control unit 51 frame memory 52 image display device 53 disk device 54 input device 55 image processing unit 61 cassette stacker unit 62 conversion plate 63 cassette 64 stacker drive control unit 65 stacker drive unit 66 plate transport Control unit 67 Plate transport unit 68 Erasing unit 70 Light beam generating unit 71 Scanning unit 72 Reflecting mirror 73 Condenser 74 Filter 75 Photomultiplier 76 Current / voltage converter 77 Amplifying unit 78 Replacement unit 80 Read control unit 81 High voltage power supply for photomultiplier 90 Main CPU (Central Processing Unit) 91 Operation unit 92 Image processing unit 93 Storage device 94 Image display device 95 Interface unit 96 Host computer 97 Diagnosis device 98 Patient registration terminal 100 External machine

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 被写体を透過した放射線に基づいて生成
された放射線画像の画像データを用いて前記放射線画像
の画像処理を行う画像処理装置において、 放射線の照射野領域を認識する照射野認識手段と、 認識された照射野領域内に、互いに重ならない複数の方
向判別用領域を設定する領域設定手段と、 設定された方向判別用領域のそれぞれについて、方向判
別用領域内の画像データの方向判別代表値を決定する代
表値決定手段と、 決定された複数の方向判別代表値を用いて所定の演算を
行い、演算結果に基づいて前記放射線画像の画像方向を
判別する画像方向判別手段と、 前記画像方向判別手段における判別結果および前記画像
データに基づいて画像処理条件を決定して前記放射線画
像の画像処理を行う画像データ処理手段とを有すること
を特徴とする画像処理装置。
1. An image processing apparatus for performing image processing of a radiation image using image data of a radiation image generated based on radiation transmitted through a subject, comprising: an irradiation field recognizing means for recognizing an irradiation field area of the radiation; An area setting means for setting a plurality of direction discriminating areas that do not overlap each other in the recognized irradiation field area; and for each of the set direction discriminating areas, a direction discriminating representative of image data in the direction discriminating area. Representative value determining means for determining a value, image direction determining means for performing a predetermined calculation using the determined plurality of direction determination representative values, and determining an image direction of the radiation image based on the calculation result; and Image data processing means for determining an image processing condition based on the determination result in the direction determining means and the image data and performing image processing on the radiation image. The image processing apparatus according to claim.
【請求項2】 前記領域設定手段では、前記放射線画像
の向きの判別方向数に応じて前記複数の方向判別用領域
を設定することを特徴とする請求項1記載の画像処理装
置。
2. The image processing apparatus according to claim 1, wherein the area setting unit sets the plurality of direction determination areas according to the number of directions for determining the direction of the radiation image.
【請求項3】 前記照射野認識手段は略矩形の照射野領
域を認識すると共に、 前記領域設定手段では、前記複数の方向判別用領域を前
記照射野認識手段で認識された略矩形の照射野領域の互
いに異なる一辺に近接して設定することを特徴とする請
求項1または請求項2記載の画像処理装置。
3. The irradiation field recognizing means recognizes a substantially rectangular irradiation field area, and the area setting means recognizes the plurality of direction discriminating areas by a substantially rectangular irradiation field recognized by the irradiation field recognizing means. 3. The image processing apparatus according to claim 1, wherein the image processing apparatus is set close to different sides of the region.
【請求項4】 前記代表値決定手段は、設定された方向
判別用領域内の画像データの累積ヒストグラムに基づい
て方向判別代表値を定めることを特徴とする請求項1か
ら請求項3の何れかに記載の画像処理装置。
4. The apparatus according to claim 1, wherein said representative value determining means determines a direction determination representative value based on a cumulative histogram of image data in the set direction determination area. An image processing apparatus according to claim 1.
【請求項5】 前記画像データ処理手段は、前記放射線
画像の画像処理として階調処理を含む処理を行うことを
特徴とする請求項1から請求項4の何れかに記載の画像
処理装置。
5. The image processing apparatus according to claim 1, wherein the image data processing unit performs a process including a gradation process as image processing of the radiation image.
【請求項6】 前記画像データ処理手段によって画像処
理が施された画像データを用いて放射線画像を表示する
画像表示手段を有することを特徴とする請求項1から請
求項5の何れかに記載の画像処理装置。
6. The image processing apparatus according to claim 1, further comprising an image display unit that displays a radiation image using image data that has been subjected to image processing by the image data processing unit. Image processing device.
【請求項7】 前記画像方向判別手段における判別結果
および前記画像データ処理手段で決定された画像処理条
件を、前記放射線画像の画像データに対応付けて外部機
器に出力する出力手段を有することを特徴とする請求項
1から請求項6の何れかに記載の画像処理装置。
7. An image processing apparatus comprising: an output unit configured to output a determination result of the image direction determination unit and an image processing condition determined by the image data processing unit to an external device in association with image data of the radiation image. The image processing apparatus according to claim 1.
【請求項8】 前記放射線画像の撮影部位情報を入力す
る撮影部位情報入力手段を有し、 前記撮影部位情報入力手段によって入力された撮影部位
情報に基づいて前記画像方向判別手段における画像方向
の判別または前記画像データ処理手段での画像処理条件
の決定を行うことを特徴とする請求項1から請求項7の
何れかに記載の画像処理装置。
8. An imaging direction information input means for inputting imaging part information of the radiographic image, and a determination of an image direction by the image direction determining means based on the imaging part information input by the imaging part information input means. 8. The image processing apparatus according to claim 1, wherein image processing conditions are determined by said image data processing means.
【請求項9】 画像方向修正情報を入力する修正情報入
力手段を有し、 前記修正情報入力手段によって入力された画像方向修正
情報に基づいて、前記画像方向判別手段における画像方
向の判別結果を修正することを特徴とする請求項1から
請求項8の何れかに記載の画像処理装置。
And a correction information input unit for inputting image direction correction information, wherein the image direction determination unit corrects an image direction determination result based on the image direction correction information input by the correction information input unit. The image processing apparatus according to claim 1, wherein the image processing is performed.
JP10334688A 1998-11-25 1998-11-25 Image processor Pending JP2000157519A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10334688A JP2000157519A (en) 1998-11-25 1998-11-25 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10334688A JP2000157519A (en) 1998-11-25 1998-11-25 Image processor

Publications (1)

Publication Number Publication Date
JP2000157519A true JP2000157519A (en) 2000-06-13

Family

ID=18280126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10334688A Pending JP2000157519A (en) 1998-11-25 1998-11-25 Image processor

Country Status (1)

Country Link
JP (1) JP2000157519A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003052677A (en) * 2001-08-09 2003-02-25 Canon Inc Radiation imaging device
JP2010082296A (en) * 2008-10-01 2010-04-15 Infocom Corp Chest x-ray image converting method, device, system, computer program, and medium
JP2010253051A (en) * 2009-04-24 2010-11-11 Toshiba Corp X-ray diagnostic equipment
EP3000399A1 (en) 2014-09-17 2016-03-30 Konica Minolta, Inc. Radiation image capturing device
JP2017140160A (en) * 2016-02-09 2017-08-17 株式会社島津製作所 Image processing apparatus, program, and radiation imaging apparatus
WO2020100250A1 (en) * 2018-11-15 2020-05-22 株式会社島津製作所 X-ray imaging device and display angle adjusting method for x-ray image
KR20210047489A (en) * 2019-10-22 2021-04-30 연세대학교 산학협력단 Apparatus for distinguishing diagnostic images using artificial neural networks, method thereof and computer recordable medium storing program to perform the method
EP3714791A4 (en) * 2017-12-27 2021-11-10 Canon Kabushiki Kaisha RADIOGRAPHY DEVICE, IMAGE PROCESSING DEVICE AND IMAGE DETERMINATION METHOD

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003052677A (en) * 2001-08-09 2003-02-25 Canon Inc Radiation imaging device
JP2010082296A (en) * 2008-10-01 2010-04-15 Infocom Corp Chest x-ray image converting method, device, system, computer program, and medium
JP2010253051A (en) * 2009-04-24 2010-11-11 Toshiba Corp X-ray diagnostic equipment
EP3949861A1 (en) 2014-09-17 2022-02-09 Konica Minolta, Inc. Radiation image capturing system
EP3000399A1 (en) 2014-09-17 2016-03-30 Konica Minolta, Inc. Radiation image capturing device
JP2017140160A (en) * 2016-02-09 2017-08-17 株式会社島津製作所 Image processing apparatus, program, and radiation imaging apparatus
EP3714791A4 (en) * 2017-12-27 2021-11-10 Canon Kabushiki Kaisha RADIOGRAPHY DEVICE, IMAGE PROCESSING DEVICE AND IMAGE DETERMINATION METHOD
US11210809B2 (en) 2017-12-27 2021-12-28 Canon Kabushiki Kaisha Image processing apparatus, image determination method and non-transitory computer-readable storage medium
WO2020100250A1 (en) * 2018-11-15 2020-05-22 株式会社島津製作所 X-ray imaging device and display angle adjusting method for x-ray image
CN113038880A (en) * 2018-11-15 2021-06-25 株式会社岛津制作所 X-ray imaging apparatus and method for adjusting display angle of X-ray image
JPWO2020100250A1 (en) * 2018-11-15 2021-09-24 株式会社島津製作所 How to adjust the display angle of X-ray equipment and X-ray images
JP7099544B2 (en) 2018-11-15 2022-07-12 株式会社島津製作所 How to adjust the display angle of X-ray equipment and X-ray images
KR20210047489A (en) * 2019-10-22 2021-04-30 연세대학교 산학협력단 Apparatus for distinguishing diagnostic images using artificial neural networks, method thereof and computer recordable medium storing program to perform the method
KR102322927B1 (en) 2019-10-22 2021-11-04 연세대학교 산학협력단 Apparatus for distinguishing diagnostic images using artificial neural networks, method thereof and computer recordable medium storing program to perform the method

Similar Documents

Publication Publication Date Title
US6415049B1 (en) Apparatus for detecting and processing a radiation image
JP2001351091A (en) Image processing apparatus, photographing apparatus, image processing system, image processing method, and storage medium
US20040156473A1 (en) Radiographic apparatus
JPH10201750A (en) Radiography equipment
CN104665852A (en) Projection method, device and system of medical image
JP4497615B2 (en) Image processing apparatus, correction method, and recording medium
JP2000157519A (en) Image processor
US7248729B2 (en) Image processing apparatus and image processing method
JP3800892B2 (en) Radiation image processing device
JP2001238868A (en) Method of image processing and its apparatus
JP2000079110A (en) Picture processor
JP5304115B2 (en) Radiation imaging system
JP2000030046A (en) Radiation image detecting and processing apparatus
JP3700419B2 (en) Radiation image processing device
US20090208087A1 (en) Radiographic image correction method, apparatus and recording-medium stored therein program
JP2000245721A (en) Radiographic image pickup device
JP2001061823A (en) Method and device for processing radiographic image
JP2000023950A (en) Image processing device for radiation image
JP2001029335A (en) Radiation image processor
JP2001245140A (en) Image processing apparatus and image processing method
JP4258092B2 (en) Image processing apparatus and image processing method
JP3719010B2 (en) Radiation image processing method and radiation image processing apparatus
JP2961437B2 (en) Image output method
JP2000157518A (en) Radiation image processor
JP2001222704A (en) Method and device for image processing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050328

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050524