[go: up one dir, main page]

JP5917080B2 - Image processing apparatus, magnification observation apparatus, and image processing program - Google Patents

Image processing apparatus, magnification observation apparatus, and image processing program Download PDF

Info

Publication number
JP5917080B2
JP5917080B2 JP2011228468A JP2011228468A JP5917080B2 JP 5917080 B2 JP5917080 B2 JP 5917080B2 JP 2011228468 A JP2011228468 A JP 2011228468A JP 2011228468 A JP2011228468 A JP 2011228468A JP 5917080 B2 JP5917080 B2 JP 5917080B2
Authority
JP
Japan
Prior art keywords
area
image
display unit
region
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011228468A
Other languages
Japanese (ja)
Other versions
JP2013088997A (en
Inventor
亮介 近藤
亮介 近藤
宇範 康
宇範 康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2011228468A priority Critical patent/JP5917080B2/en
Publication of JP2013088997A publication Critical patent/JP2013088997A/en
Application granted granted Critical
Publication of JP5917080B2 publication Critical patent/JP5917080B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Processing (AREA)

Description

本発明は、画像を処理する画像処理装置、拡大観察装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus , an enlargement observation apparatus, and an image processing program that process an image.

拡大観察装置の使用者は、観察対象物の画像から特定の領域を抽出することにより、観察対象物の特定の領域のみを観察することができる。また、使用者は、観察対象物の画像から抽出された領域に基づいて観察対象物の特定の領域の寸法および面積等を算出することができる。   The user of the magnifying observation apparatus can observe only a specific region of the observation object by extracting the specific region from the image of the observation object. Further, the user can calculate the size and area of a specific region of the observation object based on the region extracted from the image of the observation object.

特許文献1に記載された画像検査装置においては、検出対象画像中の検出すべき最低輝度値が第1閾値として設定される。それにより、検出対象画像から第1閾値より大きい輝度値を有する画素のブロブが特定される。また、第1閾値よりも大きい第2閾値が設定される。それにより、特定された全てのブロブから第2閾値より小さい輝度値のみからなるブロブが削除される。   In the image inspection apparatus described in Patent Document 1, the lowest luminance value to be detected in the detection target image is set as the first threshold value. Thereby, a blob of a pixel having a luminance value larger than the first threshold is specified from the detection target image. A second threshold value that is larger than the first threshold value is set. As a result, blobs consisting only of luminance values smaller than the second threshold are deleted from all the identified blobs.

特開2009−186434号公報JP 2009-186434 A

しかしながら、特許文献1の画像検査装置では、不要なブロブを削除するための第2閾値を適切に設定することは容易ではない。そのため、使用者は、画像中の複数のブロブのうち所望のブロブを削除する処理を容易に行うことは難しい。   However, in the image inspection apparatus of Patent Document 1, it is not easy to appropriately set the second threshold value for deleting unnecessary blobs. Therefore, it is difficult for the user to easily perform a process of deleting a desired blob among a plurality of blobs in the image.

本発明の目的は、画像中の複数の領域のうち所望の領域を削除する処理を容易に行うことが可能な画像処理装置、拡大観察装置および画像処理プログラムを提供することである。 An object of the present invention is to provide an image processing apparatus , a magnification observation apparatus, and an image processing program that can easily perform a process of deleting a desired area among a plurality of areas in an image.

(1)第1の発明に係る画像処理装置は、画像データに基づく画像において第1の条件に基づいて抽出される複数の領域を表示するための表示部と、表示部に表示された複数の領域のいずれかを選択するために使用者により操作される操作部と、第1の条件に基づいて抽出された複数の領域のうち操作部の操作による表示部の画面上の位置の指定により選択された領域の面積、形状に関する情報、および予め定められた部分の長さのうち少なくとも1つを含む幾何的な特徴情報に基づいて領域の維持または削除の第2の条件を決定し、表示部に表示された複数の領域のうち、決定された第2の条件を満たす領域を必要領域または不要領域として決定し、表示部に表示された複数の領域のうち、必要領域以外の領域または不要領域を削除する処理を行うように動作する処理部とを備えるものである。 (1) An image processing apparatus according to a first invention includes a display unit for displaying a plurality of regions extracted based on a first condition in an image based on image data, and a plurality of display units displayed on the display unit. Select by specifying the position on the screen of the operation unit operated by the user to select one of the regions and the display unit by operating the operation unit among the plurality of regions extracted based on the first condition A second condition for maintaining or deleting the region is determined based on geometric feature information including at least one of the area, shape information, and length of a predetermined portion, and a display unit Of the plurality of areas displayed in the area, the area satisfying the determined second condition is determined as a necessary area or an unnecessary area, and among the plurality of areas displayed on the display unit, an area other than the necessary area or an unnecessary area To delete In which and a processing unit operable to perform.

この画像処理装置においては、画像データに基づく画像において第1の条件に基づいて抽出される複数の領域が表示部の画面に表示される。第1の条件に基づいて抽出された複数の領域のうち使用者による表示部の画面上の位置の指定による領域の選択が受け付けられる。使用者による表示部の画面上の位置の指定により選択された領域の面積、形状に関する情報、および予め定められた部分の長さのうち少なくとも1つを含む幾何的な特徴情報に基づいて領域の維持または削除の第2の条件が決定される。また、表示された複数の領域のうち、決定された第2の条件を満たす領域が必要領域または不要領域として決定される。表示された複数の領域のうち、必要領域以外の領域または不要領域を削除する処理が行われる。このように、使用者は、画像中の複数の領域のうち所望の領域を削除する処理を容易に行うことが可能となる。 In this image processing apparatus, a plurality of areas extracted based on the first condition in an image based on image data are displayed on the screen of the display unit . Selection of areas by the specified position on the screen of the display unit by the user among the extracted plurality of regions accepts et al is based on the first condition. Based on the geometric feature information including at least one of the area and shape information of the region selected by the designation of the position on the screen of the display unit by the user , and the length of the predetermined portion, A second condition for maintenance or deletion is determined. In addition, among the displayed areas, an area that satisfies the determined second condition is determined as a necessary area or an unnecessary area. Of the plurality of displayed areas, a process other than a necessary area or an unnecessary area is deleted. In this way, the user can easily perform a process of deleting a desired area among a plurality of areas in the image.

(2)処理部は、選択された領域に関する幾何的な特徴情報の値に基づいて定められる範囲を条件として決定し、表示部に表示された複数の領域のうち範囲内の幾何的な特徴情報の値を有する領域を必要領域または不要領域として決定するように動作してもよい。 (2) The processing unit determines a range determined based on the value of the geometric feature information regarding the selected region as a condition, and geometric feature information within the range among the plurality of regions displayed on the display unit It may operate to determine a region having the value of as a necessary region or an unnecessary region.

この場合、使用者は、特定の幾何的な特徴情報の値を有する領域を選択することにより、一定の範囲の幾何的な特徴情報の値を有する領域を容易に維持または削除することができる。 In this case, the user can easily maintain or delete a region having a certain range of geometric feature information values by selecting a region having a specific geometric feature information value.

(3)処理部は、表示部により表示された領域の幾何的な特徴情報を示す表、操作部の操作により選択された領域の一覧画像または操作部の操作により選択された領域の幾何的な特徴情報の分布を示す図を表示部に表示させ、領域の処理の結果に基づいて表、一覧画像または図を更新するように動作してもよい。 (3) The processing unit includes a table indicating geometric feature information of the region displayed by the display unit, a list image of the region selected by the operation of the operation unit, or a geometric of the region selected by the operation of the operation unit. A figure showing the distribution of the feature information may be displayed on the display unit, and the table, the list image, or the figure may be updated based on the result of the region processing.

この場合、使用者は、表、一覧画像または図を参照することにより、処理後の領域の幾何的な特徴情報、画像または分布を容易に認識することができる。 In this case, the user can easily recognize the geometric feature information, image, or distribution of the processed region by referring to the table, the list image, or the diagram.

(4)処理部は、操作部の操作により表、一覧画像または図において幾何的な特徴情報が指定された場合に、表示部に表示された複数の領域のうち指定された幾何的な特徴情報に対応する領域を特定するように動作してもよい。 (4) processing unit, the table by the operation of the operation unit, when the geometric feature information is specified in the list image or figure, geometric characteristics information specified among the plurality of areas displayed on the display unit The operation may be performed so as to specify the region corresponding to.

この場合、使用者は、表、一覧画像または図の幾何的な特徴情報を指定することにより、指定した幾何的な特徴情報に対応する領域を容易に認識することができる。 In this case, the user table, by specifying the geometric feature information of the list image or figure, can easily recognize the region corresponding to the specified geometric feature information.

(5)処理部は、操作部の操作により表示部に表示された複数の領域のいずれかが指定された場合に、表、一覧画像または図において指定された領域に対応する幾何的な特徴情報を特定するように動作してもよい。 (5) The processing unit, when any of a plurality of regions displayed on the display unit is designated by an operation of the operation unit, geometric feature information corresponding to the region designated in the table, the list image, or the figure May be operated to identify.

この場合、使用者は、複数の領域のいずれかを指定することにより、指定した領域に対応する幾何的な特徴情報を容易に認識することができる。 In this case, the user can easily recognize the geometric feature information corresponding to the designated area by designating any of the plurality of areas.

(6)第1の条件は、画像データの輝度に対して設定されるしきい値であってもよい。 (6) The first condition may be a threshold set for the brightness of the image data .

(7)処理部は、表示部に表示された複数の領域のうち、処理による変化前または変化後の領域を他の領域と異なる表示態様で表示部に表示させるように動作してもよい。この場合、使用者は処理が行われる領域または処理が行われた領域を容易に認識することができる。   (7) The processing unit may operate to cause the display unit to display a region before or after the change due to the processing in a display manner different from other regions among the plurality of regions displayed on the display unit. In this case, the user can easily recognize the area where the process is performed or the area where the process is performed.

(8)第2の発明に係る画像処理プログラムは、画像データに基づく画像において抽出される第1の条件に基づいて複数の領域を表示部の画面に表示するための処理と、第1の条件に基づいて抽出された複数の領域のうち使用者による表示部の画面上の位置の指定による領域の選択を受け付ける処理と、使用者による表示部の画面上の位置の指定により選択された領域の面積、形状に関する情報、および予め定められた部分の長さのうち少なくとも1つを含む幾何的な特徴情報に基づいて領域の維持または削除の第2の条件を決定し、表示された複数の領域のうち、決定された第2の条件を満たす領域を必要領域または不要領域として決定し、表示された複数の領域のうち、必要領域以外の領域または不要領域を削除する処理を行う処理とを、処理装置に実行させるものである。 (8) An image processing program according to the second invention includes a process for displaying a plurality of areas on the screen of the display unit based on a first condition extracted from an image based on image data, and the first condition a process of accepting an selection area by specifying the position on the screen of the I that display to the user among the plurality of regions extracted based on, is selected by specifying the position on the screen of the display unit by the user The second condition for maintaining or deleting the region is determined and displayed based on information on the area and shape of the region and geometric feature information including at least one of the length of a predetermined portion. Processing for determining a region satisfying the determined second condition as a necessary region or an unnecessary region among a plurality of regions, and performing processing for deleting a region other than the necessary region or an unnecessary region among the plurality of displayed regions And It is intended to be executed by the processor.

この画像処理プログラムによれば、画像データに基づく画像において第1の条件に基づいて抽出される複数の領域が表示部の画面に表示される。第1の条件に基づいて抽出された複数の領域のうち使用者による表示部の画面上の位置の指定による領域の選択が受け付けられる。使用者による表示部の画面上の位置の指定により選択された領域の面積、形状に関する情報、および予め定められた部分の長さのうち少なくとも1つを含む幾何的な特徴情報に基づいて領域の維持または削除の第2の条件が決定される。また、表示された複数の領域のうち、決定された第2の条件を満たす領域が必要領域または不要領域として決定される。表示された複数の領域のうち、必要領域以外の領域または不要領域を削除する処理が行われる。このように、使用者は、画像中の複数の領域のうち所望の領域を削除する処理を容易に行うことが可能となる。
(9)第3の発明に係る拡大観察装置は、観察対象を撮像するための撮像装置を有する顕微鏡と、撮像装置からの観察対象に関する画像データに基づく画像において第1の条件に基づいて抽出される複数の領域を表示するための表示部と、表示部に表示された複数の領域のいずれかを選択するために使用者により操作される操作部と、第1の条件に基づいて抽出された複数の領域のうち操作部の操作による表示部の画面上の位置の指定により選択された領域の面積、形状に関する情報、および予め定められた部分の長さのうち少なくとも1つを含む幾何的な特徴情報に基づいて領域の維持または削除の第2の条件を決定し、表示部に表示された複数の領域のうち、決定された第2の条件を満たす領域を必要領域または不要領域として決定し、表示部に表示された複数の領域のうち、必要領域以外の領域または不要領域を削除する処理を行うように動作する処理部とを備えるものである。
According to this image processing program, a plurality of regions extracted based on the first condition in an image based on image data are displayed on the screen of the display unit . Selection of areas by the specified position on the screen of the display unit by the user among the extracted plurality of regions accepts et al is based on the first condition. Based on the geometric feature information including at least one of the area and shape information of the region selected by the designation of the position on the screen of the display unit by the user , and the length of the predetermined portion, A second condition for maintenance or deletion is determined. In addition, among the displayed areas, an area that satisfies the determined second condition is determined as a necessary area or an unnecessary area. Of the plurality of displayed areas, a process other than a necessary area or an unnecessary area is deleted. In this way, the user can easily perform a process of deleting a desired area among a plurality of areas in the image.
(9) A magnification observation apparatus according to a third aspect is extracted based on a first condition in an image based on a microscope having an imaging apparatus for imaging an observation target and image data relating to the observation target from the imaging apparatus. A display unit for displaying a plurality of regions, an operation unit operated by a user to select one of the plurality of regions displayed on the display unit, and extracted based on the first condition Geometric including at least one of area, shape information, and predetermined part length of region selected by designating position on screen of display unit by operation of operation unit among a plurality of regions A second condition for maintaining or deleting the area is determined based on the feature information, and an area satisfying the determined second condition is determined as a necessary area or an unnecessary area among the plurality of areas displayed on the display unit. , Among a plurality of areas displayed on radical 113, in which and a processing unit operable to perform a process of deleting the area or the unnecessary area other than the necessary region.

本発明によれば、画像中の複数の領域のうち所望の領域を削除する処理を容易に行うことができる。   According to the present invention, it is possible to easily perform a process of deleting a desired area among a plurality of areas in an image.

本発明の一実施の形態に係る画像処理装置を備えた拡大観察装置の構成を示すブロック図である。It is a block diagram which shows the structure of the magnification observation apparatus provided with the image processing apparatus which concerns on one embodiment of this invention. 本発明の一実施の形態に係る画像処理装置を備えた拡大観察装置の顕微鏡を示す斜視図である。It is a perspective view which shows the microscope of the magnification observation apparatus provided with the image processing apparatus which concerns on one embodiment of this invention. 顕微鏡の撮像装置がZ方向と平行に固定されている状態を示す模式図である。It is a mimetic diagram showing the state where the imaging device of a microscope is being fixed in parallel with the Z direction. 顕微鏡の撮像装置がZ方向から所望の角度まで傾斜された状態を示す模式図である。It is a schematic diagram which shows the state in which the imaging device of the microscope was tilted from the Z direction to a desired angle. 表示部の画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen of a display part. 第1の処理例を説明するための模式図である。It is a schematic diagram for demonstrating the 1st process example. 第1の処理例を説明するための模式図である。It is a schematic diagram for demonstrating the 1st process example. 画像処理装置による第1の処理例である加工処理を示すフローチャートである。It is a flowchart which shows the process which is the 1st process example by an image processing apparatus. 画像処理装置による第1の処理例である加工処理を示すフローチャートである。It is a flowchart which shows the process which is the 1st process example by an image processing apparatus. 表示部の画面の他の例を示す模式図である。It is a schematic diagram which shows the other example of the screen of a display part. 第2の処理例を説明するための模式図である。It is a schematic diagram for demonstrating the 2nd process example. 第2の処理例を説明するための模式図である。It is a schematic diagram for demonstrating the 2nd process example. 画像処理装置による第2の処理例である削除処理を示すフローチャートである。It is a flowchart which shows the deletion process which is a 2nd process example by an image processing apparatus. 画像処理装置による第2の処理例である削除処理を示すフローチャートである。It is a flowchart which shows the deletion process which is a 2nd process example by an image processing apparatus. 表示部の画面のさらに他の例を示す模式図である。It is a schematic diagram which shows the further another example of the screen of a display part. 必要領域および不要領域の決定後の初期画像を示す模式図である。It is a schematic diagram which shows the initial image after determination of a required area | region and an unnecessary area | region. 計測結果表が表示された表示部を示す模式図である。It is a schematic diagram which shows the display part by which the measurement result table | surface was displayed. 計測結果表の拡大図である。It is an enlarged view of a measurement result table. 抽出画像一覧表が表示された表示部を示す模式図である。It is a schematic diagram which shows the display part on which the extracted image list was displayed. 図19の抽出画像一覧表の拡大図である。FIG. 20 is an enlarged view of the extracted image list in FIG. 19. ヒストグラム画像が表示された表示部を示す模式図である。It is a schematic diagram which shows the display part on which the histogram image was displayed. 図21のヒストグラム画像の拡大図である。It is an enlarged view of the histogram image of FIG.

以下、本発明の一実施の形態に係る画像処理装置を備えた拡大観察装置について図面を参照しながら説明する。   Hereinafter, a magnification observation apparatus provided with an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

(1)拡大観察装置の構成
図1は、本発明の一実施の形態に係る画像処理装置を備えた拡大観察装置の構成を示すブロック図である。
(1) Configuration of Magnification Observation Device FIG. 1 is a block diagram showing a configuration of a magnification observation device provided with an image processing device according to an embodiment of the present invention.

以下において、水平面内で直交する2方向をX方向およびY方向とし、X方向およびY方向に垂直な方向(鉛直方向)をZ方向とする。   Hereinafter, two directions orthogonal to each other in the horizontal plane are defined as an X direction and a Y direction, and a direction (vertical direction) perpendicular to the X direction and the Y direction is defined as a Z direction.

図1に示すように、拡大観察装置300は、顕微鏡100および画像処理装置200を備える。   As shown in FIG. 1, the magnification observation apparatus 300 includes a microscope 100 and an image processing apparatus 200.

顕微鏡100は、撮像装置10、ステージ装置20および回転角度センサ30を含む。撮像装置10は、カラーCCD(電荷結合素子)11、ハーフミラー12、対物レンズ13、A/D変換器(アナログ/デジタル変換器)15、照明用光源16およびレンズ駆動部17を含む。ステージ装置20は、ステージ21、ステージ駆動部22およびステージ支持部23を含む。ステージ21上には、観察対象物Sが載置される。   The microscope 100 includes an imaging device 10, a stage device 20, and a rotation angle sensor 30. The imaging device 10 includes a color CCD (charge coupled device) 11, a half mirror 12, an objective lens 13, an A / D converter (analog / digital converter) 15, an illumination light source 16, and a lens driving unit 17. The stage apparatus 20 includes a stage 21, a stage drive unit 22, and a stage support unit 23. An observation object S is placed on the stage 21.

照明用光源16は、例えば白色光を発生するハロゲンランプまたは白色LED(発光ダイオード)である。照明用光源16により発生された白色光は、ハーフミラー12により反射された後、対物レンズ13によりステージ21上の観察対象物Sに集光される。   The illumination light source 16 is, for example, a halogen lamp that generates white light or a white LED (light emitting diode). The white light generated by the illumination light source 16 is reflected by the half mirror 12 and then focused on the observation object S on the stage 21 by the objective lens 13.

観察対象物Sにより反射された白色光は、対物レンズ13およびハーフミラー12を透過してカラーCCD11に入射する。カラーCCD11は、赤色波長の光を受光する複数の赤色用画素、緑色波長の光を受光する複数の緑色用画素、および青色波長の光を受光する複数の青色用画素を有する。複数の赤色用画素、複数の緑色用画素および複数の青色用画素は二次元的に配列される。カラーCCD11の各画素からは、受光量に対応する電気信号が出力される。カラーCCD11の出力信号は、A/D変換器15によりデジタル信号に変換される。A/D変換器15から出力されるデジタル信号は、画像データとして画像処理装置200に順次与えられる。カラーCCD11に代えてCMOS(相補性金属酸化膜半導体)イメージセンサ等の撮像素子が用いられてもよい。   The white light reflected by the observation object S passes through the objective lens 13 and the half mirror 12 and enters the color CCD 11. The color CCD 11 includes a plurality of red pixels that receive red wavelength light, a plurality of green pixels that receive green wavelength light, and a plurality of blue pixels that receive blue wavelength light. The plurality of red pixels, the plurality of green pixels, and the plurality of blue pixels are two-dimensionally arranged. From each pixel of the color CCD 11, an electrical signal corresponding to the amount of received light is output. The output signal of the color CCD 11 is converted into a digital signal by the A / D converter 15. Digital signals output from the A / D converter 15 are sequentially supplied to the image processing apparatus 200 as image data. An imaging element such as a CMOS (complementary metal oxide semiconductor) image sensor may be used instead of the color CCD 11.

対物レンズ13は、Z方向に移動可能に設けられる。レンズ駆動部17は、画像処理装置200の制御により対物レンズ13をZ方向に移動させる。それにより、撮像装置10の焦点の位置がZ方向において移動する。   The objective lens 13 is provided so as to be movable in the Z direction. The lens driving unit 17 moves the objective lens 13 in the Z direction under the control of the image processing apparatus 200. Thereby, the position of the focus of the imaging device 10 moves in the Z direction.

ステージ21は、Z方向の軸の周りで回転可能にステージ支持部23上に設けられる。ステージ駆動部22は、画像処理装置200から与えられる移動指令信号(駆動パルス)に基づいてステージ21をステージ支持部23に対して相対的に後述するx方向およびy方向に移動させる。ステージ駆動部22には、ステッピングモータが用いられる。回転角度センサ30は、ステージ21の回転角度を検出し、検出した角度を示す角度検出信号を画像処理装置200に与える。   The stage 21 is provided on the stage support 23 so as to be rotatable around an axis in the Z direction. The stage drive unit 22 moves the stage 21 relative to the stage support unit 23 in the x direction and the y direction, which will be described later, based on a movement command signal (drive pulse) given from the image processing apparatus 200. A stepping motor is used for the stage drive unit 22. The rotation angle sensor 30 detects the rotation angle of the stage 21 and gives an angle detection signal indicating the detected angle to the image processing apparatus 200.

画像処理装置200は、インタフェース210、CPU(中央演算処理装置)220、ROM(リードオンリメモリ)230、記憶装置240、入力装置250、表示部260および作業用メモリ270を含む。   The image processing apparatus 200 includes an interface 210, a CPU (Central Processing Unit) 220, a ROM (Read Only Memory) 230, a storage device 240, an input device 250, a display unit 260, and a work memory 270.

ROM230には、システムプログラムが記憶される。記憶装置240は、ハードディスク等からなる。記憶装置240には、画像処理プログラムが記憶されるとともに、顕微鏡100からインタフェース210を通して与えられる画像データ等の種々のデータを記憶する。画像処理プログラムの詳細は後述する。入力装置250は、キーボードおよびポインティングデバイスを含む。ポインティングデバイスとしては、マウスまたはジョイスティック等が用いられる。   The ROM 230 stores a system program. The storage device 240 is composed of a hard disk or the like. The storage device 240 stores an image processing program and various data such as image data given from the microscope 100 through the interface 210. Details of the image processing program will be described later. The input device 250 includes a keyboard and a pointing device. A mouse or a joystick is used as the pointing device.

表示部260は、例えば液晶ディスプレイパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。   The display unit 260 is configured by, for example, a liquid crystal display panel or an organic EL (electroluminescence) panel.

作業用メモリ270は、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。   The working memory 270 includes a RAM (Random Access Memory), and is used for processing various data.

CPU220は、記憶装置240に記憶された画像処理プログラムを実行することにより作業用メモリ270を用いて画像データに基づく後述する加工処理または削除処理等の画像処理を行うとともに、画像データに基づく画像を表示部260に表示させる。また、CPU220は、インタフェース210を通して顕微鏡100のカラーCCD11、照明用光源16、レンズ駆動部17およびステージ駆動部22を制御する。   The CPU 220 executes an image processing program stored in the storage device 240 to perform image processing such as processing or deletion processing, which will be described later, based on the image data using the work memory 270, and also performs an image processing based on the image data. It is displayed on the display unit 260. In addition, the CPU 220 controls the color CCD 11, the illumination light source 16, the lens driving unit 17, and the stage driving unit 22 of the microscope 100 through the interface 210.

図2は、本発明の一実施の形態に係る拡大観察装置300の顕微鏡100を示す斜視図である。図2においては、X方向、Y方向およびZ方向が矢印で示される。   FIG. 2 is a perspective view showing the microscope 100 of the magnification observation apparatus 300 according to the embodiment of the present invention. In FIG. 2, the X direction, the Y direction, and the Z direction are indicated by arrows.

図2に示すように、顕微鏡100はベース1を有する。ベース1上には、第1の支持台2が取り付けられるとともに、この第1の支持台2の前面に嵌め込まれるように第2の支持台3が取り付けられる。   As shown in FIG. 2, the microscope 100 has a base 1. On the base 1, a first support base 2 is attached, and a second support base 3 is attached so as to be fitted on the front surface of the first support base 2.

第1の支持台2の上端部には、連結部4がY方向に延びる回動軸R1の周りに回動可能に取り付けられる。連結部4には回動支柱5が取り付けられる。それにより、回動支柱5は連結部4の回動に伴って回動軸R1を支点としてZ方向に平行な垂直面内で傾斜可能である。使用者は、固定つまみ9により連結部4を第1の支持台2に対して固定することができる。   A connecting portion 4 is attached to the upper end portion of the first support base 2 so as to be rotatable around a rotation axis R1 extending in the Y direction. A rotating column 5 is attached to the connecting portion 4. Thereby, the rotation support column 5 can be tilted in a vertical plane parallel to the Z direction with the rotation axis R1 as a fulcrum as the connection portion 4 rotates. The user can fix the connecting portion 4 to the first support base 2 with the fixing knob 9.

連結部6の前面には環状の支持部7が取り付けられる。支持部7には、略円筒状の撮像装置10が取り付けられる。図2の状態では、撮像装置10の光軸R2はZ方向に平行である。支持部7は、撮像装置10を水平面内で移動させるための複数の調整ネジ41を有する。複数の調整ネジ41を用いて撮像装置10の光軸R2が回動軸R1に垂直に交差するように撮像装置10の位置を調整することができる。   An annular support portion 7 is attached to the front surface of the connecting portion 6. A substantially cylindrical imaging device 10 is attached to the support portion 7. In the state of FIG. 2, the optical axis R2 of the imaging device 10 is parallel to the Z direction. The support unit 7 includes a plurality of adjustment screws 41 for moving the imaging device 10 in a horizontal plane. The position of the imaging device 10 can be adjusted using the plurality of adjustment screws 41 so that the optical axis R2 of the imaging device 10 intersects the rotation axis R1 perpendicularly.

ベース1上の第2の支持台3の前面には、Z方向に摺動可能にスライダ8が取り付けられる。第2の支持台3の側面には、調整つまみ42が設けられる。スライダ8のZ方向(高さ方向)の位置は、調整つまみ42により調整可能である。   A slider 8 is attached to the front surface of the second support 3 on the base 1 so as to be slidable in the Z direction. An adjustment knob 42 is provided on the side surface of the second support base 3. The position of the slider 8 in the Z direction (height direction) can be adjusted by the adjustment knob 42.

ステージ装置20のステージ支持部23は、スライダ8上に取り付けられる。ステージ21は、ステージ支持部23に対してZ方向の回転軸R3の周りに回転可能に設けられる。また、ステージ21には、水平面内で互いに直交するx方向およびy方向が設定される。ステージ21は、図1のステージ駆動部22によりx方向およびy方向に移動可能に設けられる。ステージ21が回転軸R3の周りに回転すると、ステージ21のx方向およびy方向も回転する。それにより、ステージ21のx方向およびy方向は、X方向およびY方向に対して水平面内で傾斜する。   The stage support 23 of the stage device 20 is attached on the slider 8. The stage 21 is provided so as to be rotatable around a rotation axis R3 in the Z direction with respect to the stage support portion 23. The stage 21 is set with an x direction and ay direction that are orthogonal to each other in the horizontal plane. The stage 21 is provided to be movable in the x direction and the y direction by the stage driving unit 22 of FIG. When the stage 21 rotates around the rotation axis R3, the x direction and the y direction of the stage 21 also rotate. Thereby, the x direction and the y direction of the stage 21 are inclined in the horizontal plane with respect to the X direction and the Y direction.

撮像装置10の撮像範囲(視野範囲)は、撮像装置10の倍率により異なる。以下、撮像装置10の撮像範囲を単位領域と呼ぶ。ステージ21をx方向およびy方向に移動させることにより複数の単位領域の画像データを取得することができる。複数の単位領域の画像データを連結することにより複数の単位領域の画像を図1の表示部260に表示することができる。   The imaging range (field-of-view range) of the imaging device 10 varies depending on the magnification of the imaging device 10. Hereinafter, the imaging range of the imaging device 10 is referred to as a unit region. Image data of a plurality of unit regions can be acquired by moving the stage 21 in the x direction and the y direction. By connecting the image data of a plurality of unit areas, the images of the plurality of unit areas can be displayed on the display unit 260 in FIG.

図3は顕微鏡100の撮像装置10がZ方向と平行に固定されている状態を示す模式図である。また、図4は顕微鏡100の撮像装置10がZ方向から所望の角度まで傾斜された状態を示す模式図である。   FIG. 3 is a schematic diagram illustrating a state in which the imaging device 10 of the microscope 100 is fixed in parallel with the Z direction. FIG. 4 is a schematic diagram showing a state in which the imaging device 10 of the microscope 100 is tilted from the Z direction to a desired angle.

図3に示すように、回動支柱5がZ方向に平行な状態で固定つまみ9を締めることにより連結部4が第2の支持台3に固定される。それにより、撮像装置10の光軸R2がZ方向に平行な状態で回動軸R1に垂直に交差する。この場合、撮像装置10の光軸R2はステージ21の表面に垂直となる。   As shown in FIG. 3, the connecting portion 4 is fixed to the second support 3 by tightening the fixing knob 9 with the rotating support column 5 parallel to the Z direction. Thereby, the optical axis R2 of the imaging device 10 intersects the rotation axis R1 perpendicularly in a state parallel to the Z direction. In this case, the optical axis R2 of the imaging device 10 is perpendicular to the surface of the stage 21.

固定つまみ9を緩めることにより連結部4が回動軸R1の周りに回動可能となり、回動支柱5が回動軸R1を支点として傾斜可能となる。それにより、図4に示すように、撮像装置10の光軸R2をZ方向に対して任意の角度θ傾斜させることができる。この場合、撮像装置10の光軸R2は回動軸R1に垂直に交差する。同様にして、撮像装置10の光軸R2をZ方向に対して図4と逆側に任意の角度傾斜させることができる。   By loosening the fixing knob 9, the connecting portion 4 can be rotated around the rotation axis R1, and the rotation column 5 can be tilted about the rotation axis R1. Thereby, as shown in FIG. 4, the optical axis R2 of the imaging device 10 can be inclined at an arbitrary angle θ with respect to the Z direction. In this case, the optical axis R2 of the imaging device 10 intersects the rotation axis R1 perpendicularly. Similarly, the optical axis R2 of the imaging device 10 can be tilted at an arbitrary angle on the opposite side to FIG. 4 with respect to the Z direction.

したがって、ステージ21上の観察対象物の表面の高さを回動軸R1の高さに一致させることにより、観察対象物の同じ部分を垂直な方向および斜め方向から観察することができる。   Therefore, by matching the height of the surface of the observation object on the stage 21 with the height of the rotation axis R1, the same portion of the observation object can be observed from the vertical direction and the oblique direction.

(2)画像処理装置による第1の処理例
図5は、表示部260の画面の一例を示す模式図である。図6および図7は、第1の処理例を説明するための模式図である。図5に示すように、表示部260の画面上には、画像表示領域261および抽出条件設定領域262が表示される。
(2) First Processing Example by Image Processing Device FIG. 5 is a schematic diagram illustrating an example of a screen of the display unit 260. 6 and 7 are schematic diagrams for explaining the first processing example. As shown in FIG. 5, an image display area 261 and an extraction condition setting area 262 are displayed on the screen of the display unit 260.

画像表示領域261には、図1の記憶装置240に記憶される画像データに基づいて観察対象物の画像が表示される。画像は、複数の画素から構成される。以下、記憶装置240に記憶される画像データに基づいて画像表示領域261に表示される画像を初期画像IMと呼ぶ。抽出条件設定領域262には、次へボタン263a、戻るボタン263bおよび終了ボタン263c等が表示される。また、抽出条件設定領域262には、しきい値設定バー264が表示される。しきい値設定バー264は、水平方向に移動可能なスライダ264sを有する。さらに、抽出条件設定領域262には、計測結果表示ボタン265、抽出画像一覧表示ボタン266およびヒストグラム表示ボタン267が表示される。   In the image display area 261, an image of the observation object is displayed based on the image data stored in the storage device 240 of FIG. An image is composed of a plurality of pixels. Hereinafter, an image displayed in the image display area 261 based on the image data stored in the storage device 240 is referred to as an initial image IM. In the extraction condition setting area 262, a next button 263a, a return button 263b, an end button 263c, and the like are displayed. Further, a threshold setting bar 264 is displayed in the extraction condition setting area 262. The threshold setting bar 264 has a slider 264s that can move in the horizontal direction. Furthermore, in the extraction condition setting area 262, a measurement result display button 265, an extracted image list display button 266, and a histogram display button 267 are displayed.

図5においては、初期画像IMの異なる領域が複数のドットパターンおよびハッチングパターンにより表されている。具体的には、領域A1〜A8が第1のドットパターンで表されている。他の複数のブロブからなる領域B1〜B3がハッチングパターンで表されている。背景の領域Xが第2のドットパターンで表されている。ここで、各領域は、連続した一または複数の画素から構成される。領域Xの輝度が最も高く、領域B1〜B3の輝度が2番目に高く、領域A1〜A8の輝度が最も低い。   In FIG. 5, different regions of the initial image IM are represented by a plurality of dot patterns and hatching patterns. Specifically, the areas A1 to A8 are represented by the first dot pattern. Regions B1 to B3 made up of a plurality of other blobs are represented by hatching patterns. A background area X is represented by a second dot pattern. Here, each region is composed of one or a plurality of continuous pixels. Region X has the highest luminance, regions B1 to B3 have the second highest luminance, and regions A1 to A8 have the lowest luminance.

本実施の形態に係る画像処理装置200においては、初期画像IMから輝度に基づいて複数の領域が抽出される。この場合、初期画像IMが輝度のしきい値(以下、しきい値と略記する。)を用いて2値化されることにより、複数の領域が抽出される。例えば、しきい値以下の輝度値を有する画素により構成される領域が抽出される。使用者は、図1の入力装置250を用いて、しきい値設定バー264のスライダ264s水平方向に移動することによりしきい値を設定することができる。本実施の形態においては、抽出された領域の画素は“1”で表され、他の領域の画素は“0”で表される。   In image processing apparatus 200 according to the present embodiment, a plurality of regions are extracted from initial image IM based on luminance. In this case, the initial image IM is binarized using a luminance threshold value (hereinafter abbreviated as a threshold value), whereby a plurality of regions are extracted. For example, a region composed of pixels having a luminance value equal to or less than a threshold value is extracted. The user can set the threshold by moving the slider 264s in the threshold setting bar 264 in the horizontal direction using the input device 250 of FIG. In the present embodiment, pixels in the extracted area are represented by “1”, and pixels in other areas are represented by “0”.

図5の例では、使用者は、複数の領域A1〜A8と領域B1〜B3,Xとを区別する適切なしきい値を設定することにより、初期画像IMから複数の領域A1〜A8のみを抽出することができる。領域A1,A2,A5,A6は、それぞれくびれ部分a1,a2,a5,a6を有する。ここで、くびれ部分とは、他の部分に比べて小さい幅を有する部分である。   In the example of FIG. 5, the user extracts only the plurality of regions A1 to A8 from the initial image IM by setting an appropriate threshold value for distinguishing the plurality of regions A1 to A8 and the regions B1 to B3 and X. can do. Regions A1, A2, A5, and A6 have constricted portions a1, a2, a5, and a6, respectively. Here, the constricted portion is a portion having a smaller width than other portions.

次に、抽出された複数の領域A1〜A8のうち所望の領域にその領域の状態を変化させる処理を行う。領域の状態を変化させる処理を加工処理と呼ぶ。加工処理は、例えば、1つの領域を複数の領域に分離する分離処理、複数の領域を1つの領域に結合する結合処理、領域を拡大する拡大処理、領域を縮小する縮小処理、領域の輝度、色相もしくは明度等を変化させる処理、またはぼかし処理等である。本例では、加工処理として、所望の領域A1,A2にくびれ部分で領域を分離する分離処理を行う。   Next, the process which changes the state of the area | region into the desired area | region among several extracted area | regions A1-A8 is performed. Processing that changes the state of the region is called processing. The processing includes, for example, separation processing for separating one region into a plurality of regions, combining processing for combining a plurality of regions into one region, enlargement processing for expanding a region, reduction processing for reducing a region, luminance of a region, For example, processing for changing the hue or brightness, or blurring processing. In this example, as a processing process, a separation process is performed in which desired areas A1 and A2 are separated from each other by a constricted portion.

この場合、複数の領域A1〜A8のうち所望の領域A1,A2のみに分離処理を行うためには、くびれ部分の寸法等の種々の条件を設定する必要がある。そのため、所望の領域A1,A2のみに分離処理を行うことは容易ではない。そこで、本実施の形態では、以下の方法で所望の領域A1,A2のみに分離処理を行うことができる。   In this case, in order to perform separation processing only on desired regions A1 and A2 among the plurality of regions A1 to A8, it is necessary to set various conditions such as the size of the constricted portion. Therefore, it is not easy to perform the separation process only on the desired areas A1 and A2. Therefore, in the present embodiment, separation processing can be performed only on desired regions A1 and A2 by the following method.

まず、使用者は、図1の入力装置250を用いて図5のしきい値設定バー264のスライダ264sを移動させることにより、初期画像IMから一または複数の領域を抽出するためのしきい値を設定する。使用者は、領域A1〜A8と他の領域B1〜B3,Xとを区別する適切なしきい値を設定することにより、領域A1〜A8のみを抽出することができる。   First, the user moves the slider 264s of the threshold setting bar 264 in FIG. 5 using the input device 250 in FIG. 1 to extract a threshold for extracting one or a plurality of regions from the initial image IM. Set. The user can extract only the areas A1 to A8 by setting an appropriate threshold value for distinguishing the areas A1 to A8 from the other areas B1 to B3 and X.

その後、使用者は、入力装置250を用いて図5の次へボタン263aを操作する。これにより、抽出された領域A1〜A8を表示するための抽出領域データが生成される。生成された抽出領域データは、図1の作業用メモリ270に記憶される。なお、使用者が入力装置250を用いて図5の戻るボタン263bを操作することにより、領域の抽出が解除される。これにより、使用者はしきい値を再設定することができる。   Thereafter, the user operates the next button 263 a in FIG. 5 using the input device 250. Thereby, extraction area data for displaying the extracted areas A1 to A8 is generated. The generated extraction area data is stored in the work memory 270 of FIG. When the user operates the return button 263b in FIG. 5 using the input device 250, the extraction of the area is canceled. Thereby, the user can reset the threshold value.

本実施の形態では、抽出された領域の画素は“1”で表され、他の領域の画素は“0”で表される。そのため、抽出された領域の画素すなわち“1”の画素が、初期画像IMに重なるように黒く表示される。図6(a)において、領域A1〜A8は抽出された領域であるため、作業用メモリ270に記憶された抽出領域データに基づいて領域A1〜A8が黒く表示されている。   In the present embodiment, pixels in the extracted area are represented by “1”, and pixels in other areas are represented by “0”. Therefore, the pixels in the extracted region, that is, the “1” pixels are displayed in black so as to overlap the initial image IM. In FIG. 6A, since the areas A1 to A8 are extracted areas, the areas A1 to A8 are displayed in black based on the extracted area data stored in the work memory 270.

次に、図6(b)に示すように、使用者は、入力装置250を用いて抽出された領域A1〜A8について矩形の選択範囲Rを指定する。それにより、選択範囲Rに含まれるか、または選択範囲Rの枠に交差する領域が選択される。本例においては、領域A1,A2の少なくとも一部を含みかつ領域A5,A6を含まない選択範囲Rが指定される。図6(b)の例においては、領域A1が選択範囲Rと交差する。また、領域A2〜A4が選択範囲Rに含まれる。そのため、使用者が入力装置250を用いて次へボタン263aを指定することにより、領域A1〜A4が選択される。以下、選択範囲Rの指定により選択された領域を選択領域と呼び、選択範囲Rの指定により選択されなかった領域を非選択領域と呼ぶ。選択領域を表示するための画像データは、選択領域データとして作業用メモリ270に記憶される。また、非選択領域を表示するための画像データは、非選択領域データとして作業用メモリ270に記憶される。   Next, as shown in FIG. 6B, the user designates a rectangular selection range R for the areas A <b> 1 to A <b> 8 extracted using the input device 250. Thereby, a region that is included in the selection range R or intersects the frame of the selection range R is selected. In this example, a selection range R that includes at least a part of the regions A1 and A2 and does not include the regions A5 and A6 is designated. In the example of FIG. 6B, the region A1 intersects the selection range R. Further, the areas A2 to A4 are included in the selection range R. Therefore, when the user designates the next button 263a using the input device 250, the areas A1 to A4 are selected. Hereinafter, an area selected by designating the selection range R is called a selection area, and an area not selected by designating the selection range R is called a non-selection area. Image data for displaying the selected area is stored in the work memory 270 as selected area data. Further, the image data for displaying the non-selected area is stored in the work memory 270 as non-selected area data.

使用者は、入力装置250を用いて選択範囲Rを再び指定した後、次へボタン263aを指定することにより、領域を再選択することができる。   The user can reselect the region by designating the selection range R again using the input device 250 and then designating the next button 263a.

本実施の形態では、選択領域の画素は“1”で表され、非選択領域の画素は“0”で表される。そのため、選択領域の画素すなわち“1”の画素が、初期画像IMに重なるように黒く表示される。図6(c)において、領域A1〜A4は選択領域であるため、作業用メモリ270に記憶された選択領域データに基づいて領域A1〜A4が黒く表示されている。   In the present embodiment, the pixel in the selected area is represented by “1”, and the pixel in the non-selected area is represented by “0”. Therefore, the pixel in the selected region, that is, the pixel “1” is displayed in black so as to overlap the initial image IM. In FIG. 6C, since the areas A1 to A4 are selection areas, the areas A1 to A4 are displayed in black based on the selection area data stored in the work memory 270.

次に、使用者は、入力装置250を用いてくびれ部分を有する領域の分離処理を指示する。これにより、選択された領域A1〜A4のうちくびれ部分を有する領域A1,A2に分離処理が行われる。その結果、図7(a)に示すように、領域A1は図5のくびれ部分a1を境界に領域A11および領域A12に分離される。また、領域A2は図5のくびれ部分a2を境界に領域A21および領域A22に分離される。作業用メモリ270に記憶される領域A1,A2に対応する選択領域データは、分離処理後の領域A11,A12,A21,A22を表示するための画像データにより更新される。   Next, the user uses the input device 250 to instruct the separation process of the region having the constricted portion. Thereby, the separation process is performed on the regions A1 and A2 having the constricted portion among the selected regions A1 to A4. As a result, as shown in FIG. 7A, the region A1 is separated into a region A11 and a region A12 with the constricted portion a1 in FIG. 5 as a boundary. The region A2 is divided into a region A21 and a region A22 with the constricted portion a2 in FIG. 5 as a boundary. The selection area data corresponding to the areas A1 and A2 stored in the work memory 270 is updated with image data for displaying the areas A11, A12, A21, and A22 after the separation processing.

本実施の形態においては、加工処理が行われた領域を強調表示することができる。図7(a)の例では、分離処理後の領域A11,A12,A21,A22が他の領域A3〜A8とは異なる色または輝度等の異なる表示態様により強調表示されている。これにより、使用者は分離処理が行われた領域を容易に認識することができる。   In the present embodiment, it is possible to highlight an area where the processing has been performed. In the example of FIG. 7A, the regions A11, A12, A21, and A22 after the separation processing are highlighted with different display modes such as colors and brightness different from those of the other regions A3 to A8. Thus, the user can easily recognize the area where the separation process has been performed.

その後、加工処理された領域が他の選択領域および非選択領域に合成される。本実施の形態では、合成後の領域の画素は“1”で表され、他の領域(抽出されなかった領域)の画素は“0”で表される。そのため、合成後の領域の画素すなわち“1”の画素が、初期画像IMに重なるように黒く表示される。図7(b)において、作業用メモリ270に記憶された抽出領域データに基づいて領域A11,A12,A21,A22,A3〜A8が黒く表示されている。   Thereafter, the processed region is combined with another selected region and a non-selected region. In the present embodiment, the pixel in the combined region is represented by “1”, and the pixels in other regions (regions that have not been extracted) are represented by “0”. Therefore, the pixel in the combined region, that is, the pixel “1” is displayed in black so as to overlap the initial image IM. In FIG. 7B, areas A11, A12, A21, A22, A3 to A8 are displayed in black based on the extracted area data stored in the work memory 270.

このようにして、抽出された領域A1〜A8のうち、領域A5,A6に分離処理が行われることなく、所望の領域A1,A2にのみ分離処理が行われる。   In this way, among the extracted areas A1 to A8, the separation process is performed only on the desired areas A1 and A2 without performing the separation process on the areas A5 and A6.

(3)加工処理
図8および図9は、画像処理装置200による第1の処理例である加工処理を示すフローチャートである。加工処理は、CPU220が記憶装置240に記憶された加工処理プログラムを実行することにより行われる。以下、図8および図9のフローチャートにしたがって、画像処理装置200による加工処理を説明する。
(3) Processing Processing FIGS. 8 and 9 are flowcharts showing processing processing that is a first processing example performed by the image processing apparatus 200. The processing is performed by the CPU 220 executing a processing program stored in the storage device 240. Hereinafter, the processing by the image processing apparatus 200 will be described with reference to the flowcharts of FIGS. 8 and 9.

図1のCPU220は、使用者により図1の記憶装置240に記憶された画像データが選択されたか否かを判定する(ステップS1)。画像データが選択されていない場合、CPU220は、使用者により画像データが選択されるまで待機する。ステップS1で使用者により画像データが選択された場合、CPU220は選択された画像データに基づいて初期画像IMを図5の表示部260の画像表示領域261に表示する(ステップS2)。   The CPU 220 in FIG. 1 determines whether or not the image data stored in the storage device 240 in FIG. 1 has been selected by the user (step S1). When no image data is selected, the CPU 220 waits until image data is selected by the user. When image data is selected by the user in step S1, the CPU 220 displays an initial image IM in the image display area 261 of the display unit 260 in FIG. 5 based on the selected image data (step S2).

次に、CPU220は、初期画像IMの2値化が指示されたか否かを判定する(ステップS3)。使用者は、図1の入力装置250を用いて図5のスライダ264sを移動させて適切なしきい値を設定した後、図5の次へボタン263aを操作することにより2値化を指示する。初期画像IMの2値化が指示されていない場合、CPU220は使用者により初期画像IMの2値化が指示されるまで待機する。   Next, the CPU 220 determines whether or not the binarization of the initial image IM has been instructed (step S3). The user uses the input device 250 in FIG. 1 to move the slider 264s in FIG. 5 to set an appropriate threshold value, and then operates the next button 263a in FIG. 5 to instruct binarization. When the binarization of the initial image IM is not instructed, the CPU 220 waits until the user instructs the binarization of the initial image IM.

ステップS3で使用者により初期画像IMの2値化が指示された場合、CPU220は初期画像IMの2値化を実行する(ステップS4)。これにより、CPU220は初期画像IMの2値化により抽出された領域を表示するための抽出領域データを生成する。また、CPU220は生成された抽出領域データに基づいて抽出された領域を図5の表示部260の画像表示領域261に表示する。   When the user instructs to binarize the initial image IM in step S3, the CPU 220 executes binarization of the initial image IM (step S4). As a result, the CPU 220 generates extracted area data for displaying the area extracted by the binarization of the initial image IM. Further, the CPU 220 displays an area extracted based on the generated extracted area data in the image display area 261 of the display unit 260 in FIG.

続いて、CPU220は、使用者が入力装置250を用いて選択範囲Rを指定することにより領域が選択されたか否かを判定する(ステップS5)。領域が選択されていない場合、CPU220は使用者により領域が選択されるまで待機する。ステップS5で使用者により領域が選択された場合、CPU220は選択領域を表示するための選択領域データおよび非選択領域を表示するための非選択領域データを生成し、生成された選択領域データおよび非選択領域データを図1の作業用メモリ270に記憶する(ステップS6)。   Subsequently, the CPU 220 determines whether or not an area has been selected by the user specifying the selection range R using the input device 250 (step S5). When the area is not selected, the CPU 220 waits until the user selects the area. When an area is selected by the user in step S5, the CPU 220 generates selected area data for displaying the selected area and non-selected area data for displaying the non-selected area, and the generated selected area data and non-selected area data. The selected area data is stored in the work memory 270 of FIG. 1 (step S6).

次に、CPU220は、使用者により選択領域の加工処理が指示されたか否かを判定する(ステップS7)。選択領域の加工処理が指示されていない場合、CPU220はステップS5の処理に戻る。これにより、使用者は領域を再選択することができる。ステップS7で使用者により選択領域の加工処理が指示された場合、CPU220は選択領域の加工処理を実行する(ステップS8)。図7の例においては、加工処理は、選択された領域のうちくびれ部分を有する領域の分離処理である。また、図7の例においては、加工処理が行われた領域が強調表示される。   Next, the CPU 220 determines whether or not the user has instructed processing of the selected area (step S7). If the processing of the selected area is not instructed, the CPU 220 returns to the process of step S5. Thereby, the user can re-select the area. When the user instructs processing of the selected area in step S7, the CPU 220 executes processing of the selected area (step S8). In the example of FIG. 7, the processing process is a separation process of an area having a constricted portion among selected areas. Moreover, in the example of FIG. 7, the area | region where the processing process was performed is highlighted.

その後、CPU220は、作業用メモリ270に記憶される選択領域データを加工処理後の選択領域データに更新する(ステップS9)。次に、CPU220は、非選択領域データと更新後の選択領域データとを合成する(ステップS10)。続いて、CPU220は、合成後の画像データに基づく画像を表示部260の画像表示領域261に表示し(ステップS11)、加工処理を終了する。   Thereafter, the CPU 220 updates the selection area data stored in the work memory 270 to the selection area data after the processing (step S9). Next, the CPU 220 synthesizes the non-selected area data and the updated selected area data (step S10). Subsequently, the CPU 220 displays an image based on the combined image data in the image display area 261 of the display unit 260 (step S11), and ends the processing process.

(4)加工処理の効果
本実施の形態に係る画像処理装置200においては、表示部260の画像表示領域261に表示される初期画像IMの複数の領域のうち、使用者が入力装置250を用いて選択範囲Rで指定した領域にのみ加工処理が行われる。これにより、使用者は、初期画像IM中の複数の領域のうち所望の領域の加工処理を容易に行うことが可能となる。
(4) Effects of Processing Processing In the image processing device 200 according to the present embodiment, the user uses the input device 250 among the plurality of regions of the initial image IM displayed in the image display region 261 of the display unit 260. Thus, the processing is performed only on the area designated by the selection range R. Thereby, the user can easily perform processing of a desired area among a plurality of areas in the initial image IM.

また、本実施の形態においては、選択範囲Rに含まれる領域のみでなく、選択範囲Rの枠に交差する領域も選択領域として指定される。これにより、領域が選択範囲Rの枠に交差する場合でも、選択範囲Rの枠の内側の領域および外側の領域に同一の加工処理が行われる。その結果、選択範囲Rの枠の内側の領域と外側の領域との境界が不連続または不自然になることが防止される。   In the present embodiment, not only a region included in the selection range R but also a region that intersects the frame of the selection range R is designated as the selection region. Thus, even when the region intersects the frame of the selection range R, the same processing is performed on the inner region and the outer region of the selection range R frame. As a result, it is possible to prevent the boundary between the inner area and the outer area of the frame of the selection range R from becoming discontinuous or unnatural.

(5)画像処理装置による第2の処理例
図10は、表示部260の画面の他の例を示す模式図である。図11および図12は、第2の処理例を説明するための模式図である。
(5) Second Processing Example by Image Processing Device FIG. 10 is a schematic diagram illustrating another example of the screen of the display unit 260. 11 and 12 are schematic diagrams for explaining the second processing example.

図10に示すように、表示部260の画像表示領域261には、図1の記憶装置240に記憶される画像データに基づいて初期画像IMとは異なる初期画像IM2が表示される。   As shown in FIG. 10, an initial image IM2 different from the initial image IM is displayed in the image display area 261 of the display unit 260 based on the image data stored in the storage device 240 of FIG.

図10においては、初期画像IM2の異なる領域が複数のドットパターンおよびハッチングパターンにより表されている。具体的には、領域C1〜C15が第1のドットパターンで表されている。領域D1〜D4がハッチングパターンで表されている。背景の領域Yが第2のドットパターンで表されている。ここで、各領域は、連続した一または複数の画素から構成される。領域Yの輝度が最も高く、領域D1〜D4の輝度が2番目に高く、領域C1〜C15の輝度が最も低い。   In FIG. 10, different areas of the initial image IM2 are represented by a plurality of dot patterns and hatching patterns. Specifically, the regions C1 to C15 are represented by the first dot pattern. Regions D1 to D4 are represented by hatching patterns. A background area Y is represented by a second dot pattern. Here, each region is composed of one or a plurality of continuous pixels. Region Y has the highest luminance, regions D1 to D4 have the second highest luminance, and regions C1 to C15 have the lowest luminance.

まず、使用者は、図1の入力装置250を用いて図10のしきい値設定バー264のスライダ264sを移動させることにより、初期画像IM2から複数の領域を抽出するためのしきい値を設定する。使用者は、領域C1〜C15と他の領域D1〜D4,Yとを区別する適切なしきい値を設定することにより、領域C1〜C15のみを抽出することができる。   First, the user sets a threshold for extracting a plurality of regions from the initial image IM2 by moving the slider 264s of the threshold setting bar 264 of FIG. 10 using the input device 250 of FIG. To do. The user can extract only the regions C1 to C15 by setting an appropriate threshold value for distinguishing the regions C1 to C15 from the other regions D1 to D4 and Y.

その後、使用者は、入力装置250を用いて図10の次へボタン263aを操作する。これにより、抽出された領域C1〜C15を表示するための抽出領域データが生成される。生成された抽出領域データは、図1の作業用メモリ270に記憶される。なお、使用者が入力装置250を用いて図10の戻るボタン263bを操作することにより、領域の抽出が解除される。これにより、使用者はしきい値を再設定することができる。   Thereafter, the user operates the next button 263 a in FIG. 10 using the input device 250. Thereby, extraction area data for displaying the extracted areas C1 to C15 is generated. The generated extraction area data is stored in the work memory 270 of FIG. When the user operates the return button 263b in FIG. 10 using the input device 250, the extraction of the area is canceled. Thereby, the user can reset the threshold value.

本実施の形態では、抽出された領域の画素は“1”で表され、他の領域の画素は“0”で表される。そのため、抽出された領域の画素すなわち“1”の画素が、初期画像IMに重なるように黒く表示される。図11(a)において、領域C1〜C15は抽出された領域であるため、作業用メモリ270に記憶された抽出領域データに基づいて領域C1〜C15が黒く表示されている。 In the present embodiment, pixels in the extracted area are represented by “1”, and pixels in other areas are represented by “0”. Therefore, pixels of the pixel of the extracted area or "1" is black displayed so as to overlap the initial image IM 2. In FIG. 11A, since the areas C1 to C15 are extracted areas, the areas C1 to C15 are displayed in black based on the extracted area data stored in the work memory 270.

第2の処理例では、抽出された複数の領域のうち所望の領域に削除処理が行われる。削除処理では、以下の方法で、複数の領域のうち維持すべき領域を必要領域として決定し、削除すべき領域を不要領域として決定する。   In the second processing example, the deletion process is performed on a desired area among the plurality of extracted areas. In the deletion process, an area to be maintained is determined as a necessary area among a plurality of areas by the following method, and an area to be deleted is determined as an unnecessary area.

図11(b)に示すように、使用者は、入力装置250を用いて抽出された領域C1〜C15のうちの特定の特徴情報を有する一の領域をカーソルCで選択する。図11(b)の例においては、領域C7がカーソルCで選択される。特徴情報は、領域の面積、領域の予め定められた部分の長さ、または領域の予め定められた部分と指定された範囲内の重心との間の距離であってもよい。また、特徴情報は、領域の形状に関する情報または領域の画素の値に関する情報であってもよい。さらに、領域が略楕円状である場合、特徴情報は長径と短径との比であってもよく、例えば円形度であってもよい。円形度は図形の円形への近さを表すパラメータであり、図形が円形に近いほど円形度は1に近づく。円形度は、領域の面積を領域の周囲長の2乗で除算し、さらに所定の係数(例えば4π)を乗算することにより算出される。画素の値は、輝度を表してもよく、色を表してもよく、輪郭成分を表してもよい。本例では、使用者は、領域の面積を特徴情報として予め入力装置250を用いて設定する。   As shown in FIG. 11B, the user selects one area having specific feature information among the areas C <b> 1 to C <b> 15 extracted using the input device 250 with the cursor C. In the example of FIG. 11B, the area C7 is selected with the cursor C. The feature information may be the area of the region, the length of a predetermined portion of the region, or the distance between the predetermined portion of the region and the center of gravity within a specified range. The feature information may be information related to the shape of the region or information related to the value of the pixel in the region. Further, when the region is substantially elliptical, the feature information may be a ratio between the major axis and the minor axis, for example, a circularity. The circularity is a parameter representing the proximity of the figure to the circle. The closer the figure is to a circle, the closer the degree of circle is to 1. The circularity is calculated by dividing the area of the region by the square of the peripheral length of the region and further multiplying by a predetermined coefficient (for example, 4π). The pixel value may represent luminance, color, or contour component. In this example, the user sets the area of the region as feature information in advance using the input device 250.

次に、選択された領域の特徴情報に基づいて領域の維持または削除の条件が決定される。本例では、カーソルCで選択された領域C7の面積に基づいて領域の削除の条件が決定される。例えば、領域の削除の条件は、領域C7の面積以下の面積を有することである。削除の条件を満たす領域が強調表示される。本例では、領域C1〜C3の面積は領域C7の面積よりも大きく、領域C4〜C6,C8〜C15の面積は領域C7の面積以下である。そのため、図11(b)の例では、領域C4〜C15が領域C1〜C3とは異なる色または輝度等の異なる表示態様により強調表示されている。これにより、使用者は削除処理が行われる領域を容易に認識することができる。   Next, a condition for maintaining or deleting the area is determined based on the feature information of the selected area. In this example, the condition for deleting the region is determined based on the area of the region C7 selected by the cursor C. For example, the condition for deleting a region is to have an area equal to or smaller than that of the region C7. Areas that meet the deletion criteria are highlighted. In this example, the areas of the regions C1 to C3 are larger than the area of the region C7, and the areas of the regions C4 to C6 and C8 to C15 are equal to or smaller than the area of the region C7. Therefore, in the example of FIG. 11B, the regions C4 to C15 are highlighted with different display modes such as colors or luminances different from the regions C1 to C3. Thus, the user can easily recognize the area where the deletion process is performed.

ここで、使用者は、入力装置250を用いて次へボタン263aを操作する。これにより、削除の条件を満たす領域が不要領域として決定され、削除の条件を満たさない領域が必要領域として決定される。本例では、領域C1〜C3が必要領域として決定され、領域C4〜C15が不要領域として決定される。また、必要領域である領域C1〜C3を表示するための必要領域データおよび不要領域である領域C4〜C15を表示するための不要領域データが生成される。生成された必要領域データおよび不要領域は、作業用メモリ270に記憶される。   Here, the user operates the next button 263 a using the input device 250. Thus, an area that satisfies the deletion condition is determined as an unnecessary area, and an area that does not satisfy the deletion condition is determined as a necessary area. In this example, the areas C1 to C3 are determined as necessary areas, and the areas C4 to C15 are determined as unnecessary areas. In addition, necessary area data for displaying the areas C1 to C3 which are necessary areas and unnecessary area data for displaying the areas C4 to C15 which are unnecessary areas are generated. The generated necessary area data and unnecessary area are stored in the work memory 270.

本実施の形態では、必要領域および不要領域の決定後においては、必要領域の画素は“1”で表され、他の領域の画素は“0”で表される。そのため、必要領域の画素すなわち“1”の画素が、初期画像IMに重なるように黒く表示される。図11(c)において、領域C1〜C3は必要領域であるため、作業用メモリ270に記憶された必要領域データに基づいて領域C1〜C3が黒く表示されている。 In the present embodiment, after determining the necessary area and the unnecessary area, the pixels in the necessary area are represented by “1”, and the pixels in the other areas are represented by “0”. Therefore, the pixels of the required pixel That area "1" is black displayed so as to overlap the initial image IM 2. In FIG. 11C, since the areas C1 to C3 are necessary areas, the areas C1 to C3 are displayed in black based on the necessary area data stored in the work memory 270.

削除すべき所望の領域が不要領域に含まれなかったため、または維持すべき領域が必要領域に含まれなかったため、必要領域および不要領域の決定をやり直したい場合がある。その場合、使用者は、入力装置250を用いて抽出された領域C1〜C15のうちの一の領域をカーソルCで再び指定することにより、必要領域および不要領域を再決定することができる。図12(a)の例においては、領域C15がカーソルCで指定される。領域C1〜C9の面積は領域C15の面積よりも大きく、領域C10〜C14の面積は領域C15の面積以下である。そのため、図12(a)の例では、領域C10〜C15が領域C1〜C9とは異なる色または輝度等の異なる表示態様により強調表示されている。   There is a case where it is desired to redo the determination of the necessary area and the unnecessary area because the desired area to be deleted is not included in the unnecessary area or the area to be maintained is not included in the necessary area. In that case, the user can re-determine the necessary area and the unnecessary area by designating again one of the areas C1 to C15 extracted using the input device 250 with the cursor C. In the example of FIG. 12A, the area C15 is designated by the cursor C. The areas of the regions C1 to C9 are larger than the area of the region C15, and the areas of the regions C10 to C14 are equal to or smaller than the area of the region C15. For this reason, in the example of FIG. 12A, the regions C10 to C15 are highlighted with different display modes such as colors or luminance different from the regions C1 to C9.

ここで、使用者は、入力装置250を用いて次へボタン263aを操作する。これにより、領域C1〜C9が必要領域として決定され、領域C10〜C15が不要領域として決定される。また、必要領域である領域C1〜C9を表示するための必要領域データおよび不要領域である領域C10〜C15を表示するための不要領域データが生成される。生成された必要領域データおよび不要領域は、作業用メモリ270に記憶される。図12(b)において、領域C1〜C9は必要領域であるため、作業用メモリ270に記憶された必要領域データに基づいて領域C1〜C9が黒く表示されている。   Here, the user operates the next button 263 a using the input device 250. Thereby, the areas C1 to C9 are determined as necessary areas, and the areas C10 to C15 are determined as unnecessary areas. Further, necessary area data for displaying the areas C1 to C9 which are necessary areas and unnecessary area data for displaying the areas C10 to C15 which are unnecessary areas are generated. The generated necessary area data and unnecessary area are stored in the work memory 270. In FIG. 12B, since the areas C1 to C9 are necessary areas, the areas C1 to C9 are displayed in black based on the necessary area data stored in the work memory 270.

使用者が入力装置250を用いて終了ボタン263cを操作すると、必要領域が維持され、不要領域が削除される。本例では、領域C1〜C9が維持され、領域C10〜C15が削除される。   When the user operates the end button 263c using the input device 250, the necessary area is maintained and the unnecessary area is deleted. In this example, the areas C1 to C9 are maintained, and the areas C10 to C15 are deleted.

このようにして、抽出された領域C1〜A15のうち、領域C1〜C9が維持されつつ、所望の領域C10〜C15に削除処理が行われる。   In this way, the deletion process is performed on the desired areas C10 to C15 while the areas C1 to C9 are maintained among the extracted areas C1 to A15.

なお、本例においては、削除の条件を満たす領域が不要領域として決定され、削除の条件を満たさない領域が必要領域として決定されるが、これに限定されない。維持の条件を満たす領域が必要領域として決定され、維持の条件を満たさない領域が不要領域として決定されてもよい。   In this example, an area that satisfies the deletion condition is determined as an unnecessary area, and an area that does not satisfy the deletion condition is determined as a necessary area. However, the present invention is not limited to this. An area that satisfies the maintenance condition may be determined as a necessary area, and an area that does not satisfy the maintenance condition may be determined as an unnecessary area.

また、本例においては、カーソルCにより選択された領域の面積以下の面積を有する領域が不要領域として決定されるが、これに限定されない。選択された領域の特徴情報の値と同一の特徴情報を有する領域が必要領域または不要領域として決定されてもよい。例えば、カーソルCにより選択された領域の面積と同一の面積を有する領域が必要領域として決定されてもよい。また、カーソルCにより選択された領域の面積と同一の面積を有する領域が不要領域として決定されてもよい。   In this example, a region having an area equal to or smaller than the area selected by the cursor C is determined as an unnecessary region, but the present invention is not limited to this. A region having the same feature information as the feature information value of the selected region may be determined as a necessary region or an unnecessary region. For example, a region having the same area as the region selected by the cursor C may be determined as the necessary region. A region having the same area as the region selected by the cursor C may be determined as an unnecessary region.

さらに、カーソルCにより選択された領域の面積以上の面積を有する領域が不要領域として決定されてもよい。カーソルCにより選択された領域の面積以下の面積を有する領域が必要領域として決定されてもよい。カーソルCにより選択された領域の面積以上の面積を有する領域が必要領域として決定されてもよい。   Furthermore, a region having an area larger than that of the region selected by the cursor C may be determined as an unnecessary region. A region having an area equal to or smaller than the area of the region selected by the cursor C may be determined as the necessary region. A region having an area larger than the area of the region selected by the cursor C may be determined as the necessary region.

(6)削除処理
図13および図14は、画像処理装置200による第2の処理例である削除処理を示すフローチャートである。削除処理は、CPU220が記憶装置240に記憶された削除処理プログラムを実行することにより行われる。以下、図13および図14のフローチャートにしたがって、画像処理装置200による削除処理を説明する。
(6) Deletion Process FIGS. 13 and 14 are flowcharts showing a deletion process that is a second process example performed by the image processing apparatus 200. The deletion process is performed by the CPU 220 executing a deletion process program stored in the storage device 240. Hereinafter, deletion processing by the image processing apparatus 200 will be described with reference to the flowcharts of FIGS. 13 and 14.

図1のCPU220は、使用者により図1の記憶装置240に記憶された画像データが選択されたか否かを判定する(ステップS21)。画像データが選択されていない場合、CPU220は、使用者により画像データが選択されるまで待機する。ステップS21で使用者により画像データが選択された場合、CPU220は選択された画像データに基づいて初期画像IM2を図10の表示部260の画像表示領域261に表示する(ステップS22)。   The CPU 220 in FIG. 1 determines whether or not the image data stored in the storage device 240 in FIG. 1 has been selected by the user (step S21). When no image data is selected, the CPU 220 waits until image data is selected by the user. When image data is selected by the user in step S21, the CPU 220 displays the initial image IM2 on the image display area 261 of the display unit 260 of FIG. 10 based on the selected image data (step S22).

次に、CPU220は、初期画像IM2の2値化が指示されたか否かを判定する(ステップS23)。使用者は、図1の入力装置250を用いて図10のスライダ264sを移動させて適切なしきい値を設定した後、図10の次へボタン263aを操作することにより2値化を指示する。初期画像IM2の2値化が指示されていない場合、CPU220は使用者により初期画像IM2の2値化が指示されるまで待機する。   Next, the CPU 220 determines whether or not the binarization of the initial image IM2 has been instructed (step S23). The user uses the input device 250 in FIG. 1 to move the slider 264s in FIG. 10 to set an appropriate threshold value, and then operates the next button 263a in FIG. 10 to instruct binarization. When the binarization of the initial image IM2 is not instructed, the CPU 220 waits until the user instructs the binarization of the initial image IM2.

ステップS23で使用者により初期画像IM2の2値化が指示された場合、CPU220は初期画像IM2の2値化を実行する(ステップS24)。これにより、CPU220は初期画像IM2の2値化により抽出された領域を表示するための抽出領域データを生成する。また、CPU220は生成された抽出領域データに基づいて抽出された領域を図10の表示部260の画像表示領域261に表示する。   When the user instructs the binarization of the initial image IM2 in step S23, the CPU 220 executes binarization of the initial image IM2 (step S24). As a result, the CPU 220 generates extracted area data for displaying the area extracted by the binarization of the initial image IM2. Further, the CPU 220 displays an area extracted based on the generated extracted area data in the image display area 261 of the display unit 260 in FIG.

続いて、CPU220は、使用者が入力装置250を用いて抽出された領域のうちの特定の特徴情報を有する一の領域をカーソルCで選択することにより領域が選択されたか否かを判定する(ステップS25)。領域が選択されていない場合、CPU220は使用者により領域が選択されるまで待機する。   Subsequently, the CPU 220 determines whether or not an area has been selected by selecting, with the cursor C, one area having specific feature information from among the areas extracted using the input device 250 ( Step S25). When the area is not selected, the CPU 220 waits until the user selects the area.

ステップS25で使用者により領域が選択された場合、CPU220は、選択された領域の特徴情報に基づいて領域の削除の条件を決定する(ステップS26)。図11および図12の例では、特徴情報はカーソルCで選択された領域の面積である。また、削除される領域の条件は、その領域がカーソルCで選択された領域の面積以下の面積を有することである。図11(b)および図12(a)の例では、削除される領域が強調表示されている。   When an area is selected by the user in step S25, the CPU 220 determines an area deletion condition based on the feature information of the selected area (step S26). In the examples of FIGS. 11 and 12, the feature information is the area of the region selected by the cursor C. Moreover, the condition of the area to be deleted is that the area has an area equal to or smaller than the area of the area selected by the cursor C. In the examples of FIGS. 11B and 12A, the area to be deleted is highlighted.

次に、CPU220は、使用者が入力装置250を用いて図10の次へボタン263aを操作することにより必要領域および不要領域の決定が指示されたか否かを判定する(ステップS27)。必要領域および不要領域の決定が指示されていない場合、CPU220はステップS25の処理に戻る。これにより、使用者は領域を再選択することができる。   Next, the CPU 220 determines whether or not the user has instructed the determination of the necessary area and the unnecessary area by operating the next button 263a of FIG. 10 using the input device 250 (step S27). When the determination of the necessary area and the unnecessary area is not instructed, the CPU 220 returns to the process of step S25. Thereby, the user can re-select the area.

ステップS27で使用者により必要領域および不要領域の決定が指示された場合、CPU220は、削除の条件を満たさない領域を必要領域として決定し、削除の条件を満たす領域を不要領域として決定する(ステップS28)。その後、CPU220は、必要領域を表示するための必要領域データおよび不要領域を表示するための不要領域データを生成し、生成された必要領域データおよび不要領域データを図1の作業用メモリ270に記憶する(ステップS29)。本例においては、必要領域の維持または不要領域の削除が指示されるまで必要領域および不要領域の表示が維持される。   When the user instructs the determination of the necessary area and the unnecessary area in step S27, the CPU 220 determines an area that does not satisfy the deletion condition as a necessary area, and determines an area that satisfies the deletion condition as an unnecessary area (step S27). S28). Thereafter, the CPU 220 generates necessary area data for displaying the necessary area and unnecessary area data for displaying the unnecessary area, and stores the generated necessary area data and unnecessary area data in the work memory 270 of FIG. (Step S29). In this example, the display of the necessary area and the unnecessary area is maintained until an instruction is given to maintain the necessary area or delete the unnecessary area.

次に、CPU220は、使用者が入力装置250を用いて図10の終了ボタン263cを操作することにより必要領域の維持または不要領域の削除が指示されたか否かを判定する(ステップS30)。必要領域の維持および不要領域の削除が指示されていない場合、CPU220はステップS25の処理に戻る。これにより、使用者は領域を再選択することができる。   Next, the CPU 220 determines whether or not the user has instructed to maintain the necessary area or delete the unnecessary area by operating the end button 263c of FIG. 10 using the input device 250 (step S30). When the maintenance of the necessary area and the deletion of the unnecessary area are not instructed, the CPU 220 returns to the process of step S25. Thereby, the user can re-select the area.

ステップS30で使用者により必要領域の維持または不要領域の削除が指示された場合、CPU220は、不要領域を削除する(ステップS31)。それにより、作業用メモリ270に記憶された不要領域データが削除されるとともに、表示部260の画像表示領域261から不要領域が消去される。その後、削除処理が終了する。   When the user instructs to maintain the necessary area or delete the unnecessary area in step S30, the CPU 220 deletes the unnecessary area (step S31). As a result, unnecessary area data stored in the work memory 270 is deleted, and unnecessary areas are deleted from the image display area 261 of the display unit 260. Thereafter, the deletion process ends.

(7)削除処理の効果
本実施の形態に係る画像処理装置200においては、表示部260の画像表示領域261に表示される初期画像IM2の複数の領域のうち、使用者が入力装置250を用いてカーソルCで選択した領域よりも大きい面積を有する領域が必要領域として決定される。また、使用者が入力装置250を用いてカーソルCで選択した領域の面積以下の面積を有する領域が不要領域として決定される。決定された不要領域に削除処理が実行される。これにより、使用者は、所望の領域に容易に削除処理を行うことができる。
(7) Effect of Deletion Processing In the image processing device 200 according to the present embodiment, the user uses the input device 250 among the plurality of regions of the initial image IM2 displayed in the image display region 261 of the display unit 260. Thus, a region having an area larger than the region selected by the cursor C is determined as a necessary region. In addition, a region having an area equal to or smaller than the region selected by the cursor C using the input device 250 by the user is determined as an unnecessary region. Deletion processing is executed on the determined unnecessary area. As a result, the user can easily perform deletion processing on a desired area.

(8)計測結果、抽出画像一覧およびヒストグラムの表示
図5および図10の計測結果表示ボタン265、抽出画像一覧表示ボタン266およびヒストグラム表示ボタン267について説明する。図15は、表示部260の画面のさらに他の例を示す模式図である。図15に示すように、表示部260の画像表示領域261には、図1の記憶装置240に記憶される画像データに基づいて初期画像IM,IM2とは異なる初期画像IM3が表示される。初期画像IM3には、観察対象物として回路基板の一部を示す画像が表示されている。
(8) Display of Measurement Results, Extracted Image List, and Histogram The measurement result display button 265, the extracted image list display button 266, and the histogram display button 267 in FIGS. 5 and 10 will be described. FIG. 15 is a schematic diagram illustrating still another example of the screen of the display unit 260. As shown in FIG. 15, an initial image IM3 different from the initial images IM and IM2 is displayed in the image display area 261 of the display unit 260 based on the image data stored in the storage device 240 of FIG. In the initial image IM3, an image showing a part of the circuit board is displayed as an observation object.

図15においては、初期画像IM3の異なる領域が複数のドットパターンおよびハッチングパターンにより表されている。具体的には、回路基板は絶縁層を含む。絶縁層上には複数の矩形状の導体パターン、他の複数の矩形状の導体パターンおよび複数の円形状の導体パターンが形成されている。複数の矩形状の導体パターンからなる領域E1〜E35、他の複数の矩形状の導体パターンからなる領域F1〜F5および複数の円形状の導体パターンからなる領域G1〜G25が第1のハッチングパターンで表されている。絶縁層からなる領域Zが第1のドットパターンで表されている。ここで、各領域は、連続した一または複数の画素から構成される。領域Zの輝度は領域E1〜E35,F1〜F5,G1〜G25の輝度よりも高い。   In FIG. 15, different regions of the initial image IM3 are represented by a plurality of dot patterns and hatching patterns. Specifically, the circuit board includes an insulating layer. A plurality of rectangular conductor patterns, another plurality of rectangular conductor patterns, and a plurality of circular conductor patterns are formed on the insulating layer. Regions E1 to E35 composed of a plurality of rectangular conductor patterns, regions F1 to F5 composed of other plurality of rectangular conductor patterns, and regions G1 to G25 composed of a plurality of circular conductor patterns are the first hatching patterns. It is represented. A region Z made of an insulating layer is represented by a first dot pattern. Here, each region is composed of one or a plurality of continuous pixels. The brightness of the area Z is higher than the brightness of the areas E1 to E35, F1 to F5, and G1 to G25.

図16は、必要領域および不要領域の決定後の初期画像IM3を示す模式図である。図15の初期画像IM3において、領域E1〜E35,F1〜F5,G1〜G25と他の領域Zとを区別する適切なしきい値を設定することにより、初期画像IM3から領域E1〜E35,F1〜F5,G1〜G25のみが抽出される。その後、画像処理装置200による第2の処理例と同様に、抽出された領域のうち、所望の面積以下の面積を有する領域がカーソルで選択される。これにより、図16に示すように、領域E1〜E35が必要領域として決定され、領域F1〜F5,G1〜G25が不要領域として決定される。   FIG. 16 is a schematic diagram showing the initial image IM3 after the necessary area and the unnecessary area are determined. In the initial image IM3 of FIG. 15, by setting an appropriate threshold value for distinguishing the regions E1 to E35, F1 to F5, G1 to G25 and the other regions Z, the regions E1 to E35, F1 to F1 are set from the initial image IM3. Only F5, G1 to G25 are extracted. Thereafter, similarly to the second processing example performed by the image processing apparatus 200, a region having an area equal to or smaller than a desired area is selected from the extracted regions with the cursor. Thereby, as shown in FIG. 16, the areas E1 to E35 are determined as necessary areas, and the areas F1 to F5 and G1 to G25 are determined as unnecessary areas.

必要領域である複数の領域E1〜E35の各々には、固有の識別番号が付与される。本例においては、領域E1〜E35には、それぞれ“No.1”〜“No.35”の識別番号が付与される。また、複数の必要領域の各々について種々の特徴情報の値が計測される。特徴情報は、例えば領域の面積、周囲長、最大径または最小径を含む。   A unique identification number is assigned to each of the plurality of areas E1 to E35, which are necessary areas. In this example, identification numbers “No. 1” to “No. 35” are assigned to the areas E1 to E35, respectively. In addition, various feature information values are measured for each of the plurality of necessary areas. The feature information includes, for example, the area of the region, the perimeter, the maximum diameter, or the minimum diameter.

以下、計測結果表示ボタン265が操作された場合のCPU220の動作について説明する。使用者が図1の入力装置250を用いて計測結果表示ボタン265を操作すると、CPU220は、領域ごとに計測された特徴情報を含む計測結果表を作成し、表示部260に表示する。   Hereinafter, the operation of the CPU 220 when the measurement result display button 265 is operated will be described. When the user operates the measurement result display button 265 using the input device 250 of FIG. 1, the CPU 220 creates a measurement result table including the characteristic information measured for each region and displays it on the display unit 260.

図17は、計測結果表が表示された表示部260を示す模式図である。図18は、図17の計測結果表2650の拡大図である。図18に示すように、計測結果表2650は、計測結果表示領域2651、編集結果表示領域2652および複数の結果表示欄2653,2654,2655,2656を含む。   FIG. 17 is a schematic diagram illustrating the display unit 260 on which a measurement result table is displayed. FIG. 18 is an enlarged view of the measurement result table 2650 of FIG. As shown in FIG. 18, the measurement result table 2650 includes a measurement result display area 2651, an edit result display area 2652, and a plurality of result display fields 2653, 2654, 2655, 2656.

計測結果表示領域2651の各行には、必要領域の識別番号とそれに対応する複数の特徴情報の値が表示される。図18の例においては、計測結果表示領域2651の各行には、領域E1〜E35の各々の識別番号、面積、周囲長および最大径が表示される。計測結果表示領域2651においては、各特徴情報の値を降順または昇順に表示することができる。   In each row of the measurement result display area 2651, an identification number of the necessary area and a plurality of feature information values corresponding to the identification number are displayed. In the example of FIG. 18, each row of the measurement result display area 2651 displays the identification number, area, perimeter length, and maximum diameter of each of the areas E1 to E35. In the measurement result display area 2651, the value of each feature information can be displayed in descending order or ascending order.

編集結果表示領域2652には、領域E1〜E35の特徴情報の値の編集結果が表示される。編集結果は、例えば特徴情報の平均値、標準偏差値、最大値、最小値および総計値を含む。結果表示欄2653には、必要領域である領域E1〜E35の数が表示される。なお、本例においては、必要領域の数は“35”である。   The editing result display area 2652 displays the editing result of the characteristic information values in the areas E1 to E35. The editing result includes, for example, an average value, standard deviation value, maximum value, minimum value, and total value of feature information. The result display field 2653 displays the number of areas E1 to E35 that are necessary areas. In this example, the number of necessary areas is “35”.

結果表示欄2654には、複数の領域E1〜E35の総面積が表示される。なお、総面積は、領域の面積の総計値として編集結果表示領域2652にも表示可能である。編集結果表示領域2652には、初期画像IM3の全領域の面積が画面全体面積として表示される。結果表示欄2656には、画面全体面積に対する総面積が総面積率として表示される。本例では、総面積率が百分率で表示される。   In the result display column 2654, the total area of the plurality of regions E1 to E35 is displayed. The total area can also be displayed in the edit result display area 2652 as a total value of the area of the area. In the editing result display area 2652, the area of the entire area of the initial image IM3 is displayed as the entire screen area. In the result display field 2656, the total area with respect to the entire screen area is displayed as a total area ratio. In this example, the total area ratio is displayed as a percentage.

使用者が入力装置250を用いて計測結果表2650の計測結果表示領域2651に表示されたいずれかの識別番号および特徴情報を含む行を指定すると、その行に対応する初期画像IM3の必要領域が強調表示される。図18の例においては、矢印aで示すように、識別番号“No.5”を含む行が指定される。そのため、図17の例においては、識別番号“No.5”を含む行に対応する領域E5が他の領域とは異なる色または輝度等の異なる表示態様により強調表示される。これにより、使用者は、指定した識別番号および特徴情報の値に対応する領域を容易に認識することができる。   When the user designates a line including any identification number and feature information displayed in the measurement result display area 2651 of the measurement result table 2650 using the input device 250, the necessary area of the initial image IM3 corresponding to the line is displayed. Highlighted. In the example of FIG. 18, as indicated by an arrow a, a line including the identification number “No. 5” is designated. Therefore, in the example of FIG. 17, the area E5 corresponding to the row including the identification number “No. 5” is highlighted with a different display mode such as a different color or luminance from the other areas. Thereby, the user can easily recognize the area corresponding to the designated identification number and the value of the feature information.

同様に、使用者が入力装置250を用いて画像表示領域261に表示された初期画像IM3からいずれかの必要領域を指定すると、その必要領域に対応する計測結果表示領域2651の識別番号および特徴情報の値を含む行が強調表示される。これにより、使用者は、指定した必要領域に対応する識別番号および特徴情報の値を容易に認識することができる。   Similarly, when the user designates any necessary area from the initial image IM3 displayed in the image display area 261 using the input device 250, the identification number and feature information of the measurement result display area 2651 corresponding to the necessary area. The line containing the value of is highlighted. As a result, the user can easily recognize the identification number and the value of the feature information corresponding to the designated necessary area.

次に、図16に戻り、抽出画像一覧表示ボタン266が操作された場合のCPU220の動作について説明する。使用者が図1の入力装置250を用いて抽出画像一覧表示ボタン266を操作すると、CPU220は、図2の作業用メモリ270の必要領域データに基づいて、複数の必要領域の画像を含む抽出画像一覧表を作成し、表示部260に表示する。   Next, returning to FIG. 16, the operation of the CPU 220 when the extracted image list display button 266 is operated will be described. When the user operates the extracted image list display button 266 using the input device 250 of FIG. 1, the CPU 220 extracts extracted images including images of a plurality of necessary areas based on the necessary area data in the work memory 270 of FIG. A list is created and displayed on the display unit 260.

図19は、抽出画像一覧表が表示された表示部260を示す模式図である。図20は、図19の抽出画像一覧表の拡大図である。図20に示すように、抽出画像一覧表2660は、特徴情報選択欄2661、表示順序選択欄2662、一または複数の抽出画像表示領域2663、および一または複数の特徴情報表示領域2664を含む。抽出画像表示領域2663の数および特徴情報表示領域2664の数は必要領域の数に等しい。したがって、本例においては、抽出画像表示領域2663の数および特徴情報表示領域2664の数は“35”である。   FIG. 19 is a schematic diagram showing the display unit 260 on which the extracted image list is displayed. FIG. 20 is an enlarged view of the extracted image list of FIG. As illustrated in FIG. 20, the extracted image list 2660 includes a feature information selection field 2661, a display order selection field 2662, one or more extracted image display areas 2663, and one or more feature information display areas 2664. The number of extracted image display areas 2663 and the number of feature information display areas 2664 are equal to the number of necessary areas. Therefore, in this example, the number of extracted image display areas 2663 and the number of feature information display areas 2664 are “35”.

複数の抽出画像表示領域2663および複数の特徴情報表示領域2664の各々には、必要領域の識別番号が割り当てられる。各抽出画像表示領域2663内には、割り当てられた識別番号に対応する必要領域の画像が表示される。各抽出画像表示領域2663の下方には、特徴情報表示領域2664が配置される。複数の特徴情報表示領域2664の各々には、割り当てられた識別番号に対応する必要領域の特徴情報の値が表示される。   Each of the plurality of extracted image display areas 2663 and the plurality of feature information display areas 2664 is assigned an identification number of a necessary area. In each extracted image display area 2663, an image of a necessary area corresponding to the assigned identification number is displayed. A feature information display area 2664 is arranged below each extracted image display area 2663. In each of the plurality of feature information display areas 2664, the value of the feature information of the necessary area corresponding to the assigned identification number is displayed.

特徴情報表示領域2664に表示される特徴情報は、特徴情報選択欄2661に表示される種々の特徴情報から選択することができる。図20の例においては、特徴情報表示領域2664に表示される特徴情報は面積である。また、複数の抽出画像表示領域2663および複数の特徴情報表示領域2664の表示順序は、表示順序選択欄2662の種々の表示順序から選択することができる。図20の例においては、複数の抽出画像表示領域2663および複数の特徴情報表示領域2664の表示順序は降順である。   The feature information displayed in the feature information display area 2664 can be selected from various feature information displayed in the feature information selection field 2661. In the example of FIG. 20, the feature information displayed in the feature information display area 2664 is an area. In addition, the display order of the plurality of extracted image display areas 2663 and the plurality of feature information display areas 2664 can be selected from various display orders in the display order selection field 2662. In the example of FIG. 20, the display order of the plurality of extracted image display areas 2663 and the plurality of feature information display areas 2664 is descending.

使用者が入力装置250を用いて抽出画像一覧表2660に表示されたいずれかの抽出画像表示領域2663および特徴情報表示領域2664を指定すると、その抽出画像表示領域2663および特徴情報表示領域2664の識別番号に対応する初期画像IM3の必要領域が強調表示される。図20の例においては、矢印bで示すように、識別番号“No.32”の抽出画像表示領域2663および特徴情報表示領域2664が指定される。それにより、図19の例においては、識別番号“No.32”に対応する領域E32が他の領域とは異なる色または輝度等の異なる表示態様により強調表示される。これにより、使用者は、指定した識別番号、画像および特徴情報の値に対応する領域を容易に認識することができる。   When the user designates any one of the extracted image display area 2663 and the feature information display area 2664 displayed in the extracted image list 2660 using the input device 250, the extracted image display area 2663 and the feature information display area 2664 are identified. The necessary area of the initial image IM3 corresponding to the number is highlighted. In the example of FIG. 20, as indicated by an arrow b, an extracted image display area 2663 and a feature information display area 2664 having an identification number “No. 32” are designated. Accordingly, in the example of FIG. 19, the area E32 corresponding to the identification number “No. 32” is highlighted with a different display mode such as a color or luminance different from the other areas. Thereby, the user can easily recognize the area corresponding to the specified identification number, image, and feature information value.

同様に、使用者が入力装置250を用いて画像表示領域261に表示された初期画像IM3からいずれかの必要領域を指定すると、その必要領域に対応する識別番号が割り当てられた抽出画像表示領域2663内の画像および特徴情報表示領域2664が強調表示される。これにより、使用者は、指定した領域に対応する識別番号、画像および特徴情報の値を容易に認識することができる。   Similarly, when the user designates any necessary area from the initial image IM3 displayed in the image display area 261 using the input device 250, an extracted image display area 2663 assigned an identification number corresponding to the necessary area. The image and the feature information display area 2664 are highlighted. Thereby, the user can easily recognize the identification number, the image, and the value of the feature information corresponding to the designated area.

次に、図16に戻り、ヒストグラム表示ボタン267が操作された場合のCPU220の動作について説明する。使用者が図1の入力装置250を用いてヒストグラム表示ボタン267を操作すると、CPU220は、必要領域の特徴情報についてのヒストグラム画像を作成し、表示部260に表示する。   Next, returning to FIG. 16, the operation of the CPU 220 when the histogram display button 267 is operated will be described. When the user operates the histogram display button 267 using the input device 250 of FIG. 1, the CPU 220 creates a histogram image for the feature information of the necessary area and displays it on the display unit 260.

図21は、ヒストグラム画像が表示された表示部260を示す模式図である。図22は、図21のヒストグラム画像2670の拡大図である。図22に示すように、ヒストグラム画像2670は、特徴情報選択欄2671およびヒストグラム表示領域2672を含む。ヒストグラム表示領域2672には、複数の必要領域の特徴情報についてのヒストグラムが表示される。   FIG. 21 is a schematic diagram showing the display unit 260 on which a histogram image is displayed. FIG. 22 is an enlarged view of the histogram image 2670 of FIG. As shown in FIG. 22, the histogram image 2670 includes a feature information selection field 2671 and a histogram display area 2672. In the histogram display area 2672, a histogram for feature information of a plurality of necessary areas is displayed.

ヒストグラム表示領域2672に表示される特徴情報は、特徴情報選択欄2671に表示される種々の特徴情報から選択することができる。図22の例においては、ヒストグラム表示領域2672に表示される特徴情報は面積である。ヒストグラムの第1の特徴情報範囲には識別番号“No.35”の必要領域が含まれる。ヒストグラムの第2の特徴情報範囲には識別番号“No.1”〜“No.4”,“No.7”〜“No.15”,“No.17”,“No.19”〜“No.28”の必要領域が含まれる。ヒストグラムの第3の特徴情報範囲には識別番号“No.33”の必要領域が含まれる。ヒストグラムの第4の特徴情報範囲には識別番号“No.30”〜“No.32”,“No.34”の必要領域が含まれる。ヒストグラムの第5の特徴情報範囲には識別番号“No.29”の必要領域が含まれる。ヒストグラムの第6の特徴情報範囲には識別番号“No.5”,“No.6”,“No.16”,“No.18”の必要領域が含まれる。   The feature information displayed in the histogram display area 2672 can be selected from various feature information displayed in the feature information selection field 2671. In the example of FIG. 22, the feature information displayed in the histogram display area 2672 is an area. The first feature information range of the histogram includes a necessary area with the identification number “No. 35”. The second feature information range of the histogram includes identification numbers “No. 1” to “No. 4”, “No. 7” to “No. 15”, “No. 17”, “No. 19” to “No. .28 "required area is included. The third feature information range of the histogram includes a necessary area with the identification number “No. 33”. The fourth feature information range of the histogram includes necessary areas of identification numbers “No. 30” to “No. 32” and “No. 34”. The fifth feature information range of the histogram includes a necessary area of the identification number “No. 29”. The sixth feature information range of the histogram includes necessary areas of identification numbers “No. 5”, “No. 6”, “No. 16”, “No. 18”.

使用者が入力装置250を用いてヒストグラム表示領域2672に表示されたいずれかの特徴情報範囲を指定すると、特徴情報範囲に含まれる識別番号に対応する初期画像IM3の必要領域が強調表示される。図22の例においては、矢印cで示すように、識別番号“No.1”〜“No.4”,“No.7”〜“No.15”,“No.17”,“No.19”〜“No.28”の必要領域を含む第2の特徴情報範囲が指定される。そのため、図21の例においては、識別番号“No.1”〜“No.4”,“No.7”〜“No.15”,“No.17”,“No.19”〜“No.28”の必要領域に対応する領域E1〜E4,E7〜E15,E17,E19〜E28が他の領域とは異なる色または輝度等の異なる表示態様により強調表示される。これにより、使用者は、指定した特徴情報範囲に対応する領域を容易に認識することができる。   When the user designates any feature information range displayed in the histogram display region 2672 using the input device 250, the necessary region of the initial image IM3 corresponding to the identification number included in the feature information range is highlighted. 22, the identification numbers “No. 1” to “No. 4”, “No. 7” to “No. 15”, “No. 17”, “No. 19” are indicated by arrows c. A second feature information range including a necessary area of “No. 28” is designated. Therefore, in the example of FIG. 21, the identification numbers “No. 1” to “No. 4”, “No. 7” to “No. 15”, “No. 17”, “No. 19” to “No. The areas E1 to E4, E7 to E15, E17, and E19 to E28 corresponding to the required area of 28 ″ are highlighted by different display modes such as colors or brightness different from those of the other areas. Thereby, the user can easily recognize the region corresponding to the designated feature information range.

同様に、使用者が入力装置250を用いて画像表示領域261に表示された初期画像IM3からいずれかの必要領域を指定すると、その必要領域に対応する識別番号を含むヒストグラム表示領域2672のヒストグラムの特徴情報範囲が強調表示される。これにより、使用者は、指定した領域に対応する特徴情報範囲を容易に認識することができる。   Similarly, when the user designates any necessary area from the initial image IM3 displayed in the image display area 261 using the input device 250, the histogram of the histogram display area 2672 including the identification number corresponding to the necessary area is displayed. The feature information range is highlighted. Thereby, the user can easily recognize the feature information range corresponding to the designated area.

(9)計測結果、抽出画像一覧およびヒストグラムの表示の効果
使用者は、計測結果表2650、抽出画像一覧表2660またはヒストグラム画像2670に表示された特徴情報を指定することにより、指定した特徴情報に対応する画像表示領域261の必要領域を容易に認識することができる。
(9) Effect of Display of Measurement Result, Extracted Image List, and Histogram The user can specify the feature information displayed in the measurement result table 2650, the extracted image list table 2660, or the histogram image 2670, thereby specifying the specified feature information. The necessary area of the corresponding image display area 261 can be easily recognized.

また、使用者は、画像表示領域261に表示された複数の必要領域のいずれかを指定することにより、指定した必要領域に対応する計測結果表2650、抽出画像一覧表2660またはヒストグラム画像2670の特徴情報を容易に認識することができる。   In addition, the user designates one of a plurality of necessary areas displayed in the image display area 261, whereby the measurement result table 2650, the extracted image list 2660, or the histogram image 2670 corresponding to the designated necessary area is specified. Information can be easily recognized.

(10)他の実施の形態
上記実施の形態において、第2の処理例における必要領域の各領域についての計測結果表2650、抽出画像一覧表2660およびヒストグラム画像2670が作成されるが、これに限定されない。第2の処理例における不要領域または第1の処理例における選択領域もしくは非選択領域についての計測結果表2650、抽出画像一覧表2660およびヒストグラム画像2670が作成されてもよい。
(10) Other Embodiments In the above embodiment, the measurement result table 2650, the extracted image list 2660, and the histogram image 2670 are created for each of the necessary areas in the second processing example. However, the present invention is not limited to this. Not. The measurement result table 2650, the extracted image list table 2660, and the histogram image 2670 for the unnecessary area in the second processing example or the selected area or the non-selected area in the first processing example may be created.

また、上記実施の形態において、分布図としてヒストグラム画像2670が作成されるが、これに限定されない。分布図としてスキャッタグラム(散布図)画像等の他の分布図が作成されてもよい。   Moreover, in the said embodiment, although the histogram image 2670 is created as a distribution map, it is not limited to this. Other distribution maps such as a scattergram (scatter diagram) image may be created as the distribution map.

(11)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(11) Correspondence between each component of claim and each part of embodiment The following describes an example of a correspondence between each component of the claim and each part of the embodiment. It is not limited.

初期画像IM,IM2,IM3が画像の例であり、表示部260が表示部の例であり、入力装置250が操作部の例であり、CPU220が処理部および処理装置の例である。画像処理装置200が画像処理装置の例であり、計測結果表2650が表の例であり、抽出画像一覧表2660が一覧画像の例であり、ヒストグラム画像2670が図の例である。   The initial images IM, IM2, and IM3 are examples of images, the display unit 260 is an example of a display unit, the input device 250 is an example of an operation unit, and the CPU 220 is an example of a processing unit and a processing device. The image processing apparatus 200 is an example of an image processing apparatus, the measurement result table 2650 is an example of a table, the extracted image list 2660 is an example of a list image, and the histogram image 2670 is an example of the figure.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

本発明は、種々の画像処理装置、拡大観察装置および画像処理プログラムに有効に利用することができる。 The present invention can be effectively used for various image processing apparatuses , magnification observation apparatuses, and image processing programs.

1 ベース
2,3 支持台
4,6 連結部
5 回動支柱
7 支持部
8,264s スライダ
9 固定つまみ
10 撮像装置
11 カラーCCD
12 ハーフミラー
13 対物レンズ
15 A/D変換器
16 照明用光源
17 レンズ駆動部
20 ステージ装置
21 ステージ
22 ステージ駆動部
23 ステージ支持部
30 回転角度センサ
41 調整ネジ
42 調整つまみ
100 顕微鏡
200 画像処理装置
210 インタフェース
220 CPU
230 ROM
240 記憶装置
250 入力装置
260 表示部
261 画像表示領域
262 抽出条件設定領域
263a 次へボタン
263b 戻るボタン
263c 終了ボタン
264 しきい値設定バー
265 計測結果表示ボタン
266 抽出画像一覧表示ボタン
267 ヒストグラム表示ボタン
270 作業用メモリ
300 拡大観察装置
2650 計測結果表
2651 計測結果表示領域
2652 編集結果表示領域
2653〜2656 結果表示欄
2660 抽出画像一覧表
2661,2671 特徴情報選択欄
2662 表示順序選択欄
2663 抽出画像表示領域
2664 特徴情報表示領域
2670 ヒストグラム画像
2672 ヒストグラム表示領域
a〜c 矢印
a1,a2,a5,a6 くびれ部分
A1〜A8,A11,A12,A21,A22,B1〜B3,C1〜C15,D1〜D4,E1〜E35,F1〜F5,G1〜G25,X,Y,Z 領域
C カーソル
IM,IM2,IM3 初期画像
R 選択範囲
R1 回動軸
R2 光軸
R3 回転軸
S 観察対象物
DESCRIPTION OF SYMBOLS 1 Base 2, 3 Support stand 4,6 Connection part 5 Rotating support | pillar 7 Support part 8,264s Slider 9 Fixed knob 10 Imaging device 11 Color CCD
DESCRIPTION OF SYMBOLS 12 Half mirror 13 Objective lens 15 A / D converter 16 Illumination light source 17 Lens drive part 20 Stage apparatus 21 Stage 22 Stage drive part 23 Stage support part 30 Rotation angle sensor 41 Adjustment screw 42 Adjustment knob 100 Microscope 200 Image processing apparatus 210 Interface 220 CPU
230 ROM
240 storage device 250 input device 260 display unit 261 image display area 262 extraction condition setting area 263a next button 263b back button 263c end button 264 threshold setting bar 265 measurement result display button 266 extracted image list display button 267 histogram display button 270 Working memory 300 Magnification observation device 2650 Measurement result table 2651 Measurement result display region 2651 Editing result display region 2653 to 2656 Result display column 2660 Extracted image list 2661, 2671 Feature information selection column 2661 Display order selection column 2663 Extracted image display region 2664 Feature information display area 2670 Histogram image 2672 Histogram display area a to c Arrows a1, a2, a5, a6 Constricted portion A1 to A8, A11, A12, A21, A22, B ˜B3, C1 to C15, D1 to D4, E1 to E35, F1 to F5, G1 to G25, X, Y, Z area C cursor IM, IM2, IM3 initial image R selection range R1 rotation axis R2 optical axis R3 rotation Axis S Observation object

Claims (9)

画像データに基づく画像において第1の条件に基づいて抽出される複数の領域を表示するための表示部と、
前記表示部に表示された複数の領域のいずれかを選択するために使用者により操作される操作部と、
前記第1の条件に基づいて抽出された複数の領域のうち前記操作部の操作による前記表示部の画面上の位置の指定により選択された領域の面積、形状に関する情報、および予め定められた部分の長さのうち少なくとも1つを含む幾何的な特徴情報に基づいて領域の維持または削除の第2の条件を決定し、前記表示部に表示された複数の領域のうち、前記決定された第2の条件を満たす領域を必要領域または不要領域として決定し、前記表示部に表示された複数の領域のうち、前記必要領域以外の領域または前記不要領域を削除する処理を行うように動作する処理部とを備える、画像処理装置。
A display unit for displaying a plurality of regions extracted based on a first condition in an image based on image data;
An operation unit operated by a user to select any of the plurality of areas displayed on the display unit;
Information on the area and shape of the region selected by specifying the position on the screen of the display unit by the operation of the operation unit among the plurality of regions extracted based on the first condition , and a predetermined portion A second condition for maintaining or deleting the area is determined based on geometric feature information including at least one of the lengths of the plurality of lengths, and the determined first of the plurality of areas displayed on the display unit is determined. A process that operates to determine an area that satisfies the condition 2 as a necessary area or an unnecessary area, and to perform a process of deleting an area other than the necessary area or the unnecessary area from among the plurality of areas displayed on the display unit An image processing apparatus.
前記処理部は、前記選択された領域に関する幾何的な特徴情報の値に基づいて定められる範囲を前記条件として決定し、前記表示部に表示された複数の領域のうち前記範囲内の幾何的な特徴情報の値を有する領域を前記必要領域または前記不要領域として決定するように動作する、請求項1記載の画像処理装置。 The processing unit determines, as the condition, a range determined based on a value of geometric feature information regarding the selected region, and among the plurality of regions displayed on the display unit, The image processing apparatus according to claim 1, wherein the image processing apparatus operates to determine an area having a value of feature information as the necessary area or the unnecessary area. 前記処理部は、前記表示部により表示された領域の幾何的な特徴情報を示す表、前記操作部の操作により選択された領域の一覧画像または前記操作部の操作により選択された領域の幾何的な特徴情報の分布を示す図を前記表示部に表示させ、領域の処理の結果に基づいて前記表、前記一覧画像または前記図を更新するように動作する、請求項1または2記載の画像処理装置。 The processing unit includes a table showing geometric feature information of the region displayed by the display unit, a list image of the region selected by the operation of the operation unit, or a geometric of the region selected by the operation of the operation unit. 3. The image processing according to claim 1 or 2, wherein a display showing a distribution of characteristic information is displayed on the display unit, and the table, the list image, or the figure is updated based on a result of processing of a region. apparatus. 前記処理部は、前記操作部の操作により前記表、前記一覧画像または前記図において幾何的な特徴情報が指定された場合に、前記表示部に表示された複数の領域のうち前記指定された幾何的な特徴情報に対応する領域を特定するように動作する、請求項3記載の画像処理装置。 When the geometric feature information is specified in the table, the list image, or the figure by the operation of the operation unit, the processing unit is configured to specify the specified geometric among a plurality of regions displayed on the display unit. The image processing apparatus according to claim 3, wherein the image processing apparatus operates to specify a region corresponding to typical feature information. 前記処理部は、前記操作部の操作により前記表示部に表示された複数の領域のいずれかが指定された場合に、前記表、前記一覧画像または前記図において前記指定された領域に対応する幾何的な特徴情報を特定するように動作する、請求項3または4記載の画像処理装置。 When one of a plurality of regions displayed on the display unit is designated by an operation of the operation unit, the processing unit is configured to correspond to the specified region in the table, the list image, or the figure. The image processing apparatus according to claim 3, wherein the image processing apparatus operates to specify typical feature information. 前記第1の条件は、前記画像データの輝度に対して設定されるしきい値である、請求項1〜5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the first condition is a threshold value set for the luminance of the image data. 前記処理部は、前記表示部に表示された複数の領域のうち、前記処理による変化前または変化後の領域を他の領域と異なる表示態様で前記表示部に表示させるように動作する、請求項1〜6のいずれか一項に記載の画像処理装置。 The processing unit operates to cause the display unit to display a region before or after change due to the processing in a display mode different from other regions among a plurality of regions displayed on the display unit. The image processing apparatus according to any one of 1 to 6. 画像データに基づく画像において第1の条件に基づいて抽出される複数の領域を表示部の画面に表示するための処理と、
前記第1の条件に基づいて抽出された複数の領域のうち使用者による前記表示部の画面上の位置の指定による領域の選択を受け付ける処理と、
使用者による前記表示部の画面上の位置の指定により選択された領域の面積、形状に関する情報、および予め定められた部分の長さのうち少なくとも1つを含む幾何的な特徴情報に基づいて領域の維持または削除の第2の条件を決定し、表示された複数の領域のうち、前記決定された第2の条件を満たす領域を必要領域または不要領域として決定し、表示された複数の領域のうち、前記必要領域以外の領域または前記不要領域を削除する処理を行う処理とを、
処理装置に実行させる、画像処理プログラム。
Processing for displaying a plurality of regions extracted based on the first condition in the image based on the image data on the screen of the display unit ;
A process of accepting an selection area by specifying the position on the screen of the display unit that by the user of said first plurality of regions extracted based on the condition of,
An area based on geometric feature information including at least one of area and shape information of an area selected by designating a position on the screen of the display unit by a user and a length of a predetermined portion The second condition for maintaining or deleting the image is determined, and among the plurality of displayed areas, the area satisfying the determined second condition is determined as a necessary area or an unnecessary area, and the plurality of displayed areas Among them, a process for deleting an area other than the necessary area or the unnecessary area,
An image processing program to be executed by a processing device.
観察対象を撮像するための撮像装置を有する顕微鏡と、
前記撮像装置からの観察対象に関する画像データに基づく画像において第1の条件に基づいて抽出される複数の領域を表示するための表示部と、
前記表示部に表示された複数の領域のいずれかを選択するために使用者により操作される操作部と、
前記第1の条件に基づいて抽出された複数の領域のうち前記操作部の操作による前記表示部の画面上の位置の指定により選択された領域の面積、形状に関する情報、および予め定められた部分の長さのうち少なくとも1つを含む幾何的な特徴情報に基づいて領域の維持または削除の第2の条件を決定し、前記表示部に表示された複数の領域のうち、前記決定された第2の条件を満たす領域を必要領域または不要領域として決定し、前記表示部に表示された複数の領域のうち、前記必要領域以外の領域または前記不要領域を削除する処理を行うように動作する処理部とを備える、拡大観察装置。
A microscope having an imaging device for imaging an observation target;
A display unit for displaying a plurality of regions extracted based on a first condition in an image based on image data relating to an observation target from the imaging device;
An operation unit operated by a user to select any of the plurality of areas displayed on the display unit;
Information on the area and shape of the region selected by specifying the position on the screen of the display unit by the operation of the operation unit among the plurality of regions extracted based on the first condition , and a predetermined portion A second condition for maintaining or deleting the area is determined based on geometric feature information including at least one of the lengths of the plurality of lengths, and the determined first of the plurality of areas displayed on the display unit is determined. A process that operates to determine an area that satisfies the condition 2 as a necessary area or an unnecessary area, and to perform a process of deleting an area other than the necessary area or the unnecessary area from among the plurality of areas displayed on the display unit A magnifying observation device.
JP2011228468A 2011-10-18 2011-10-18 Image processing apparatus, magnification observation apparatus, and image processing program Active JP5917080B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011228468A JP5917080B2 (en) 2011-10-18 2011-10-18 Image processing apparatus, magnification observation apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011228468A JP5917080B2 (en) 2011-10-18 2011-10-18 Image processing apparatus, magnification observation apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2013088997A JP2013088997A (en) 2013-05-13
JP5917080B2 true JP5917080B2 (en) 2016-05-11

Family

ID=48532853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011228468A Active JP5917080B2 (en) 2011-10-18 2011-10-18 Image processing apparatus, magnification observation apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP5917080B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7256719B2 (en) 2019-09-13 2023-04-12 富士フイルム株式会社 Image processing device, imaging device, image processing method, and image processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05274409A (en) * 1992-03-27 1993-10-22 Mitsubishi Electric Corp Image data extracting device
JP2002005743A (en) * 2000-06-16 2002-01-09 Matsushita Electric Ind Co Ltd Color extraction device and color extraction method
JP5086830B2 (en) * 2008-02-08 2012-11-28 株式会社キーエンス Image inspection apparatus, image inspection method, and computer program

Also Published As

Publication number Publication date
JP2013088997A (en) 2013-05-13

Similar Documents

Publication Publication Date Title
US9007452B2 (en) Magnification observation device, magnification observation method, and magnification observation program
US9690089B2 (en) Magnifying observation apparatus, magnified image observing method and computer-readable recording medium
JP7300834B2 (en) Systems, methods and apparatus for image capture and display
US9690088B2 (en) Magnifying observation apparatus, magnified image observing method and computer-readable recording medium
JP5841427B2 (en) Image processing apparatus and image processing method
US9970745B2 (en) Measurement target measuring program, measurement target measuring method, and magnifying observation device
US20130093872A1 (en) Magnification Observation Device
JP5281972B2 (en) Imaging device
US9772480B2 (en) Image measurement device
JP5865666B2 (en) Image processing apparatus and image processing program
JP2019035609A (en) Image processing system, setting assistance device, and setting assistance program
EP2804145A1 (en) Microscope system and stitched area decision method
JP6140255B2 (en) Image processing apparatus and image processing method
US10313569B2 (en) Image measurement system and controller
JP2015004641A (en) Wafer appearance inspection system
JP5917080B2 (en) Image processing apparatus, magnification observation apparatus, and image processing program
US20080282197A1 (en) Microscopic-Measurement Apparatus
JP4874069B2 (en) Confocal microscope
JP2013088268A (en) Image processing apparatus and image processing program
JP5917072B2 (en) Image processing apparatus and image processing program
JP2005181250A (en) Method and device for inspecting liquid crystal display panel
JP5865658B2 (en) Image processing apparatus and image processing program
JP6284428B2 (en) Microscope system
JP5305838B2 (en) Confocal microscope system
JP2005156847A (en) Confocal microscope system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160406

R150 Certificate of patent or registration of utility model

Ref document number: 5917080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250