WO2018198327A1 - 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法 - Google Patents
内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法 Download PDFInfo
- Publication number
- WO2018198327A1 WO2018198327A1 PCT/JP2017/016961 JP2017016961W WO2018198327A1 WO 2018198327 A1 WO2018198327 A1 WO 2018198327A1 JP 2017016961 W JP2017016961 W JP 2017016961W WO 2018198327 A1 WO2018198327 A1 WO 2018198327A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- detection
- abnormality
- diagnosis support
- endoscope
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0655—Control therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
- A61B1/0676—Endoscope light sources at distal tip of an endoscope
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Definitions
- the present invention relates to an endoscope diagnosis support system, an endoscope diagnosis support program, and an endoscope diagnosis support method.
- Japanese Patent Application Laid-Open No. 2004-159739 discloses a medical image acquired by an X-ray CT apparatus, a magnetic resonance imaging apparatus, an ultrasonic diagnostic apparatus, an X-ray imaging apparatus, or the like so that diagnosis support can be performed.
- An image processing apparatus is disclosed that performs image processing and marks and displays a portion suspected of having a lesion.
- the present invention can indicate an abnormal candidate that is a candidate region for an abnormality such as a lesion so as not to hinder the user's attention to an endoscopic image, and can support diagnosis using an endoscope.
- An object is to provide an endoscope diagnosis support system, an endoscope diagnosis support program, and an endoscope diagnosis support method.
- An endoscope diagnosis support system detects an abnormality candidate region from an endoscope image acquired by imaging the inside of a subject by an imaging unit, outputs an abnormality detection unit, a main region,
- the abnormality detection image is divided into sub-areas smaller than the main area, the endoscopic image is arranged in the main area, and an abnormality detection image indicating that the abnormality candidate area is detected according to the detection result is the main area
- an image generation unit that generates a display image, which is disposed at the peripheral edge of the display.
- the endoscope diagnosis support program detects an abnormal candidate region from an endoscope image acquired by imaging the inside of a subject by an imaging unit, outputs a detection result, a main region, An abnormality detection image indicating that the endoscopic image is arranged in the main region and the abnormality candidate region is detected according to the detection result is divided into sub regions smaller than the main region. And a code for generating a display image arranged in the section.
- an abnormality detection unit detects an abnormal candidate region from an endoscopic image acquired by imaging the inside of a subject by an imaging unit, outputs a detection result, and generates an image. Is divided into a main area and a sub-area smaller than the main area, the endoscope image is arranged in the main area, and an abnormality indicating that the abnormality candidate area is detected according to the detection result A display image is generated in which the detection image is arranged at the peripheral edge of the main region.
- FIG. 1 is a block diagram illustrating a configuration example of an endoscope diagnosis support system according to a first embodiment of the present invention. It is a figure which shows the structural example of the display image of the display part of the endoscope diagnosis assistance system concerning the 1st Embodiment of this invention. It is a flowchart which shows an example of the display image generation process of the endoscope diagnosis assistance system concerning the 1st Embodiment of this invention. It is a figure which shows the structural example of the display image of the display part of the endoscope diagnosis assistance system concerning the 1st Embodiment of this invention. It is a figure which shows the structural example of the display image of the display part of the endoscope diagnosis assistance system concerning the 1st Embodiment of this invention. It is a figure which shows the structural example of the display image of the display part of the endoscope diagnosis assistance system concerning the 1st Embodiment of this invention.
- FIG. 1 is a block diagram showing a configuration example of an endoscope diagnosis support system 1 according to the first embodiment of the present invention.
- a signal line connecting the operation unit X and the control unit 32 for setting the observation mode is omitted.
- the endoscope diagnosis support system 1 includes a light source drive unit 11, an endoscope 21, a video processor 31, a display unit 41, and an operation unit X.
- the light source driving unit 11 is connected to the endoscope 21 and the video processor 31.
- the endoscope 21 and the operation unit X are connected to the video processor 31.
- the video processor 31 is connected to the display unit 41.
- the light source driving unit 11 is a circuit that drives the illumination unit 23 provided at the distal end portion of the insertion unit 22 of the endoscope 21.
- the light source driving unit 11 is connected to the control unit 32 in the video processor 31 and the illumination unit 23 in the endoscope 21.
- the light source driving unit 11 irradiates the subject with illumination light from the illumination unit 23 under the control of the control unit 32.
- the light source driving unit 11 irradiates normal light and narrowband light from the illumination unit 23 according to the observation mode. More specifically, the light source drive unit 11 irradiates normal light from the illumination unit 23 when the observation mode is the normal light mode, and narrow band from the illumination unit 23 when the observation mode is the narrow band light observation mode. Irradiate light.
- the endoscope 21 is configured to image the inside of the subject.
- the endoscope 21 includes an insertion unit 22, an illumination unit 23, and an imaging unit 24.
- the insertion portion 22 is formed in an elongated shape so that it can be inserted into the subject.
- the insertion portion 22 has a conduit such as a treatment instrument insertion conduit (not shown).
- the insertion portion 22 can project a treatment tool (not shown) inserted through the treatment instrument insertion conduit from the distal end portion.
- the illumination unit 23 is provided at the distal end of the insertion unit 22 and irradiates the subject with illumination light under the control of the light source driving unit 11.
- the imaging unit 24 is provided at the distal end portion of the insertion unit 22 and images a subject irradiated with illumination light.
- the imaging signal is output to the video processor 31.
- the video processor 31 controls the endoscope 21, generates an endoscope image A based on an imaging signal input from the endoscope 21, and displays a display image B based on the endoscope image A. Generate.
- the video processor 31 includes a control unit 32, an abnormality detection unit 33, and an image generation unit 34.
- the control unit 32 is a circuit that controls each unit in the endoscope diagnosis support system 1.
- the control unit 32 performs, for example, image processing such as gain adjustment, white balance adjustment, gamma correction, contour emphasis correction, and enlargement / reduction adjustment based on the imaging signal input from the endoscope 21 to perform the endoscope image A.
- the endoscopic image A is output to the abnormality detection unit 33 and the image generation unit 34.
- the control unit 32 transmits a control signal to the light source driving unit 11 and drives the illumination unit 23 according to the observation mode.
- the observation mode is set by a user instruction input via the operation unit X.
- the control unit 32 may adjust the light emission amount of the illumination unit 23 according to the brightness of the endoscope image A.
- the endoscopic image A may be either a moving image or a still image.
- the abnormality detection unit 33 is a circuit that detects an abnormality candidate region L, which is a region that is a candidate for abnormality such as a lesion, based on the endoscope image A.
- the abnormality detection unit 33 is connected to the image generation unit 34.
- the image generation unit 34 outputs a detection result indicating that the abnormality candidate region L is not detected to the image generation unit 34.
- the abnormality detection unit 33 outputs a detection result indicating the detection position and size of the abnormality candidate region L to the image generation unit 34. That is, the abnormality detection unit 33 detects the abnormality candidate region L from the endoscopic image A acquired by imaging the inside of the subject by the imaging unit 24 and outputs the detection result.
- the abnormal candidate region L is a lesion candidate region.
- the abnormality detection unit 33 is configured by an arithmetic device using artificial intelligence technology such as machine learning. More specifically, the abnormality detection unit 33 is configured by an arithmetic device that has learned extraction of feature amounts by a deep learning technique (deep learning). The abnormality detection unit 33 performs a predetermined calculation adjusted by learning on the endoscopic image A input from the imaging unit 24, and indicates that the abnormality candidate region L is not detected as a detection result. The amount or the feature amount indicating the detection position and size of the abnormal candidate region L is output to the image generation unit 34.
- artificial intelligence technology such as machine learning.
- deep learning deep learning technique
- the abnormality detection unit 33 is configured by an arithmetic device using artificial intelligence technology, but may be configured by an arithmetic device that does not use artificial intelligence technology. For example, the abnormality detection unit 33 extracts a contour from the amount of change between adjacent pixels, and performs extraction by matching the contour and model information of the abnormality candidate region L stored in the control unit 32 in advance. You may comprise.
- the image generation unit 34 is a circuit that generates the display image B.
- the image generation unit 34 is configured to display the display image B based on the endoscopic image A input from the control unit 32, the detection result input from the abnormality detection unit 33, and the instruction signal input from the operation unit X. Generate.
- the image generation unit 34 switches the detection position image D1 in the main area B1 from the non-display state to the display state in response to the instruction signal.
- the display unit 41 is configured to display the display image B input from the image generation unit 34 on the display screen.
- the display unit 41 is a monitor having a rectangular display screen, for example.
- the operation unit X is configured so that an instruction can be input by a user operation.
- the operation unit X is connected to the image generation unit 34.
- the operation unit X includes a foot switch Xa, a keyboard Xb, a tablet Xc, a voice input device Xd, and a scope switch Xe.
- a foot switch Xa a keyboard Xb
- a tablet Xc a voice input device Xd
- a scope switch Xe a scope switch Xe.
- the foot switch Xa, the keyboard Xb, the tablet Xc, and the audio input device Xd are connected to the video processor 31 by wire or wirelessly.
- the foot switch Xa can be depressed by the user's foot.
- the keyboard Xb can be operated by pressing a predetermined key with a user's finger.
- the tablet Xc can be operated by touching the touch panel with a user's finger.
- the voice input device Xd can be operated by a user's voice.
- the voice input device Xd receives a user's voice and detects a predetermined voice that indicates a display state and a non-display state from the inputted voice.
- the scope switch Xe is attached to the endoscope 21 and can be operated by a user's finger.
- the operation unit X When an instruction input for instructing the display state is performed by the user's finger, foot or voice, the operation unit X outputs an instruction signal for instructing the display state to the image generation unit 34.
- the operation unit X When an instruction input for instructing the non-display state is performed by the user's finger, foot, or voice, the operation unit X outputs an instruction signal for instructing the non-display state to the image generation unit 34. That is, the operation unit X outputs an instruction signal in accordance with a user operation.
- FIG. 2 is a diagram illustrating a configuration example of the display image B of the display unit 41 of the endoscope diagnosis support system 1 according to the first embodiment of the present invention.
- the entire endoscope images A1 and A2 are octagonal, and the living body lumen is schematically represented by a curve.
- the display image B is a rectangular image and has a main area B1 and a sub area B2 divided in the longitudinal direction.
- a one-dot chain line in FIG. 2 is a virtual line indicating a boundary between the main region B1 and the sub region B2.
- the main area B1 is an area for displaying the endoscope image A1.
- the main area B1 is set to be wider than the sub area B2 so that the visibility of the endoscopic image A1 can be improved.
- the endoscopic image A1 is displayed larger than the endoscopic image A2 in the main area B1.
- the sub-region B2 is a region that displays the detection position of the abnormality candidate region L.
- the sub area B2 is arranged adjacent to the main area B1.
- an endoscope image A2 for superimposing a detection position image D2 for indicating a detection position is arranged (FIG. 4).
- FIG. 3 is a flowchart showing an example of display image generation processing of the endoscope diagnosis support system 1 according to the first embodiment of the present invention.
- 4 and 5 are diagrams illustrating a configuration example of the display image B of the display unit 41 of the endoscope diagnosis support system 1 according to the first embodiment of the present invention.
- the imaging unit 24 When the insertion unit 22 is inserted and the subject is imaged, the imaging unit 24 outputs an imaging signal to the control unit 32.
- the control unit 32 performs image processing such as gain adjustment, white balance adjustment, gamma correction, contour emphasis correction, and enlargement / reduction adjustment based on the imaging signal, and sends the endoscope image A to the abnormality detection unit 33 and the image generation unit 34. Is output.
- the abnormality detection unit 33 performs a predetermined calculation and outputs the detection result to the image generation unit 34.
- the image generation unit 34 adjusts the size of the endoscope image A input from the control unit 32, arranges the endoscope image A1 in the main area B1, and arranges the endoscope image A2 in the sub area B2. .
- the detection mark Ma in the main area B1 and the detection position image D2 in the sub area B2 are displayed (S12).
- the image generation unit 34 displays the detection mark Ma, which is an abnormality detection image indicating that the abnormality candidate region L has been detected, in the lower right portion of the main region B1 and outside the endoscope image A1. That is, the detection mark Ma is arranged in the peripheral portion of the main region B1 and in the vicinity of the endoscopic image A1.
- the detection mark Ma is an image imitating a flag, but may be another image.
- the image generation unit 34 displays the detection position image D2 in a display state so as to indicate the position corresponding to the detection position of the abnormality candidate area L in the sub area B2 based on the detection result.
- the detection position image D2 is a rectangular frame image, but may be another image.
- the detection position image D1 in the main area B1 is displayed (S14). As shown in FIG. 5, the image generation unit 34 displays the detection position image D1 for indicating the detection position so as to indicate the position corresponding to the detection position of the abnormality candidate area L in the main area B1.
- the detection position image D1 is a rectangular frame image, but may be another image. That is, the detection position image D1 arranged in the main area B1 is a rectangular frame image.
- the image generation unit 34 sets the detection position image D1 in the non-display state.
- the processing of S11 to S14 constitutes the display image generation processing according to the first embodiment.
- the image generation unit 34 is divided into a main area B1 and a sub area B2 smaller than the main area B1, and the endoscopic image A1 is arranged in the main area B1, and the abnormal candidate area L is determined according to the detection result.
- a display image B is generated in which an abnormality detection image indicating that the detection has been detected is arranged at the periphery of the main region B1.
- the image generation unit 34 arranges the detection position image D2 for indicating the detection position so as to indicate the position corresponding to the detection position of the abnormality candidate region L of the sub-region B2 according to the detection result.
- the image generation unit 34 arranges the detection position image D1 so as to indicate a position corresponding to the detection position of the main area B1.
- the abnormality detection unit 33 detects the abnormality candidate region L from the endoscope image A acquired by imaging the inside of the subject by the imaging unit 24 and outputs the detection result.
- the image generation unit 34 divides the image into a main area B1 and a sub area B2 smaller than the main area B1, and the endoscopic image A1 is arranged in the main area B1, and the abnormal candidate area L is determined according to the detection result.
- a display image B is generated in which an abnormality detection image indicating the detection is arranged at the peripheral edge of the main region B1.
- the detection position image D1 of the abnormal candidate region L in the main region B1 is hidden until the user inputs an instruction, and the user's attention to the endoscope image A1 is displayed. I do not disturb.
- the endoscope diagnosis support system 1 indicates the abnormal candidate region L that is a candidate for an abnormality such as a lesion so as not to hinder the user's attention to the endoscopic image A1.
- diagnosis by the endoscope 21 can be supported.
- the detection mark Ma is displayed at the lower right portion of the main area B1, but the detection mark Mb may be displayed at the four corners of the endoscopic image A1.
- FIGS. 6 and 7 are diagrams illustrating a configuration example of the display image B of the display unit 41 of the endoscope diagnosis support system 1 according to the first modification of the first embodiment of the present invention.
- this modification the description of the same configuration as that of the other embodiments and modifications is omitted.
- the image generation unit 34 sets the detection mark Mb of the main region B1 to the display state.
- the detection position image D2 in the sub-region B2 is displayed.
- the detection mark Mb is arranged along the tapered portions at the four corners of the endoscopic image A1 on the periphery of the main region B1 and outside the endoscopic image A1.
- the detection mark Mb is a strip image having a predetermined thickness.
- the detection marks Mb are arranged at all four corners of the endoscope image A1, but may be arranged at least at some of the four corners instead of all four corners. I do not care.
- the detected position image D1 in the main area B1 is set to the display state.
- the image generation unit 34 places the detection marks Mb at the four corners of the endoscope image A1.
- the endoscope diagnosis support system 1 can display the detection mark Mb so that the user can easily notice.
- FIG. 8 is a diagram illustrating a configuration example of the display image B of the display unit 41 of the endoscope diagnosis support system 1 according to the second modification of the first embodiment of the present invention. In this modification, the description of the same configuration as that of the other embodiments and modifications is omitted.
- the detection mark Mc is arranged along the tapered portions at the four corners of the endoscope image A1 on the periphery of the main region B1 and outside the endoscope image A1.
- the detection mark Mc is a triangular image filled with a predetermined color.
- the detection marks Mc are arranged at all four corners of the endoscopic image A1, but may be arranged at least at some of the four corners instead of all four corners. I do not care.
- the endoscope diagnosis support system 1 can display the detection mark Mc so that the user can easily notice.
- the entire endoscope images A1 and A2 are octagonal, but they may not be octagonal.
- FIG. 9 is a diagram illustrating a configuration example of the display image B of the display unit 41 of the endoscope diagnosis support system 1 according to Modification Example 3 of the first embodiment of the present invention. In this modification, the description of the same configuration as that of the other embodiments and modifications is omitted.
- an endoscope image A1d that is entirely rectangular is arranged, and in the sub area B2, an endoscope image A2d obtained by reducing the endoscope image A1d is arranged.
- the detection marks Md are L-shaped images that are arranged at the four corners of the endoscopic image A1d and bent along the four corners. Note that the detection mark Md may be displayed in a blinking manner so as to stand out.
- the endoscope diagnosis support system 1 can display the detection marks Md at the four corners of the endoscope image A1d, which is a rectangle as a whole, so that the user can easily notice.
- the endoscope images A1d and A2d are entirely rectangular, but the sides facing each other may be curved.
- FIG. 10 is a diagram illustrating a configuration example of the display image B of the display unit 41 of the endoscope diagnosis support system 1 according to the modification example 4 of the first embodiment of the present invention.
- the description of the same configuration as that of the other embodiments and modifications is omitted.
- An endoscopic image A1e whose upper and lower parts are linear and curved on both left and right sides is arranged in the main area B1, and an endoscopic image obtained by reducing the endoscopic image A1e in the sub area B2.
- A2e is arranged.
- the detection mark Me is a triangular image with one side curved, which is arranged at the four corners of the endoscope image A1e.
- the endoscope diagnosis support system 1 can display the detection marks Me at the four corners of the endoscope image A1e whose sides facing each other are curved so that the user can more easily notice.
- FIG. 11 is a flowchart showing an example of a display image generation process of the endoscope diagnosis support system 1 according to Modification Example 5 of the first embodiment of the present invention.
- FIG. 12 is a diagram illustrating a configuration example of the display image B of the display unit 41 of the endoscope diagnosis support system 1 according to the fifth modification of the first embodiment of the present invention.
- the endoscope diagnosis support system 1 has a camera Z (two-dot chain line in FIG. 1).
- the camera Z is attached to the edge or the like of the display unit 41 so that the movement of the eyes of the user observing the endoscopic image A1 can be detected, for example.
- the camera Z is connected to the image generation unit 34.
- the camera Z captures the user's eyes and outputs an image of the user's eyes to the image generation unit 34.
- the predetermined movement may be, for example, a movement in which the user visually detects an abnormality in the endoscopic image A and the user's line of sight is directed to the detection position of the abnormality candidate region L for a predetermined time.
- the predetermined movement may be a movement in which the user notices the detection mark Ma and the user's line of sight moves from the main area B1 to the entire display image B.
- the predetermined movement may be a movement in which the user's line of sight is directed to a predetermined position in the display image B set in advance.
- the detection position image D1 in the main area B1 is displayed (S24).
- the detection position image D1 is an arrow image displayed in the vicinity of the abnormality candidate region L in the main region B1.
- the detection position image D1 arranged in the main area B1 is an arrow image.
- the image generation unit 34 puts the detection position image D1 into a non-display state by inputting an instruction from the operation unit X, detecting a predetermined eye movement by the camera Z, or not detecting the abnormality candidate region L.
- the image generation unit 34 hides the detection position image D1 of the main region B1 so as not to disturb the user's attention to the endoscopic image A1. To do.
- the abnormality detection unit 33 includes a treatment tool detection unit T1 (two-dot chain line in FIG. 1) for detecting a predetermined treatment tool from the endoscope image A, and the predetermined treatment tool is detected from the endoscope image A.
- the detected position image D1 in the main area B1 is not displayed so as not to disturb the user's attention.
- the image generation unit 34 switches the detection position image D1 in the main area B1 to either the display state or the non-display state.
- the predetermined display switching condition is whether or not the user's eye image input from the camera Z is moving in a predetermined manner. Further, the predetermined display switching condition is whether or not the observation mode is the narrow-band light observation mode. The predetermined display switching condition is whether or not a predetermined treatment instrument is detected by the treatment instrument detection unit T1.
- the processing from S21 to S24 constitutes display image generation processing according to the fifth modification of the first embodiment.
- the endoscope diagnosis support system 1 can switch the detection position image D1 to either the display state or the non-display state according to a predetermined display switching condition, and does not require the user to operate the operation unit X. .
- the sub-region B2 displays the detection position of the abnormal candidate region L, but may display the enlarged image E of the abnormal candidate region L. Absent.
- FIG. 13 is a flowchart showing an example of display image generation processing of the endoscope diagnosis support system 1 according to the second embodiment of the present invention.
- FIG. 14 is a diagram illustrating a configuration example of the display image B of the display unit 41 of the endoscope diagnosis support system 1 according to the second embodiment of the present invention. In the present embodiment, the description of the same configuration as that of the other embodiments and modifications is omitted.
- the detection position image D1 in the main area B1 is set in the display state, and the enlarged image E is displayed in the sub area B2 (S34).
- the image generation unit 34 displays the detection position image D1 in the main area B1 in the display state.
- the image generation unit 34 displays an enlarged image E having a predetermined enlargement ratio in the sub-region B2.
- the image generation unit 34 arranges an enlarged image E obtained by enlarging the abnormality candidate area L in the sub area B2.
- the processing from S31 to S34 constitutes display image generation processing according to the second embodiment.
- the enlarged image E can be displayed in the sub-region B2 by the user's instruction input, and the visibility of the abnormality candidate region L is improved.
- the endoscopic diagnosis support system 1 indicates the abnormal candidate region L that is a candidate for an abnormality such as a lesion so as not to disturb the user's attention to the endoscopic image A1.
- diagnosis by the endoscope 21 can be supported.
- the detection marks Ma, Mb, Mc, Md, Me and the detection position images D1, D2 may be the same color as each other so that the user can easily see them.
- the image generation unit 34 displays the display image B so that the detection position images D1 and D2 are not arranged outside the endoscope images A1, A1d, A1e, A2, A2d, and A2e. It may be generated.
- the image generation unit 34 arranges the detection position image D2 in the sub area B2, but the detection position image D1 in the main area B1.
- the display image B may be generated so that the detection position image D2 is not arranged in the sub-region B2.
- the operation unit X is configured by all of the foot switch Xa, the keyboard Xb, the tablet Xc, the voice input device Xd, and the scope switch Xe, but the foot switch Xa, the keyboard Xb, the tablet Xc, The voice input device Xd and the scope switch Xe may be partly configured. That is, the operation unit X includes at least one of a foot switch Xa, a keyboard Xb, a tablet Xc, a voice input device Xd, and a scope switch Xe.
- the detection mark Ma is displayed in the lower right part of the main area B1, but may be displayed in any of the upper right part, upper left part, or lower left part of the main area B1.
- the predetermined display switching condition is whether or not the image of the user's eyes is moving in a predetermined manner, but has a timer T2 (two points in FIG. 1). (Dotted line), the abnormality detection unit 33 can detect the type of abnormality in the abnormality candidate region L, and the timer T2 can measure a predetermined time according to the type of abnormality after the abnormality candidate region L is detected.
- the predetermined display switching condition may be whether or not a predetermined time has elapsed after the abnormality candidate region L is detected.
- the predetermined enlargement ratio in the second embodiment is set in advance, but may be configured to change according to the size of the abnormality candidate region L.
- each “unit” in this specification is a conceptual one corresponding to each function of the embodiment, and does not necessarily correspond to a specific hardware or software routine on a one-to-one basis. Therefore, in the present specification, the embodiment has been described assuming a virtual circuit block (unit) having each function of the embodiment.
- each step of each procedure in the present embodiment may be executed in a different order for each execution by changing the execution order and executing a plurality of steps at the same time, as long as it does not contradict its nature.
- all or a part of each step of each procedure in the present embodiment may be realized by hardware.
- the functions of the abnormality detection unit 33 and the image generation unit 34 may be realized by the video processor 31 having the CPU 51 and the memory 52 and executing the endoscope diagnosis support program 53 stored in the memory 52.
- the computer executes the code for generating the display image B arranged at the peripheral edge of the main area B1.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Astronomy & Astrophysics (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Abstract
内視鏡診断支援システム(1)は、撮像部(24)によって被検体内を撮像して取得された内視鏡画像(A)から異常候補領域(L)の検出を行い、検出結果を出力する異常検出部(33)と、メイン領域(B1)と、メイン領域(B1)よりも小さなサブ領域(B2)とに分割され、内視鏡画像(A1)がメイン領域(B1)に配置され、前記検出結果に応じ、異常候補領域(L)を検出したことを示す異常検出画像(Ma)がメイン領域(B1)の周縁部に配置された、表示画像(B)を生成する画像生成部(34)と、を備える。
Description
本発明は、内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法に関する。
従来、医用画像の画像処理を行い、予め指定された条件に合致する部分にマークを付けて表示する技術がある。例えば、日本国特開2004-159739号公報には、診断支援を行うことができるように、X線CT装置、磁気共鳴撮影装置、超音波診断装置、X線撮影装置等によって取得した医用画像の画像処理を行い、病変の疑いのある部分にマークを付けて表示する画像処理装置が開示される。
しかし、従来の画像処理装置では、ユーザが医用画像に表れた病変を発見する前に、病変の疑いのある部分にマークが表示され、医用画像に対するユーザの注意を妨げることがある。
そこで、本発明は、内視鏡画像に対するユーザの注意を妨げないように、病変等の異常の候補となる領域である異常候補を示すことができ、内視鏡による診断を支援することができる内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法を提供することを目的とする。
実施形態の内視鏡診断支援システムは、撮像部によって被検体内を撮像して取得された内視鏡画像から異常候補領域の検出を行い、検出結果を出力する異常検出部と、メイン領域と、前記メイン領域よりも小さなサブ領域とに分割され、前記内視鏡画像が前記メイン領域に配置され、前記検出結果に応じ、前記異常候補領域を検出したことを示す異常検出画像が前記メイン領域の周縁部に配置された、表示画像を生成する画像生成部と、を備える。
実施形態の内視鏡診断支援プログラムは、撮像部によって被検体内を撮像して取得された内視鏡画像から異常候補領域の検出を行い、検出結果を出力するコードと、メイン領域と、前記メイン領域よりも小さなサブ領域とに分割され、前記内視鏡画像が前記メイン領域に配置され、前記検出結果に応じ、前記異常候補領域を検出したことを示す異常検出画像が前記メイン領域の周縁部に配置された、表示画像を生成するコードと、をコンピュータに実行させる。
実施形態の内視鏡診断支援方法は、異常検出部により、撮像部によって被検体内を撮像して取得された内視鏡画像から異常候補領域の検出を行って検出結果を出力し、画像生成部により、メイン領域と、前記メイン領域よりも小さなサブ領域とに分割され、前記内視鏡画像が前記メイン領域に配置され、前記検出結果に応じ、前記異常候補領域を検出したことを示す異常検出画像が前記メイン領域の周縁部に配置された、表示画像を生成する。
以下、図面を参照しながら、本発明の実施形態を説明する。
(第1の実施形態)
(構成)
図1は、本発明の第1の実施形態に係わる、内視鏡診断支援システム1の構成例を示すブロック図である。図1では、観察モードを設定するための、操作部Xと制御部32を結ぶ信号線の図示は省略する。
(構成)
図1は、本発明の第1の実施形態に係わる、内視鏡診断支援システム1の構成例を示すブロック図である。図1では、観察モードを設定するための、操作部Xと制御部32を結ぶ信号線の図示は省略する。
内視鏡診断支援システム1は、光源駆動部11と、内視鏡21と、ビデオプロセッサ31と、表示部41と、操作部Xと、を有する。光源駆動部11は、内視鏡21と、ビデオプロセッサ31と接続される。内視鏡21及び操作部Xは、ビデオプロセッサ31と接続される。ビデオプロセッサ31は、表示部41と接続される。
光源駆動部11は、内視鏡21の挿入部22の先端部に設けられた照明部23を駆動する回路である。光源駆動部11は、ビデオプロセッサ31内の制御部32と、内視鏡21内の照明部23とに接続される。光源駆動部11は、制御部32の制御の下、照明部23から被検体に照明光を照射させる。光源駆動部11は、観察モードに応じ、通常光及び狭帯域光を照明部23から照射させる。より具体的には、光源駆動部11は、観察モードが、通常光モードであるとき、照明部23から通常光を照射させ、また、狭帯域光観察モードであるとき、照明部23から狭帯域光を照射させる。
内視鏡21は、被検体内を撮像できるように構成される。内視鏡21は、挿入部22と、照明部23と、撮像部24と、を有する。
挿入部22は、被検体内に挿入できるように、細長状に形成される。挿入部22は、図示しない処置具挿通管路等の管路を有する。挿入部22は、処置具挿通管路に挿通された図示しない処置具を先端部から突出させることが可能である。
照明部23は、挿入部22の先端部に設けられ、光源駆動部11の制御下において、被検体に照明光を照射する。
撮像部24は、挿入部22の先端部に設けられ、照明光が照射された被検体を撮像し、
撮像信号をビデオプロセッサ31に出力する。
撮像信号をビデオプロセッサ31に出力する。
ビデオプロセッサ31は、内視鏡21の制御を行い、内視鏡21から入力された撮像信号に基づいて、内視鏡画像Aを生成し、内視鏡画像Aに基づいて、表示画像Bを生成する。ビデオプロセッサ31は、制御部32と、異常検出部33と、画像生成部34と、を有する。
制御部32は、内視鏡診断支援システム1内の各部の制御を行う回路である。制御部32は、内視鏡21から入力された撮像信号に基づいて、例えば、ゲイン調整、ホワイトバランス調整、ガンマ補正、輪郭強調補正、拡大縮小調整等の画像処理を行って内視鏡画像Aを生成し、内視鏡画像Aを異常検出部33と画像生成部34に出力する。制御部32は、光源駆動部11に制御信号を送信し、観察モードに応じて照明部23を駆動する。観察モードは、操作部Xを介したユーザの指示入力によって設定される。制御部32は、内視鏡画像Aの明るさに応じ、照明部23の発光量を調整しても構わない。内視鏡画像Aは、動画像又は静止画像のいずれであっても構わない。
異常検出部33は、内視鏡画像Aに基づいて、病変等の異常の候補となる領域である異常候補領域Lの検出を行う回路である。異常検出部33は、画像生成部34と接続される。異常候補領域Lが検出されないとき、画像生成部34は、異常候補領域Lが非検出であることを示す検出結果を画像生成部34に出力する。異常候補領域Lが検出されたとき、異常検出部33は、異常候補領域Lの検出位置及び大きさを示す検出結果を画像生成部34に出力する。すなわち、異常検出部33は、撮像部24によって被検体内を撮像して取得された内視鏡画像Aから異常候補領域Lの検出を行い、検出結果を出力する。異常候補領域Lは、病変候補領域である。
例えば、異常検出部33は、機械学習等の人工知能技術を用いた演算装置によって構成される。より具体的には、異常検出部33は、深層学習技術(ディープラーニング)により、特徴量の抽出を学習した演算装置によって構成される。異常検出部33は、撮像部24から入力された内視鏡画像Aに対して、学習によって調整された所定の演算を行い、検出結果として、異常候補領域Lが非検出であることを示す特徴量、又は、異常候補領域Lの検出位置及び大きさを示す特徴量を画像生成部34に出力する。
なお、異常検出部33は、人工知能技術を用いた演算装置によって構成されるが、人工知能技術を用いない演算装置によって構成されても構わない。例えば、異常検出部33は、互いに隣り合う画素との変化量から輪郭の抽出を行い、輪郭と、制御部32内に予め記憶された異常候補領域Lのモデル情報とのマッチングによって抽出を行うように構成しても構わない。
画像生成部34は、表示画像Bの生成を行う回路である。画像生成部34は、制御部32から入力された内視鏡画像Aと、異常検出部33から入力された検出結果と、操作部Xから入力された指示信号と、に基づいて表示画像Bの生成を行う。画像生成部34は、指示信号に応じ、メイン領域B1の検出位置画像D1を非表示状態から表示状態に切り替える。
表示部41は、画像生成部34から入力された表示画像Bを表示画面上に表示できるように構成される。表示部41は、例えば、長方形状の表示画面を有するモニタである。
操作部Xは、ユーザの操作によって指示入力できるように構成される。操作部Xは、画像生成部34と接続される。操作部Xは、フットスイッチXa、キーボードXb、タブレットXc、音声入力装置Xd及びスコープスイッチXeを有する。以下、フットスイッチXa、キーボードXb、タブレットXc、音声入力装置Xd及びスコープスイッチXeの全て、又は、一部を示すとき、操作部Xという。
フットスイッチXa、キーボードXb、タブレットXc及び音声入力装置Xdは、ビデオプロセッサ31と有線又は無線によって接続される。フットスイッチXaは、ユーザの足によるペダルの踏み込み操作が可能である。キーボードXbは、ユーザの手指による所定キーの押下操作が可能である。タブレットXcは、ユーザの手指によるタッチパネルのタッチ操作が可能である。音声入力装置Xdは、ユーザの音声による操作が可能である。音声入力装置Xdでは、ユーザの音声が入力され、入力された音声の中から表示状態及び非表示状態を指示する所定の音声を検出する。スコープスイッチXeは、内視鏡21に取り付けられ、ユーザの手指による操作が可能である。
ユーザの手指、足又は音声によって表示状態を指示する指示入力が行われると、操作部Xは、表示状態を指示する指示信号を画像生成部34に出力する。一方、ユーザの手指、足又は音声によって非表示状態を指示する指示入力が行われると、操作部Xは、非表示状態を指示する指示信号を画像生成部34に出力する。すなわち、操作部Xは、ユーザの操作に応じて指示信号を出力する。
(表示画像Bの構成)
表示画像Bの構成について説明をする。
表示画像Bの構成について説明をする。
図2は、本発明の第1の実施形態に係わる、内視鏡診断支援システム1の表示部41の表示画像Bの構成例を示す図である。図2の例では、内視鏡画像A1、A2は、全体が八角形であり、生体内管腔が曲線によって模式的に表される。
表示画像Bは、長方形の画像であり、長手方向に分割されたメイン領域B1とサブ領域B2を有する。図2の1点鎖線は、メイン領域B1とサブ領域B2の境界を示す仮想の線である。
メイン領域B1は、内視鏡画像A1を表示する領域である。メイン領域B1は、内視鏡画像A1の視認性を向上できるように、サブ領域B2よりも広くなるように設定される。内視鏡画像A1は、メイン領域B1内に、内視鏡画像A2よりも大きく表示される。
サブ領域B2は、異常候補領域Lの検出位置を表示する領域である。サブ領域B2は、メイン領域B1と隣り合うように配置される。サブ領域B2には、検出位置を示すための検出位置画像D2を重畳するための内視鏡画像A2が配置される(図4)。
(作用)
続いて、画像生成部34の表示画像生成処理について説明をする。
続いて、画像生成部34の表示画像生成処理について説明をする。
図3は、本発明の第1の実施形態に係わる、内視鏡診断支援システム1の表示画像生成処理の一例を示すフローチャートである。図4と図5は、本発明の第1の実施形態に係わる、内視鏡診断支援システム1の表示部41の表示画像Bの構成例を示す図である。
挿入部22を挿入して被検体を撮像すると、撮像部24は、撮像信号を制御部32に出力する。制御部32は、撮像信号に基づいて、ゲイン調整、ホワイトバランス調整、ガンマ補正、輪郭強調補正、拡大縮小調整等の画像処理を行い、異常検出部33と画像生成部34に内視鏡画像Aを出力する。
異常検出部33は、所定の演算を行い、検出結果を画像生成部34に出力する。
画像生成部34は、制御部32から入力された内視鏡画像Aの大きさを調整し、メイン領域B1に内視鏡画像A1を配置し、サブ領域B2に内視鏡画像A2を配置する。
異常候補領域Lが検出されたか否かを判定する(S11)。異常候補領域Lが非検出であることを示す検出結果が異常検出部33から入力されたと、画像生成部34が判定すると(S11:NO)、処理は、S11を繰り返す。一方、図4に示すように、異常候補領域Lの検出位置及び大きさを示す検出結果が入力されたと、画像生成部34が判定すると(S11:YES)、処理はS12に進む。
メイン領域B1の検出マークMaと、サブ領域B2の検出位置画像D2とを表示状態にする(S12)。画像生成部34は、メイン領域B1の右下部、かつ内視鏡画像A1の外方において、異常候補領域Lを検出したことを示す異常検出画像である検出マークMaを表示状態にする。すなわち、検出マークMaは、メイン領域B1の周縁部、かつ内視鏡画像A1の近傍に配置される。図4の例では、検出マークMaは、旗を模した画像であるが、他の画像であっても構わない。
また、画像生成部34は、検出結果に基づき、サブ領域B2の異常候補領域Lの検出位置に対応する位置を示すように、検出位置画像D2を表示状態にする。図4の例では、検出位置画像D2は、矩形枠画像であるが、他の画像であっても構わない。
指示信号の入力があるか否かを判定する(S13)。表示状態を指示する指示信号の入力がないと、画像生成部34が判定すると、処理は、S11に戻る。一方、表示状態を指示する指示信号の入力があると、画像生成部34が判定すると、処理は、S14に進む。
メイン領域B1の検出位置画像D1を表示状態にする(S14)。図5に示すように、画像生成部34は、メイン領域B1の異常候補領域Lの検出位置に対応する位置を示すように、検出位置を示すための検出位置画像D1を表示状態にする。図5の例では、検出位置画像D1は、矩形枠画像であるが、他の画像であっても構わない。すなわち、メイン領域B1に配置される検出位置画像D1は、矩形枠画像である。
操作部Xによって非表示状態を指示する指示入力があり、又は、異常候補領域Lが非検出になると、画像生成部34は、検出位置画像D1を非表示状態にする。
S11~S14の処理が第1の実施形態に係わる表示画像生成処理を構成する。
すなわち、画像生成部34は、メイン領域B1と、メイン領域B1よりも小さなサブ領域B2とに分割され、内視鏡画像A1がメイン領域B1に配置され、前記検出結果に応じ、異常候補領域Lを検出したことを示す異常検出画像がメイン領域B1の周縁部に配置された、表示画像Bを生成する。画像生成部34は、検出結果に応じ、サブ領域B2の異常候補領域Lの検出位置に対応する位置を示すように、検出位置を示すための検出位置画像D2を配置する。画像生成部34は、異常検出画像がメイン領域B1に配置された表示画像Bを生成した後、メイン領域B1の検出位置に対応する位置を示すように、検出位置画像D1を配置する。
すなわち、内視鏡診断支援方法は、異常検出部33により、撮像部24によって被検体内を撮像して取得された内視鏡画像Aから異常候補領域Lの検出を行って検出結果を出力し、画像生成部34により、メイン領域B1と、メイン領域B1よりも小さなサブ領域B2とに分割され、内視鏡画像A1がメイン領域B1に配置され、前記検出結果に応じ、異常候補領域Lを検出したことを示す異常検出画像がメイン領域B1の周縁部に配置された、表示画像Bを生成する。
これにより、内視鏡診断支援システム1では、メイン領域B1における異常候補領域Lの検出位置画像D1は、ユーザが指示入力をするまで非表示状態にされ、内視鏡画像A1に対するユーザの注意を妨げない。
上述の第1の実施形態によれば、内視鏡診断支援システム1は、内視鏡画像A1に対するユーザの注意を妨げないように、病変等の異常の候補である異常候補領域Lを示すことができ、内視鏡21による診断を支援することができる。
(第1の実施形態の変形例1)
第1の実施形態では、検出マークMaは、メイン領域B1の右下部に表示されたが、検出マークMbは、内視鏡画像A1の四隅に表示されても構わない。
第1の実施形態では、検出マークMaは、メイン領域B1の右下部に表示されたが、検出マークMbは、内視鏡画像A1の四隅に表示されても構わない。
図6及び図7は、本発明の第1の実施形態の変形例1に係わる、内視鏡診断支援システム1の表示部41の表示画像Bの構成例を示す図である。本変形例では、他の実施形態及び変形例と同じ構成については、説明を省略する。
図6に示すように、異常検出部33から異常候補領域Lの検出位置及び大きさを示す検出結果が入力されると、画像生成部34は、メイン領域B1の検出マークMbを表示状態にし、サブ領域B2の検出位置画像D2を表示状態にする。
図6の例では、検出マークMbは、メイン領域B1の周縁部、かつ内視鏡画像A1の外方に、内視鏡画像A1の四隅のテーパ部に沿うように配置される。検出マークMbは、所定の太さを有する帯状画像である。なお、図6の例では、検出マークMbは、内視鏡画像A1の四隅の全てに配置されるが、四隅の全てではなく、四隅のうち少なくとも一部に配置されるように構成しても構わない。
図7に示すように、ユーザが、操作部Xによって表示状態を指示入力すると、メイン領域B1の検出位置画像D1は、表示状態にされる。
すなわち、画像生成部34は、検出マークMbを内視鏡画像A1の四隅に配置する。
これにより、内視鏡診断支援システム1は、ユーザがより気付きやすいように、検出マークMbを表示することができる。
(第1の実施形態の変形例2)
第1の実施形態の変形例1では、帯状画像の検出マークMbが表示されるが、三角形画像の検出マークMcが表示されても構わない。
第1の実施形態の変形例1では、帯状画像の検出マークMbが表示されるが、三角形画像の検出マークMcが表示されても構わない。
図8は、本発明の第1の実施形態の変形例2に係わる、内視鏡診断支援システム1の表示部41の表示画像Bの構成例を示す図である。本変形例では、他の実施形態及び変形例と同じ構成については、説明を省略する。
図8の例では、検出マークMcは、メイン領域B1の周縁部、かつ内視鏡画像A1の外方に、内視鏡画像A1の四隅のテーパ部に沿うように配置される。検出マークMcは、所定の色で塗り潰した三角形画像である。なお、図8の例では、検出マークMcは、内視鏡画像A1の四隅の全てに配置されるが、四隅の全てではなく、四隅のうち少なくとも一部に配置されるように構成しても構わない。
これにより、内視鏡診断支援システム1は、ユーザがより気付きやすいように、検出マークMcを表示することができる。
(第1の実施形態の変形例3)
第1の実施形態と、第1の実施形態の変形例1と2では、内視鏡画像A1、A2は、全体が八角形であるが、八角形でなくても構わない。
第1の実施形態と、第1の実施形態の変形例1と2では、内視鏡画像A1、A2は、全体が八角形であるが、八角形でなくても構わない。
図9は、本発明の第1の実施形態の変形例3に係わる、内視鏡診断支援システム1の表示部41の表示画像Bの構成例を示す図である。本変形例では、他の実施形態及び変形例と同じ構成については、説明を省略する。
メイン領域B1には、全体が四角形である内視鏡画像A1dが配置され、また、サブ領域B2には、内視鏡画像A1dを縮小した内視鏡画像A2dが配置される。
図9の例では、検出マークMdは、内視鏡画像A1dの四隅に配置され、四隅に沿って屈曲したL字状画像である。なお、検出マークMdは、目立つように、点滅表示にしても構わない。
これにより、内視鏡診断支援システム1は、全体が四角形である内視鏡画像A1dの四隅に、ユーザがより気付きやすいように、検出マークMdを表示することができる。
(第1の実施形態の変形例4)
第1の実施形態の変形例3では、内視鏡画像A1d、A2dは、全体が四角形であるが、互いに対向する辺が湾曲状であっても構わない。
第1の実施形態の変形例3では、内視鏡画像A1d、A2dは、全体が四角形であるが、互いに対向する辺が湾曲状であっても構わない。
図10は、本発明の第1の実施形態の変形例4に係わる、内視鏡診断支援システム1の表示部41の表示画像Bの構成例を示す図である。本変形例では、他の実施形態及び変形例と同じ構成については、説明を省略する。
メイン領域B1には、上下部が直線状、かつ左右両側部が湾曲状である内視鏡画像A1eが配置され、また、サブ領域B2には、内視鏡画像A1eを縮小した内視鏡画像A2eが配置される。
図10の例では、検出マークMeは、内視鏡画像A1eの四隅に配置された、1辺を湾曲させた三角形画像である。
これにより、内視鏡診断支援システム1は、互いに対向する辺が湾曲状である内視鏡画像A1eの四隅に、ユーザがより気付きやすいように、検出マークMeを表示することができる。
(第1の実施形態の変形例5)
第1の実施形態及び第1の実施形態の変形例1から4では、操作部Xの操作によって検出位置画像D1を表示状態にする指示入力が行われるが、ユーザの目の動きを検出して検出位置画像D1を表示状態にしても構わない。
第1の実施形態及び第1の実施形態の変形例1から4では、操作部Xの操作によって検出位置画像D1を表示状態にする指示入力が行われるが、ユーザの目の動きを検出して検出位置画像D1を表示状態にしても構わない。
図11は、本発明の第1の実施形態の変形例5に係わる、内視鏡診断支援システム1の表示画像生成処理の一例を示すフローチャートである。図12は、本発明の第1の実施形態の変形例5に係わる、内視鏡診断支援システム1の表示部41の表示画像Bの構成例を示す図である。
本実施形態では、他の実施形態及び変形例と同じ構成については、説明を省略する。
本変形例では、内視鏡診断支援システム1は、カメラZを有する(図1の2点鎖線)。
カメラZは、例えば、内視鏡画像A1を観察するユーザの目の動きを検出できるように、表示部41の縁等に取り付けられる。カメラZは、画像生成部34と接続される。カメラZは、ユーザの目を撮像し、画像生成部34にユーザの目の画像を出力する。
続いて、本変形例の動作について説明をする。
S21、S22は、S11、S12と同じであるため、説明を省略する。
ユーザの目が所定の動きをしているか否かを判定する(S23)。ユーザの目が所定の動きをしていないと、画像生成部34が判定するとき、処理は21に戻る。一方、ユーザの目が所定の動きをしていると、画像生成部34が判定するとき、処理はS24に進む。
所定の動きは、例えば、ユーザが目視によって内視鏡画像A内の異常を発見し、ユーザの視線が、異常候補領域Lの検出位置に、所定時間向けられた動きであっても構わない。また、所定の動きは、ユーザが検出マークMaに気付き、ユーザの視線が、メイン領域B1から表示画像Bの全体に移った動きであっても構わない。また、所定の動きは、予め設定された表示画像B内の所定位置に、ユーザの視線が向けられた動きであっても構わない。
メイン領域B1の検出位置画像D1を表示状態にする(S24)。検出位置画像D1は、メイン領域B1内の異常候補領域Lの近傍に表示される矢印画像である。メイン領域B1に配置される検出位置画像D1は、矢印画像である。
画像生成部34は、操作部Xによる指示入力、カメラZによる目の所定の動きの検出、又は、異常候補領域Lの非検出により、検出位置画像D1を非表示状態にする。
画像生成部34は、観察モードが通常観察モードから狭帯域光モードに切り替えられたとき、ユーザの内視鏡画像A1に対する注意を妨げないように、メイン領域B1の検出位置画像D1を非表示にする。
異常検出部33内に、内視鏡画像Aから所定の処置具を検出する処置具検出部T1(図1の2点鎖線)を有し、内視鏡画像Aから所定の処置具が検出されたとき、ユーザの注意を妨げないように、メイン領域B1の検出位置画像D1を非表示にする。
すなわち、画像生成部34は、所定の表示切替条件を満たすと判定するとき、メイン領域B1の検出位置画像D1を表示状態又は非表示状態のいずれかに切り替える。所定の表示切替条件は、カメラZから入力されたユーザの目の画像が所定の動きをしているか否かである。また、所定の表示切替条件は、観察モードが狭帯域光観察モードであるか否かである。また、所定の表示切替条件は、処置具検出部T1によって所定の処置具が検出されたか否かである。
S21からS24の処理が、第1の実施形態の変形例5に係わる、表示画像生成処理を構成する。
これにより、内視鏡診断支援システム1は、所定の表示切替条件によって検出位置画像D1を表示状態又は非表示状態のいずれかに切り替えることができ、ユーザに操作部Xを操作する手間をかけさせない。
(第2の実施形態)
第1の実施形態及び第1の実施形態の変形例1から5では、サブ領域B2は、異常候補領域Lの検出位置を表示するが、異常候補領域Lの拡大画像Eを表示しても構わない。
第1の実施形態及び第1の実施形態の変形例1から5では、サブ領域B2は、異常候補領域Lの検出位置を表示するが、異常候補領域Lの拡大画像Eを表示しても構わない。
図13は、本発明の第2の実施形態に係わる、内視鏡診断支援システム1の表示画像生成処理の一例を示すフローチャートである。図14は、本発明の第2の実施形態に係わる、内視鏡診断支援システム1の表示部41の表示画像Bの構成例を示す図である。本実施形態では、他の実施形態及び変形例と同じ構成については、説明を省略する。
第2の実施形態の内視鏡診断支援システム1の動作について、説明をする。
S31からS33は、S11からS13と同じであるため、説明を省略する。
メイン領域B1の検出位置画像D1を表示状態にし、サブ領域B2に拡大画像Eを表示する(S34)。図14に示すように、画像生成部34は、メイン領域B1の検出位置画像D1を表示状態にする。また、画像生成部34は、サブ領域B2に、所定の拡大率の拡大画像Eを表示する。
すなわち、画像生成部34は、サブ領域B2に、異常候補領域Lを拡大した拡大画像Eを配置する。
S31からS34の処理が、第2の実施形態に係わる、表示画像生成処理を構成する。
これにより、内視鏡診断支援システム1では、ユーザの指示入力により、サブ領域B2に拡大画像Eを表示することができ、異常候補領域Lの視認性が向上する。
上述の第2の実施形態によれば、内視鏡診断支援システム1は、内視鏡画像A1に対するユーザの注意を妨げないように、病変等の異常の候補である異常候補領域Lを示すことができ、内視鏡21による診断を支援することができる。
なお、実施形態及び変形例では、検出マークMa、Mb、Mc、Md、Meと検出位置画像D1、D2は、ユーザが見やすいように、互いに同じ色であっても構わない。
なお、実施形態及び変形例では、画像生成部34は、内視鏡画像A1、A1d、A1e、A2、A2d、A2eの外方に検出位置画像D1、D2が配置されないように、表示画像Bを生成しても構わない。
なお、実施形態及び変形例では、画像生成部34は、メイン領域B1に検出位置画像D1を配置するとき、サブ領域B2にも検出位置画像D2を配置するが、メイン領域B1に検出位置画像D1を配置するとき、サブ領域B2に検出位置画像D2を配置しないように、表示画像Bを生成しても構わない。
なお、実施形態及び変形例では、操作部Xは、フットスイッチXa、キーボードXb、タブレットXc、音声入力装置Xd及びスコープスイッチXeの全てによって構成されるが、フットスイッチXa、キーボードXb、タブレットXc、音声入力装置Xd及びスコープスイッチXeの一部によって構成されても構わない。すなわち、操作部Xは、フットスイッチXa、キーボードXb、タブレットXc、音声入力装置Xd及びスコープスイッチXeの少なくともいずれか1つ以上を備える。
なお、第1の実施形態では、検出マークMaは、メイン領域B1の右下部に表示されたが、メイン領域B1の右上部、左上部又は左下部のいずれに表示されても構わない。
なお、第1の実施形態の変形例5では、所定の表示切替条件は、ユーザの目の画像が所定の動きをしているか否かであるが、タイマT2を有し(図1の2点鎖線)、異常検出部33は、異常候補領域Lにおける異常の種類を検出可能であり、タイマT2は、異常候補領域Lが検出された後、異常の種類に応じた所定時間を計測可能であり、所定の表示切替条件は、異常候補領域Lが検出された後、所定時間が経過したか否かであっても構わない。
なお、第2の実施形態における所定の拡大率は、予め設定されるが、異常候補領域Lの大きさに応じて変化するように構成しても構わない。
本明細書における各「部」は、実施形態の各機能に対応する概念的なもので、必ずしも特定のハードウェアやソフトウェア・ルーチンに1対1には対応しない。したがって、本明細書では、実施形態の各機能を有する仮想的回路ブロック(部)を想定して実施形態を説明した。また、本実施形態における各手順の各ステップは、その性質に反しない限り、実行順序を変更し、複数同時に実行し、あるいは実行毎に異なった順序で実行してもよい。さらに、本実施形態における各手順の各ステップの全てあるいは一部をハードウェアにより実現してもよい。
例えば、ビデオプロセッサ31がCPU51及びメモリ52を有し、メモリ52に記憶された内視鏡診断支援プログラム53を実行することにより、異常検出部33及び画像生成部34の機能が実現されても構わない(図1の2点鎖線)。すなわち、内視鏡診断支援プログラム53は、撮像部24によって被検体内を撮像して取得された内視鏡画像Aから異常候補領域Lの検出を行い、検出結果を出力するコードと、メイン領域B1と、メイン領域B1よりも小さなサブ領域B2とに分割され、内視鏡画像A1がメイン領域B1に配置され、前記検出結果に応じ、異常候補領域Lを検出したことを示す異常検出画像がメイン領域B1の周縁部に配置された、表示画像Bを生成するコードと、をコンピュータに実行させる。
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
Claims (20)
- 撮像部によって被検体内を撮像して取得された内視鏡画像から異常候補領域の検出を行い、検出結果を出力する異常検出部と、
メイン領域と、前記メイン領域よりも小さなサブ領域とに分割され、前記内視鏡画像が前記メイン領域に配置され、前記検出結果に応じ、前記異常候補領域を検出したことを示す異常検出画像が前記メイン領域の周縁部に配置された、表示画像を生成する画像生成部と、
を備えることを特徴とする内視鏡診断支援システム。 - 前記内視鏡画像は、動画像であり、
前記画像生成部は、前記検出結果に応じ、前記サブ領域の前記異常候補領域の検出位置に対応する位置に、前記検出位置を示すための検出位置画像を配置する、
ことを特徴とする請求項1に記載の内視鏡診断支援システム。 - 前記画像生成部は、前記異常検出画像が前記メイン領域に配置された前記表示画像を生成した後、前記メイン領域の前記検出位置に対応する位置を示すように、前記検出位置画像を配置する、ことを特徴とする請求項2に記載の内視鏡診断支援システム。
- 前記画像生成部は、前記サブ領域に、前記異常候補領域を拡大した拡大画像を配置する、ことを特徴とする請求項1に記載の内視鏡診断支援システム。
- 前記異常検出画像と前記検出位置画像は、互いに同じ色である、ことを特徴とする請求項2に記載の内視鏡診断支援システム。
- 前記異常検出画像は、検出マークである、ことを特徴とする請求項1に記載の内視鏡診断支援システム。
- 前記画像生成部は、前記異常検出画像を前記内視鏡画像の四隅に配置する、ことを特徴とする請求項1に記載の内視鏡診断支援システム。
- 前記画像生成部は、前記内視鏡画像の外方に前記検出位置画像が配置されないように、前記表示画像を生成する、ことを特徴とする請求項3に記載の内視鏡診断支援システム。
- 前記メイン領域に配置される前記検出位置画像は、矩形枠画像である、ことを特徴とする請求項3に記載の内視鏡診断支援システム。
- 前記メイン領域に配置される前記検出位置画像は、矢印画像である、ことを特徴とする請求項3に記載の内視鏡診断支援システム。
- ユーザの操作に応じて指示信号を出力する操作部を有し、
前記画像生成部は、前記指示信号に応じ、前記メイン領域の前記検出位置画像を表示状態又は非表示状態のいずれかに切り替える、ことを特徴とする請求項3に記載の内視鏡診断支援システム。 - 前記操作部は、フットスイッチ、キーボード、タブレット、音声入力装置及びスコープスイッチの少なくともいずれか1つ以上を備える、ことを特徴とする請求項11に記載の内視鏡診断支援システム。
- 前記画像生成部は、所定の表示切替条件を満たすと判定するとき、前記メイン領域の前記検出位置画像を表示状態又は非表示状態のいずれかに切り替える、ことを特徴とする請求項3に記載の内視鏡診断支援システム。
- カメラを有し、
前記所定の表示切替条件は、前記カメラから入力されたユーザの目の画像が所定の動きをしているか否かである、ことを特徴とする請求項13に記載の内視鏡診断支援システム。 - タイマを有し、
前記異常検出部は、前記異常候補領域における異常の種類を検出可能であり、
前記タイマは、前記異常候補領域が検出された後、前記異常の種類に応じた所定時間を計測可能であり、
前記所定の表示切替条件は、前記異常候補領域が検出された後、前記所定時間が経過したか否かである、ことを特徴とする請求項13に記載の内視鏡診断支援システム。 - 前記所定の表示切替条件は、観察モードが狭帯域光観察モードであるか否かである、ことを特徴とする請求項13に記載の内視鏡診断支援システム。
- 処置具検出部を有し、
前記処置具検出部は、前記内視鏡画像から所定の処置具の検出を行い、
前記所定の表示切替条件は、前記処置具検出部によって前記所定の処置具が検出されたか否かである、ことを特徴とする請求項13に記載の内視鏡診断支援システム。 - 前記画像生成部は、前記メイン領域に前記検出位置画像を配置するとき、前記サブ領域に前記検出位置画像を配置しないように、前記表示画像を生成する、ことを特徴とする請求項3に記載の内視鏡診断支援システム。
- 撮像部によって被検体内を撮像して取得された内視鏡画像から異常候補領域の検出を行い、検出結果を出力するコードと、
メイン領域と、前記メイン領域よりも小さなサブ領域とに分割され、前記内視鏡画像が前記メイン領域に配置され、前記検出結果に応じ、前記異常候補領域を検出したことを示す異常検出画像が前記メイン領域の周縁部に配置された、表示画像を生成するコードと、
をコンピュータに実行させるための内視鏡診断支援プログラム。 - 異常検出部により、撮像部によって被検体内を撮像して取得された内視鏡画像から異常候補領域の検出を行って検出結果を出力し、
画像生成部により、メイン領域と、前記メイン領域よりも小さなサブ領域とに分割され、前記内視鏡画像が前記メイン領域に配置され、前記検出結果に応じ、前記異常候補領域を検出したことを示す異常検出画像が前記メイン領域の周縁部に配置された、表示画像を生成する、
ことを特徴とする内視鏡診断支援方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201780092399.2A CN110868907B (zh) | 2017-04-28 | 2017-04-28 | 内窥镜诊断辅助系统、存储介质和内窥镜诊断辅助方法 |
PCT/JP2017/016961 WO2018198327A1 (ja) | 2017-04-28 | 2017-04-28 | 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法 |
JP2019515030A JP6751815B2 (ja) | 2017-04-28 | 2017-04-28 | 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援システムの作動方法 |
US16/665,040 US12419491B2 (en) | 2017-04-28 | 2019-10-28 | Endoscope diagnosis support system, storage medium, and endoscope diagnosis support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/016961 WO2018198327A1 (ja) | 2017-04-28 | 2017-04-28 | 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US16/665,040 Continuation US12419491B2 (en) | 2017-04-28 | 2019-10-28 | Endoscope diagnosis support system, storage medium, and endoscope diagnosis support method |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018198327A1 true WO2018198327A1 (ja) | 2018-11-01 |
Family
ID=63918852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/016961 WO2018198327A1 (ja) | 2017-04-28 | 2017-04-28 | 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US12419491B2 (ja) |
JP (1) | JP6751815B2 (ja) |
CN (1) | CN110868907B (ja) |
WO (1) | WO2018198327A1 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020136858A1 (ja) * | 2018-12-28 | 2020-07-02 | オリンパス株式会社 | 内視鏡画像処理装置、内視鏡画像処理方法及びプログラム |
JPWO2020183770A1 (ja) * | 2019-03-08 | 2020-09-17 | ||
WO2021033303A1 (ja) * | 2019-08-22 | 2021-02-25 | Hoya株式会社 | 訓練データ生成方法、学習済みモデル及び情報処理装置 |
WO2021095446A1 (ja) * | 2019-11-11 | 2021-05-20 | 富士フイルム株式会社 | 情報表示システムおよび情報表示方法 |
JPWO2021199152A1 (ja) * | 2020-03-30 | 2021-10-07 | ||
JPWO2020170809A1 (ja) * | 2019-02-19 | 2021-12-02 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡システム、及び医療画像処理方法 |
WO2024004524A1 (ja) * | 2022-06-29 | 2024-01-04 | 富士フイルム株式会社 | 診断支援装置、超音波内視鏡、診断支援方法、及びプログラム |
US11931200B2 (en) | 2020-06-25 | 2024-03-19 | Fujifilm Healthcare Corporation | Ultrasound diagnostic apparatus and diagnosis assisting method |
US12106394B2 (en) | 2019-02-26 | 2024-10-01 | Fujifilm Corporation | Medical image processing apparatus, processor device, endoscope system, medical image processing method, and program |
US12419491B2 (en) * | 2017-04-28 | 2025-09-23 | Olympus Corporation | Endoscope diagnosis support system, storage medium, and endoscope diagnosis support method |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7048628B2 (ja) | 2016-11-28 | 2022-04-05 | アダプティブエンドウ エルエルシー | 分離可能使い捨てシャフト付き内視鏡 |
WO2020054541A1 (ja) * | 2018-09-11 | 2020-03-19 | 富士フイルム株式会社 | 医療画像処理装置、医療画像処理方法及びプログラム、内視鏡システム |
CN111064934A (zh) * | 2019-12-30 | 2020-04-24 | 元力(天津)科技有限公司 | 一种医用影像处理系统及方法 |
USD1018844S1 (en) | 2020-01-09 | 2024-03-19 | Adaptivendo Llc | Endoscope handle |
JP7658724B2 (ja) * | 2020-06-29 | 2025-04-08 | キヤノンメディカルシステムズ株式会社 | 手術支援システム及び支援システムの作動方法 |
USD1051380S1 (en) | 2020-11-17 | 2024-11-12 | Adaptivendo Llc | Endoscope handle |
USD1070082S1 (en) | 2021-04-29 | 2025-04-08 | Adaptivendo Llc | Endoscope handle |
USD1031035S1 (en) | 2021-04-29 | 2024-06-11 | Adaptivendo Llc | Endoscope handle |
USD1066659S1 (en) | 2021-09-24 | 2025-03-11 | Adaptivendo Llc | Endoscope handle |
CN115998225A (zh) * | 2022-12-12 | 2023-04-25 | 珠海泰科医疗技术有限公司 | 一种内窥镜病灶区域曝光方法、内窥镜和存储介质 |
US20240296550A1 (en) * | 2023-03-02 | 2024-09-05 | Bh2 Innovations Inc. | High Speed Detection of Anomalies in Medical Scopes and the Like Using Image Segmentation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010172673A (ja) * | 2009-02-02 | 2010-08-12 | Fujifilm Corp | 内視鏡システム、内視鏡用プロセッサ装置、並びに内視鏡検査支援方法 |
JP2011160848A (ja) * | 2010-02-05 | 2011-08-25 | Olympus Corp | 画像処理装置、内視鏡システム、プログラム及び画像処理方法 |
JP2011255006A (ja) * | 2010-06-09 | 2011-12-22 | Olympus Corp | 画像処理装置、内視鏡装置、プログラム及び画像処理方法 |
WO2017073337A1 (ja) * | 2015-10-27 | 2017-05-04 | オリンパス株式会社 | 内視鏡装置 |
WO2017073338A1 (ja) * | 2015-10-26 | 2017-05-04 | オリンパス株式会社 | 内視鏡画像処理装置 |
Family Cites Families (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5482049A (en) * | 1994-03-16 | 1996-01-09 | Siemens Medical Systems, Inc. | Programmable electronic blood pressure monitoring labels |
US6167296A (en) * | 1996-06-28 | 2000-12-26 | The Board Of Trustees Of The Leland Stanford Junior University | Method for volumetric image navigation |
US6371908B1 (en) * | 1998-05-01 | 2002-04-16 | Asahi Kogaku Kogyo Kabushiki Kaisha | Video endoscopic apparatus for fluorescent diagnosis |
KR100411631B1 (ko) * | 2001-10-18 | 2003-12-18 | 주식회사 메디미르 | 형광 내시경 장치 및 그 장치를 이용한 진단부위 조상 방법 |
JP2004159739A (ja) | 2002-11-11 | 2004-06-10 | Ge Medical Systems Global Technology Co Llc | 画像処理方法および装置 |
US6973158B2 (en) * | 2003-06-25 | 2005-12-06 | Besson Guy M | Multi-target X-ray tube for dynamic multi-spectral limited-angle CT imaging |
US7894646B2 (en) * | 2003-08-01 | 2011-02-22 | Hitachi Medical Corporation | Medical image diagnosis support device and method for calculating degree of deformation from normal shapes of organ regions |
US8675059B2 (en) * | 2010-07-29 | 2014-03-18 | Careview Communications, Inc. | System and method for using a video monitoring system to prevent and manage decubitus ulcers in patients |
JP4578817B2 (ja) * | 2004-02-06 | 2010-11-10 | オリンパス株式会社 | 外科手術用病変部同定システム |
WO2005104954A2 (en) * | 2004-04-15 | 2005-11-10 | Edda Technology, Inc. | Multiple volume exploration system and method |
JP4477451B2 (ja) * | 2004-08-23 | 2010-06-09 | オリンパス株式会社 | 画像表示装置、画像表示方法および画像表示プログラム |
JP4575124B2 (ja) * | 2004-11-29 | 2010-11-04 | オリンパス株式会社 | 画像表示装置 |
US20060173358A1 (en) * | 2005-01-11 | 2006-08-03 | Olympus Corporation | Fluorescence observation endoscope apparatus and fluorescence observation method |
US8423123B2 (en) * | 2005-09-30 | 2013-04-16 | Given Imaging Ltd. | System and method for in-vivo feature detection |
JP4891637B2 (ja) * | 2006-03-14 | 2012-03-07 | オリンパスメディカルシステムズ株式会社 | 画像解析装置 |
JP5005981B2 (ja) * | 2006-08-03 | 2012-08-22 | オリンパスメディカルシステムズ株式会社 | 画像表示装置 |
KR100936456B1 (ko) * | 2006-12-07 | 2010-01-13 | 주식회사 메디슨 | 초음파 시스템 |
EP2174578A4 (en) * | 2007-07-12 | 2013-07-03 | Olympus Medical Systems Corp | IMAGE PROCESSING DEVICE, YOUR OPERATING PROCESS AND YOUR PROGRAM |
US20100329520A2 (en) * | 2007-11-08 | 2010-12-30 | Olympus Medical Systems Corp. | Method and System for Correlating Image and Tissue Characteristic Data |
KR100868339B1 (ko) * | 2007-11-15 | 2008-11-12 | 주식회사 인트로메딕 | 의료용 영상 데이터의 디스플레이 방법과 의료용 영상데이터를 이용한 캡쳐 영상 제공 시스템 및 그 방법 |
US8120301B2 (en) * | 2009-03-09 | 2012-02-21 | Intuitive Surgical Operations, Inc. | Ergonomic surgeon control console in robotic surgical systems |
EP2347791A4 (en) * | 2009-08-19 | 2012-05-30 | Olympus Medical Systems Corp | MEDICAL SYSTEM AND MEDICAL TAX PROCEDURE |
US8903144B2 (en) * | 2010-12-01 | 2014-12-02 | Olympus Corporation | Endoscope apparatus and method of measuring object |
US9984474B2 (en) * | 2011-03-04 | 2018-05-29 | General Electric Company | Method and device for measuring features on or near an object |
JP5822554B2 (ja) * | 2011-06-17 | 2015-11-24 | キヤノン株式会社 | 画像処理装置、画像処理方法、撮影システム及びプログラム |
US20130096457A1 (en) * | 2011-10-18 | 2013-04-18 | Qscope, LLC | Oral scope system with image sensor and method for visual examination of oral cavity and upper airway |
TWI548394B (zh) * | 2012-09-24 | 2016-09-11 | 榮晶生物科技股份有限公司 | 影像偵測裝置及影像偵測方法 |
EP2910173A4 (en) * | 2012-10-18 | 2016-06-01 | Olympus Corp | IMAGE PROCESSING DEVICE AND METHOD |
KR102043133B1 (ko) * | 2012-11-16 | 2019-11-12 | 삼성전자주식회사 | 컴퓨터 보조 진단 지원 장치 및 방법 |
JP2014198144A (ja) * | 2013-03-29 | 2014-10-23 | ソニー株式会社 | 画像処理装置、画像処理方法、情報処理プログラム、蛍光観察システム、および蛍光ナビゲーション・サージェリー・システム |
US9378638B2 (en) * | 2013-06-04 | 2016-06-28 | American Megatrends, Inc. | Emergency alert system using management controller in network |
US9697541B1 (en) * | 2013-09-12 | 2017-07-04 | Isaac S. Daniel | System and method of controlling multimedia display for a game of chance |
US9295372B2 (en) * | 2013-09-18 | 2016-03-29 | Cerner Innovation, Inc. | Marking and tracking an area of interest during endoscopy |
JP5810248B2 (ja) * | 2013-10-02 | 2015-11-11 | オリンパス株式会社 | 内視鏡システム |
CN103622662A (zh) * | 2013-11-05 | 2014-03-12 | 乐陵市信诺医疗器械有限公司 | 高清晰结直肠镜检查系统 |
JP6344039B2 (ja) * | 2014-04-28 | 2018-06-20 | 富士通株式会社 | 画像表示装置、画像表示方法及びプログラム |
US10216762B2 (en) * | 2014-06-04 | 2019-02-26 | Panasonic Corporation | Control method and non-transitory computer-readable recording medium for comparing medical images |
JP6405138B2 (ja) * | 2014-07-15 | 2018-10-17 | オリンパス株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP6485694B2 (ja) * | 2015-03-26 | 2019-03-20 | ソニー株式会社 | 情報処理装置および方法 |
KR101728045B1 (ko) * | 2015-05-26 | 2017-04-18 | 삼성전자주식회사 | 의료 영상 디스플레이 장치 및 의료 영상 디스플레이 장치가 사용자 인터페이스를 제공하는 방법 |
JP6549711B2 (ja) * | 2015-06-11 | 2019-07-24 | オリンパス株式会社 | 内視鏡装置及び内視鏡装置の作動方法 |
US10861151B2 (en) * | 2015-08-07 | 2020-12-08 | The Arizona Board Of Regents On Behalf Of Arizona State University | Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy |
EP3360461A4 (en) | 2015-11-10 | 2019-05-08 | Olympus Corporation | ENDOSCOPE DEVICE |
JP6710284B2 (ja) * | 2016-10-12 | 2020-06-17 | オリンパス株式会社 | 挿入システム |
WO2018198327A1 (ja) * | 2017-04-28 | 2018-11-01 | オリンパス株式会社 | 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法 |
WO2018230074A1 (ja) * | 2017-06-14 | 2018-12-20 | オリンパス株式会社 | 内視鏡画像観察支援システム |
WO2019146066A1 (ja) * | 2018-01-26 | 2019-08-01 | オリンパス株式会社 | 内視鏡画像処理装置、内視鏡画像処理方法及びプログラム |
US10810460B2 (en) * | 2018-06-13 | 2020-10-20 | Cosmo Artificial Intelligence—AI Limited | Systems and methods for training generative adversarial networks and use of trained generative adversarial networks |
US11455090B2 (en) * | 2020-05-15 | 2022-09-27 | Digits Financial, Inc. | System and method for detecting and resizing a window for improved content delivery |
-
2017
- 2017-04-28 WO PCT/JP2017/016961 patent/WO2018198327A1/ja active Application Filing
- 2017-04-28 JP JP2019515030A patent/JP6751815B2/ja active Active
- 2017-04-28 CN CN201780092399.2A patent/CN110868907B/zh active Active
-
2019
- 2019-10-28 US US16/665,040 patent/US12419491B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010172673A (ja) * | 2009-02-02 | 2010-08-12 | Fujifilm Corp | 内視鏡システム、内視鏡用プロセッサ装置、並びに内視鏡検査支援方法 |
JP2011160848A (ja) * | 2010-02-05 | 2011-08-25 | Olympus Corp | 画像処理装置、内視鏡システム、プログラム及び画像処理方法 |
JP2011255006A (ja) * | 2010-06-09 | 2011-12-22 | Olympus Corp | 画像処理装置、内視鏡装置、プログラム及び画像処理方法 |
WO2017073338A1 (ja) * | 2015-10-26 | 2017-05-04 | オリンパス株式会社 | 内視鏡画像処理装置 |
WO2017073337A1 (ja) * | 2015-10-27 | 2017-05-04 | オリンパス株式会社 | 内視鏡装置 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12419491B2 (en) * | 2017-04-28 | 2025-09-23 | Olympus Corporation | Endoscope diagnosis support system, storage medium, and endoscope diagnosis support method |
JPWO2020136858A1 (ja) * | 2018-12-28 | 2021-11-04 | オリンパス株式会社 | 内視鏡画像処理装置、内視鏡画像処理方法及びプログラム |
CN113226151A (zh) * | 2018-12-28 | 2021-08-06 | 奥林巴斯株式会社 | 内窥镜图像处理装置、内窥镜图像处理方法及程序 |
WO2020136858A1 (ja) * | 2018-12-28 | 2020-07-02 | オリンパス株式会社 | 内視鏡画像処理装置、内視鏡画像処理方法及びプログラム |
JP7123173B2 (ja) | 2018-12-28 | 2022-08-22 | オリンパス株式会社 | 内視鏡画像処理装置、内視鏡画像処理方法及びプログラム |
JPWO2020170809A1 (ja) * | 2019-02-19 | 2021-12-02 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡システム、及び医療画像処理方法 |
US12106394B2 (en) | 2019-02-26 | 2024-10-01 | Fujifilm Corporation | Medical image processing apparatus, processor device, endoscope system, medical image processing method, and program |
WO2020183770A1 (ja) * | 2019-03-08 | 2020-09-17 | 富士フイルム株式会社 | 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム |
JPWO2020183770A1 (ja) * | 2019-03-08 | 2020-09-17 | ||
US11918176B2 (en) | 2019-03-08 | 2024-03-05 | Fujifilm Corporation | Medical image processing apparatus, processor device, endoscope system, medical image processing method, and program |
CN113543694B (zh) * | 2019-03-08 | 2024-02-13 | 富士胶片株式会社 | 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及记录介质 |
CN113543694A (zh) * | 2019-03-08 | 2021-10-22 | 富士胶片株式会社 | 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序 |
JP7166430B2 (ja) | 2019-03-08 | 2022-11-07 | 富士フイルム株式会社 | 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム |
JPWO2021033303A1 (ja) * | 2019-08-22 | 2021-12-02 | Hoya株式会社 | 訓練データ生成方法、学習済みモデル及び情報処理装置 |
WO2021033303A1 (ja) * | 2019-08-22 | 2021-02-25 | Hoya株式会社 | 訓練データ生成方法、学習済みモデル及び情報処理装置 |
WO2021095446A1 (ja) * | 2019-11-11 | 2021-05-20 | 富士フイルム株式会社 | 情報表示システムおよび情報表示方法 |
JP7260060B2 (ja) | 2020-03-30 | 2023-04-18 | 日本電気株式会社 | 情報処理装置、表示方法、及びプログラム |
WO2021199152A1 (ja) * | 2020-03-30 | 2021-10-07 | 日本電気株式会社 | 情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
JPWO2021199152A1 (ja) * | 2020-03-30 | 2021-10-07 | ||
US12080059B2 (en) | 2020-03-30 | 2024-09-03 | Nec Corporation | Information processing device, display method, and nontransitory computer-readable medium for storing program |
US12417626B2 (en) | 2020-03-30 | 2025-09-16 | Nec Corporation | Information processing device, display method, and non-transitory computer-readable medium for supporting medical decision making |
US11931200B2 (en) | 2020-06-25 | 2024-03-19 | Fujifilm Healthcare Corporation | Ultrasound diagnostic apparatus and diagnosis assisting method |
WO2024004524A1 (ja) * | 2022-06-29 | 2024-01-04 | 富士フイルム株式会社 | 診断支援装置、超音波内視鏡、診断支援方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2018198327A1 (ja) | 2020-03-12 |
US12419491B2 (en) | 2025-09-23 |
CN110868907A (zh) | 2020-03-06 |
US20200126223A1 (en) | 2020-04-23 |
CN110868907B (zh) | 2022-05-17 |
JP6751815B2 (ja) | 2020-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6751815B2 (ja) | 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援システムの作動方法 | |
US12165317B2 (en) | Composite medical imaging systems and methods | |
CN113365545B (zh) | 图像记录装置、图像记录方法和图像记录程序 | |
JP6956853B2 (ja) | 診断支援装置、診断支援プログラム、及び、診断支援方法 | |
JPWO2021010225A1 (ja) | コンピュータプログラム、情報処理方法、及び内視鏡用プロセッサ | |
JP7363878B2 (ja) | 放射線画像表示装置および画像表示方法 | |
US20250077161A1 (en) | Information processing system, information processing method, and information processing program | |
JP2021058464A (ja) | 大腸内視鏡検査補助装置、大腸内視鏡検査補助方法及び大腸内視鏡検査補助プログラム | |
JP6308359B2 (ja) | 医療用表示装置 | |
JPWO2019225231A1 (ja) | 手術用情報処理装置、情報処理方法及びプログラム | |
JP2012090785A (ja) | 電子内視鏡装置 | |
WO2020121536A1 (ja) | ユーザインタフェース装置、医療システム、操作制御方法、及び操作制御プログラム | |
JP2015188559A (ja) | 医療用イメージング装置 | |
WO2021176665A1 (ja) | 手術支援システム、手術支援方法、及び、プログラム | |
CN114727860A (zh) | 物理医疗元件放置系统 | |
WO2021171464A1 (ja) | 処理装置、内視鏡システム及び撮像画像の処理方法 | |
JP5932188B1 (ja) | 内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システム | |
JP7647873B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20250143538A1 (en) | Image processing device, image processing method, and storage medium | |
JP2012000125A (ja) | 放射線撮影装置 | |
WO2024018713A1 (ja) | 画像処理装置、表示装置、内視鏡装置、画像処理方法、画像処理プログラム、学習済みモデル、学習済みモデル生成方法、及び、学習済みモデル生成プログラム | |
KR20160048238A (ko) | 수술지원시스템 | |
CN120641030A (zh) | 内窥镜用图像处理装置和内窥镜用图像处理装置的工作方法 | |
JP2024035183A (ja) | 患者の位置を監視するシステム | |
WO2023112499A1 (ja) | 内視鏡画像観察支援装置及び内視鏡システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17907059 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019515030 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17907059 Country of ref document: EP Kind code of ref document: A1 |