WO2016110993A1 - 内視鏡システム、内視鏡装置及び内視鏡システムの制御方法 - Google Patents
内視鏡システム、内視鏡装置及び内視鏡システムの制御方法 Download PDFInfo
- Publication number
- WO2016110993A1 WO2016110993A1 PCT/JP2015/050434 JP2015050434W WO2016110993A1 WO 2016110993 A1 WO2016110993 A1 WO 2016110993A1 JP 2015050434 W JP2015050434 W JP 2015050434W WO 2016110993 A1 WO2016110993 A1 WO 2016110993A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- mode
- frame rate
- imaging
- villi
- small intestine
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/041—Capsule endoscopes for imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00011—Operational features of endoscopes characterised by signal transmission
- A61B1/00013—Operational features of endoscopes characterised by signal transmission using optical means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00025—Operational features of endoscopes characterised by power management
- A61B1/00036—Means for power saving, e.g. sleeping mode
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00039—Operational features of endoscopes provided with input arrangements for the user
- A61B1/0004—Operational features of endoscopes provided with input arrangements for the user for electronic operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00039—Operational features of endoscopes provided with input arrangements for the user
- A61B1/00042—Operational features of endoscopes provided with input arrangements for the user for mechanical operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/00048—Constructional features of the display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/044—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
Definitions
- the present invention relates to an endoscope system, an endoscope apparatus, an endoscope system control method, and the like.
- capsule-type endoscope devices incorporating a small imaging unit have become widely known. Since the capsule endoscope is small, the frame rate is controlled in order to save the number of captured images for reasons such as saving power.
- the frame rate is controlled according to the speed at which the capsule endoscope moves in the digestive tract, for example. The frame rate is decreased when the movement is slow, and the frame rate is increased when the movement is fast.
- Patent Document 1 discloses a technique for analyzing the movement of a capsule using an image captured by a capsule body swallowed in the body and adaptively controlling the imaging frame rate. Specifically, the imaging frame rate is controlled to be slow when the capsule movement is relatively slow, and the imaging frame rate is controlled to be fast when the capsule movement is relatively fast.
- the frame rate is controlled based on the motion, and whether or not the subject currently being imaged is a subject to be imaged (for example, whether or not it is a specific part). Not considered. For this reason, when intense exercise occurs outside of the subject of interest, there is a possibility that the subject of interest will be shot at an unnecessary high frame rate. As a result, power is consumed for imaging the non-target subject, so the battery in the capsule body runs out and there is a risk that the subject subject cannot be imaged.
- an endoscope system that has low power consumption and suppresses imaging omission of a subject of interest by switching to a high frame rate from the middle of the small intestine based on a captured image.
- an endoscope apparatus an endoscope system control method, and the like.
- One aspect of the present invention includes a capsule endoscope and an external device, and the capsule endoscope captures a small intestine and a large intestine and acquires a plurality of captured images in time series,
- the imaging unit is operated in any mode of a first mode in which imaging is performed at a first frame rate and a second mode in which imaging is performed at a second frame rate higher than at least the first frame rate.
- a first processing unit that controls the image and a first communication unit that transmits the captured image to the external device, the external device based on the captured image in the middle of the small intestine.
- a second processing unit that outputs a mode switching instruction from one mode to the second mode, and a second communication unit that transmits the mode switching instruction to the first communication unit, 1 processing unit is the mode switching finger
- the imaging unit is controlled to switch from the first mode to the second mode in the middle of the small intestine and to operate in the second mode from the middle of the small intestine to the large intestine.
- a mode switching instruction is output based on a captured image in an external device, and the capsule endoscope captures from the middle of the small intestine to the large intestine at a relatively high frame rate in accordance with the mode switching instruction. Operates in mode 2. As a result, the large intestine can be imaged at a high frame rate, and the power consumption can be reduced compared to the case where the large intestine is imaged from the start position of the small intestine.
- Another aspect of the present invention includes an imaging unit that images the small intestine and the large intestine and acquires a time-series captured image, a first mode that performs imaging at a first frame rate, and at least more than the first frame rate.
- a second mode that performs imaging at a high second frame rate, and a processing unit that controls in which mode the imaging unit is operated, and based on the captured image, in the middle of the small intestine
- the present invention relates to an endoscope apparatus that controls the imaging unit to switch from the first mode to the second mode and operate from the middle of the small intestine to the large intestine in the second mode.
- the endoscope apparatus operates in a second mode in which an image from the middle of the small intestine to the large intestine is imaged at a relatively high frame rate based on the captured image.
- the large intestine can be imaged at a high frame rate, and the power consumption can be reduced compared to the case where the large intestine is imaged from the start position of the small intestine. It is also possible to execute processing necessary for switching to the second mode inside the endoscope apparatus.
- a plurality of captured images are acquired in time series by imaging the small intestine and the large intestine of the imaging unit, and imaging is performed at a first frame rate in the middle of the small intestine based on the captured images.
- a mode switching instruction is output from the first mode to the second mode in which imaging is performed at a second frame rate higher than at least the first frame rate. Based on the mode switching instruction, in the middle of the small intestine
- the present invention relates to a control method for an endoscope system in which the imaging unit is switched from the first mode to the second mode, and control is performed to operate from the middle of the small intestine to the large intestine in the second mode.
- FIG. 1 is a configuration example of an endoscope system according to the present embodiment.
- FIG. 2 is a detailed configuration example of the endoscope system according to the present embodiment.
- FIG. 3 is a configuration example of an endoscope apparatus (capsule endoscope) according to the present embodiment.
- FIG. 4 is a flowchart for explaining the processing of this embodiment.
- FIG. 5 is a configuration example of the switching determination unit.
- FIG. 6 is an explanatory diagram of region setting and local feature amount calculation processing.
- FIG. 7 is an explanatory diagram of LBP feature value calculation processing.
- FIG. 8 is an explanatory diagram of HSV feature amount calculation processing.
- FIG. 9 is an explanatory diagram of calculation processing of the HOG feature amount.
- FIG. 10 is an explanatory diagram of local feature amounts related to colors.
- FIG. 11 is an explanatory diagram of a method for setting a section and performing detection processing in the middle of the small intestine.
- FIG. 12 is a diagram for explaining the flow of BoF algorithm processing.
- FIG. 13 is a diagram for explaining individual differences in villi distribution for each user.
- Patent Document 1 discloses a method for controlling a frame rate based on motion.
- the method of Patent Document 1 does not consider whether or not the subject being imaged is a subject to be imaged (for example, whether or not it is a specific part).
- the capsule endoscope according to the present embodiment is mainly intended for observation of the large intestine.
- the stomach or small intestine is imaged at a high frame rate, and there is a possibility that a sufficient battery does not remain when reaching the large intestine.
- the capsule endoscope is moving through the large intestine, if the movement is not fast, the high frame rate is not achieved, so there is a possibility that the large intestine is imaged at a low frame rate.
- omission of imaging of the subject of interest should be suppressed as much as possible, and there is a high need for imaging the subject of interest at a high frame rate.
- the current position of the capsule endoscope (the subject currently being imaged) is detected, or whether the capsule endoscope is located at the site of interest (imagine the object of interest). If it is possible to do so, the above-mentioned problems can be addressed. Specifically, by capturing the subject of interest at a high frame rate and imaging other subjects (non-subject subjects) at a low frame rate, the subject of interest can be efficiently imaged even with limited battery capacity. It becomes.
- the start position of the large intestine (the end point on the small intestine side of the large intestine and the boundary between the small intestine and the large intestine) by image processing on the captured image is conceivable.
- the start position of the large intestine does not have a large feature on the image, and it is not easy to recognize it by image processing of the captured image.
- a residue is often imaged in digestive organs such as the large intestine, and the structure such as the wall of the digestive tract is hidden by the residue, and there is a possibility that detection processing by image processing may be hindered.
- the start position of the small intestine is relatively easy. This is because a characteristic villi structure is seen in the small intestine, and the villi structure is not found in the stomach. That is, the start position of the small intestine can be detected by detecting the villi structure (villus distribution) by image processing. Specifically, the point where the villi distribution has changed (not in a narrow sense) to the state in which the villi distribution has increased may be determined as the start position of the small intestine.
- the present applicant proposes a technique that suppresses the possibility of imaging the subject of interest at a low frame rate and suppresses the imaging of a non-subject subject at a high frame rate as much as possible.
- the endoscope system includes a capsule endoscope 100 and an external device 200.
- the capsule endoscope 100 images the small intestine and the large intestine.
- the imaging unit 110 that acquires a plurality of captured images in time series, the first mode that performs imaging at the first frame rate, and the second frame rate that is at least higher than the first frame rate.
- a processing unit (first processing unit) 120 that controls in which mode the imaging unit is operated in the second mode, and a communication unit 130 (first communication) that transmits the captured image to the external device 200.
- the external device 200 includes a processing unit (second processing unit) 220 that outputs a mode switching instruction from the first mode to the second mode in the middle of the small intestine based on the captured image, and a mode.
- Switch instruction to the first It includes a communication unit (second communication unit) 230 that transmits the signal portion 130. Then, based on the mode switching instruction, the first processing unit 120 switches the imaging unit 110 from the first mode to the second mode in the middle of the small intestine, and from the middle of the small intestine to the large intestine in the second mode. Control to operate.
- the middle of the small intestine is a position on the anal side of the start position of the small intestine and on the mouth side of the end position of the small intestine (boundary with the large intestine).
- the length of the entire small intestine is L, it may indicate a position included in the range of p ⁇ L to q ⁇ L with reference to the start position of the small intestine, where p, q Is a number satisfying 0 ⁇ p ⁇ q ⁇ 1.
- imaging at a high frame rate is started from an intermediate position of the small intestine, and imaging at a high frame rate is continued even in the large intestine. Therefore, it is possible to increase the possibility that the large intestine can be imaged at a high frame rate.
- it is possible to narrow the region of the small intestine that is imaged at a high frame rate that is, to shorten the time for imaging the small intestine at a high frame rate, compared to the case of imaging from the start position of the small intestine at a high frame rate. . Therefore, it is possible to suppress battery consumption when imaging a non-target subject and efficiently use the battery for imaging the large intestine, which is the target subject.
- the method of this embodiment it is not necessary to detect the switching position from the small intestine to the large intestine, and it is sufficient if it can be detected that the small intestine is closer to the large intestine than the starting position. That is, when performing detection processing in the middle of the small intestine, a certain number of captured images can be used for a certain period of time. For this reason, even if an example in which a delay due to transmission / reception occurs between the acquisition of a captured image and the switching to a high frame rate using the configuration of FIG.
- the capsule endoscope 100 since it is assumed that the capsule endoscope 100 is moving in the small intestine at a timing in the vicinity of the timing at which it is detected that it is in the middle of the small intestine, a high frame is acquired after the captured image is acquired. The possibility that the capsule endoscope 100 will enter the large intestine before switching to the rate is low, and the possibility of omission of imaging of the large intestine (imaging at a low frame rate) is low. Further, as will be described later with reference to FIG. 11, since a certain number of captured images can be used for the detection process, the accuracy of the detection process can be improved.
- the first to third embodiments will be described.
- a basic processing example will be described
- a method for detecting the middle of the small intestine using a learning process will be described.
- a method for detecting the middle of the small intestine using a learning process will be described.
- a method for detecting the middle of the small intestine using a learning process will be described.
- a method for detecting the middle of the small intestine using a learning process will be described.
- a method for detecting the middle of the small intestine using a learning process will be described.
- a method for detecting the middle of the small intestine using a learning process will be described.
- a method for detecting the middle of the small intestine using a learning process will be described.
- a method for detecting the middle of the small intestine using a learning process will be described.
- a method for detecting the middle of the small intestine using a learning process will be described.
- FIG. 2 shows a configuration example of an endoscope system according to the first embodiment.
- the endoscope system is mainly composed of a capsule endoscope 100 and an external device 200.
- the capsule endoscope 100 includes an imaging unit 110, an A / D conversion unit 115, a processing unit 120, a communication unit 130, a control unit 150, and a light source unit 160.
- the communication unit 130 includes a captured image transmission unit 131 and a switching instruction reception unit 132.
- the external device 200 includes an image storage unit 210, a processing unit 220, a communication unit 230, and a control unit 250.
- the processing unit 220 includes an image processing unit 221 and a switching determination unit 222
- the communication unit 230 includes a captured image reception unit 231 and a switching instruction transmission unit 232.
- the light emitted from the light source unit 160 irradiates a subject other than the capsule endoscope 100 under the control of the control unit 150.
- the reflected light from the subject enters the imaging element in the imaging unit 110 through the optical lens system in the imaging unit 110.
- the analog captured image output by the image sensor of the imaging unit 110 is transferred to the A / D conversion unit 115.
- it corresponds to an image pickup device having a primary color single plate arrangement.
- the imaging unit 110 is connected to the captured image transmission unit 131 via the A / D conversion unit 115.
- the captured image transmission unit 131 is connected to the captured image reception unit 231 in the external device 200 via wireless.
- a switching instruction transmission unit 232 in the external device 200 is connected to the switching instruction reception unit 132 via wireless.
- the processing unit (first processing unit) 120 is connected to the imaging unit 110.
- the control unit 150 is bidirectionally connected to the imaging unit 110, the A / D conversion unit 115, the processing unit 120, the captured image transmission unit 131, the switching instruction reception unit 132, and the light source unit 160.
- the A / D conversion unit 115 digitizes the analog captured image from the imaging unit 110 under the control of the control unit 150 and transfers it to the captured image transmission unit 131 as a digital captured image (hereinafter abbreviated as a captured image).
- the captured image transmission unit 131 transmits the captured image to the captured image reception unit 231 in the external device 200 via wireless communication under the control of the control unit 150.
- the captured image is transmitted to the external apparatus 200 via the wireless communication without being compressed.
- the present invention is not limited to this configuration.
- the captured image may be temporarily compressed and transmitted to the external device 200.
- a captured image frame rate (hereinafter, abbreviated as imaging FR) is determined by a predetermined processing mechanism. It is the structure to control. Therefore, the processing configuration in the processing unit 120 will be described after the description of the processing configuration of the external device 200.
- the captured image reception unit 231 is connected to the image storage unit 210 and the switching determination unit 222 via the image processing unit 221.
- the switching determination unit 222 is connected to the switching instruction transmission unit 232.
- the switching instruction transmission unit 232 is connected to the switching instruction reception unit 132 in the capsule endoscope 100 via wireless.
- the control unit 250 is bi-directionally connected to the image storage unit 210, the image processing unit 221, the switching determination unit 222, the captured image reception unit 231, and the switching instruction transmission unit 232.
- the captured image receiving unit 231 receives the captured image transferred from the capsule endoscope 100 via wireless and transfers the captured image to the image processing unit 221.
- the image processing unit 221 performs image processing on the captured image from the captured image receiving unit 231 based on the control of the control unit 250. For example, known interpolation processing, color management processing, edge enhancement processing, gradation conversion processing, and the like are performed. Based on the control of the control unit 250, the processed RGB3 plate captured image is transferred to the image storage unit 210 and stored. On the other hand, the processed captured image is transferred to the switching determination unit 222 based on the control of the control unit 250.
- This embodiment corresponds to a capsule endoscope for diagnosing the large intestine as described above.
- the capsule endoscope is taken at a low frame rate from the mouth swallowed by the patient to the front of the large intestine entrance. It is ideal to take an image.
- it is difficult to detect the entrance of the large intestine in real time due to the influence of residues, bubbles, movement of the capsule itself, and differences in the structures of the patient's small and large intestines. Therefore, there is a risk of failing to detect the entrance of the large intestine and continuing to image at a low frame rate even after entering the large intestine.
- an image is captured at a low frame rate (for example, 2 fps) up to a predetermined region in the small intestine, and from the predetermined region in the middle of the small intestine.
- a low frame rate for example, 2 fps
- a configuration is proposed in which imaging is performed by switching to a high frame rate (for example, 12 fps).
- the identification of a predetermined region in the middle of the small intestine is a feature of this embodiment.
- the small intestine is composed of the duodenum, jejunum and ileum.
- the stomach is connected to the jejunum via the duodenum, and the ileum is connected to the large intestine (colon) via the ileocecal valve.
- colon large intestine
- 2/5 on the mouth side is generally the jejunum and the remaining 3/5 is the ileum.
- the villi are unique (structure) in the small intestine, and the villi are most dense in the duodenum.
- the density of villi decreases toward the end of the ileum (toward the large intestine), and in the jejunum, the distribution of villi within the intestine as a whole is denser than that of the ileum.
- the villi distribution is identified based on the image recognition processing for the captured image. Using this villi distribution identification information, the approximate boundary between the jejunum and ileum is identified, and the approximate boundary between the jejunum and ileum is determined in the middle of the small intestine to switch the imaging frame rate from the low frame rate to the high frame rate. This is a predetermined area.
- the method of the present embodiment is in the middle of the small intestine, that is, the anus side from the start position of the small intestine to the extent that battery consumption can be suppressed, and the imaging of the large intestine is not leaked. It is only necessary to detect the position of the mouth side of the end position of the small intestine to such an extent that it can be suppressed, and it does not strictly detect the boundary of a specific part.
- the switching determination unit 222 continuously identifies the distribution of the villi in the intestine with respect to the images taken in time series and confirms the decrease in the villi distribution, there is a capsule body at this time.
- the position of the small intestine is determined as a predetermined region in the middle of the small intestine.
- the determination information is wirelessly transmitted to the switching instruction receiving unit 132 in the capsule body in real time via the switching instruction transmitting unit 232.
- the switching instruction receiving unit 132 transfers the determination information to the processing unit 120 based on the control of the control unit 150.
- the processing unit 120 switches from a low frame rate to a high frame rate imaging mode to capture an image.
- a predetermined area in the middle of the small intestine is imaged at a low frame rate (for example, 2 fps), and the predetermined area in the middle of the small intestine is switched to a high frame rate (for example, 8 fps) for imaging. It is not necessary to limit to such a configuration.
- imaging is performed at a low frame rate (for example, 2 fps) up to a predetermined region in the middle of the small intestine, and switching to a high frame rate (for example, 8 fps) is performed after confirming a decrease in the villi distribution in the small intestine.
- imaging is performed by switching to an extremely high frame rate (for example, 16 pfs).
- the imaging configuration may be configured by switching the frame rate of multiple stages (including three or more stages (including values thereof)) according to the distribution of villi.
- switching between the high frame rate and the ultra-high frame rate is not limited to that performed based on the villi distribution.
- the low frame rate has one stage (for example, 2 fps) and the high frame rate has two stages (for example, 8 fps and 16 fps).
- the mode is switched to the high frame rate mode and imaging is performed.
- the movement of the capsule body is further detected in the high frame rate mode, and the imaging frame rate is controlled in multiple stages.
- an image is captured at a high frame rate 1 (for example, 8 fps)
- a high frame rate 2 for example, 16 fps).
- a configuration in which imaging is performed at a multistage imaging frame rate in accordance with movement from a predetermined region in the middle of the small intestine.
- it may be detected using a plurality of images taken in time series, or may be detected using a sensor or the like that detects motion.
- the distribution of villi is detected using a captured image, and the capsule body is imaged at a low frame rate up to a predetermined region in the middle of the small intestine after being swallowed by the mouth. Since the imaging is performed at a high frame rate of one or more stages (including its value) until it passes through the large intestine from the predetermined region and is discharged out of the body, it is possible to prevent leakage of the large intestine, and at the same time, the capsule endoscope 100 Power consumption can also be saved.
- the image captured by the main body of the capsule endoscope 100 is transmitted to the external device 200, and the external device 200 detects a predetermined region in the middle of the small intestine.
- this configuration needs to be limited. Absent.
- a configuration for detecting a predetermined region in the middle of the small intestine may be incorporated in the main body of the capsule endoscope 100.
- FIG. 3 shows a configuration example of the endoscope apparatus (capsule endoscope) 400 in this case.
- the endoscope apparatus 400 includes an imaging unit 110, an A / D conversion unit 115, a processing unit 120, a captured image transmission unit 131, a control unit 150, and a light source unit 160.
- the processing unit 120 includes an image processing unit 121, a switching determination unit 122, and a frame rate control unit 123.
- the imaging unit 110 the A / D conversion unit 115, the control unit 150, and the light source unit 160 are the same as those described above with reference to FIG.
- the captured image transmission unit 131 transmits the captured image to the outside.
- the transmission by the captured image transmission unit 131 is not intended for the detection process.
- the captured image transmitted from the captured image transmission unit 131 may be used for storage in a storage unit of an external device or display on a display unit.
- the image processing unit 121 and the switching determination unit 122 of the processing unit 120 correspond to the image processing unit 221 and the switching determination unit 222 of the external device 200 in FIG. Since the processing to be performed is the same, detailed description is omitted.
- the frame rate control unit 123 corresponds to the processing unit 120 of the capsule endoscope 100 in FIG. Specifically, the imaging FR is controlled based on the determination result (switching instruction) in the switching determination unit 122.
- detection processing in the middle of the small intestine based on the captured image can be executed inside the endoscope apparatus 400. Therefore, the delay between the acquisition of the captured image as described above and the switching to the high frame rate can be reduced as compared with the example of FIG. 2, and the possibility of imaging leakage of the large intestine is further suppressed. can do.
- FIG. 4 is a flowchart for explaining the flow of processing according to this embodiment.
- a captured image is captured by the capsule endoscope 100 (S101).
- a captured image is transmitted from the communication unit (first communication unit) 130 of the capsule endoscope 100 to the external device 200 (S102), and is captured by the communication unit (second communication unit) 230 of the external device 200.
- An image is received (S103).
- the processing unit (second processing unit) 220 of the external device 200 performs a detection process of detecting the middle of the small intestine based on the acquired captured image (S104).
- the detection process for example, the villi distribution may be detected, and specific methods will be described later in the second and third embodiments.
- a switching instruction is transmitted from the communication unit 230 of the external device 200 (S105), and the switching is performed by the communication unit 130 of the capsule endoscope 100.
- An instruction is received (S106).
- the processing unit 120 of the capsule endoscope 100 executes switching control of the imaging FR of the imaging unit 110 based on the received switching instruction (S107).
- the second processing unit 220 detects a feature amount that changes from the stomach side to the large intestine side of the small intestine from the captured image, and based on the detection result. Outputs a mode switching instruction.
- feature quantities are those that can be detected from an image, such as colors, textures, gradients, contours (edges), or other features that can be detected by using them. The amount to represent.
- the second processing unit 220 may detect information on villus distribution from the captured image as a feature that changes from the stomach side to the large intestine side of the small intestine, and output a mode switching instruction based on the detection result. .
- the villi distribution can be used as an index for determining whether or not it is the small intestine, and to what extent the small intestine has moved to the large intestine, and is suitable for detection processing in the middle of the small intestine.
- the “information about the villi distribution” here may be, for example, information indicating that the villi distribution is large or small, and may be, for example, a villi score described later in the third embodiment.
- the “information about the villi distribution” may be information indicating whether each of the images acquired in time series is a villi image, as will be described later in the second embodiment. As described later using, information indicating the number of villi images in a predetermined section may be used.
- the present embodiment described above captures the small intestine and the large intestine and acquires a time-series captured image, and the first image capturing at the first frame rate.
- a processing unit 120 that controls in which mode the imaging unit 110 is operated, ie, a second mode in which imaging is performed at a second frame rate higher than at least the first frame rate.
- An endoscope apparatus (capsule type) that performs control to switch the imaging unit 110 from the first mode to the second mode in the middle of the small intestine and to operate in the second mode from the middle of the small intestine to the large intestine based on the image Endoscope) 400.
- the processing unit 120 of the endoscope apparatus 400 detects information on the villus distribution from the captured image as a feature amount that changes from the stomach side to the large intestine side of the small intestine, and based on the detection result, Thus, control for switching the imaging unit 110 from the first mode to the second mode is performed.
- the processing unit 120 of the endoscope apparatus 400 determines that the villi distribution has decreased in a state where the imaging unit 110 is operating in the first mode
- the processing unit 120 changes from the first mode to the second mode. Control to be switched to may be performed. Details of the method for determining whether or not the villi distribution has decreased will be described later in the second and third embodiments.
- the process of detecting the middle of the small intestine that is, the determination process related to the villi distribution in a narrow sense is described as being performed in the processing unit (second processing unit) 220 of the external device 200.
- the corresponding processing is executed by the processing unit 120 of the endoscope apparatus 400. That is, the processing described as being performed by the processing unit (second processing unit) 220 of the external device 200 in this specification may be performed by the processing unit 120 of the endoscope apparatus 400 of FIG.
- Second Embodiment The configuration of an endoscope system or endoscope apparatus in the present embodiment is the same as that of the first embodiment, and the configuration of FIG. 2 or FIG. 3 can be used. Constituent elements that are the same as those in the first embodiment are given the same reference numerals, description thereof is omitted as appropriate, and only portions that are different from the constituent elements in the first embodiment are described.
- FIG. 5 is an example of the configuration of the switching determination unit 222 according to the present embodiment.
- the switching determination unit 222 includes a classification unit 301, an analysis determination unit 302, and a storage unit 303.
- the image processing unit 221 is connected to the switching instruction transmission unit 232 via the classification unit 301 and the analysis determination unit 302.
- the storage unit 303 is connected to the classification unit 301.
- the control unit 250 is bi-directionally connected to the classification unit 301, the analysis determination unit 302, and the storage unit 303.
- FIG. 5 shows the configuration of the switching determination unit 222 of the external device 200 in FIG. 2, the configuration of the switching determination unit 122 of the endoscope apparatus (capsule endoscope) 400 in FIG. It is the same.
- the distribution characteristics of villi are analyzed to detect a predetermined region in the middle of the small intestine. To do.
- Bag-of-Features (hereinafter referred to as BoF) that does not depend on the position of an object is used.
- BoF Bag-of-Features
- This method applies Bag-of-Words, which is a document search method, to image recognition, and consists of two stages of learning and classification.
- the learning stage first select multiple learning images.
- at least two or more classification items including their values
- images are included
- an image having a high distribution density of villi for example, in the image
- "Villus” learning image with a lot of villous structures shown in the image and "Other” learning with other images (for example, those with no villi structure or those with little villi structure in the image)
- An image since at least two or more classification items (including their values) including “villi” and “others” are set (images are included), an image having a high distribution density of villi (for example, in the image) "Villus” learning image with a lot of villous structures shown in the image, and "Other” learning with other images (for example, those with no villi structure or those with little villi structure in the image) An image.
- the items of “Villi” are further divided according to the contents of the image, such as “Much villi”, “Slightly more villi”, “Less villi”, “No villi”, etc.
- a new classification item may be set, and a learning image corresponding to them may be selected.
- a plurality of small sample areas are extracted from the learning image, a feature vector is calculated by a feature extraction process, and an observation criterion called Visual Word (hereinafter referred to as VW) is selected by a clustering process.
- VW Visual Word
- a known K-means method is used.
- a feature quantity vector is calculated in the same manner as described above for each small region sequentially extracted from each learning image in the spatial direction, and a distance from the VW is obtained. Vote for the VW with the smallest distance.
- a BoF histogram corresponding to the image is generated.
- BoF histograms for the number of learning images are generated.
- a learning classifier is constructed for classifying images using these BoF histograms and BoF vectors having them as components.
- SVM Storage Vector Machine
- the switching determination unit 222 in the present embodiment only needs to hold the learning result. Therefore, the switching determination unit 222 may perform a learning process, or the learning process may be performed in another block of the external device 200 or another device, and the switching determination unit 222 may acquire the result. Good.
- the learning image is an image whose correspondence between the image and the degree of villi distribution is known in advance. For example, an image captured in advance from a patient different from the patient to be diagnosed is used.
- the plurality of learning images need not be time-series images.
- a local area LA having a predetermined size is set in an image IM (one learning image). Specifically, a plurality of local areas LA1, LA2, LA3,. For example, when the size of the image IM is 300 pixels ⁇ 300 pixels, the size of the local region is set to 30 pixels ⁇ 30 pixels, but the size of the local region may be changed according to the size of the image IM.
- LBP Longecally Binary Pattern
- the LBP value is obtained from 3 ⁇ 3 pixels centered on each pixel of the local area LA. If the pixel at the center of the 3 ⁇ 3 pixels is P0 and the surrounding eight pixels are P1 to P9, the pixel values of P1 to P9 are compared with P0. 1 is assigned, and if it is smaller than the pixel value of P0, “0” is assigned. The bits are arranged in the order of P1 to P9 to obtain an 8-bit value.
- FIG. 7 illustrates the local feature amount calculation processing described above.
- the processing for calculating the local feature amount from the local region is performed on a plurality of images, and a large number of vectors are stored as the local feature amount. For example, if there are 100 learning images and 100 local regions are set per image, 10000 local feature amounts are acquired.
- the K-means method sets the number of divided classes to k, sets the k representative vectors to the initial state, divides the feature vector into k classes, calculates the average position of each class, and moves the representative vectors.
- one BoF feature vector is acquired from one learning image.
- a learning data set is generated by associating BoF feature vectors corresponding to the number of images for learning and the correct labels (for example, labels of “villi” or “others”).
- the SVM is a learning device that determines, from a given learning data set, a label separation surface (for example, a surface separating “villus” and “other” feature vectors) in a vector space of feature vectors.
- a label separation surface for example, a surface separating “villus” and “other” feature vectors
- linear separation is performed in a vector space of feature vectors, and a separation plane is determined.
- linear separation may be performed in a vector space higher than the feature vector, and a nonlinear separation plane may be determined when viewed in the dimension of the feature vector.
- the result of the above learning process is stored in the storage unit 303.
- captured images for classification are sequentially input, local feature amounts are calculated in the same manner as described above for each small region sequentially extracted from the captured images in the spatial direction, and a distance from the VW is obtained. Vote for the VW with the smallest distance. By completing the voting process for all the small regions of one captured image, one BoF feature vector (BoF histogram) is obtained from one captured image as in the learning.
- BoF histogram BoF histogram
- the classification unit 301 creates a BoF histogram as described above using the captured image from the image processing unit 221 based on the control of the control unit 250, and the SVM classifier and the learning image from the storage unit 303. BoF histograms and BoF feature vector information comprising them as components are extracted and compared, and a classification index index indicating which of “Villi” and “Other” belongs is given. Specifically, a villus score representing the certainty of being “villus” and another score representing the certainty of being “others” are obtained. The classification unit 301 transfers the classification index index of the captured image to the analysis determination unit 302.
- the feature amount vector is calculated using at least one feature amount related to the color, gradient, and texture of the captured image.
- the characteristic amount related to the gradient is LBP, for example.
- the feature quantity related to the color may be HSV (Hue-Saturation-Value) shown in FIG.
- HSV is a color space including three components of hue, saturation, and value.
- FIG. 8 shows an example of the calculation of local feature amounts when HSV is used.
- the HSV color space is divided into a plurality of regions respectively in the hue direction, the saturation direction, and the brightness direction.
- the image is converted into the HSV color system for each pixel.
- the converted HSV image is divided into blocks, and a histogram having the saturation and lightness relating to the hue as elements is calculated for each block.
- the blocks are moved, the same processing is performed, and histograms for the number of blocks included in one image are created. Further, normalization is performed for each block, and an HSV feature vector is generated.
- the feature quantity related to the texture may be HOG (Histogram-of-Oriented-Gradient) shown in FIG.
- HOG Heistogram-of-Oriented-Gradient
- FIG. 1 An example of calculation of a local feature amount when HOG is used is shown.
- a local region of the image is divided into blocks, luminance gradient information (gradient direction and weight, etc.) is calculated for each pixel, and a histogram of luminance gradient is calculated for each block.
- the blocks are further moved, the same processing is performed, and histograms for the number of blocks included in one image are created. Further, normalization is performed for each block to generate a HOG feature vector.
- the learning / classification is performed using the LBP feature value, the HSV feature value, and the HOG feature value, but it is not necessary to limit to such a configuration.
- a configuration may be adopted in which learning / classification is performed using all feature quantities related to gradient, color, and texture as necessary.
- a feature vector that combines these multiple types of local feature values may be generated.
- Color, gradient, and texture combination methods can be broadly classified into early fusion, which is combined at an early stage of processing, and late fusion, which is combined at a later stage of processing.
- the HSV color feature for example, as shown in FIG. 10, the HSV color space is divided into 12 parts in the hue direction, divided into three parts in the saturation direction, and the lightness of the achromatic color is divided into four parts.
- late fusion there is a method in which a combined histogram obtained by arranging the BoF histogram and the LBP histogram of HSV color feature values is used as a feature vector of an image.
- a single color, a single texture, or a combination of the above-mentioned early fusion and late fusion is learned separately by a discriminator such as SVM described later, and a classification score at the time of classification.
- FIG. 12 illustrates the flow of the above learning and classification process.
- the left side of FIG. 12 represents the learning stage. Specifically, the learning image is divided into a plurality of local regions to obtain local feature amounts (A1, A2). Since many local feature-values are calculated
- SVM discriminator
- the captured image (test image) is similarly divided into local regions and the local feature amount is calculated (B1, B2). Then, based on the distance between the VW set in A3 and the local feature amount, one BoF feature vector (BoF histogram) is obtained from one learning image (B3). Then, one captured image is classified into any one of a plurality of classification items by the obtained BoF feature vector and the classifier configured by A5 (B4, B5).
- the analysis determination unit 302 uses the number of images classified as “villus” or “others” in a section made up of a plurality of images taken in time series to determine the villi distribution.
- FIG. 11 shows an example of a “villus” or “other” distribution measurement process.
- An image captured in time series is defined as one distribution measurement section in units of N images (N ⁇ 2). In that section, the number of images classified as “villus” is counted, and if the count is greater than a predetermined threshold th1, this section is determined to be a “villus section”.
- this section is determined as “other section”.
- n (n ⁇ 1) images are shifted in the time series direction, and the same determination is performed in a new section including the next N images. In this manner, the determination of “villus section” or “other section” is performed for each section.
- villi are only distributed in the small intestine.
- the distribution density of villus is high in the first half region of the small intestine, and the distribution density of villus is slightly lower in the ileum region.
- it corresponds to a capsule endoscope for diagnosing the large intestine.
- an image is taken at a low frame rate.
- the capsule endoscope 100 is first swallowed in a certain section after the capsule endoscope 100 is swallowed in the determination process of the “villus section” and the “other section”, the capsule endoscope 100 is in the small intestine. Inform them that they have entered. However, it continues to capture images at a low frame rate.
- the capsule endoscope 100 is swallowed from the mouth, images are taken at a low frame rate.
- “villus” or “others” is included in a section composed of a plurality of predetermined number of images taken in time series.
- the “villus section” or “other section” is determined using the number of classified images. Then, by identifying a predetermined region in the middle of the small intestine where the distribution density of the villi is low, the imaging frame rate is switched from a low frame rate to a high frame rate, and the latter half of the small intestine and the large intestine are imaged, thereby preventing a diagnosis leak in the large intestine. At the same time, the power consumption of the capsule endoscope 100 can be saved.
- a predetermined area in the middle of the small intestine is identified and switched from a low frame rate to a high frame rate, and thereafter, imaging is continued at a high frame rate.
- the configuration is limited to such a configuration. There is no need.
- a modification of this embodiment is further proposed.
- the distribution density of the villi is high in the first half of the small intestine, and the distribution density of the villi is slightly lower in the ileum area.
- this definition means that the first half of the small intestine has an average higher villi distribution density than the second half of the ileum, and some patients have a very high distribution density of the villi even in the first half of the small intestine.
- the distribution density of the villi is very low and an area where the distribution density of the villi is relatively high.
- the distribution density of the villi is higher on average than the ileum region, but the distribution density of the villi varies depending on the area in the first half region of the same small intestine, and the distribution density of the villi Some areas have relatively low. Furthermore, since the capsule endoscope 100 is moved by the physical movement in the body, it does not move forward or backward by moving forward or backward. For example, there are many situations where the stomach once enters the small intestine and then returns to the stomach.
- the following proposal is made to deal with the above-described problem.
- the image is immediately switched from the low frame rate to the high frame rate.
- the image is switched again from the high frame rate to the low frame rate. That is, every time the “villus section” and the “other section” are determined, imaging is performed by switching from the high frame rate to the low frame rate, or from the low frame rate to the high frame rate.
- the second processing unit 220 changes from the first mode to the second mode when it is determined that the villi distribution has decreased in a state where the imaging unit 110 is operating in the first mode. Outputs instructions to switch to the other mode.
- whether or not the villi distribution has decreased may be determined based on the number of images determined as “villi” in the N determination sections. In this case, it may be determined whether or not the number has simply decreased, but as described above, it is determined whether the “villus section” or the “other section” by the threshold determination, and the “other section” is determined from the “villus section”. When transitioning to, it may be determined that the villi distribution has decreased.
- the second mode that is, the high frame rate mode when it is determined that the villi distribution has decreased.
- the villi distribution in the small intestine becomes smaller on the average as it moves toward the large intestine.
- the fact that the villi distribution has decreased to some extent corresponds to the fact that it has moved to the large intestine side to some extent with respect to the start position of the small intestine. It is possible to reduce leakage of the large intestine and to prevent leakage of the large intestine.
- the second processing unit 220 may output a mode switching instruction for operating the imaging unit 110 in the first mode when it is determined that the villi distribution has increased.
- the increase in villus distribution corresponds to the situation where the imaging region has changed from the stomach without villus distribution to the small intestine where villus distribution is observed. That is, by operating the imaging unit 110 in the first mode with an increase in the villi distribution as a trigger, it is possible to image the subject after the start position of the small intestine in the first mode.
- imaging by the imaging unit 110 is essential. That is, it is difficult to consider an embodiment in which the imaging unit 110 is not operated at all even before the increase of the villi distribution.
- the mode may be set to operate at a 0th frame rate that is lower than the first frame rate before the villi distribution increases.
- the villi distribution may be always operated in the first mode until the villi distribution decreases after being swallowed by the user's mouth. In this case, the increase in the villi distribution itself does not trigger the switching of the imaging FR.
- the second processing unit 220 includes, for each captured image of the plurality of captured images captured by the imaging unit 110, a first classified image that is determined to have a large villi distribution and a first image that is determined to have a low villi distribution. Classifying into any one of a plurality of classification images including at least two classification images, obtaining a villus distribution based on the appearance frequency of at least one classification image among the plurality of classification images, and determining the first based on the villus distribution. A mode switching instruction from the mode to the second mode may be output.
- the classification item is an item representing a large and small amount of villi distribution. Therefore, the classification result indicating which classification item the captured image is classified into It can be used as information representing the amount of villi distribution included in the image.
- the second processing unit 220 acquires the classification information obtained by the learning process, and based on the feature amount obtained from each captured image of the plurality of captured images captured by the imaging unit 110 and the classification information, A plurality of captured images may be classified into any of a plurality of classified images.
- the second processing unit 220 sets a determination section including N (N is an integer of 2 or more (including that value)) acquired images in time series, and sets the N captured images.
- N is an integer of 2 or more (including that value)
- the captured image classified into the first classified image is equal to or less than th1 (th1 is a positive integer equal to or less than N (including its value))
- the captured image classified into the second classified image is th2.
- th2 is equal to or greater than (a positive integer less than or equal to N (including that value))
- the number of images classified as “villus” in the predetermined section or the number of images classified as “others” is used to detect the middle of the small intestine and issue a mode switching instruction. It becomes possible to output.
- the classification item (classification image) is 3 or more (including its value)
- any of the appearance frequencies of each classification item may be used, and 2 or more (including its value) classification. You may use combining the appearance frequency of an item.
- the classification section corresponds to which classification item, but the present invention is not limited to this, and the time series of the number (or ratio) itself is not limited thereto. Changes may be determined.
- the second processing unit 220 switches the mode from the second mode to the first mode when it is determined that the villi distribution has increased in a state where the imaging unit 110 is operating in the second mode.
- a switching instruction may be output.
- the transition to the second mode high frame rate mode
- the mode can be returned to the first mode (low frame rate mode).
- the situation where the transition to the second mode is inappropriate is specifically the above-described return from the small intestine to the stomach.
- the first processing unit 120 operates the imaging unit 110 at the first frame rate in the first mode, and the second frame rate or the third frame rate higher than the second frame rate in the second mode. Control for operating the imaging unit 110 at a frame rate of may be performed. At that time, the second processing unit 220 switches whether the imaging unit 110 operates at the second frame rate or the third frame rate in a state where the imaging unit 110 operates in the second mode. A frame rate switching instruction is output, and the first processing unit 120 performs control to operate the imaging unit 110 at either the second frame rate or the third frame rate based on the frame rate switching instruction.
- a plurality of imaging FRs can be switched even in the second mode (high frame rate mode). For this reason, by imaging a predetermined target at the third frame rate, it is possible to further suppress the possibility of imaging omission of the target.
- the second processing unit 220 is configured so that the imaging unit 110 performs the second frame based on the villi distribution or the movement information of the capsule endoscope 100 in a state where the imaging unit 110 operates in the second mode.
- a frame rate switching instruction for switching between the rate and the third frame rate may be output.
- the second frame rate and the ultra-high frame rate (third frame rate) using the villi distribution or motion information.
- the villi distribution two thresholds are prepared for the ratio of the images determined as “villi” in the determination section, and when the threshold falls below the threshold T1, the first frame rate to the second frame rate (from the first mode)
- the second frame rate may be switched to the third frame rate (within the second mode).
- the villi distribution is sufficiently small, so that the position is sufficiently close to the large intestine, so that the possibility that the large intestine that is the subject of interest can be imaged at the third frame rate can be increased, and the third as much as possible. It becomes possible to reduce the power consumption by shortening the operation time at the frame rate. Even in this case, since there is a possibility of imaging omission near the start position of the large intestine only with the threshold value T2, the significance of setting the threshold value T1 is not lost.
- the motion information may be the third frame rate when the motion is large. If the movement is large, the distance that the capsule endoscope 100 moves between the images is also long, so that there is a high possibility that the subject will not be imaged. On the other hand, by setting the third frame rate when the motion is large, it is possible to suppress the possibility of image capturing omission.
- one captured image is classified as either “villus” or “other”.
- a single image often includes a plurality of classification items. For example, there is a possibility that the “villus” region and the “other” region are mixed in one captured image.
- the SVM discriminator from the storage unit 303 and the BoF histogram (and BoF feature vector having them as components) from the captured image are extracted and compared, and “villus” and “others” are compared.
- the SVM scores of “villi” and “other” are calculated for the “villus” region and the “other” region, respectively.
- a classification index index corresponding to a classification item having a higher SVM score is given to the captured image.
- a classification index index corresponding to the classification item having the highest SVM score is given to the captured image.
- the classification item having the highest SVM score is given to the captured image, but there may be a region corresponding to another classification item in the captured image. is there.
- the number of villi varies depending on the subject of observation (patient). For example, in the small intestine, some patients have a very large overall villi and some patients have a very low overall villi. In this case, as in the second embodiment, there is a risk that it is erroneously determined to classify the captured image with the classification item having the highest SVM score and determine the “villus section” and the “other section” based on the classification result. There is.
- FIG. 13 Schematic diagram of a specific example is shown in FIG.
- the horizontal axis represents the position in the body
- the vertical axis represents the amount of villus (the villi score corresponding to the amount of villus).
- the left side is the mouth side
- the right side is the anal side.
- the villi score is assumed to be linear and monotonously decreased for the sake of simplicity. However, there may be a section that is actually non-linear and not monotonously decreased. In order to simplify the explanation, consider that the target image is classified as “villi” when the villi score exceeds th1.
- FIG. 13 shows an extreme example in which switching of the imaging FR itself is difficult, it is not desirable that the individual difference is large even in a situation where switching of the imaging FR in the middle of the small intestine is possible. This is because the switching position to the high frame rate (position within the small intestine, for example, the movement ratio when the small intestine start position is 0% and the end position is 100%, etc.) changes according to the villi score. Even in the middle of the small intestine, there are users who switch on the side close to the mouth and users who switch on the side close to the anus.
- the SVMs between the sections composed of a plurality of images as described above are proposed to determine a predetermined region in the middle of the small intestine based on the rate of change of the score.
- the SVM score of “villus” of each captured image captured after being swallowed from the patient's mouth is averaged in units of the above sections.
- the rate of change of the average SVM score of “villus” in each section becomes larger than a predetermined threshold for the first time, it is determined that the section is in the small intestine region.
- the rate of change of the average SVM score of “villus” in a certain section becomes smaller than a predetermined threshold, the section is determined to be a predetermined area in the middle of the small intestine, and control is performed so as to switch from a low frame rate to a high frame rate. To do.
- a position where the value is reduced by 50% with respect to the score may be set to the middle of the small intestine (predetermined region).
- Switching position of the user A in the example of FIG. 13, to become a C1 to villi score is 1/2 of the score S A at the starting position, the score S of the switching position villi score start position of the user B C2 which is 1/2 of B.
- the imaging frame rate is adaptively controlled according to the characteristics of the villi distribution of each patient. And the risk of erroneous determination can be suppressed.
- a situation may be considered in which the capsule endoscope 100 returns to the stomach after entering the small intestine.
- control for returning to the low frame rate may be performed again.
- the villus score (or other score) may be used instead of the classification result of “villi” or “other”.
- a configuration may be adopted in which imaging is performed by switching from a rate to a low frame rate.
- the second processing unit 220 calculates a villus score representing the degree of villus distribution for each captured image of the plurality of captured images captured by the imaging unit 110, and time series of the villus score Based on the change, a mode switching instruction from the first mode to the second mode is output.
- the villus score may be an SVM score calculated by SVM, for example. Since the classifier obtained by a general learning process calculates a score for each classification item at the time of classification (classification), the score may be used even when a classifier other than SVM is used.
- the villi score may be a score corresponding to “villi”, but is not limited thereto, and a score corresponding to “others” may be used. Because the “other” score is an index that indicates low villus, it can be treated as synonymous that the “other” score is small (large) and the “villus” score is large (small) This is because of this.
- 100 capsule endoscope 110 imaging unit, 115 A / D conversion unit, 120 processing unit, 121 image processing unit, 122 switching determination unit, 123 frame rate control unit, 130 communication unit, 131 captured image transmission unit, 132 switching instruction reception unit, 150 control unit, 160 light source unit, 200 external device, 210 image storage unit, 220 processing unit, 221 image processing unit, 222 switching determination unit, 230 communication unit, 231 captured image reception unit, 232 switching instruction transmission unit, 250 control unit, 301 Classification unit 302 Analysis determination unit 303 Storage unit
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Endoscopes (AREA)
Abstract
内視鏡システムは、撮像部110と、第1のフレームレートで撮像を行う第1のモードと、第2のフレームレートで撮像を行う第2のモードとの、いずれのモードで撮像部110を動作させる第1の処理部120と、撮像画像を外部装置200に送信する第1の通信部130を含むカプセル型内視鏡100と、撮像画像に基づいてモード切り替え指示を出力する第2の処理部220と、モード切り替え指示を送信する第2の通信部230を含む外部装置200を含み、第1の処理部120は、モード切り替え指示に基づいて、小腸の途中から大腸までを第2のモードで動作させる。
Description
本発明は、内視鏡システム、内視鏡装置及び内視鏡システムの制御方法等に関する。
近年、小型の撮像部を内蔵したカプセル型の内視鏡装置が広く知られるようになった。カプセル型内視鏡は小型であるため、電源の節約等の理由から撮像枚数を節約するためにフレームレートの制御を行う。フレームレートの制御は、例えばカプセル型内視鏡が消化管内を動く速さに応じて行われ、動きが遅い場合にはフレームレートを下げ、動きが速い場合にはフレームレートを上げる。
特許文献1には、体内に嚥下されたカプセル本体で撮像した画像を用いてカプセルの運動を分析し、適応的に撮像フレームレートを制御する手法が開示されている。具体的には、カプセルの運動が比較的遅い場合には撮像フレームレートを遅く、カプセルの運動が比較的速い場合には撮像フレームレートを速く制御する。
特許文献1の手法では、動きに基づいてフレームレートを制御しており、現在撮像している被写体が、撮像すべき被写体であるか否か(例えば特定の部位であるか否か)ということを考慮していない。そのため、注目被写体以外で激しい運動が生じた場合、非注目被写体を無用な高フレームレートで撮影してしまう可能性がある。それによって非注目被写体の撮像に電力を費やすため、カプセル本体にあるバッテリーが途中で切れてしまい、注目被写体での撮像ができないリスクがある。
本発明の幾つかの態様によれば、撮像画像に基づいて小腸の途中から高フレームレートに切り替えて撮像することで、低消費電力であり、且つ注目被写体の撮像漏れを抑止する内視鏡システム、内視鏡装置及び内視鏡システムの制御方法等を提供することができる。
本発明の一態様は、カプセル型内視鏡と、外部装置と、を含み、前記カプセル型内視鏡は、小腸及び大腸を撮像し、複数の撮像画像を時系列に取得する撮像部と、第1のフレームレートで撮像を行う第1のモードと、少なくとも第1のフレームレートよりも高い第2のフレームレートで撮像を行う第2のモードとの、いずれのモードで前記撮像部を動作させるかを制御する第1の処理部と、前記撮像画像を前記外部装置に送信する第1の通信部と、を含み、前記外部装置は、前記撮像画像に基づいて、前記小腸の途中で前記第1のモードから前記第2のモードへのモード切り替え指示を出力する第2の処理部と、前記モード切り替え指示を前記第1の通信部に送信する第2の通信部と、を含み、前記第1の処理部は、前記モード切り替え指示に基づいて、前記小腸の途中で前記撮像部を前記第1のモードから前記第2のモードに切り替えて、前記小腸の途中から前記大腸までを前記第2のモードで動作させる制御を行う内視鏡システムに関係する。
本発明の一態様では、外部装置において撮像画像に基づきモード切り替え指示を出力し、カプセル型内視鏡は、モード切り替え指示に応じて小腸の途中から大腸までを比較的高いフレームレートで撮像する第2のモードで動作する。これにより、大腸を高フレームレートで撮像でき、且つ小腸の開始位置から高フレームレートで撮像を行う場合等に比べて消費電力を低減すること等が可能になる。
本発明の他の態様は、小腸及び大腸を撮像し、時系列の撮像画像を取得する撮像部と、第1のフレームレートで撮像を行う第1のモードと、少なくとも第1のフレームレートよりも高い第2のフレームレートで撮像を行う第2のモードとの、いずれのモードで前記撮像部を動作させるかを制御する処理部と、を含み、前記撮像画像に基づいて、前記小腸の途中で前記撮像部を前記第1のモードから前記第2のモードに切り替えて、前記小腸の途中から前記大腸までを前記第2のモードで動作させる制御を行う内視鏡装置に関係する。
本発明の他の態様では、内視鏡装置は、撮像画像に基づき小腸の途中から大腸までを比較的高いフレームレートで撮像する第2のモードで動作する。これにより、大腸を高フレームレートで撮像でき、且つ小腸の開始位置から高フレームレートで撮像を行う場合等に比べて消費電力を低減すること等が可能になる。また、第2のモードへの切り替えに必要な処理を内視鏡装置の内部で実行することも可能になる。
本発明の他の態様は、撮像部の小腸及び大腸の撮像により、複数の撮像画像を時系列に取得し、前記撮像画像に基づいて、前記小腸の途中で第1のフレームレートで撮像を行う第1のモードから、少なくとも第1のフレームレートよりも高い第2のフレームレートで撮像を行う第2のモードへのモード切り替え指示を出力し、前記モード切り替え指示に基づいて、前記小腸の途中で前記撮像部を前記第1のモードから前記第2のモードに切り替えて、前記小腸の途中から前記大腸までを前記第2のモードで動作させる制御を行う内視鏡システムの制御方法に関係する。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.本実施形態の手法
まず本実施形態の手法について説明する。カプセル型内視鏡では、本体を小型化する必要があるため、バッテリー容量にも制限がある。そのため、ユーザに飲み込まれてから体外に排出されるまでの間、常に十分なフレームレートで撮像することが理想的であるが、現状では実現が困難である。それに対して、カプセル型内視鏡ではフレームレートを切り替える手法が広く知られている。例えば特許文献1では動きに基づいてフレームレートを制御する手法が開示されている。
まず本実施形態の手法について説明する。カプセル型内視鏡では、本体を小型化する必要があるため、バッテリー容量にも制限がある。そのため、ユーザに飲み込まれてから体外に排出されるまでの間、常に十分なフレームレートで撮像することが理想的であるが、現状では実現が困難である。それに対して、カプセル型内視鏡ではフレームレートを切り替える手法が広く知られている。例えば特許文献1では動きに基づいてフレームレートを制御する手法が開示されている。
しかし特許文献1の手法では、現在撮像している被写体が、撮像すべき被写体であるか否か(例えば特定の部位であるか否か)ということを考慮していない。例えば、本実施形態に係るカプセル型内視鏡では、主として大腸の観察を目的としている。その場合、何らかの理由で胃や小腸において動きが速くなれば、胃や小腸を高フレームレートで撮像することになり、大腸到達時に十分なバッテリーが残っていないおそれがある。また、カプセル型内視鏡が大腸を移動中であっても、動きが速くなければ高フレームレートにならないため、大腸を低フレームレートで撮像する可能性もある。ユーザ(例えば医師)による診断を高精度で行うためには、注目被写体の撮像漏れは極力抑止すべきであり、注目被写体を高フレームレートで撮像する必要性は高い。
仮に、カプセル型内視鏡の現在位置(現在撮像している被写体)を検出する、或いはカプセル型内視鏡が注目部位に位置している(注目被写体を撮像している)か否かを検出することが可能であれば、上記課題に対応可能である。具体的には、注目被写体の撮像を高フレームレートで行い、他の被写体(非注目被写体)の撮像を低フレームレートで行うことで、限られたバッテリー容量でも、注目被写体を効率的に撮像可能となる。
例えば注目被写体が大腸である場合、大腸の開始位置(大腸のうちの小腸側の端点であり、小腸と大腸の境界)を撮像画像に対する画像処理により検出する手法が考えられる。しかし、大腸の開始位置は画像上で大きな特徴を有するものではなく、撮像画像の画像処理により認識することは容易ではない。また、大腸等の消化器官では残渣が撮像されることも多く、当該残渣により消化管の壁面等の構造が隠されてしまい、画像処理による検出処理が阻害されるおそれもある。
さらにいえば、図1や図2を用いて後述するように、画像処理をカプセル型内視鏡以外の外部装置で行う場合、撮像画像を外部装置に送信する処理、及び外部装置から検出結果(狭義には後述するモード切り替え指示)を受信する処理が必要になる。そのため、撮像画像の取得後、高フレームレートへの切り替えまでの間に、当該送受信による遅延が発生する。その場合、仮に大腸の開始位置の検出が正確に行えたとしても、遅延時間の間にカプセル型内視鏡が大腸に入ってしまい、大腸の開始位置近傍が低フレームレートでの撮像しかされない可能性がある。
これに対して、小腸の開始位置(小腸のうちの胃側の端点であり、胃と小腸の境界)の撮像画像に基づく検出は比較的容易である。なぜなら、小腸には特徴的な絨毛構造がみられ、且つ当該絨毛構造は胃にはみられない。つまり、画像処理により絨毛構造(絨毛分布)を検出することで小腸の開始位置を検出可能である。具体的には、絨毛分布が少ない(狭義には無い)状態から絨毛分布が多い状態へと移行したポイントを小腸の開始位置と判定すればよい。
しかし、小腸の開始位置の検出が高精度で行えたとしても、それだけでは大腸を注目被写体とする場合には不十分である。この場合、大腸を確実に高フレームレートで撮像するには、小腸の開始位置から体外への排出までを高フレームレートとする必要があり、非注目領域の撮像まで高フレームレートで行ってしまうという当初の課題が解決されない。小腸の撮像には平均的には数時間を要するため、小腸全体を高フレームレートで撮像することでバッテリー切れとなり、大腸を高フレームレートで撮像できない可能性がある。
そこで本出願人は、注目被写体を低フレームレートで撮像する可能性を抑止し、且つ非注目被写体の高フレームレートでの撮像をできるだけ抑える手法を提案する。具体的には、本実施形態に係る内視鏡システムは図1に示したように、カプセル型内視鏡100と、外部装置200を含み、カプセル型内視鏡100は、小腸及び大腸を撮像し、複数の撮像画像を時系列に取得する撮像部110と、第1のフレームレートで撮像を行う第1のモードと、少なくとも第1のフレームレートよりも高い第2のフレームレートで撮像を行う第2のモードとの、いずれのモードで前記撮像部を動作させるかを制御する処理部(第1の処理部)120と、撮像画像を外部装置200に送信する通信部130(第1の通信部)を含み、外部装置200は、撮像画像に基づいて、小腸の途中で第1のモードから第2のモードへのモード切り替え指示を出力する処理部(第2の処理部)220と、モード切り替え指示を第1の通信部130に送信する通信部(第2の通信部)230を含む。そして、第1の処理部120は、モード切り替え指示に基づいて、小腸の途中で撮像部110を第1のモードから第2のモードに切り替えて、小腸の途中から大腸までを第2のモードで動作させる制御を行う。
ここで、小腸の途中とは、小腸の開始位置よりも肛門側であり、且つ小腸の終了位置(大腸との境界)よりも口側の位置をいう。具体的には、小腸全体の長さをLとした場合に、小腸の開始位置を基準としてp×L~q×Lの範囲に含まれる位置を指すものであってもよいここでp、qは0<p≦q<1を満たす数である。p、qの具体的な値は限定されないが、一例としてはp=0.2、q=0.8といった値でもよい。
本実施形態の手法では、小腸の中間的な位置から高フレームレートでの撮像を開始し、大腸でも高フレームレートでの撮像を継続する。そのため、大腸を高フレームレートで撮像できる可能性を高めることが可能である。また、小腸の開始位置から高フレームレートで撮像する場合に比べて、高フレームレートで撮像される小腸の領域を狭くする、すなわち小腸を高フレームレートで撮像する時間を短くすることが可能になる。そのため、非注目被写体の撮像でのバッテリー消費を抑止し、バッテリーを注目被写体である大腸の撮像に効率的に利用することが可能になる。
さらに、本実施形態の手法では小腸から大腸への切り替わり位置を検出する必要はなく、小腸のうち開始位置よりもある程度大腸寄りであることを検出できれば十分である。つまり、小腸の途中であることの検出処理を行う場合に、ある程度の時間、ある程度の枚数の撮像画像を用いることが可能である。そのため、図1等の構成を用い、撮像画像の取得後、高フレームレートへの切り替えまでの間に、送受信による遅延が発生する例であっても大きな問題とならない。具体的には、小腸の途中であることが検出されるタイミングの近傍のタイミングでは、カプセル型内視鏡100は小腸を移動中であることが想定されるため、撮像画像の取得後、高フレームレートへの切り替えまでの間にカプセル型内視鏡100が大腸に入ってしまう可能性が低く、大腸の撮像漏れ(低フレームレートでの撮像)の可能性が低い。また、図11を用いて後述するように、検出処理にある程度の枚数の撮像画像を用いることができるため、検出処理の精度を向上させることも可能である。
以下、第1~第3の実施形態について説明する。第1の実施形態では、基本的な処理例を説明し、第2の実施形態では学習処理を用いて小腸の途中を検出する手法を説明する。第3の実施形態では、学習処理を用いるとともに、ユーザ毎の絨毛分布の個人差を考慮した手法を説明する。
2.第1の実施形態
第1の実施形態に係る内視鏡システムの構成例を図2に示す。内視鏡システムは、大きくカプセル型内視鏡100及び外部装置200により構成されている。カプセル型内視鏡100は、撮像部110、A/D変換部115、処理部120、通信部130、制御部150、及び光源部160を含む。そして、通信部130は、撮像画像送信部131、切り替え指示受信部132を含む。
第1の実施形態に係る内視鏡システムの構成例を図2に示す。内視鏡システムは、大きくカプセル型内視鏡100及び外部装置200により構成されている。カプセル型内視鏡100は、撮像部110、A/D変換部115、処理部120、通信部130、制御部150、及び光源部160を含む。そして、通信部130は、撮像画像送信部131、切り替え指示受信部132を含む。
一方、外部装置200は、画像保存部210、処理部220、通信部230、制御部250を含む。そして、処理部220は、画像処理部221、切り替え判定部222を含み、通信部230は、撮像画像受信部231、切り替え指示送信部232を含む。
カプセル型内視鏡100においては、制御部150の制御により、光源部160が出射する光は、カプセル型内視鏡100以外の被写体に照射する。その被写体からの反射光は、撮像部110にある光学レンズ系を介して同じく撮像部110にある撮像素子に入る。撮像部110の撮像素子により出力されたアナログ撮像画像はA/D変換部115へ転送される。本実施形態では、原色単版配列の撮像素子に対応する。
撮像部110は、A/D変換部115を介して撮像画像送信部131へ接続している。撮像画像送信部131は、無線を介して外部装置200にある撮像画像受信部231へ接続している。また、無線を介して外部装置200にある切り替え指示送信部232が、切り替え指示受信部132へ接続している。処理部(第1の処理部)120は、撮像部110へ接続している。制御部150は、撮像部110、A/D変換部115、処理部120、撮像画像送信部131、切り替え指示受信部132、及び光源部160と双方向に接続している。
A/D変換部115は、制御部150の制御により、撮像部110からのアナログ撮像画像をデジタル化してデジタル撮像画像(以下撮像画像と省略)として撮像画像送信部131へ転送する。撮像画像送信部131は、制御部150の制御により、無線を介して外部装置200にある撮像画像受信部231へ撮像画像を送信する。
本実施形態では、無線を介して、撮像画像を圧縮せずに外部装置200へ送信する構成となっているが、この構成に限定する必要はない。例えば、撮像画像を一旦圧縮して外部装置200へ送信する構成にしてもよい。
本実施形態では、外部装置200にある切り替え指示送信部232からの判断制御信号(切り替え指示、モード切り替え指示)を用いて、所定の処理の仕組みで撮像画像フレームレート(以下撮像FRと省略)を制御する構成となっている。そのため、処理部120での処理構成については、外部装置200の処理構成の説明の後で記述する。
外部装置200においては、撮像画像受信部231は、画像処理部221を介して画像保存部210及び切り替え判定部222へ接続している。切り替え判定部222は、切り替え指示送信部232へ接続している。切り替え指示送信部232は、無線を介してカプセル型内視鏡100にある切り替え指示受信部132につながっている。制御部250は、画像保存部210、画像処理部221、切り替え判定部222、撮像画像受信部231、及び切り替え指示送信部232と双方向に接続している。
撮像画像受信部231は、無線を介してカプセル型内視鏡100から転送されてきた撮像画像を受け取り、画像処理部221へ転送する。
画像処理部221は、制御部250の制御に基づき、撮像画像受信部231からの撮像画像に対して画像処理を行う。例えば、公知の補間処理、カラーマネジメント処理、エッジ強調処理、階調変換処理などを実施する。制御部250の制御に基づき、処理後のRGB3板撮像画像を画像保存部210へ転送して保存する。一方、処理後の撮像画像を、制御部250の制御に基づき切り替え判定部222へ転送する。
本実施形態は、上述したように大腸を診断するためのカプセル状の内視鏡に対応している。大腸の診断漏れを抑制した上、消費電力を節約するため、カプセル状の内視鏡が患者に口から飲み込まれてから大腸の入口の手前まで低フレームレートで撮像し、大腸入口から高フレームレートで撮像することが理想である。しかし、残渣や泡、カプセル自身の動き、患者の小腸及び大腸の構造の違いなどの影響でリアルタイムに大腸入口を検出することが困難である。従って、大腸入口の検出に失敗して、大腸に入ってからも低フレームレートで撮像し続けるリスクがある。そのため本実施形態では、カプセル状の内視鏡が患者に口から飲み込まれてから大腸に入る前に小腸途中の所定領域まで低フレームレート(例えば、2fps)で撮像し、小腸途中の所定領域から高フレームレート(例えば、12fps)に切り替えて撮像する構成を提案する。この小腸途中の所定領域の特定が本実施形態の特徴となっている。
周知のように、小腸は、十二指腸、空腸と回腸から構成されている。胃が十二指腸を介して空腸とつながり、回腸が回盲弁によって大腸(結腸)とつながっている。空腸と回腸の明確な解剖学の境界はないが、おおむね口側の2/5が空腸、残りの3/5が回腸とされる。絨毛は、小腸にある特有なもの(構造)であり、絨毛は十二指腸において最も密生している。また、絨毛は回腸の終わりに向かって(大腸側に向かって)その密度が減るものであり、空腸では、全体的に腸内部の絨毛の分布が回腸の絨毛の分布に比べて密である。本実施例では、この十二指腸、空腸と回腸内部の絨毛の分布に着目し、撮像した画像に対し画像認識処理に基づいて絨毛分布を識別する。この絨毛分布の識別情報を利用して空腸と回腸のおおよその境界を特定し、空腸と回腸のおおよその境界を前記低フレームレートから高フレームレートへの撮像フレームレートを切り替えするための小腸途中の所定領域とする。ただし、以下で説明する手法からわかるように、本実施形態の手法は小腸の途中であること、すなわちバッテリー消費を抑止できる程度に小腸の開始位置よりも肛門側であり、且つ大腸の撮像漏れを抑止できる程度に小腸の終了位置よりも口側の位置を検出できればよく、特定の部位の境界を厳密に検出するものではない。
具体的には、切り替え判定部222において、時系列に撮像した画像に対して持続的に前記腸内の絨毛の分布を識別し、絨毛分布の減少が確認できたら、この時点のカプセル本体がある小腸の位置を小腸途中の所定領域と判定する。制御部250の制御に基づき、切り替え指示送信部232を介して無線でその判定情報をリアルタイムにカプセル本体にある切り替え指示受信部132へ送信する。切り替え指示受信部132が、制御部150の制御に基づき、判定情報を処理部120へ転送する。処理部120は、制御部150の制御に基づき、低フレームレートから高フレームレートの撮像モードに切り替えて撮像する。
また、本実施形態では、小腸途中の所定領域まで低フレームレート(例えば、2fps)で撮像し、小腸途中の所定領域から高フレームレート(例えば、8fps)に切り替えて撮像する仕組みとなっているが、このような構成に限定する必要はない。一つの変形例として、小腸途中の所定領域まで低フレームレート(例えば、2fps)で撮像し、小腸の絨毛分布の減少が確認できたら高フレームレート(例えば、8fps)に切り替えて撮像し、小腸の絨毛分布がさらに減少したら、超高フレームレート(例えば、16pfs)に切り替えて撮像する。このように、絨毛の分布に応じて多段階(3段階以上(その値を含む)を含む)フレームレートを切り替えて撮像構成にしてもよい。
また、高フレームレートと超高フレームレートとの切り替えは、絨毛分布に基づいて行われるものには限定されない。もう一つの変形例として、低フレームレートが1段階(例えば、2fps)、高フレームレートが2段階(例えば、8fpsと16fps)の構成で、小腸途中の所定領域まで低フレームレートで撮像し、小腸の絨毛分布の減少が確認できたら高フレームレートモードに切り替えて撮像する。この場合、さらに、高フレームレートモードにおいて、カプセル本体の動きを検出し、多段階で撮像フレームレートを制御する。動きがないあるいは小さい場合、高フレームレート1(例えば、8fps)で撮像し、動きが大きい場合、高フレームレート2(例えば、16fps)で撮像する。つまり、診断漏れを防ぐため、小腸途中の所定領域から動きに応じて多段階撮像フレームレートで撮像する構成にする。動きの大きさの測定に関しては、時系列に撮像された複数の画像を用いて検出してもよいし、動きを検出するセンサーなどを用いて検出してもよい。
本実施形態及び変形例に示されているように、撮像画像を用いて絨毛の分布を検出し、カプセル本体が口に飲みこまれてから小腸途中の所定領域まで低フレームレートで撮像し、小腸途中の所定領域から大腸を通過し体外に排出されるまで1段階以上(その値を含む)の高フレームレートで撮像するため、大腸の診断もれが予防できることと同時に、カプセル型内視鏡100の消費電力も節約できる。
また、以上ではカプセル型内視鏡100の本体で撮像した画像を外部装置200へ送信し、外部装置200において小腸途中の所定領域を検出する構成となっているが、この構成を限定する必要はない。小腸途中の所定領域を検出する構成をカプセル型内視鏡100の本体に組み込んでもよい。
この場合の内視鏡装置(カプセル型内視鏡)400の構成例を図3に示す。内視鏡装置400は図3に示したように、撮像部110、A/D変換部115、処理部120、撮像画像送信部131、制御部150、光源部160を含む。そして、処理部120は、画像処理部121、切り替え判定部122、フレームレート制御部123を含む。
ここで、撮像部110、A/D変換部115、制御部150、光源部160は、図2を用いて上述したものと同様である。
撮像画像送信部131は、撮像画像を外部に対して送信する。図3の例では、撮像画像に基づく小腸の途中の検出処理は内視鏡装置内部で行うため、撮像画像送信部131による送信は当該検出処理を目的としたものではない。例えば、撮像画像送信部131から送信された撮像画像は、外部装置の記憶部への記憶、或いは表示部への表示に用いられるものであってもよい。
処理部120の画像処理部121と切り替え判定部122は、図2における外部装置200の画像処理部221と切り替え判定部222に対応する。行われる処理は同様であるため、詳細な説明は省略する。
フレームレート制御部123は、図2におけるカプセル型内視鏡100の処理部120自体に相当する。具体的には、切り替え判定部122における判定結果(切り替え指示)に基づいて、撮像FRの制御を行う。
図3の構成では、撮像画像に基づく小腸の途中の検出処理を内視鏡装置400の内部で実行することができる。そのため、上述したような撮像画像の取得後、高フレームレートへの切り替えまでの間の遅延を、図2の例に比べて小さくすることが可能であり、大腸の撮像漏れの可能性をより抑止することができる。
図4に本実施形態に係る処理を流れを説明するフローチャートを示す。本実施形態の処理が開始されると、まずカプセル型内視鏡100において撮像画像が撮像される(S101)。そしてカプセル型内視鏡100の通信部(第1の通信部)130から外部装置200に対して撮像画像が送信され(S102)、外部装置200の通信部(第2の通信部)230で撮像画像が受信される(S103)。
外部装置200の処理部(第2の処理部)220では、取得した撮像画像に基づいて小腸の途中を検出する検出処理を行う(S104)。検出処理では、例えば絨毛分布の検出を行えばよく、具体的な手法については第2,第3の実施形態で後述する。
検出処理の結果、撮像FRの切り替えが必要と判定された場合には、外部装置200の通信部230から切り替え指示が送信され(S105)、カプセル型内視鏡100の通信部130により、当該切り替え指示が受信される(S106)。そして、カプセル型内視鏡100の処理部120は、受信した切り替え指示に基づいて、撮像部110の撮像FRの切り替え制御を実行する(S107)。
以上の本実施形態では、第2の処理部220(狭義には切り替え判定部222)は、小腸の胃側から大腸側へ向かうにつれて変化する特徴量を撮像画像から検出し、検出結果に基づいてモード切り替え指示を出力する。
このようにすれば、小腸の途中(所定領域)を適切に検出することが可能になる。そのため、小腸から大腸への切り替わりといった画像処理から検出困難な状況を検出対象とする必要がないため、判定処理(検出処理)を精度よく行うことが可能になる。なお、撮像画像を用いることからわかるように、特徴量とは画像から検出可能なものであり、色、テクスチャ、勾配、輪郭(エッジ)等の特徴、或いはそれらを用いることで検出可能な特徴を表す量である。
また、第2の処理部220は、小腸の胃側から大腸側へ向かうにつれて変化する特徴として、絨毛分布に関する情報を撮像画像から検出し、検出結果に基づいてモード切り替え指示を出力してもよい。
これにより、絨毛分布を用いて小腸の途中を検出することが可能になる。上述したように、口から胃までは絨毛がみられず、また大腸も絨毛がみられない。さらに、小腸内でも胃に近い位置では絨毛が多く、大腸側に行くほど絨毛が少なくなる。つまり、絨毛分布は、小腸であるか否か、さらには小腸においてどの程度大腸側に移動した位置であるかを判定する指標として用いることができ、小腸の途中の検出処理に適している。なお、ここでの「絨毛分布に関する情報」とは、例えば絨毛分布の多い少ないを表す情報であってもよく、例えば第3の実施形態で後述する絨毛スコアであってもよい。或いは、「絨毛分布に関する情報」とは、第2の実施形態で後述するように、時系列で取得される画像がそれぞれ絨毛画像であるか否かを表す情報であってもよいし、図11を用いて後述するように、所定区間における絨毛画像の枚数を表す情報であってもよい。
また、図3を用いて上述したように、以上の本実施形態は、小腸及び大腸を撮像し、時系列の撮像画像を取得する撮像部110と、第1のフレームレートで撮像を行う第1のモードと、少なくとも第1のフレームレートよりも高い第2のフレームレートで撮像を行う第2のモードとの、いずれのモードで撮像部110を動作させるかを制御する処理部120を含み、撮像画像に基づいて、小腸の途中で撮像部110を第1のモードから第2のモードに切り替えて、小腸の途中から大腸までを第2のモードで動作させる制御を行う内視鏡装置(カプセル型内視鏡)400に適用できる。
これにより、撮像部110のモード(撮像FR)切り替えだけでなく、当該切り替えのための小腸の途中を検出する処理についても、内視鏡装置400の内部で実行することが可能になる。この場合、内視鏡装置400の処理部120は、小腸の胃側から大腸側へ向かうにつれて変化する特徴量として、絨毛分布に関する情報を撮像画像から検出し、検出結果に基づいて、小腸の途中で撮像部110を第1のモードから第2のモードに切り替える制御を行うことになる。
例えば、内視鏡装置400の処理部120は、撮像部110が第1のモードで動作している状態において、絨毛分布が減少したと判定された場合に、第1のモードから第2のモードに切り替える制御を行えばよい。絨毛分布が減少したか否かの判定手法の詳細については、第2、第3の実施形態において後述する。
第2、第3の実施形態では、小腸の途中を検出する処理、つまり狭義には絨毛分布に関する判定処理は、外部装置200の処理部(第2の処理部)220において行われるものとして説明するが、本実施形態の手法を図3に示した内視鏡装置400に適用する場合、対応する処理は内視鏡装置400の処理部120で実行されることになる。すなわち、本明細書において外部装置200の処理部(第2の処理部)220が行うと記載した処理は、図3の内視鏡装置400の処理部120により行われてもよい。
3.第2の実施形態
本実施形態における内視鏡システム或いは内視鏡装置の構成は第1の実施形態と同様であり、図2又は図3の構成を用いることが可能である。第1の実施形態と同一の構成要素については同一の符号を付与して適宜説明を省略し、第1の実施形態の構成要素と異なる部分のみを説明する。
本実施形態における内視鏡システム或いは内視鏡装置の構成は第1の実施形態と同様であり、図2又は図3の構成を用いることが可能である。第1の実施形態と同一の構成要素については同一の符号を付与して適宜説明を省略し、第1の実施形態の構成要素と異なる部分のみを説明する。
図5は、本実施形態に係る切り替え判定部222の構成の一例である。切り替え判定部222は、分類部301、分析判断部302及び記憶部303を備えている。画像処理部221は、分類部301、分析判断部302を介して切り替え指示送信部232へ接続している。記憶部303は、分類部301へ接続している。制御部250は、分類部301、分析判断部302及び記憶部303と双方向に接続している。
なお、図5では図2における外部装置200の切り替え判定部222の構成を示したが、図3における内視鏡装置(カプセル型内視鏡)400の切り替え判定部122の構成も、図5と同様である。
本実施形態では、公知の画像認識技術で撮像画像に対する色、勾配及びテクスチャ関連の少なくとも一つの特徴量で学習・分類した結果に基づいて、絨毛の分布特徴を分析し小腸途中の所定領域を検出する。
本実施形態においては、Bag-of-Features(以下BoFと記す)と呼ばれる対象物の位置によらない画像認識技術のアルゴリズムを用いる。この手法は、文書検索手法であるBag-of-Wordsを画像認識に適用したもので、学習と分類の2段階の処理から構成されている。
学習の段階では、まず、複数の学習画像を選ぶ。本実施例では、「絨毛」と「その他」を含む少なくとも2つ以上(その値を含む)の分類項目(分類画像)を設定するため、絨毛の分布密度が高い画像(例えば、画像の中に写っている絨毛構造が多いもの)を「絨毛」の学習画像、それ以外の画像(例えば、画像の中に写っている絨毛構造がないもの、絨毛構造が少ないものなど)を「その他」の学習画像とする。
なお、分類項目はこのような2つを設定するものに限定する必要はない。分類精度を高めるために、画像の内容に応じて、「絨毛」の項目をさらに分割して「絨毛が多い」、「絨毛がやや多い」、「絨毛が少ない」、「絨毛がない」などの新しい分類項目を設定し、それらに対応する学習画像を選ぶ構成にしてもよい。
学習画像から複数の小さいサンプル領域を抽出し特徴量抽出処理によって特徴量ベクトルを算出し、クラスタリング処理によってVisual Word(以下VWと記す)という観察基準を選出する。本実施形態では、公知のK-means法を利用する。続いて、各学習画像から空間方向において順次抽出した各々の小領域に対して上記同様に特徴量ベクトルを算出し、前記VWとの距離を求める。この距離が最も小さいVWに一票を投票する。一枚の学習画像の全部の小領域に対する投票処理が完了したら、その画像に対応するBoFヒストグラムが生成される。最終的に、学習画像の枚数分のBoFヒストグラムが生成される。これらのBoFヒストグラム及びそれらを成分とするBoFベクトルを用いて画像を分類するための学習識別器を構築する。本実施例では、SVM(Support Vector Machine)という学習識別器アルゴリズムを採用する。
具体的な学習処理を説明する。なお、本実施形態における切り替え判定部222は、学習結果を保持していればよい。そのため、切り替え判定部222において学習処理を行ってもよいし、学習処理は外部装置200の他のブロック、或いは他の装置において行われ、切り替え判定部222はその結果を取得するものであってもよい。
学習用画像は、画像と絨毛分布の程度との対応が予め判明している画像である。例えば診断対象の患者とは別の患者から予め撮像しておいた画像を用いる。複数の学習用画像は時系列の画像である必要はない。
図6に示すように、画像IM(1枚の学習用画像)に所定サイズの局所領域LAを設定する。具体的には、複数の局所領域LA1、LA2、LA3、・・・を、互いに重なりを許して設定する。例えば画像IMのサイズが300画素×300画素の場合、局所領域のサイズを30画素×30画素に設定するが、画像IMのサイズに応じて局所領域のサイズを変えてもよい。
次に、各局所領域LAの画像に対して、例えば、LBP(Locally Binary Pattern)を適用する。LBP値は、局所領域LAの各画素を中心とする3×3画素から求める。3×3画素の中心の画素をP0とし、その周囲の8画素をP1~P9とすると、P1~P9の各画素とP0とで画素値を比較し、P0の画素値以上の場合には“1”を割り当て、P0の画素値より小さい場合には“0”を割り当てる。そのビットをP1~P9の順に並べて8ビットの値を得る。
これを、局所領域LAの全画素について行い、1つの局所領域LAあたり30×30=900個のLBP値を得る。その900個のLBP値を0~255のLBP値に振り分けて、各値の個数をカウントし、局所領域LAについて256次元の局所特徴ヒストグラムを得る。さらに、ブロックごとに正規化し、これを256次元の特徴ベクトル(局所特徴量)とみなし、この局所特徴量を局所領域LA1、LA2、・・・の各々について求め、局所領域の個数分の局所特徴量を生成する。以上の局所特徴量の算出処理を説明するものが図7である。
この局所領域から局所特徴量を算出する処理を複数の画像に対して行い、局所特徴量として多数のベクトルを記憶する。例えば学習用画像を100枚とし、画像1枚あたり100個の局所領域を設定したとすると、10000個分の局所特徴量が取得される。
次に、これらの記憶された局所特徴量に対して例えばK-means法等を用いてクラスタリングを行い、代表ベクトルを抽出する。この代表ベクトルが上述のVWに対応する。K-means法は、分割クラス数をk個とし、k個の代表ベクトルを初期状態に設定して特徴ベクトルをk個のクラスに分割し、各クラスの平均位置を求めて代表ベクトルを移動してクラスの分割を再度行い、これを繰り返して最終的なクラスの分割を決める手法である。例えば、本実施形態では代表ベクトル(VW)の数をk=100個とする。
次に設定された100個の代表ベクトルの中から、局所特徴量と代表ベクトルのユークリッド距離が最短となるものを見いだす。これを各画像について局所領域毎に行う。100個の代表ベクトルに1~100の番号を付し、各番号の代表ベクトルに対してユークリッド距離が最短だった局所領域が何個あったかをカウントし、100次元のヒストグラムを生成する。このヒストグラムは1枚の学習用画像毎に生成する。これを100次元のベクトルとみなし、画像のBoF(Bag of Features)特徴ベクトルと呼ぶ。
以上の処理により、1枚の学習用画像から1つのBoF特徴ベクトルが取得される。この学習用画像の枚数分だけのBoF特徴ベクトルと、正解のラベル(例えば、「絨毛」か「その他」かというラベル)とを関連づけて学習データセットを生成する。
そして、上記の学習データセットを用いて、例えばSVM(Support Vector Machine)により学習を行う。SVMは、与えられた学習データセットから、特徴ベクトルのベクトル空間におけるラベルの分離面(例えば「絨毛」と「その他」の特徴ベクトルを分離する面)を決定する学習器である。例えば、特徴ベクトルのベクトル空間において線形に分離を行い、分離平面を決定する。或いは、特徴ベクトルよりも高次元のベクトル空間において線形に分離を行い、特徴ベクトルの次元で見たときに非線形な分離面を決定してもよい。本実施形態では、以上の学習処理の結果を記憶部303に保存する。
分類の段階では、分類するための撮像画像を順に入力し、撮像画像から空間方向において順次抽出した各々の小領域に対して上記同様に局所特徴量を算出し、前記VWとの距離を求める。この距離が最も小さいVWに一票を投票する。1枚の撮像画像の全部の小領域に対する投票処理が完了することで、学習時と同様に、1枚の撮像画像から1つのBoF特徴ベクトル(BoFのヒストグラム)が求められる。
続いて、学習により得られたSVM識別器と、撮像画像から取得されたBoF特徴ベクトルを用いて識別を行い、その識別結果(分類結果)を出力する。具体的には、分類部301は、制御部250の制御に基づき、画像処理部221からの撮像画像を用いて上記のようにBoFヒストグラムを作成し、記憶部303からのSVM識別器と学習画像からのBoFヒストグラム及びそれらを成分とするBoF特徴ベクトルの情報を抽出して比較し、「絨毛」と「その他」のどちら一方に属するかを示す分類インデックス指標を与える。具体的には、「絨毛」であることの確からしさを表す絨毛スコアと、「その他」であることの確からしさを表すその他スコアを求める。分類部301は、撮像画像の分類インデックス指標を分析判断部302へ転送する。
本実施形態では、撮像画像に対する色、勾配及びテクスチャ関連の少なくとも一つの特徴量で特徴量ベクトルを算出する構成となっている。
勾配に関する特徴量は上述したように例えばLBPである。また、色に関する特徴量は、図8に示したHSV(Hue-Saturation-Value)であってもよい。HSVは、色相(Hue)、彩度(Saturation)、明度(Value)の3成分からなる色空間である。HSVを用いた場合の局所特徴量の算出の一例を図8に示す。HSV色空間は、色相方向、彩度方向及び明度方向にそれぞれ複数の領域に分割する。まず、画像を画素ごとにHSV表色系に変換する。変換後のHSV画像をブロックに分割し、ブロック単位で色相に関する彩度、及び明度を要素とするヒストグラムを算出する。続いて、ブロックを移動し、同様な処理を実施し、1枚の画像に含まれるブロック数分のヒストグラムを作成する。さらに、ブロックごとに正規化し、HSV特徴量ベクトルを生成する。
また、テクスチャに関する特徴量は、図9に示したHOG(Histogram-of-Oriented-Gradient)であってもよい。HOGを用いた場合の局所特徴量の算出の一例を示す。画像の局所領域をブロックに分割し、画素毎に輝度勾配情報(勾配方向と重みなど)を算出し、ブロック単位で輝度勾配のヒストグラムを算出する。続いて、さらに、ブロックを移動し、同様な処理を実施し、1枚の画像に含まれるブロック数分のヒストグラムを作成する。さらに、ブロックごとに正規化し、HOG特徴量ベクトルを生成する。
本実施形態では、LBP特徴量、HSV特徴量及びHOG特徴量を用いて学習・分類を実施する構成となっているが、このような構成に限定する必要はない。必要に応じて勾配、色及びテクスチャに関するあらゆる特徴量を用いて学習・分類を実施する構成としてもよい。
また、これらの複数種類の局所特徴量を組み合わせた特徴ベクトルを生成してもよい。色、勾配、テクスチャの組合せ方法には、大きく分けて処理の早い段階で組合せるアーリーフュージョン(early fusion)と処理の遅い段階で組合せるレイトフュージョン(late fusion)がある。
アーリーフュージョンの一例として、各局所領域の中の3×3画素のパターンをテクスチャ特徴量のULBP(Uniform LBP)特徴量と中心画素のHSV色特徴の組合せによって表現する方法がある。HSV色特徴は、例えば、図10のようにHSV色空間を色相方向に12分割し、彩度方向に3分割し、無彩色の明度を4分割する。この場合、合計40次元の特徴量であり、ULBP特徴量が10次元であるため、その結果生成されるアーリーフュージョンの特徴量の次元は、40×10=400次元である。
レイトフュージョンの一例として、HSV色特徴量のBoFヒストグラムとLBPヒストグラムを並べて得られる結合ヒストグラムを画像の特徴ベクトルとする方法がある。また、レイトフュージョンの別の例として、色単独、テクスチャ単独、或いは、それらの上述したアーリーフュージョンやレイトフュージョンの組合せをそれぞれ別々に、後述するSVM等の判別器で学習し、分類時の分類スコアを合算し、それをある閾値で判定する方法がある。以上のような手法を組合せることで、より精度の高い学習・分類器を構築できる。
以上の学習、分類処理の流れを説明するものが図12である。図12の左側が学習段階を表し、具体的には学習画像を複数の局所領域に分割して局所特徴量を求める(A1、A2)。これを複数の学習画像に対して行うことで多数の局所特徴量が求められるため、そこからVWを設定する(A3)。さらに、VWと局所特徴量との距離に基づいて、1枚の学習画像から1つのBoF特徴ベクトル(BoFヒストグラム)を求める(A4)。この際、各学習画像には正解データ(「絨毛」、「その他」というタグ)が付されているため、BoF特徴ベクトルと正解データから識別器(例えばSVM)を構成する(A5)。
分類時には、撮像画像(テスト画像)に対して同様に局所領域への分割と局所特徴量の算出が行われる(B1,B2)。そして、A3で設定されたVWと局所特徴量との距離に基づいて、1枚の学習画像から1つのBoF特徴ベクトル(BoFヒストグラム)を求める(B3)。そして、求められたBoF特徴ベクトルと、A5で構成された識別器とにより、1つの撮像画像を複数の分類項目のいずれか1つに分類する(B4,B5)。
分析判断部302は、制御部250の制御に基づき、時系列に撮像された複数の画像からなる区間内において、「絨毛」或いは「その他」と分類された画像の枚数を用いて、絨毛分布を求める。図11は、「絨毛」又は「その他」の分布測定プロセスの一例を示している。時系列に撮像された画像をN枚画像(N≧2の整数)単位で1つの分布測定の区間とする。その区間内において、「絨毛」と分類された画像の枚数をカウントし、そのカウント数が所定の閾値th1より大きい場合、この区間を「絨毛区間」と判定する。一方、区間内に「その他」と分類された画像の枚数をカウントし、そのカウント数が所定の閾値th2より大きい場合、この区間を「その他区間」と判定する。1つの区間の判定が終わったら、時系列方向でn枚(n≧1)画像をシフトして、次のN枚画像からなる新しい区間で同じ判定を実施する。このように繰り返して区間ごとに「絨毛区間」あるいは「その他区間」の判定を実施する。
解剖学上では、絨毛が小腸にしか分布していない。小腸の前半領域において絨毛の分布密度が高く、回腸領域になると絨毛の分布密度がやや低くなる。本実施例では、大腸診断をするためのカプセル状の内視鏡に対応している。まず、カプセル型内視鏡100が飲み込まれてから低フレームレートで撮像する。前記の「絨毛区間」と「その他区間」の判定プロセスで、カプセル型内視鏡100が飲み込まれてから、ある区間で初めて「絨毛区間」と判定された場合、カプセル型内視鏡100が小腸に入ったと知らせる。ただし、低フレームレートのままで撮像し続ける。続いて、その直前の区間が「絨毛区間」の状態だが、ある区間が「その他区間」に切り替わった場合、小腸途中の所定領域と識別し、撮像フレームレートを低フレームレートから高フレームレートへ切り替える。
このように、カプセル型内視鏡100が口から飲み込まれてから低フレームレートで撮像するが、時系列に撮像された複数の所定枚数の画像からなる区間内に「絨毛」あるいは「その他」と分類された画像の枚数を用いて「絨毛区間」あるいは「その他区間」を判定する。そして、絨毛の分布密度が低くなる小腸途中の所定領域を識別して撮像フレームレートを低フレームレートから高フレームレートへ切り替えて小腸の後半と大腸を撮像することで、大腸の診断もれが予防できることと同時に、カプセル型内視鏡100の消費電力も節約できる。
なお、以上の説明では小腸途中の所定領域を識別して、低フレームレートから高フレームレートへ切り替えて、その後ずっと高フレームレートで撮像し続ける構成となっているが、このような構成に限定する必要はない。
本実施形態の一変形例をさらに提案する。解剖学上では、小腸の前半領域において絨毛の分布密度が高く、回腸領域になると絨毛の分布密度がやや低くなると定義されている。しかしこの定義は、小腸の前半領域が後半の回腸領域に比べて平均的に絨毛の分布密度が高いとのことで、患者によっては、小腸の前半領域においても、絨毛の分布密度が非常に高い区域と相対的に絨毛の分布密度がやや低い区域がある。一方、回腸領域においても、絨毛の分布密度が非常に低い区域と相対的に絨毛の分布密度がやや高い区域がある。つまり、例えば、小腸の前半領域においては、回腸領域に比べて平均的に絨毛の分布密度が高いが、同じ小腸の前半領域の中に区域によって絨毛の分布密度のばらつきがあり、絨毛の分布密度が相対的に低い区域もある。さらに、カプセル型内視鏡100が体内の物理的な動きに任せて動いているため、前後に前進したり後退したりして、ずっと前に進んでいるわけではない。例えば、一旦胃から小腸に入ってからまた胃に戻る状況がよくある。
これらのような場合、上述した「絨毛区間」又は「その他区間」の判定プロセスでは、小腸の前半領域に絨毛の分布密度が低くなる場合、また、一旦胃から小腸に入ってから再び胃に戻った場合にも、「絨毛区間」の出現後に「その他区間」が現れるため、低フレームレートから高フレームレートに切り替えてカプセル型内視鏡100が体外排出されるまで高フレームレートで撮像し続けることになる。
そのため、消費電力の無駄になり、途中で電源切れになるリスクがある。そこで、本変形例では、前記の課題に対応するため、以下のように提案する。「その他区間」が現れたら直ちに低フレームレートから高フレームレートに切り替えて撮像するが、その後、「絨毛区間」がまた現れたら再び高フレームレートから低フレームレートに切り替えて撮像する。つまり、「絨毛区間」と「その他区間」が判定される度に高フレームレートから低フレームレート、あるいは、低フレームレートから高フレームレートに切り替えて撮像する。
このようにすれば、上述したような高フレームレートでの撮像継続が好ましくない状況において、適切に低フレームレートに戻ることができ、消費電力を低減できる。なお、この構成では、さらに診断漏れや「絨毛区間」あるいは「その他区間」の誤判定を防ぐため、飲み込まれてから一定の時間が経ったら、高フレームレートで撮像するように固定する構成にしてもよく、種々の変形実施が可能である。
以上の本実施形態では、第2の処理部220は、撮像部110が第1のモードで動作している状態において、絨毛分布が減少したと判定された場合に、第1のモードから第2のモードへのモード切り替え指示を出力する。
上述の例であれば、絨毛分布が減少したか否かはN枚の判定区間における「絨毛」と判定された画像の枚数に基づいて判定すればよい。この場合、枚数が単純に減少したか否かを判定してもよいが、上述したように閾値判定により「絨毛区間」か「その他区間」かを判定し、「絨毛区間」から「その他区間」へ遷移した場合に、絨毛分布が減少したと判定してもよい。
これにより、絨毛分布が減少したと判定された場合に、第2のモード、すなわち高フレームレートモードへと切り替えることが可能になる。上述したように、小腸の中の絨毛分布は大腸側へ移動するほど平均的に小さくなることが知られている。つまり、ある程度絨毛分布が減少したということは、小腸の開始位置に対してある程度大腸側まで移動していることに対応するため、それを高フレームレートへの切り替えトリガーとすれば、適切に消費電力を低減するとともに、大腸の撮像漏れを抑止することが可能になる。
また、第2の処理部220は、絨毛分布が増加したと判定された場合に、撮像部110を第1のモードで動作させるモード切り替え指示を出力してもよい。
絨毛分布が増加したとは、具体的には絨毛分布がない胃から、絨毛分布がみられる小腸へ撮像部位が変化した状況に対応する。つまり、絨毛分布の増加をトリガーとして撮像部110を第1のモードで動作させることで、小腸の開始位置以降の被写体を第1のモードで撮像することが可能になる。なお、絨毛分布を撮像画像から判定するためには、撮像部110による撮像は必須である。つまり、絨毛分布の増加前であっても撮像部110を全く動作させないという実施形態は考えにくい。一例としては、絨毛分布の増加前には第1のフレームレートよりもさらに低い第0のフレームレートで動作するモードに設定しておいてもよい。
或いは、ユーザの口に飲み込まれてから絨毛分布が減少するまでは常に第1のモードで動作させてもよい。この場合、絨毛分布の増加自体は撮像FRの切り替えトリガーとはならない。
また、第2の処理部220は、撮像部110が撮像した複数の撮像画像の各撮像画像を、絨毛分布が多いと判断された第1の分類画像、及び絨毛分布が少ないと判断された第2の分類画像を少なくとも含む複数の分類画像のいずれかに分類し、複数の分類画像のうちの少なくとも1つの分類画像の出現頻度に基づいて、絨毛分布を求め、絨毛分布に基づいて、第1のモードから第2のモードへのモード切り替え指示を出力してもよい。
これにより、各撮像画像をいずれかの分類画像(分類項目)に分類し、その分類結果に基づいて絨毛分布を求めることが可能になる。上述したように、本実施形態では、分類項目とは絨毛分布の多い少ないを表す項目であることを想定しているため、撮像画像がいずれの分類項目に分類されたかという分類結果は、当該撮像画像に含まれる絨毛分布の多寡を表す情報として利用可能である。
また、第2の処理部220は、学習処理により求められた分類情報を取得し、撮像部110が撮像した複数の撮像画像の各撮像画像から求められる特徴量と、分類情報とに基づいて、複数の撮像画像を複数の分類画像のいずれかに分類してもよい。
これにより、分類処理を学習処理に基づいて実行することが可能になる。上述の本実施形態では学習用の特徴量としてBoF特徴ベクトルを用い、且つSVMを識別器として利用する例を示したが、他の特徴量を用いたり、他の手法により識別器を構成することも可能である。
また、第2の処理部220は、時系列的に取得されたN(Nは2以上(その値を含む)の整数)枚の撮像画像を含む判定区間を設定し、N枚の撮像画像のうち、第1の分類画像に分類された撮像画像がth1(th1はN以下(その値を含む)の正の整数)以下である場合、又は第2の分類画像に分類された撮像画像がth2(th2はN以下(その値を含む)の正の整数)以上である場合に、絨毛分布が少ないと判定し、第1のモードから第2のモードへのモード切り替え指示を出力してもよい。
これにより、図11に示したように所定区間における「絨毛」に分類された画像の枚数、或いは「その他」に分類された画像の枚数を用いて、小腸の途中を検出してモード切り替え指示を出力することが可能になる。なお、分類項目(分類画像)が3以上(その値を含む)であった場合には、各分類項目の出現頻度のうちいずれを用いてもよいし、2以上(その値を含む)の分類項目の出現頻度を組み合わせて用いてもよい。なお上述した本実施形態の手法では、具体的には判定区間がいずれの分類項目に該当する区間であるかを特定しているが、これに限定されず、枚数(或いは割合)そのものの時系列変化を判定してもよい。
また、第2の処理部220は、撮像部110が第2のモードで動作している状態において、絨毛分布が増加したと判定された場合に、第2のモードから第1のモードへのモード切り替え指示を出力してもよい。
これにより、第2のモード(高フレームレートモード)に移行した後であっても、当該移行が不適切なものであったと判定して、第1のモード(低フレームレートモード)に戻すことが可能になり、不要な電力消費を抑えることが可能になる。ここでの第2のモードへの遷移が不適切であった状況とは、具体的には上述した小腸から胃への出戻り等が考えられる。
また、第1の処理部120は、第1のモードでは第1のフレームレートで撮像部110を動作させ、第2のモードでは第2のフレームレート、又は第2のフレームレートよりも高い第3のフレームレートで撮像部110を動作させる制御を行ってもよい。その際、第2の処理部220は、撮像部110が第2のモードで動作している状態において、撮像部110が第2のフレームレートと第3のフレームレートのいずれで動作するかを切り替えるフレームレート切り替え指示を出力し、第1の処理部120は、フレームレート切り替え指示に基づいて、撮像部110を第2のフレームレートと第3のフレームレートのいずれかで動作させる制御を行う。
これにより、第2のモード(高フレームレートモード)の中でも複数の撮像FRを切り替えることが可能になる。このため、所定の対象を第3のフレームレートで撮像することで、当該対象の撮像漏れの可能性をさらに抑止することが可能になる。
また、第2の処理部220は、撮像部110が第2のモードで動作している状態における、絨毛分布又はカプセル型内視鏡100の動き情報に基づいて、撮像部110が第2のフレームレートと第3のフレームレートのいずれで動作するかを切り替えるフレームレート切り替え指示を出力してもよい。
これにより、高フレームレート(第2のフレームレート)と超高フレームレート(第3のフレームレート)との切り替えを、絨毛分布又は動き情報を用いて行うことが可能になる。例えば絨毛分布を用いる場合、判定区間における「絨毛」と判定された画像の割合に関して2つの閾値を用意し、閾値T1を下回ったら第1のフレームレートから第2のフレームレート(第1のモードから第2のモード)へ切り替え、閾値T2(<T1)を下回ったら、第2のフレームレートから第3のフレームレートへ(第2のモード内で)切り替えてもよい。絨毛分布が十分小さい場合とは、大腸に十分近い位置であることが想定されるため、注目被写体である大腸を第3のフレームレートで撮像できる可能性を高くでき、且つ可能な限り第3のフレームレートで動作する時間を短くして消費電力を低減することが可能になる。なおこの場合でも閾値T2だけでは大腸の開始位置付近の撮像漏れの可能性があるため、閾値T1を設定しておく意義が失われるわけではない。
また、動き情報については動きが大きい場合に第3のフレームレートとすればよい。動きが大きければ、撮像と撮像の間にカプセル型内視鏡100が移動する距離も長くなるため、被写体の撮像漏れが発生する可能性が高くなる。それに対して、動きが大きい場合に第3のフレームレートとすることで、撮像漏れの可能性を抑止することが可能である。
4.第3の実施形態
本実施形態における内視鏡システム或いは内視鏡装置の構成は第1の実施形態と同様であり、図2又は図3の構成を用いることが可能である。第1の実施形態と同一の構成要素については同一の符号を付与して適宜説明を省略し、第1の実施形態の構成要素と異なる部分のみを説明する。
本実施形態における内視鏡システム或いは内視鏡装置の構成は第1の実施形態と同様であり、図2又は図3の構成を用いることが可能である。第1の実施形態と同一の構成要素については同一の符号を付与して適宜説明を省略し、第1の実施形態の構成要素と異なる部分のみを説明する。
第2の実施形態では、1枚の撮像画像を「絨毛」と「その他」のいずれかに分類するものとしていた。しかし実際に撮像される画像では、1つの画像の中に複数の分類項目が含まれることが非常に多い。例えば、1つの撮像画像の中に、「絨毛」領域と「その他」領域が混在する可能性がある。
第2の実施形態では、記憶部303からのSVM識別器と、撮像画像からのBoFヒストグラム(及びそれらを成分とするBoF特徴ベクトル)の情報を抽出して比較し、「絨毛」と「その他」のどちら一方に属するかを示す分類インデックス指標を与えていた。そして、「絨毛」領域と「その他」領域が混在する場合、「絨毛」領域と「その他」領域に対して、それぞれ「絨毛」と「その他」のSVMのスコアが計算され、最終的に、「絨毛」のSVMスコアと「その他」のSVMスコアと比較して、SVMスコアが高い分類項目が対応する分類インデックス指標を撮像画像に与える。また、3種類以上(その値を含む)の分類項目に対応する領域が混在する撮像画像を分類する場合も同様に、SVMスコアが最も高い分類項目が対応する分類インデックス指標を撮像画像に与える。
つまり、第2の実施形態に示されている分類手法では、撮像画像に最も高いSVMスコアがもつ分類項目が与えられるが、この撮像画像に他の分類項目に対応する領域も存在する可能性がある。
そして上述のように、絨毛の多さは観察の対象者(患者)によって異なる。例えば、小腸において、全体的に絨毛が非常に多い患者もいれば、全体的に絨毛が非常に少ない患者もいる。この場合、第2の実施形態のように、最も高いSVMスコアをもつ分類項目で撮像画像を分類し、その分類結果で「絨毛区間」と「その他区間」を判定することが誤判定になるリスクがある。
具体例の模式図を図13に示す。図13では横軸に体内での位置、縦軸に絨毛の量(絨毛の量に対応する絨毛スコア)を表す。横軸では左に行くほど口側であり、右に行くほど肛門側となる。なお、図13では簡単のため絨毛スコアが線形で単調減少するものとしたが、実際には非線形であり、単調減少でない区間があってもよい。説明を単純にするために、絨毛スコアがth1を超えた場合に対象の画像を「絨毛」に分類することを考える。
図13の場合、ユーザAは全体に絨毛の量が多く、絨毛スコアが大きいため、絨毛スコアがth1を下回らない。そのため、小腸の途中を検出することができず、適切な撮像FRの切り替えができない。なお、大腸は絨毛が少ないため、大腸に入ったところで高フレームレートに移行する指示が出されることが想定されるが、それでは大腸の開始位置付近の撮像漏れの可能性が高い。一方、ユーザBは全体に絨毛の量が少なく、絨毛スコアが小さいため、絨毛スコアがth1を上回らない。そのため、小腸に入っているにもかかわらず撮像画像が「絨毛」に分類されないため、やはり適切な撮像FRの切り替えができない。
また、図13では撮像FRの切り替え自体が難しい極端な例を示したが、小腸の途中での撮像FRの切り替えが可能な状況であっても個人差が大きいことは望ましくない。なぜなら、絨毛スコアに応じて高フレームレートへの切り替え位置(小腸内での位置であり、例えば小腸の開始位置を0%、終了位置を100%とした場合の移動割合等)が変化するため、小腸の途中であっても口に近い側で切り替わるユーザと、肛門に近い側で切り替わるユーザとが生じることになる。その場合、過剰に口に近い側で切り替わってしまえば、消費電力の低減効果が小さくなるし、過剰に肛門に近い側で切り替わってしまえば、大腸の撮像漏れのおそれが生じる。つまり、ユーザ毎の絨毛の量によらず、消費電力低減と撮像漏れの抑止という2つの効果のバランスがとれた位置で切り替わることが望ましい。
そこで本実施形態では、SVMスコアが最大となる項目と関係なく、撮像画像の「絨毛」のSVMスコア、或いは「その他」のSVMスコアを用いて、前記のように複数画像からなる区間どうしのSVMスコアの変化率で小腸途中の所定領域を判定することを提案する。
例えば、患者の口から飲み込まれてから撮像された各々の撮像画像の「絨毛」のSVMスコアを前記の区間単位で合計平均化する。各々の区間単位の「絨毛」の平均SVMスコアの変化率が初めて所定の閾値より大きくなると、その区間が小腸領域に入っていると判定する。そこからある区間の「絨毛」の平均SVMスコアの変化率が所定の閾値より小さくなると、その区間が小腸途中の所定領域と判定し、低フレームレートから高フレームレートに切り替えて撮像するように制御する。
このようにすれば、ユーザの個人差を吸収して、適切な位置(タイミング)で高フレームレートに切り替えることが可能になる。例えば、小腸の開始位置、すなわち初めて絨毛スコアが増加した際の絨毛スコアを基準として、当該スコアに対して値が50%低下した位置を小腸の途中(所定領域)とすればよい。図13の例であればユーザAの切り替え位置は、絨毛スコアが開始位置でのスコアSAの1/2となるC1になるし、ユーザBの切り替え位置は絨毛スコアが開始位置でのスコアSBの1/2となるC2となる。このように、区間どうしの「絨毛」或いは「その他」のSVMスコアの変化率でフレームレートを切り替えて撮像することで、各々の患者の絨毛分布の特徴に応じて適応的に撮像フレームレートを制御することができ、誤判定のリスクを抑制することができる。
なお、本実施形態においてもカプセル型内視鏡100が小腸に入った後、胃に戻るような状況を考慮してもよい。具体的には、一旦高フレームレートへの切り替えが行われた後で、それが胃への出戻りのような状況であると判定されたら、再度低フレームレートへ戻す制御を行ってもよい。この場合にも、本実施形態では「絨毛」か「その他」かの分類結果ではなく、絨毛スコア(或いはその他スコア)を用いればよい。具体的には、高フレームレートへの移行後の区間の「絨毛」の平均SVMスコア(或いは所定基準に対する平均SVMスコアの変化率)が再び所定の閾値より大きくなった場合には、また高フレームレートから低フレームレートに切り替えて撮像する構成にしてもよい。
以上の本実施形態では、第2の処理部220は、撮像部110が撮像した複数の撮像画像の各撮像画像に対して、絨毛分布の程度を表す絨毛スコアを算出し、絨毛スコアの時系列的な変化に基づいて、第1のモードから第2のモードへのモード切り替え指示を出力する。
ここでの絨毛スコアとは、例えばSVMで算出されるSVMスコアであってもよい。一般的な学習処理で取得される識別器では識別時(分類時)に各分類項目に対するスコアが算出されるため、SVM以外の識別器を用いる場合であっても当該スコアを利用すればよい。また、絨毛スコアは「絨毛」に対応するスコアであってもよいがこれに限定されず、「その他」に対応するスコアを用いてもよい。なぜなら、「その他」のスコアとは絨毛の少なさを表す指標であるため、「その他」のスコアが小さい(大きい)ことと「絨毛」のスコアが大きい(小さい)ことは同義として扱うことが可能なためである。
これにより、ユーザの個人差を考慮して、小腸の途中を検出することが可能になる。第2の実施形態のように、各撮像画像をスコアが最大となる項目に分類するものとすると、図13に示したような極端なユーザの場合、適切なモード切り替え(フレームレート切り替え)ができない。それに対して、絨毛スコアそのものの時系列変化を用いるものとすれば、ユーザ毎の絨毛の絶対量に左右されず、適切な検出処理が可能となる。
以上、本発明を適用した3つの実施の形態1~3およびその変形例について説明したが、本発明は、各実施の形態1~3やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施の形態1~3や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施の形態1~3や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。
100 カプセル型内視鏡、110 撮像部、115 A/D変換部、120 処理部、
121 画像処理部、122 切り替え判定部、123 フレームレート制御部、
130 通信部、131 撮像画像送信部、132 切り替え指示受信部、
150 制御部、160 光源部、200 外部装置、210 画像保存部、
220 処理部、221 画像処理部、222 切り替え判定部、230 通信部、
231 撮像画像受信部、232 切り替え指示送信部、250 制御部、
301 分類部、302 分析判断部、303 記憶部
121 画像処理部、122 切り替え判定部、123 フレームレート制御部、
130 通信部、131 撮像画像送信部、132 切り替え指示受信部、
150 制御部、160 光源部、200 外部装置、210 画像保存部、
220 処理部、221 画像処理部、222 切り替え判定部、230 通信部、
231 撮像画像受信部、232 切り替え指示送信部、250 制御部、
301 分類部、302 分析判断部、303 記憶部
Claims (16)
- カプセル型内視鏡と、
外部装置と、
を含み、
前記カプセル型内視鏡は、
小腸及び大腸を撮像し、複数の撮像画像を時系列に取得する撮像部と、
第1のフレームレートで撮像を行う第1のモードと、少なくとも第1のフレームレートよりも高い第2のフレームレートで撮像を行う第2のモードとの、いずれのモードで前記撮像部を動作させるかを制御する第1の処理部と、
前記撮像画像を前記外部装置に送信する第1の通信部と、
を含み、
前記外部装置は、
前記撮像画像に基づいて、前記小腸の途中で前記第1のモードから前記第2のモードへのモード切り替え指示を出力する第2の処理部と、
前記モード切り替え指示を前記第1の通信部に送信する第2の通信部と、
を含み、
前記第1の処理部は、
前記モード切り替え指示に基づいて、前記小腸の途中で前記撮像部を前記第1のモードから前記第2のモードに切り替えて、前記小腸の途中から前記大腸までを前記第2のモードで動作させる制御を行うことを特徴とする内視鏡システム。 - 請求項1において、
前記第2の処理部は、
前記小腸の胃側から前記大腸側へ向かうにつれて変化する特徴量を前記撮像画像から検出し、検出結果に基づいて前記モード切り替え指示を出力することを特徴とする内視鏡システム。 - 請求項2において、
前記第2の処理部は、
前記小腸の前記胃側から前記大腸側へ向かうにつれて変化する前記特徴量として、絨毛分布に関する情報を前記撮像画像から検出し、前記検出結果に基づいて前記モード切り替え指示を出力することを特徴とする内視鏡システム。 - 請求項3において、
前記第2の処理部は、
前記撮像部が前記第1のモードで動作している状態において、前記絨毛分布が減少したと判定された場合に、前記第1のモードから前記第2のモードへの前記モード切り替え指示を出力することを特徴とする内視鏡システム。 - 請求項3又は4において、
前記第2の処理部は、
前記絨毛分布が増加したと判定された場合に、前記撮像部を前記第1のモードで動作させる前記モード切り替え指示を出力することを特徴とする内視鏡システム。 - 請求項3乃至5のいずれかにおいて、
前記第2の処理部は、
前記撮像部が撮像した複数の前記撮像画像の各撮像画像を、前記絨毛分布が多いと判断された第1の分類画像、及び前記絨毛分布が少ないと判断された第2の分類画像を少なくとも含む複数の分類画像のいずれかに分類し、
複数の前記分類画像のうちの少なくとも1つの分類画像の出現頻度に基づいて、前記絨毛分布を求め、前記絨毛分布に基づいて、前記第1のモードから前記第2のモードへの前記モード切り替え指示を出力することを特徴とする内視鏡システム。 - 請求項6において、
前記第2の処理部は、
学習処理により求められた分類情報を取得し、前記撮像部が撮像した複数の前記撮像画像の各撮像画像から求められる特徴量と、前記分類情報とに基づいて、複数の前記撮像画像を複数の前記分類画像のいずれかに分類することを特徴とする内視鏡システム。 - 請求項7において、
前記第2の処理部は、
時系列的に取得されたN(Nは2以上(その値を含む)の整数)枚の前記撮像画像を含む判定区間を設定し、N枚の前記撮像画像のうち、前記第1の分類画像に分類された前記撮像画像がth1(th1はN以下(その値を含む)の正の整数)以下である場合、又は前記第2の分類画像に分類された前記撮像画像がth2(th2はN以下の正の整数)以上である場合に、前記絨毛分布が少ないと判定し、前記第1のモードから前記第2のモードへの前記モード切り替え指示を出力することを特徴とする内視鏡システム。 - 請求項3乃至5のいずれかにおいて、
前記第2の処理部は、
前記撮像部が撮像した複数の前記撮像画像の各撮像画像に対して、前記絨毛分布の程度を表す絨毛スコアを算出し、
前記絨毛スコアの時系列的な変化に基づいて、前記第1のモードから前記第2のモードへの前記モード切り替え指示を出力することを特徴とする内視鏡システム。 - 請求項3乃至9のいずれかにおいて、
前記第2の処理部は、
前記撮像部が前記第2のモードで動作している状態において、前記絨毛分布が増加したと判定された場合に、前記第2のモードから前記第1のモードへの前記モード切り替え指示を出力することを特徴とする内視鏡システム。 - 請求項3乃至10のいずれかにおいて、
前記第1の処理部は、
前記第1のモードでは前記第1のフレームレートで前記撮像部を動作させ、前記第2のモードでは前記第2のフレームレート、又は前記第2のフレームレートよりも高い第3のフレームレートで前記撮像部を動作させる制御を行い、
前記第2の処理部は、
前記撮像部が前記第2のモードで動作している状態において、前記撮像部が前記第2のフレームレートと前記第3のフレームレートのいずれで動作するかを切り替えるフレームレート切り替え指示を出力し、
前記第1の処理部は、
前記フレームレート切り替え指示に基づいて、前記撮像部を前記第2のフレームレートと前記第3のフレームレートのいずれかで動作させる制御を行うことを特徴とする内視鏡システム。 - 請求項11において、
前記第2の処理部は、
前記撮像部が前記第2のモードで動作している状態における、前記絨毛分布又は前記カプセル型内視鏡の動き情報に基づいて、前記撮像部が前記第2のフレームレートと前記第3のフレームレートのいずれで動作するかを切り替える前記フレームレート切り替え指示を出力することを特徴とする内視鏡システム。 - 小腸及び大腸を撮像し、時系列の撮像画像を取得する撮像部と、
第1のフレームレートで撮像を行う第1のモードと、少なくとも第1のフレームレートよりも高い第2のフレームレートで撮像を行う第2のモードとの、いずれのモードで前記撮像部を動作させるかを制御する処理部と、
を含み、
前記撮像画像に基づいて、前記小腸の途中で前記撮像部を前記第1のモードから前記第2のモードに切り替えて、前記小腸の途中から前記大腸までを前記第2のモードで動作させる制御を行うことを特徴とする内視鏡装置。 - 請求項13において、
前記処理部は、
前記小腸の前記胃側から前記大腸側へ向かうにつれて変化する特徴量として、絨毛分布に関する情報を前記撮像画像から検出し、検出結果に基づいて、前記小腸の途中で前記撮像部を前記第1のモードから前記第2のモードに切り替える制御を行うことを特徴とする内視鏡装置。 - 請求項14において、
前記処理部は、
前記撮像部が前記第1のモードで動作している状態において、前記絨毛分布が減少したと判定された場合に、前記第1のモードから前記第2のモードに切り替える制御を行うことを特徴とする内視鏡装置。 - 撮像部の小腸及び大腸の撮像により、複数の撮像画像を時系列に取得し、
前記撮像画像に基づいて、前記小腸の途中で第1のフレームレートで撮像を行う第1のモードから、少なくとも第1のフレームレートよりも高い第2のフレームレートで撮像を行う第2のモードへのモード切り替え指示を出力し、
前記モード切り替え指示に基づいて、前記小腸の途中で前記撮像部を前記第1のモードから前記第2のモードに切り替えて、前記小腸の途中から前記大腸までを前記第2のモードで動作させる制御を行うことを特徴とする内視鏡システムの制御方法。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2015/050434 WO2016110993A1 (ja) | 2015-01-09 | 2015-01-09 | 内視鏡システム、内視鏡装置及び内視鏡システムの制御方法 |
| JP2016568237A JPWO2016110993A1 (ja) | 2015-01-09 | 2015-01-09 | 内視鏡システム、内視鏡装置及び内視鏡システムの制御方法 |
| US15/637,235 US20170296043A1 (en) | 2015-01-09 | 2017-06-29 | Endoscope system, endoscope apparatus, and method for controlling endoscope system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2015/050434 WO2016110993A1 (ja) | 2015-01-09 | 2015-01-09 | 内視鏡システム、内視鏡装置及び内視鏡システムの制御方法 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US15/637,235 Continuation US20170296043A1 (en) | 2015-01-09 | 2017-06-29 | Endoscope system, endoscope apparatus, and method for controlling endoscope system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2016110993A1 true WO2016110993A1 (ja) | 2016-07-14 |
Family
ID=56355714
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2015/050434 WO2016110993A1 (ja) | 2015-01-09 | 2015-01-09 | 内視鏡システム、内視鏡装置及び内視鏡システムの制御方法 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20170296043A1 (ja) |
| JP (1) | JPWO2016110993A1 (ja) |
| WO (1) | WO2016110993A1 (ja) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018025444A1 (ja) * | 2016-08-02 | 2018-02-08 | オリンパス株式会社 | 画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム |
| JP6425868B1 (ja) * | 2017-09-29 | 2018-11-21 | オリンパス株式会社 | 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法 |
| WO2019064704A1 (ja) * | 2017-09-29 | 2019-04-04 | オリンパス株式会社 | 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法 |
| JP2019534723A (ja) * | 2016-09-02 | 2019-12-05 | オハイオ・ステイト・イノベーション・ファウンデーション | 耳病理を診断するための耳鏡検査画像分析のシステム及び方法 |
| JPWO2018159083A1 (ja) * | 2017-03-03 | 2019-12-26 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
| WO2022224446A1 (ja) * | 2021-04-23 | 2022-10-27 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記憶媒体 |
| WO2023162216A1 (ja) * | 2022-02-28 | 2023-08-31 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記憶媒体 |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102016220698B4 (de) * | 2016-09-30 | 2025-06-12 | Carl Zeiss Meditec Ag | Medizinisches Gerät mit Ausschaltfunktion und Verfahren zum Auslösen eines Abschaltsignals dafür |
| EP3727124B1 (en) * | 2017-12-22 | 2023-11-01 | Syddansk Universitet | Dual-mode endoscopic capsule with image processing capabilities |
| WO2020148041A1 (en) | 2019-01-15 | 2020-07-23 | 3Shape A/S | Wireless scanning device |
| CN113436281B (zh) * | 2021-06-16 | 2022-07-12 | 中国电子科技集团公司第五十四研究所 | 一种融合lbp特征的遥感图像样本处理方法 |
| CN116942061B (zh) * | 2023-07-20 | 2025-09-16 | 复旦大学 | 一种基于多通道信息融合感知的胶囊机器人系统 |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003038425A (ja) * | 2001-07-30 | 2003-02-12 | Olympus Optical Co Ltd | カプセル内視鏡 |
| JP2004321603A (ja) * | 2003-04-25 | 2004-11-18 | Olympus Corp | 画像表示装置、画像表示方法および画像表示プログラム |
| JP2006288879A (ja) * | 2005-04-13 | 2006-10-26 | Olympus Medical Systems Corp | 画像処理方法、画像処理装置及びプログラム |
| JP2007082664A (ja) * | 2005-09-21 | 2007-04-05 | Fujifilm Corp | カプセル内視鏡 |
| JP2009034291A (ja) * | 2007-08-01 | 2009-02-19 | Hoya Corp | カプセル内視鏡 |
| JP2013511320A (ja) * | 2009-11-20 | 2013-04-04 | ギブン イメージング リミテッド | 生体内デバイスの電力消費を制御するシステムおよび方法 |
| WO2014061553A1 (ja) * | 2012-10-18 | 2014-04-24 | オリンパスメディカルシステムズ株式会社 | 画像処理装置及び画像処理方法 |
-
2015
- 2015-01-09 JP JP2016568237A patent/JPWO2016110993A1/ja not_active Ceased
- 2015-01-09 WO PCT/JP2015/050434 patent/WO2016110993A1/ja active Application Filing
-
2017
- 2017-06-29 US US15/637,235 patent/US20170296043A1/en not_active Abandoned
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003038425A (ja) * | 2001-07-30 | 2003-02-12 | Olympus Optical Co Ltd | カプセル内視鏡 |
| JP2004321603A (ja) * | 2003-04-25 | 2004-11-18 | Olympus Corp | 画像表示装置、画像表示方法および画像表示プログラム |
| JP2006288879A (ja) * | 2005-04-13 | 2006-10-26 | Olympus Medical Systems Corp | 画像処理方法、画像処理装置及びプログラム |
| JP2007082664A (ja) * | 2005-09-21 | 2007-04-05 | Fujifilm Corp | カプセル内視鏡 |
| JP2009034291A (ja) * | 2007-08-01 | 2009-02-19 | Hoya Corp | カプセル内視鏡 |
| JP2013511320A (ja) * | 2009-11-20 | 2013-04-04 | ギブン イメージング リミテッド | 生体内デバイスの電力消費を制御するシステムおよび方法 |
| WO2014061553A1 (ja) * | 2012-10-18 | 2014-04-24 | オリンパスメディカルシステムズ株式会社 | 画像処理装置及び画像処理方法 |
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6333494B1 (ja) * | 2016-08-02 | 2018-05-30 | オリンパス株式会社 | 画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム |
| WO2018025444A1 (ja) * | 2016-08-02 | 2018-02-08 | オリンパス株式会社 | 画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム |
| US11612311B2 (en) | 2016-09-02 | 2023-03-28 | Ohio State Innovation Foundation | System and method of otoscopy image analysis to diagnose ear pathology |
| JP7576395B2 (ja) | 2016-09-02 | 2024-10-31 | オハイオ・ステイト・イノベーション・ファウンデーション | 耳病理を診断するための耳鏡検査画像分析のシステム及び方法 |
| JP2019534723A (ja) * | 2016-09-02 | 2019-12-05 | オハイオ・ステイト・イノベーション・ファウンデーション | 耳病理を診断するための耳鏡検査画像分析のシステム及び方法 |
| JPWO2018159083A1 (ja) * | 2017-03-03 | 2019-12-26 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
| JP7021183B2 (ja) | 2017-03-03 | 2022-02-16 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
| US11259692B2 (en) | 2017-03-03 | 2022-03-01 | Fujifilm Corporation | Endoscope system, processor device, and method for operating endoscope system |
| WO2019064704A1 (ja) * | 2017-09-29 | 2019-04-04 | オリンパス株式会社 | 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法 |
| US11556731B2 (en) | 2017-09-29 | 2023-01-17 | Olympus Corporation | Endoscopic image observation system, endosopic image observation device, and endoscopic image observation method |
| JP6425868B1 (ja) * | 2017-09-29 | 2018-11-21 | オリンパス株式会社 | 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法 |
| JPWO2022224446A1 (ja) * | 2021-04-23 | 2022-10-27 | ||
| WO2022224446A1 (ja) * | 2021-04-23 | 2022-10-27 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記憶媒体 |
| WO2023162216A1 (ja) * | 2022-02-28 | 2023-08-31 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記憶媒体 |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2016110993A1 (ja) | 2017-10-19 |
| US20170296043A1 (en) | 2017-10-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2016110993A1 (ja) | 内視鏡システム、内視鏡装置及び内視鏡システムの制御方法 | |
| US9186051B2 (en) | Image processing device, computer-readable recording device, and image processing method | |
| US10860930B2 (en) | Learning method, image recognition device, and computer-readable storage medium | |
| US9324145B1 (en) | System and method for detection of transitions in an image stream of the gastrointestinal tract | |
| US10223785B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium extracting one or more representative images | |
| US10360474B2 (en) | Image processing device, endoscope system, and image processing method | |
| US20170004620A1 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
| US10776921B2 (en) | Image processing apparatus, operation method for image processing apparatus, and recording medium | |
| Usman et al. | Detection of small colon bleeding in wireless capsule endoscopy videos | |
| US8768024B1 (en) | System and method for real time detection of villi texture in an image stream of the gastrointestinal tract | |
| JP6498288B2 (ja) | 内視鏡システム及びカプセル内視鏡装置 | |
| US20190156483A1 (en) | Image processing apparatus and image processing method | |
| JP2010158308A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
| JP4956694B2 (ja) | 情報処理装置及びカプセル型内視鏡システム | |
| JPWO2012153568A1 (ja) | 医用画像処理装置 | |
| JP2010244156A (ja) | 画像特徴量検出装置及びこれを用いた視線方向検出装置 | |
| US8929629B1 (en) | Method and system for image-based ulcer detection | |
| JP2010142375A (ja) | 画像処理装置、画像処理プログラムおよび画像処理方法 | |
| US12307667B2 (en) | Image processing method, and electronic device and readable storage medium | |
| US10939037B2 (en) | Capsule endoscope, receiving device, operation method of capsule endoscope, and computer readable recording medium | |
| Marques et al. | Compressed domain topographic classification for capsule endoscopy | |
| JP5816459B2 (ja) | 電子内視鏡システム、電子内視鏡システムの動作方法、及びソフトウェア | |
| Vats et al. | SURF-SVM based identification and classification of gastrointestinal diseases in wireless capsule endoscopy | |
| CN115244573A (zh) | 图像记录系统和图像记录方法 | |
| US20250182456A1 (en) | Method and electronic device for generating training data for learning of artificial intelligence model |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15876870 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2016568237 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 15876870 Country of ref document: EP Kind code of ref document: A1 |