WO2019003597A1 - 画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム - Google Patents
画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム Download PDFInfo
- Publication number
- WO2019003597A1 WO2019003597A1 PCT/JP2018/015953 JP2018015953W WO2019003597A1 WO 2019003597 A1 WO2019003597 A1 WO 2019003597A1 JP 2018015953 W JP2018015953 W JP 2018015953W WO 2019003597 A1 WO2019003597 A1 WO 2019003597A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- capsule endoscope
- image processing
- processing apparatus
- subject
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
Definitions
- the present invention relates to an image processing apparatus, a capsule endoscope system, an operation method of the image processing apparatus, and an operation program of the image processing apparatus.
- capsule endoscopes In the field of endoscopes, capsule endoscopes have been developed which are introduced into a subject to perform imaging.
- the capsule endoscope has an imaging function and a wireless communication function inside a capsule-shaped casing formed in a size that can be introduced into the digestive tract of a subject, and is swallowed by the subject.
- imaging is performed while moving in the digestive tract by peristaltic movement or the like, and an image inside the organ of the subject (hereinafter also referred to as an in-vivo image) is sequentially generated and wirelessly transmitted (for example, see Patent Document 1).
- the wirelessly transmitted image is received by a receiving device provided outside the subject, and is further captured by an image processing device such as a workstation and subjected to predetermined image processing.
- an image processing device such as a workstation and subjected to predetermined image processing.
- the in-vivo image of the subject can be displayed as a still image or a moving image on a display device connected to the image processing apparatus.
- the present invention has been made in view of the above, and an image processing apparatus, a capsule endoscope system, and an image processing apparatus capable of easily identifying an area of a subject not captured by a capsule endoscope. It is an object of the present invention to provide an apparatus operation method and an image processing apparatus operation program.
- an image processing apparatus performs image processing for processing an image group captured by a capsule endoscope introduced into a subject
- the apparatus is characterized by further comprising a determination unit that determines a region of the subject not captured by the capsule endoscope by calculating characteristics of the image group.
- the determination unit may calculate a first calculation unit that calculates an amount of a specific region for each image of the image group, and the calculation unit calculates the first calculation unit. And a first determination unit that determines an area of the subject that is not captured by the capsule endoscope based on the amount of the specific area.
- the determination unit calculates an amount of change of the parameter based on the position of the capsule endoscope when capturing at least two images of the image group. It is characterized by having a 2nd calculation part and a 2nd judgment part which judges the field of the subject which the capsule endoscope does not image based on the amount of change.
- the image processing device is characterized in that the specific area is an area in which a bubble, a residue, or a noise is captured.
- the change amount is a change determined based on the degree of similarity between the at least two images or the position, velocity or acceleration of the capsule endoscope. It is characterized by being a quantity.
- the first determination unit does not capture the image group by the capsule endoscope based on a magnitude relationship between the amount of the specific area and a threshold. It is characterized in that it is determined that the region is the region of the subject.
- the second determination unit determines that a region between the at least two images is in the capsule type based on a magnitude relationship between the change amount and a threshold. It is characterized in that it is determined that the region of the subject is not imaged by an endoscope.
- the determination unit determines, among the image determined by the first determination unit that the subject is shown, and the image captured before the image.
- a second determination unit that determines a region of the subject that is not captured by the capsule endoscope based on a magnitude relationship between the unit and the change amount and a threshold.
- the second calculation unit determines that the first determination unit determines that the subject is shown based on the magnitude relationship between the change amount and a threshold.
- the capsule endoscope is between the image and the image determined closest to the time series among the images captured prior to the image and the first determination unit determined that the subject is shown. It is characterized in that it is determined that the region of the subject is not imaged.
- the image processing apparatus controls information indicating the region of the subject not captured by the capsule endoscope to be displayed on a display device in chronological order or in sequential order.
- a display control unit is provided.
- the display control unit is a ratio of the area of the subject not captured by the capsule endoscope to the entire image group, or to the entire image group.
- the ratio of the area of the subject imaged by the capsule endoscope may be displayed on a display device.
- the determination unit determines the region of the subject not captured by the capsule endoscope in a stepwise manner, and the display control unit determines the determination.
- the display device is characterized by displaying information indicating the area of the subject not captured by the capsule endoscope in a mode different according to the stage determined by the unit.
- the display control unit divides the image group into groups each having a predetermined number of sheets, and the subject not captured by the capsule endoscope in the group.
- the group is highlighted on the display device.
- the display control unit may be configured to capture the capsule endoscope between a predetermined number of images before and after each image included in the image group.
- the region of the subject which is not included is included in a predetermined amount or more, information indicating a predetermined number of images before and after the image is highlighted on the display device.
- a capsule endoscope is introduced into a subject and generates an image group obtained by imaging the inside of the subject, and a characteristic of the image group is calculated.
- an image processing apparatus having a determination unit that determines a region of the subject not captured by the capsule endoscope.
- an operation method of an image processing apparatus is an operation method of an image processing apparatus that processes an image group captured by a capsule endoscope introduced into a subject, It is characterized in that the section includes a determination step of determining the area of the subject not captured by the capsule endoscope by calculating the characteristics of the image group.
- an operation program of an image processing apparatus is an operation program of an image processing apparatus that processes an image group captured by a capsule endoscope introduced into a subject, And causing the image processing apparatus to execute a process including a determination step of determining an area of the subject not captured by the capsule endoscope by calculating a characteristic of the image group.
- an image processing apparatus a capsule endoscope system, an operation method of the image processing apparatus, and an image processing apparatus capable of easily identifying an area of a subject not captured by the capsule endoscope Operation program can be realized.
- FIG. 1 is a schematic view showing a schematic configuration of a capsule endoscope system including the image processing apparatus according to the first embodiment.
- FIG. 2 is a block diagram showing the image processing apparatus shown in FIG.
- FIG. 3 is a flowchart showing the operation of the image processing apparatus shown in FIG.
- FIG. 4 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG.
- FIG. 5 is a view showing an example of a screen displayed by the image processing apparatus according to the modification 1-1 on the display device.
- FIG. 6 is a view showing an example of a screen displayed on the display device by the image processing apparatus according to the modification 1-2.
- FIG. 7 is a diagram showing how the non-imaging ratio is displayed.
- FIG. 1 is a schematic view showing a schematic configuration of a capsule endoscope system including the image processing apparatus according to the first embodiment.
- FIG. 2 is a block diagram showing the image processing apparatus shown in FIG.
- FIG. 3 is a flowchart
- FIG. 8 is a diagram showing how an imaging ratio is displayed.
- FIG. 9 is a view showing an example of the in-vivo image.
- FIG. 10 is a view showing an example of the in-vivo image.
- FIG. 11 is a block diagram showing an image processing apparatus according to the second embodiment.
- FIG. 12 is a flowchart showing the operation of the image processing apparatus shown in FIG.
- FIG. 13 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG.
- FIG. 14 is a flowchart showing the operation of the image processing apparatus according to the modified example 2-1.
- FIG. 15 is a view showing an example of a screen displayed on the display device by the image processing apparatus according to the modification 2-1.
- FIG. 16 is a block diagram showing an image processing apparatus according to the third embodiment.
- FIG. 17 is a flowchart showing the operation of the image processing apparatus shown in FIG.
- FIG. 18 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG.
- FIG. 19 is a block diagram showing an image processing apparatus according to the fourth embodiment.
- FIG. 20 is a flowchart showing the operation of the image processing apparatus shown in FIG.
- FIG. 21 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG.
- FIG. 22 is a flowchart showing the operation of the image processing apparatus according to the modification 4-1.
- FIG. 23 is a view showing an example of a screen displayed on the display device by the image processing apparatus according to the modification 4-1.
- FIG. 24 is a block diagram showing an image processing apparatus according to the fifth embodiment.
- FIG. 25 is a flowchart showing the operation of the image processing apparatus shown in FIG.
- FIG. 26 is a flowchart showing the operation of the image processing apparatus according to the modified example 5-1.
- FIG. 27 is a block diagram showing an image processing apparatus according to the sixth embodiment.
- FIG. 28 is a flow chart showing the operation of the image processing apparatus shown in FIG.
- FIG. 29 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG.
- FIG. 30 is a block diagram showing an image processing apparatus according to the seventh embodiment.
- FIG. 31 is a flowchart showing the operation of the image processing apparatus shown in FIG.
- FIG. 32 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG.
- FIG. 33 is a flowchart showing the operation of the image processing apparatus according to the eighth embodiment.
- FIG. 1 is a schematic view showing a schematic configuration of a capsule endoscope system including the image processing apparatus according to the first embodiment.
- the capsule endoscope system 1 shown in FIG. 1 includes a capsule endoscope 2 which is introduced into a subject H such as a patient and generates an image obtained by imaging the inside of the subject H and wirelessly transmits the image, and a capsule endoscope 2 A receiver 3 for receiving an image wirelessly transmitted from the endoscope 2 via the receiving antenna unit 4 mounted on the subject H, and an image obtained from the receiver 3 are subjected to predetermined image processing to obtain an image.
- An image processing apparatus 5 for displaying and a display apparatus 6 for displaying an image or the like in the subject H according to an input from the image processing apparatus 5 are provided.
- the capsule endoscope 2 is configured using an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
- the capsule endoscope 2 is a capsule endoscope device formed in a size that can be introduced into the organ of the subject H, and is introduced into the organ of the subject H by oral intake etc.
- the in-vivo image is sequentially taken at a predetermined frame rate while moving inside the organ by means of, for example. Then, an image generated by imaging is sequentially transmitted by a built-in antenna or the like.
- the receiving antenna unit 4 has a plurality of (eight in FIG. 1) receiving antennas 4a to 4h.
- Each of the receiving antennas 4a to 4h is realized, for example, using a loop antenna, and corresponds to a predetermined position on the outer surface of the subject H (for example, corresponding to each organ in the subject H which is a passing area of the capsule endoscope 2). Location).
- the receiving device 3 receives an image wirelessly transmitted from the capsule endoscope 2 through the receiving antennas 4a to 4h, performs predetermined processing on the received image, and then transmits the image to the built-in memory. And store related information.
- the receiving device 3 may be provided with a display unit for displaying the reception state of the image wirelessly transmitted from the capsule endoscope 2 and an input unit such as an operation button for operating the receiving device 3.
- the reception device 3 may be a general purpose processor such as a central processing unit (CPU) or a dedicated processor such as various arithmetic circuits that execute specific functions such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). It comprises.
- the image processing apparatus 5 is configured using, for example, a workstation or a personal computer including a general purpose processor such as a CPU, or a dedicated processor such as various arithmetic circuits which execute a specific function such as an ASIC or an FPGA.
- the image processing device 5 takes in the image stored in the memory of the receiving device 3 and its related information, performs predetermined image processing, and displays it on the screen.
- the cradle 3 a is connected to the USB port of the image processing apparatus 5, and the receiving apparatus 3 is connected to the cradle 3 a to connect the receiving apparatus 3 and the image processing apparatus 5.
- An image and its related information are transferred to the image processing device 5.
- the image and the related information may be wirelessly transmitted from the receiving device 3 to the image processing device 5 by an antenna or the like.
- FIG. 2 is a block diagram showing the image processing apparatus shown in FIG.
- the image processing apparatus 5 shown in FIG. 2 includes an image acquisition unit 51, a storage unit 52, an input unit 53, a determination unit 54, a control unit 55, and a display control unit 56.
- the image acquisition unit 51 acquires an image to be processed from the outside. Specifically, under the control of the control unit 55, the image acquisition unit 51 stores the image (capsule type image) stored in the receiving device 3 set in the cradle 3a via the cradle 3a connected to the USB port. An image group including a plurality of in-vivo images captured (acquired) in time series by the endoscope 2 is captured. Further, the image acquisition unit 51 stores the captured image group in the storage unit 52 via the control unit 55.
- the storage unit 52 is realized by various IC memories such as a flash memory, a read only memory (ROM) and a random access memory (RAM), a hard disk connected with a built-in or data communication terminal, or the like.
- the storage unit 52 stores the image group transferred from the image acquisition unit 51 via the control unit 55.
- the storage unit 52 also stores various programs (including an image processing program) executed by the control unit 55, information necessary for processing of the control unit 55, and the like.
- the input unit 53 is realized by, for example, input devices such as a keyboard, a mouse, a touch panel, and various switches, and outputs to the control unit 55 an input signal generated in response to an external operation on these input devices.
- the determination unit 54 determines the region of the subject H not captured by the capsule endoscope 2 by calculating the characteristics of the image group.
- the determination unit 54 calculates the amount of the specific area for each image of the image group, and the amount of the specific area calculated by the first calculation unit 541 allows the subject H to be detected by the specific area.
- a first determination unit 542 that determines an image not captured.
- the specific region is, for example, a region where bubbles or residue in the digestive tract or noise due to a failure in communication between the capsule endoscope 2 and the receiving device 3 is captured.
- the specific area may include an area in which bile is shown. In addition, it may be a blurred image resulting from the capsule endoscope 2 moving fast.
- the configuration may be such that the user can select a specific target to be included in the specific area by setting.
- the determination unit 54 is configured to include a general purpose processor such as a CPU or a dedicated processor such as various arithmetic circuits that execute a specific function such as an ASIC or an FPGA.
- the specific region can be detected by applying a known method.
- a bubble model is set based on features of a bubble image such as a contour of a bubble and a convex edge of an arc shape due to illumination reflection present inside the bubble.
- the bubble area may be detected by matching with the edge extracted from the intraluminal image.
- a residue candidate region which is considered to be a non-mucosal region is detected based on color feature values based on each pixel value, and the residue candidate region and the intraluminal image Whether or not the residue candidate area is a mucous membrane area may be determined based on the positional relationship with the edge extracted from the above.
- the control unit 55 reads a program (including an image processing program) stored in the storage unit 52, and controls the overall operation of the image processing apparatus 5 according to the program.
- the control unit 55 is configured to include a general purpose processor such as a CPU or a dedicated processor such as various arithmetic circuits that execute a specific function such as an ASIC or an FPGA. Further, the control unit 55 may be configured by the determination unit 54, the display control unit 56, and the like and one CPU and the like.
- the display control unit 56 controls the display of the display device 6 under the control of the control unit 55. Specifically, the display control unit 56 controls the display of the display device 6 by generating and outputting a video signal.
- the display control unit 56 is configured to include a general purpose processor such as a CPU or a dedicated processor such as various arithmetic circuits that execute a specific function such as an ASIC or an FPGA.
- the display device 6 is configured using liquid crystal or organic EL (Electro Luminescence) or the like, and under the control of the display control unit 56, a display screen including an in-vivo image (for example, a display screen including a display bar etc. described later) Display
- FIG. 3 is a flowchart showing the operation of the image processing apparatus shown in FIG.
- the image group stored in the storage unit 52 is acquired (step S1).
- the first calculator 541 calculates the amount (the area, the number of pixels, etc.) of the specific region included in the i-th image (step S3).
- the first determination unit 542 determines whether the i-th image is a specific image whose amount of the specific area is equal to or larger than a predetermined threshold stored in the storage unit 52 (equal to or larger than a predetermined area). (Step S4).
- the specific image is an image having a region where the subject H (inner wall of the digestive tract) is not shown above a predetermined threshold value, due to a specific region such as bubbles, residue, noise and the like.
- step S4 When the i-th image is a specific image (step S4: Yes), the control unit 55 stores in the storage unit 52 that the i-th image is a specific image (step S5).
- step S4 when the i-th image is not a specific image (step S4: No), the process directly proceeds to step S6.
- control unit 55 determines whether or not the variable i is larger than the number N of all the images (step S7).
- step S7: No If the variable i is equal to or less than N (step S7: No), the process returns to step S3 and the process is continued. On the other hand, if the variable i is larger than N (step S7: Yes), the process proceeds to step S8. That is, when it is determined whether all the N images are specific images, the process proceeds to step S8.
- FIG. 4 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG. As shown in FIG. 4, an in-vivo image 62 and a display bar 63 are displayed on the screen 61. .. Corresponding to the respective images acquired from the capsule endoscope 2 are displayed on the display bar 63 as straight lines at equal intervals, for example, in chronological order of imaging. Then, the display control unit 56 highlights the line corresponding to the specific image, for example, by the emphasis line 63m such as a thick line. The display control unit 56 may highlight the line corresponding to the specific image by changing the color or line type of the line.
- the image corresponding to the specific image is displayed with the emphasizing line 63m, whereby the region of the subject not captured by the capsule endoscope can be easily specified. be able to.
- the present invention is not limited thereto.
- the threshold may be, for example, a value input by the user.
- FIG. 5 is a view showing an example of a screen displayed by the image processing apparatus according to the modification 1-1 on the display device. As shown in FIG. 5, an in-vivo image 62 and a display bar 63A are displayed on the screen 61A.
- the display control unit 56 divides the image group into predetermined groups G1A to G8A. Then, the display control unit 56 causes the display device 6 to highlight a group (groups G4A and G5A) in which the specific image is included in a predetermined amount (for example, four sheets) or more. Specifically, in the display bar 63A, highlighting is performed by highlighting 64A that changes the background color of G4A and G5A. Note that the display control unit 56 may highlight a group in which a specific image is included by a predetermined amount or more by hatching display or the like. By highlighting each group in this manner, it is possible to easily recognize a group having many specific images.
- FIG. 6 is a view showing an example of a screen displayed on the display device by the image processing apparatus according to the modification 1-2. As shown in FIG. 6, an in-vivo image 62 and a display bar 63B are displayed on the screen 61B.
- the display control unit 56 sets a specific amount of a specific image (for example, a total of 11 sheets of images before and after a selected number of images, for example, a total of 11 images before and after each image included in the image group) For example, when six or more images are included, information indicating a predetermined number of images is highlighted on the display device 6 before and after. Specifically, the display bar 63B changes the color of the background before and after the line 63nB and the line 63oB in which the specific image includes a predetermined amount or more between the predetermined number of images before and after (or shaded display etc.) ) Highlighted by highlighting 64B.
- a specific image for example, a total of 11 sheets of images before and after a selected number of images, for example, a total of 11 images before and after each image included in the image group
- FIG. 7 is a diagram showing how the non-imaging ratio is displayed.
- the display control unit 56 displays the ratio of the area not captured by the capsule endoscope 2 to the entire image group (non-imaging ratio) on the display device 6 with an icon 65C including a numerical value. May be The icon 65C allows the user to recognize how much the area of the subject that the capsule endoscope 2 does not image is with respect to the whole.
- FIG. 8 is a diagram showing how an imaging ratio is displayed.
- the display control unit 56 may display the ratio of the area imaged by the capsule endoscope 2 to the entire image group (imaging ratio) on the display device 6 with an icon 65D including a numerical value.
- the icon 65D allows the user to recognize how much the area of the subject imaged by the capsule endoscope 2 is with respect to the whole.
- FIG. 9 is a view showing an example of the in-vivo image.
- the first determination unit 542 determines that the in-vivo image 621 is not a specific image when the specific target O1 is outside the determination area A1 as illustrated in (a) of FIG. 9.
- the first determination unit 542 determines that the in-vivo image 622 is a specific image when there is a specific target O2 having an area equal to or larger than a predetermined threshold value inside the determination area A1, as shown in (b) of FIG. judge.
- the first determination unit 542 determines that the in-vivo image is a specific image when there is at least one specific target having an area equal to or larger than a predetermined threshold value inside the determination area A1.
- the first determination unit 542 may determine the specific image based on not only the area of the specific object but also the position of the specific object.
- the modified example 1-5 even if the specific object is large in the area outside the determination area A1 having a low resolution and no hindrance to observation, the observation is not judged as a specific image because there is no hindrance to observation.
- a specific target having an area equal to or greater than a predetermined threshold is shown in the area inside the determination area A1, it is determined as a specific image. As a result, it is possible to more accurately select an image that the capsule endoscope 2 can not capture.
- the threshold value of the area to be identified may be set to a different value between the inside and the outside of the determination area A1. Specifically, in the case where the specific target appears inside the determination area A1, a threshold is set so that the specific image is determined even if the area is small, and the specific target appears outside the determination area A1 The threshold value may be set to be determined as the identification target with a larger area.
- the determination area may be set stepwise, and the threshold may be changed in each area.
- the shape or position of the determination area is not particularly limited.
- FIG. 10 is a view showing an example of the in-vivo image.
- the first determination unit 542 does not determine the in-vivo image 624 to be a specific image, even if a plurality of specific objects O3 having an area smaller than the threshold value is captured.
- the first determination unit 542 determines that the in-vivo image 623 is a specific image when at least one specific object O4 having an area equal to or larger than the threshold is captured. judge.
- the first determination unit 542 may determine whether or not the image is a specific image according to the area of each of the specific objects shown in the image. That is, the first determination unit 542 may compare the sum of the areas of the identification targets with the threshold, or may compare the areas of the identification targets with the threshold.
- the first determination unit 542 may determine whether or not the image is a specific image based on the amount and the threshold value calculated using the number of specific objects and the area. Furthermore, the first determination unit 542 may determine whether or not the image is a specific image, based on the amount and the threshold value calculated using the number, the area, and the position of the specific object.
- FIG. 11 is a block diagram showing an image processing apparatus according to the second embodiment.
- the image processing apparatus 105 includes a position detection unit 57 and a distance calculation unit 58.
- description of the same configuration as that described above will be omitted as appropriate.
- the position detection unit 57 detects the position of the capsule endoscope 2 when each image is captured. Specifically, the position detection unit 57 detects the position of the capsule endoscope 2 when each image is captured from the position information of the capsule endoscope 2 received by the receiving antenna unit 4.
- the distance calculation unit 58 calculates the distance between the adjacent images in time series from the difference in position of the capsule endoscope 2 when each image detected by the position detection unit 57 is captured.
- FIG. 12 is a flowchart showing the operation of the image processing apparatus shown in FIG. As shown in FIG. 12, after step S1, the position detection unit 57 detects the position of the capsule endoscope 2 when each image is captured (step S11). Information on the detected position is stored in the storage unit 52 in association with each image.
- the distance calculation unit 58 calculates the distance between the adjacent images in time series (step S12). Thereafter, as in the first embodiment, steps S2 to S7 are performed.
- the display control unit 56 highlights the image information corresponding to the specific image in the image information in the positional sequence order, and causes the display device 6 to display the image information (step S13), and the series of processing ends.
- the position sequence means, for example, arranging the image information in accordance with the distance from a reference position such as the entrance (pylor) of the small intestine to each image.
- FIG. 13 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG. As shown in FIG. 13, the in-vivo image 62 and the display bar 163 are displayed on the screen 161. .. Corresponding to the respective images acquired from the capsule endoscope 2 are displayed on the display bar 163 as straight lines, for example, in the order of the captured position sequence.
- the display control unit 56 highlights the line corresponding to the specific image, for example, by the emphasis line 63m such as a thick line.
- the emphasis line 63m such as a thick line.
- FIG. 14 is a flowchart showing the operation of the image processing apparatus according to the modified example 2-1. As shown in FIG. 14, steps S1 to S3 are performed as in the second embodiment.
- the first determination unit 542 determines whether the i-th image is a first specific image in which the amount of the specific region is equal to or more than a first threshold (step S14).
- control unit 55 stores in the storage unit 52 that the i-th image is the first specific image (step S15).
- the first determination unit 542 determines that the i-th image has a second region whose amount in the specific region is smaller than the first threshold. It is determined whether it is a second specific image (step S16).
- step S16 If the i-th image is the second specific image (step S16: Yes), the control unit 55 stores in the storage unit 52 that the i-th image is the second specific image (step S17).
- step S16 when the i-th image is not the second specific image (step S16: No), the process directly proceeds to step S6. Thereafter, as in the second embodiment, the processes after step S6 are executed.
- FIG. 15 is a view showing an example of a screen displayed on the display device by the image processing apparatus according to the modification 2-1.
- the in-vivo image 62 and the display bar 163A are displayed on the screen 161A.
- lines 631, 632... Corresponding to the respective images acquired from the capsule endoscope 2 are displayed as straight lines, for example, in the order of the imaged position sequence.
- the display control unit 56 highlights the line corresponding to the first specific image by, for example, a bold line 163 mA, and the line corresponding to the second specific image is different from the emphasized line 163 mA such as a broken line. Highlight by 163 nA.
- the determination unit 54 of the image processing apparatus 105 determines the area of the subject H not captured by the capsule endoscope 2 in stages, and the display control unit 56 determines the determination unit 54.
- Information that indicates an image in which the subject H is not shown is displayed on the display device 6 in a mode that differs according to the stage of operation.
- the determination unit 54 may divide the image in which the subject H is not shown into a plurality of stages for determination.
- the determination unit 54 determines an image in which the subject H is not captured in two stages has been described, but the determination unit 54 determines an image in which the subject H is not captured in three stages. It may be divided into the above plurality of steps.
- FIG. 16 is a block diagram showing an image processing apparatus according to the third embodiment.
- the determination unit 254 of the image processing apparatus 205 includes a second calculation unit 543 and a second determination unit 544.
- the second calculator 543 calculates the amount of change in the parameters based on the position of the capsule endoscope 2 when capturing at least two images of the image group. Specifically, the second calculation unit 543 calculates, for example, the similarity between two images adjacent in time-series order as the amount of change of the parameter based on the position of the capsule endoscope 2.
- the second determination unit 544 determines the region of the subject H not captured by the capsule endoscope 2 based on the magnitude relationship between the change amount calculated by the second calculation unit 543 and the threshold. Specifically, it is assumed that the second determination unit 544 is a region of the subject H in which the capsule endoscope 2 is not imaging between the images whose similarity calculated by the second calculation unit 543 is smaller than a predetermined threshold. judge.
- the low degree of similarity between the images means that the capsule endoscope 2 moved largely while two images were captured. That is, since the capsule endoscope 2 is largely moved between images having low similarity and the subject H can not be imaged continuously, the capsule endoscope 2 can not be imaged. There is an area.
- the second calculator 543 calculates the similarity between the i-th image and the i-1 th image of the image group arranged in chronological order (step S22).
- the second determination unit 544 determines whether the similarity calculated by the second calculation unit 543 is smaller than a predetermined threshold (step S23).
- the control unit 55 causes the storage unit 52 to set between the i-th image and the i-1 th image. It stores that there is an area not captured in the capsule endoscope 2 (step S24).
- step S23 determines that the similarity is equal to or more than the predetermined threshold
- FIG. 18 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG. As shown in FIG. 18, the in-vivo image 62 and the display bar 263 are displayed on the screen 261. In the display bar 263, lines 631, 632,... Corresponding to the respective images acquired from the capsule endoscope 2 are displayed as straight lines, for example, in chronological order of imaging.
- the display control unit 56 highlights the area between the line 263 m and the line 263 m ⁇ 1, which is an area not captured by the capsule endoscope 2, and the area between the line 263 n and the line 263 n ⁇ 1 by the index 264. Do.
- FIG. 19 is a block diagram showing an image processing apparatus according to the fourth embodiment.
- the image processing device 305 includes a determination unit 254, a position detection unit 57, and a distance calculation unit 58.
- FIG. 20 is a flowchart showing the operation of the image processing apparatus shown in FIG. As shown in FIG. 20, in the fourth embodiment, unlike the third embodiment, the processes of steps S11 and S12 are executed after the step S1 as in the second embodiment. Further, after step S7, step S13 is executed as in the second embodiment.
- FIG. 21 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG.
- an in-vivo image 62 and a display bar 363 are displayed on the screen 361.
- Corresponding to the respective images acquired from the capsule endoscope 2 are displayed as straight lines, for example, in the order of the imaged position sequence.
- the display control unit 56 emphasizes between the line 363 m and the line 363 m ⁇ 1, which is an area not captured by the capsule endoscope 2, and between the line 363 n and the line 363 n ⁇ 1 by the highlighting 364. indicate.
- FIG. 22 is a flowchart showing the operation of the image processing apparatus according to the modification 4-1. As shown in FIG. 22, steps S1 to S22 are executed as in the fourth embodiment.
- the second determination unit 544 determines whether the similarity calculated by the second calculation unit 543 is smaller than the first threshold (step S31). If the second determination unit 544 determines that the degree of similarity is smaller than the first threshold (step S31: Yes), the control unit 55 determines that the storage unit 52 stores the i-th image and the i-1 th image. It is stored that there is a high possibility that there is a region not captured in the capsule endoscope 2 (step S32).
- step S31: No when the second determination unit 544 determines that the similarity is not smaller than the first threshold (step S31: No), the second determination unit 544 determines that the similarity calculated by the second calculation unit 543 is the second threshold. It is determined whether or not it is smaller (step S33).
- step S33: Yes the control unit 55 determines that the storage unit 52 stores the i-th image and the i-1 th image. It is stored that there is a possibility that there is a region not captured in the capsule endoscope 2 (step S34).
- step S33: No the process directly proceeds to step S6.
- FIG. 23 is a view showing an example of a screen displayed on the display device by the image processing apparatus according to the modification 4-1.
- the in-vivo image 62 and the display bar 363A are displayed on the screen 361A.
- Corresponding to the respective images acquired from the capsule endoscope 2 are displayed as straight lines, for example, in the order of the captured position sequence.
- the display control unit 56 highlights the area where the similarity is smaller than the first threshold (between the line 363 m and the line 363 m-1) by highlighting 364A, and the area where the similarity is smaller than the second threshold (line 363 n And line 363n-1) is highlighted by highlighting 365A different from highlighting 364A.
- the determination unit 254 of the image processing apparatus 305 determines the region of the subject H not captured by the capsule endoscope 2 in stages, and the display control unit 56 determines the determination unit 254. Information that indicates the region of the subject H that is not captured by the capsule endoscope 2 is displayed on the display device 6 in a mode that differs according to the stage of the process.
- the determination unit 254 may divide the area of the subject H not captured by the capsule endoscope 2 into a plurality of stages for determination. In the modified example 4-1, an example in which the determination unit 254 determines an image in which the subject H is not captured in two stages has been described, but the determination unit 254 determines an image in which the subject H is not captured in three stages. It may be divided into the above plurality of steps.
- FIG. 24 is a block diagram showing an image processing apparatus according to the fifth embodiment.
- the image processing apparatus 405 includes a determination unit 254, a parameter detection unit 59, and a change amount calculation unit 60.
- the parameter detection unit 59 detects a parameter received by the receiving antenna unit 4 from the capsule endoscope 2.
- the parameter is, for example, the position of the capsule endoscope 2 when each image is captured.
- the capsule endoscope 2 incorporates a velocity sensor or an acceleration sensor, the velocity or acceleration detected by the velocity sensor or the acceleration sensor may be used as a parameter.
- the change amount calculation unit 60 calculates the change amount (distance) of the position of the capsule endoscope 2 when two images adjacent to one another in chronological order are captured.
- the change amount calculation unit 60 is not limited to the distance, and may calculate a change amount determined based on the position, the velocity, or the acceleration.
- FIG. 25 is a flowchart showing the operation of the image processing apparatus shown in FIG. As shown in FIG. 25, steps S1 to S21 are performed as in the fourth embodiment.
- the second determination unit 544 determines whether the distance between the i-th image and the i-1 th image calculated by the change amount calculation unit 60 in step S12 is equal to or more than a threshold (step S41).
- step S41: Yes the control unit 55 determines that the i-th image is stored in the storage unit 52. It is stored that there is a region not captured by the capsule endoscope 2 between the image of and the i-1st image (step S24).
- step S41: No the process proceeds directly to step S6.
- the second determination unit 544 may determine the region of the subject H not captured by the capsule endoscope 2 based on the amount of change (distance) of the position of the capsule endoscope 2.
- the second determination unit 544 may determine the region of the subject H not captured by the capsule endoscope 2 based on the position, the velocity, or the amount of change determined based on the acceleration.
- the threshold in the second determination unit 544 may be changed for each organ. For example, in the esophagus, the stomach, the duodenum, and the transverse colon in which the capsule endoscope 2 moves quickly, the threshold may be set high.
- FIG. 26 is a flowchart showing the operation of the image processing apparatus according to the modified example 5-1. As shown in FIG. 26, steps S1 to S21 are executed as in the fifth embodiment.
- the second determination unit 544 determines whether the distance between the i-th image and the (i-1) -th image calculated by the change amount calculation unit 60 in step S12 is equal to or more than a first threshold. (Step S42).
- the control unit 55 causes the storage unit 52 to It is stored that there is a high possibility that there is a region not captured by the capsule endoscope 2 between the i-th image and the i-1st image (step S32).
- step S43 determines that the distance between the i-th image and the (i-1) -th image is smaller than the first threshold (step S42: No).
- step S43 determines that the distance between the i-th image and the i-1st image is equal to or larger than the second threshold (step S43: Yes)
- the control unit 55 causes the storage unit 52 to It is stored that there is a possibility that there is a region not captured by the capsule endoscope 2 between the i-th image and the i-1st image (step S34).
- the determination unit 254 of the image processing apparatus 405 may divide the area of the subject H not captured by the capsule endoscope 2 into a plurality of stages for determination.
- the determination unit 254 determines an image in which the subject H is not captured in two stages has been described, but the determination unit 254 determines an image in which the subject H is not captured in three stages. It may be determined in the above plurality of stages.
- FIG. 27 is a block diagram showing an image processing apparatus according to the sixth embodiment.
- the determination unit 554 of the image processing apparatus 505 includes a first calculation unit 541, a first determination unit 542, a second calculation unit 543, and a second determination unit 544.
- FIG. 28 is a flow chart showing the operation of the image processing apparatus shown in FIG. As shown in FIG. 28, after executing the process of step S1 as in the first embodiment, the first calculator 541 calculates the amount of the specific area included in the first image (step S51).
- the first calculator 541 calculates the amount of the specific area included in the i-th image (step S3).
- the first determination unit 542 determines whether the i-th image is a specific image in which the amount of the specific region is equal to or larger than a predetermined threshold (step S4).
- the first determination unit 542 determines whether the j-th image is a specific image in which the amount of the specific area is equal to or larger than a predetermined threshold (step S53).
- the amount of the specific region in the j-th image is calculated in step S51 or step S3.
- step S53 If the j-th image is not a specific image (step S53: No), the second calculation unit 543 calculates the similarity between the i-th image and the j-th image of the image group arranged in chronological order (Ste S54).
- the second determination unit 544 determines whether the similarity calculated by the second calculation unit 543 is smaller than a predetermined threshold (step S55).
- the control unit 55 causes the storage unit 52 to select a capsule type between the i-th image and the j-th image. It stores that there is an area which has not been imaged in the endoscope 2 (step S56).
- step S4 when the i-th image is a specific image (step S4: Yes), the process directly proceeds to step S6.
- step S55 when the second determination unit 544 determines that the similarity is equal to or higher than the predetermined threshold (step S55: No), the process directly proceeds to step S6.
- FIG. 29 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG. As shown in FIG. 29, the in-vivo image 62 and the display bar 563 are displayed on the screen 561.
- lines 631, 632,... Corresponding to the respective images acquired from the capsule endoscope 2 are displayed as straight lines, for example, in the order of the captured position sequence.
- the display control unit 56 emphasizes by highlighting 564 between the line 563 m and the line 563 m-9, which is an area not captured by the capsule endoscope 2, and between the line 563 n and the line 563 n-2. indicate.
- the image corresponding to line 563m-8 to line 563m-1 and line 563n-1 (not shown) is a specific image, and is between the line 563m and the line 563m-9 and between the line 563n and the line 563n-2
- the area between them is an area which has a low degree of similarity between the images and is not imaged by the capsule endoscope 2.
- the determination unit 554 is a time-series image of the image (i-th image) determined by the first determination unit 542 that the subject H is shown and the image captured before the image. Change amount of parameters based on the position of the capsule endoscope 2 at the time of imaging the image (j-th image) determined by the first determination unit 542 to be closest to the object H in order A second determination unit that calculates the degree), and a second determination that determines the region of the subject H that is not captured by the capsule endoscope 2 based on the magnitude relationship between the change amount (similarity) and the threshold A portion 544.
- the second calculating unit 543 determines that the first determining unit 542 determines that the subject H is shown based on the magnitude relationship between the change amount (the degree of similarity) and the threshold value (i-th image).
- an image (j-th image) determined by the first determination unit 542 closest to the image in chronological order among the images captured prior to the image is determined to be the subject H. It is determined that the region of the subject H is not imaged by the endoscope 2.
- the second determination unit 544 determines that the specific image is present between the i-th image and the j-th image, It is determined that all the images between the i-th image and the j-th image are images that are normally captured by the capsule endoscope 2. As a result, when the movement of the specific image or the capsule endoscope 2 is larger than the predetermined amount, it is possible to determine the region of the subject H which is not imaged by the capsule endoscope 2.
- FIG. 30 is a block diagram showing an image processing apparatus according to the seventh embodiment.
- the image processing apparatus 605 has a determination unit 554, a position detection unit 57, and a distance calculation unit 58.
- FIG. 31 is a flowchart showing the operation of the image processing apparatus shown in FIG. As shown in FIG. 31, the area not captured by the capsule endoscope 2 is determined as in the sixth embodiment, but steps S11 and S12 are performed after step S1 and step S8 is changed to step S8. Execute S13.
- FIG. 32 is a view showing an example of a screen displayed on the display device by the image processing apparatus shown in FIG. As shown in FIG. 32, the in-vivo image 62 and the display bar 663 are displayed on the screen 661. Lines 631, 632... Corresponding to the respective images acquired from the capsule endoscope 2 are displayed on the display bar 663 as a straight line, for example, in the order of the captured position sequence.
- the display control unit 56 emphasizes between the line 663 m and the line 663 m-3 which is an area not captured by the capsule endoscope 2, and between the line 663 n and the line 663 n-2 by the highlighting 664. indicate. That is, the image corresponding to line 663m-1, line 663m-2, and line 663n-1 (not shown) is a specific image, and between line 663m and line 663m-3, line 663n and line 663n-2 The area between them is an area which has a low degree of similarity between the images and is not imaged by the capsule endoscope 2.
- the capsule endoscope 2 normally captures the image It is determined that the image is
- FIG. 33 is a flowchart showing the operation of the image processing apparatus according to the eighth embodiment. As shown in FIG. 33, the processes of steps S1 to S53 are executed as in the sixth embodiment.
- the change amount calculation unit 60 calculates the distance between the i-th image and the j-th image (step S71).
- the second determination unit 544 determines whether the distance between the i-th image and the j-th image calculated by the change amount calculation unit 60 is equal to or greater than a threshold (step S72).
- the control unit 55 determines that the i-th image is stored in the storage unit 52. It is stored that there is a region not captured in the capsule endoscope 2 between the and the j-th image (step S73).
- step S72 determines that the distance between the i-th image and the j-th image is smaller than the threshold (step S72: No)
- the process directly proceeds to step S6.
- whether or not the capsule endoscope 2 has moved largely between adjacent images may be determined based on the position information of the capsule endoscope 2.
- the second determination unit 544 is configured so that the capsule endoscope 2 normally images the specific image if the similarity between the images that are not the specific images before and after the specific image is equal to or greater than the threshold value. It determines that it is an image.
- the present invention is not limited to this.
- a bar or the like may be displayed, or image information may be displayed as a point or the like.
- the digestive tract and the imaging position of each image may be displayed corresponding to each other on the schematic view of the digestive tract.
- it may be superimposed on the in-vivo image 62 to indicate that the image is an image that could not be imaged on the subject H.
- the image processing apparatus includes the determination unit, the display control unit, the position detection unit, the distance calculation unit, the parameter detection unit, and the change amount calculation unit, but the invention is not limited thereto. .
- the configuration of the determination unit, the display control unit, the position detection unit, the distance calculation unit, the parameter detection unit, and the change amount calculation unit may be provided in the receiving apparatus.
- the monitor of the receiving apparatus may display information of the region of the subject H that is not captured by the capsule endoscope 2.
- the determination unit, the parameter detection unit, or the change amount calculation unit may be provided in the reception device, and the display control unit, the position detection unit, and the distance calculation unit may be provided in the image processing apparatus.
- a determination unit, a parameter detection unit, or a change amount calculation unit is provided in a processing device connected via a network such as the Internet (so-called cloud computing), a display control unit, a position detection unit, and a distance calculation unit You may provide in an image processing apparatus.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Endoscopes (AREA)
Abstract
画像処理装置は、被検体内に導入されるカプセル型内視鏡によって撮像された画像群に処理を施す画像処理装置であって、前記画像群の特性を算出することによって、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する判定部を備える。これにより、カプセル型内視鏡が撮像していない被検体の領域を容易に特定することができる画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラムを提供する。
Description
本発明は、画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラムに関する。
内視鏡分野においては、被検体内に導入されて撮像を行うカプセル型内視鏡が開発されている。カプセル型内視鏡は、被検体の消化管内に導入可能な大きさに形成されたカプセル形状をなす筐体の内部に撮像機能及び無線通信機能を備えたものであり、被検体に嚥下された後、蠕動運動等によって消化管内を移動しながら撮像を行い、被検体の臓器内部の画像(以下、体内画像ともいう)を順次生成して無線送信する(例えば、特許文献1参照)。無線送信された画像は、被検体外に設けられた受信装置によって受信され、さらに、ワークステーション等の画像処理装置に取り込まれて所定の画像処理が施される。その結果、被検体の体内画像を静止画又は動画として画像処理装置に接続された表示装置に表示させることができる。
ところで、被検体の消化管内に存在する泡や残渣に遮られることによって、カプセル型内視鏡が撮像できない領域が存在する場合がある。また、カプセル型内視鏡が消化管内を速く動くことによって、時系列に並べた画像間にカプセル型内視鏡が撮像していない領域が生じる場合がある。従来のカプセル型内視鏡システムでは、このようなカプセル型内視鏡が撮像できなかった領域を特定することが考慮されていなかった。
本発明は、上記に鑑みてなされたものであって、カプセル型内視鏡が撮像していない被検体の領域を容易に特定することができる画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明の一態様に係る画像処理装置は、被検体内に導入されるカプセル型内視鏡によって撮像された画像群に処理を施す画像処理装置であって、前記画像群の特性を算出することによって、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する判定部を備えることを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記判定部は、前記画像群の各画像に対して特定領域の量を算出する第1算出部と、前記第1算出部が算出した前記特定領域の量に基づいて、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する第1判定部と、を有することを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記判定部は、前記画像群の少なくとも2枚の画像を撮像した際の前記カプセル型内視鏡の位置に基づくパラメータの変化量を算出する第2算出部と、前記変化量に基づいて、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する第2判定部と、を有することを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記特定領域は、泡、残渣、又はノイズが写った領域であることを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記変化量は、前記少なくとも2枚の画像の類似度、又は、前記カプセル型内視鏡の位置、速度、若しくは、加速度に基づいて定まる変化量であることを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記第1判定部は、前記特定領域の量と閾値との大小関係に基づいて、前記画像群前記カプセル型内視鏡が撮像していない前記被検体の領域であると判定することを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記第2判定部は、前記変化量と閾値との大小関係に基づいて、前記少なくとも2枚の画像の間の領域が、前記カプセル型内視鏡が撮像していない前記被検体の領域であると判定することを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記判定部は、前記被検体が写っていると前記第1判定部が判定した画像と、該画像より前に撮像された画像のうち、時系列順に最も近く、前記被検体が写っていると前記第1判定部が判定した画像と、を撮像した際の前記カプセル型内視鏡の位置に基づくパラメータの変化量を算出する第2算出部と、前記変化量と閾値との大小関係に基づいて、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する第2判定部と、を有することを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記第2算出部は、前記変化量と閾値との大小関係に基づいて、前記被検体が写っていると前記第1判定部が判定した画像と、該画像より前に撮像された画像のうち、時系列順に最も近く、前記被検体が写っていると前記第1判定部が判定した画像との間が、前記カプセル型内視鏡が撮像していない前記被検体の領域であると判定することを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記カプセル型内視鏡が撮像していない前記被検体の領域を示す情報を、時系列順に又は位置系列順に表示装置に表示するよう制御する表示制御部を備えることを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記表示制御部は、前記画像群全体に対する前記カプセル型内視鏡が撮像していない前記被検体の領域の割合、又は前記画像群全体に対する前記カプセル型内視鏡が撮像した前記被検体の領域の割合を表示装置に表示させることを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記判定部は、前記カプセル型内視鏡が撮像していない前記被検体の領域を段階的に判定し、前記表示制御部は、前記判定部が判定した段階に応じて異なる態様により、前記カプセル型内視鏡が撮像していない前記被検体の領域を示す情報を前記表示装置に表示させることを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記表示制御部は、前記画像群を所定の枚数ごとのグループに分け、該グループ内に前記カプセル型内視鏡が撮像していない前記被検体の領域と判定された領域が所定量以上含まれる場合に、前記グループを前記表示装置に強調表示させることを特徴とする。
また、本発明の一態様に係る画像処理装置は、前記表示制御部は、前記画像群に含まれる各画像から前後に所定の枚数の画像の間に、前記カプセル型内視鏡が撮像していない前記被検体の領域が所定量以上含まれる場合に、前記前後に所定の枚数の画像を示す情報を前記表示装置に強調表示させることを特徴とする。
また、本発明の一態様に係るカプセル型内視鏡システムは、被検体内に導入され、前記被検体内を撮像した画像群を生成するカプセル型内視鏡と、前記画像群の特性を算出することによって、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する判定部を有する画像処理装置と、を備えることを特徴とする。
また、本発明の一態様に係る画像処理装置の作動方法は、被検体内に導入されるカプセル型内視鏡によって撮像された画像群に処理を施す画像処理装置の作動方法であって、判定部が、前記画像群の特性を算出することによって、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する判定ステップを含むことを特徴とする。
また、本発明の一態様に係る画像処理装置の作動プログラムは、被検体内に導入されるカプセル型内視鏡によって撮像された画像群に処理を施す画像処理装置の作動プログラムであって、判定部が、前記画像群の特性を算出することによって、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する判定ステップを含む処理を前記画像処理装置に実行させることを特徴とする。
本発明によれば、カプセル型内視鏡が撮像していない被検体の領域を容易に特定することができる画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラムを実現することができる。
以下に、図面を参照して本発明に係る画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラムの実施の形態を説明する。なお、これらの実施の形態により本発明が限定されるものではない。本発明は、画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム一般に適用することができる。
また、図面の記載において、同一又は対応する要素には適宜同一の符号を付している。また、図面は模式的なものであり、各要素の寸法の関係、各要素の比率などは、現実と異なる場合があることに留意する必要がある。図面の相互間においても、互いの寸法の関係や比率が異なる部分が含まれている場合がある。
(実施の形態1)
図1は、実施の形態1に係る画像処理装置を含むカプセル型内視鏡システムの概略構成を示す模式図である。図1に示すカプセル型内視鏡システム1は、患者等の被検体H内に導入され、被検体H内を撮像した画像を生成して無線送信するカプセル型内視鏡2と、カプセル型内視鏡2から無線送信された画像を、被検体Hに装着された受信アンテナユニット4を介して受信する受信装置3と、受信装置3から画像を取得して所定の画像処理を施し、画像を表示する画像処理装置5と、画像処理装置5からの入力に応じて被検体H内の画像等を表示する表示装置6と、を備える。
図1は、実施の形態1に係る画像処理装置を含むカプセル型内視鏡システムの概略構成を示す模式図である。図1に示すカプセル型内視鏡システム1は、患者等の被検体H内に導入され、被検体H内を撮像した画像を生成して無線送信するカプセル型内視鏡2と、カプセル型内視鏡2から無線送信された画像を、被検体Hに装着された受信アンテナユニット4を介して受信する受信装置3と、受信装置3から画像を取得して所定の画像処理を施し、画像を表示する画像処理装置5と、画像処理装置5からの入力に応じて被検体H内の画像等を表示する表示装置6と、を備える。
カプセル型内視鏡2は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を用いて構成される。カプセル型内視鏡2は、被検体Hの臓器内部に導入可能な大きさに形成されたカプセル型の内視鏡装置であり、経口摂取等によって被検体Hの臓器内部に導入され、蠕動運動等によって臓器内部を移動しつつ、体内画像を所定のフレームレートで順次、撮像する。そして、撮像することにより生成した画像を順次、内蔵されたアンテナ等により送信する。
受信アンテナユニット4は、複数(図1においては8個)の受信アンテナ4a~4hを有する。各受信アンテナ4a~4hは、例えばループアンテナを用いて実現され、被検体Hの体外表面上の所定位置(例えば、カプセル型内視鏡2の通過領域である被検体H内の各臓器に対応した位置)に配置される。
受信装置3は、これらの受信アンテナ4a~4hを介して、カプセル型内視鏡2から無線送信された画像を受信し、受信した画像に所定の処理を施した上で、内蔵するメモリに画像及びその関連情報を記憶する。受信装置3には、カプセル型内視鏡2から無線送信された画像の受信状態を表示する表示部や、受信装置3を操作するための操作ボタン等の入力部を設けてもよい。また、受信装置3は、CPU(Central Processing Unit)等の汎用プロセッサ、又はASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の特定の機能を実行する各種演算回路等の専用プロセッサを含んで構成される。
画像処理装置5は、例えばCPU等の汎用プロセッサ、又はASICやFPGA等の特定の機能を実行する各種演算回路等の専用プロセッサを含むワークステーションやパーソナルコンピュータを用いて構成される。画像処理装置5は、受信装置3のメモリに記憶された画像及びその関連情報を取り込み、所定の画像処理を施して画面に表示する。なお、図1においては、画像処理装置5のUSBポートにクレードル3aを接続し、該クレードル3aに受信装置3をセットすることにより受信装置3と画像処理装置5とを接続し、受信装置3から画像処理装置5に画像及びその関連情報を転送する構成としている。なお、受信装置3から画像処理装置5に画像及びその関連情報をアンテナ等により無線送信する構成であってもよい。
図2は、図1に示した画像処理装置を示すブロック図である。図2に示す画像処理装置5は、画像取得部51と、記憶部52と、入力部53と、判定部54と、制御部55と、表示制御部56と、備える。
画像取得部51は、外部から処理対象となる画像を取得する。具体的には、画像取得部51は、制御部55による制御のもと、USBポートに接続されたクレードル3aを介して、クレードル3aにセットされた受信装置3に保存された画像(カプセル型内視鏡2により時系列で撮像(取得)された複数の体内画像を含む画像群)を取り込む。また、画像取得部51は、取り込んだ画像群を制御部55を介して記憶部52に記憶される。
記憶部52は、フラッシュメモリ、ROM(Read Only Memory)及びRAM(Random Access Memory)といった各種ICメモリ、及び内蔵若しくはデータ通信端子で接続されたハードディスク等によって実現される。記憶部52は、制御部55を介して画像取得部51から転送された画像群を記憶する。また、記憶部52は、制御部55が実行する各種プログラム(画像処理プログラムを含む)や制御部55の処理に必要な情報等を記憶する。
入力部53は、例えばキーボードやマウス、タッチパネル、各種スイッチ等の入力デバイスによって実現され、これらの入力デバイスに対する外部からの操作に応じて発生させた入力信号を制御部55に出力する。
判定部54は、画像群の特性を算出することによって、カプセル型内視鏡2が撮像していない被検体Hの領域を判定する。判定部54は、画像群の各画像に対して特定領域の量を算出する第1算出部541と、第1算出部541が算出した特定領域の量に基づいて、特定領域により被検体Hが写っていない画像を判定する第1判定部542と、を有する。特定領域は、例えば消化管内の泡や残渣、又はカプセル型内視鏡2と受信装置3との間における通信状態の不良によるノイズが写った領域である。さらに、特定領域に胆汁が写った領域を含めてもよい。また、カプセル型内視鏡2が速く動いたことに起因するブレ画像でもよい。また、特定領域に含める特定対象をユーザが設定により選択できる構成としてもよい。判定部54は、CPU等の汎用プロセッサ、又はASICやFPGA等の特定の機能を実行する各種演算回路等の専用プロセッサを含んで構成される。
なお、特定領域は、公知の方法を適用して検出することができる。例えば、特開2007-313119号公報に開示されているように、泡の輪郭部及び泡の内部に存在する照明反射による弧形状の凸エッジといった泡画像の特徴に基づいて設定される泡モデルと管腔内画像から抽出されたエッジとのマッチングを行うことにより泡領域を検出してもよい。また、特開2012-143340号公報に開示されているように、各画素値に基づく色特徴量をもとに非粘膜領域とみられる残渣候補領域を検出し、この残渣候補領域と管腔内画像から抽出されたエッジとの位置関係に基づいて残渣候補領域が粘膜領域であるか否かを判別してもよい。
制御部55は、記憶部52に記憶されたプログラム(画像処理プログラムを含む)を読み出し、当該プログラムに従って画像処理装置5全体の動作を制御する。制御部55は、CPU等の汎用プロセッサ、又はASICやFPGA等の特定の機能を実行する各種演算回路等の専用プロセッサを含んで構成される。また、制御部55は、判定部54、表示制御部56等と1つのCPU等で構成されていてもよい。
表示制御部56は、制御部55による制御のもと、表示装置6の表示を制御する。具体的には、表示制御部56は、映像信号を生成して出力することにより表示装置6の表示を制御する。表示制御部56は、CPU等の汎用プロセッサ、又はASICやFPGA等の特定の機能を実行する各種演算回路等の専用プロセッサを含んで構成される。
表示装置6は、液晶又は有機EL(Electro Luminescence)等を用いて構成され、表示制御部56による制御のもと、体内画像を含む表示画面(例えば、後述する表示バー等を含む表示画面等)を表示する。
次に、画像処理装置5の動作について説明する。図3は、図2に示した画像処理装置の動作を示すフローチャートである。図3に示すように、記憶部52に記憶された画像群を取得する(ステップS1)。ここでは、画像群として、全部でN枚の画像が取得されたものとする。
続いて、制御部55は、変数iをi=1に設定する(ステップS2)。
すると、第1算出部541は、i番目の画像に含まれる特定領域の量(面積、画素数など)を算出する(ステップS3)。
続いて、第1判定部542は、i番目の画像が、特定領域の量が記憶部52に記憶された所定の閾値以上(所定の面積以上)である特定画像であるか否かを判定する(ステップS4)。特定画像は、泡や残渣、ノイズ等の特定領域により、所定の閾値以上に被検体H(消化管の内壁)が写っていない領域を有する画像である。
i番目の画像が特定画像である場合(ステップS4:Yes)、制御部55は、記憶部52にi番目の画像が特定画像であることを記憶する(ステップS5)。
一方、i番目の画像が特定画像ではない場合(ステップS4:No)、直接ステップS6に進む。
続いて、制御部55は、変数iをインクリメント(i=i+1)する(ステップS6)。
さらに、制御部55は、変数iが全画像の枚数Nより大きいか否かを判定する(ステップS7)。
変数iがN以下の場合(ステップS7:No)、ステップS3に戻り処理が継続される。一方、変数iがNより大きい場合(ステップS7:Yes)、ステップS8に進む。すなわち、N枚の画像全てについて特定画像であるか否かの判定が行われるとステップS8に進む。
そして、表示制御部56は、時系列順に並べられた画像の情報において、特定画像に対応する画像の情報を強調表示して、表示装置6に表示させ(ステップS8)、一連の処理が終了する。図4は、図2に示した画像処理装置が表示装置に表示させる画面の一例を示す図である。図4に示すように、画面61には、体内画像62と、表示バー63とが表示されている。表示バー63には、カプセル型内視鏡2から取得した各画像に対応する線631、632・・・が例えば撮像された時系列順に等間隔に直線で表示されている。そして、表示制御部56は、特定画像に対応する線を例えば太線等の強調線63mにより強調表示させる。なお、表示制御部56は、線の色や線種を変えることにより特定画像に対応する線を強調表示してもよい。
以上説明したように、実施の形態1によれば、特定画像に対応する画像が強調線63mで表示されることにより、カプセル型内視鏡が撮像していない被検体の領域を容易に特定することができる。
なお、実施の形態1では、第1判定部542が特定画像を判定する閾値として、記憶部52に記憶された所定値を用いる例を説明したがこれに限られない。閾値は、例えばユーザが入力した値であってもよい。
(変形例1-1)
図5は、変形例1-1に係る画像処理装置が表示装置に表示させる画面の一例を示す図である。図5に示すように、画面61Aには、体内画像62と、表示バー63Aとが表示されている。
図5は、変形例1-1に係る画像処理装置が表示装置に表示させる画面の一例を示す図である。図5に示すように、画面61Aには、体内画像62と、表示バー63Aとが表示されている。
表示制御部56は、画像群を所定の枚数ごとのグループG1A~G8Aに分割する。そして、表示制御部56は、特定画像が所定量(例えば4枚)以上含まれるグループ(グループG4A、G5A)を表示装置6に強調表示させる。具体的には、表示バー63Aにおいて、G4A、G5Aの背景の色を変える強調表示64Aにより強調表示させる。なお、表示制御部56は、特定画像が所定量以上含まれるグループを網掛け表示等により強調表示してもよい。このように、グループごとに強調表示を行うことにより、特定画像が多いグループを認識しやすくすることができる。
(変形例1-2)
図6は、変形例1-2に係る画像処理装置が表示装置に表示させる画面の一例を示す図である。図6に示すように、画面61Bには、体内画像62と、表示バー63Bとが表示されている。
図6は、変形例1-2に係る画像処理装置が表示装置に表示させる画面の一例を示す図である。図6に示すように、画面61Bには、体内画像62と、表示バー63Bとが表示されている。
表示制御部56は、画像群に含まれる各画像から前後に所定の枚数(例えば選択した1枚の画像の前後に5枚ずつの計11枚)の画像の間に、特定画像が所定量(例えば6枚)以上含まれる場合に、前後に所定の枚数の画像を示す情報を表示装置6に強調表示させる。具体的には、表示バー63Bにおいて、前後に所定の枚数の画像の間に特定画像が所定量以上含まれる線63nB及び線63oBの前後の所定枚数を背景の色を変える(又は網掛け表示等)強調表示64Bにより強調表示させる。なお、線63nBと線63oBとの前後の強調表示させる領域が重複する場合には、線63nBと線63oBとの間の線を全て強調表示すればよい。このように、全ての画像について画像ごとに前後に特定画像が多く含まれているかを判定して強調表示を行うことにより、特定画像が多く撮像されている領域を認識しやすくなる。
(変形例1-3)
図7は、非撮像割合を表示する様子を表す図である。図7に示すように、表示制御部56は、画像群全体に対するカプセル型内視鏡2が撮像していない領域の割合(非撮像割合)を、数値を含むアイコン65Cで表示装置6に表示してもよい。アイコン65Cにより、ユーザは、カプセル型内視鏡2が撮像していない被検体の領域が、全体に対してどの程度あるのか認識することができる。
図7は、非撮像割合を表示する様子を表す図である。図7に示すように、表示制御部56は、画像群全体に対するカプセル型内視鏡2が撮像していない領域の割合(非撮像割合)を、数値を含むアイコン65Cで表示装置6に表示してもよい。アイコン65Cにより、ユーザは、カプセル型内視鏡2が撮像していない被検体の領域が、全体に対してどの程度あるのか認識することができる。
(変形例1-4)
図8は、撮像割合を表示する様子を表す図である。図8に示すように、表示制御部56は、画像群全体に対するカプセル型内視鏡2が撮像した領域の割合(撮像割合)を、数値を含むアイコン65Dで表示装置6に表示してもよい。アイコン65Dにより、ユーザは、カプセル型内視鏡2が撮像した被検体の領域が、全体に対してどの程度あるのか認識することができる。
図8は、撮像割合を表示する様子を表す図である。図8に示すように、表示制御部56は、画像群全体に対するカプセル型内視鏡2が撮像した領域の割合(撮像割合)を、数値を含むアイコン65Dで表示装置6に表示してもよい。アイコン65Dにより、ユーザは、カプセル型内視鏡2が撮像した被検体の領域が、全体に対してどの程度あるのか認識することができる。
(変形例1-5)
図9は、体内画像の一例を示す図である。第1判定部542は、図9の(a)に示すように、判定領域A1の外側に特定対象O1がある場合に、その体内画像621を特定画像でないと判定する。第1判定部542は、図9の(b)に示すように、判定領域A1の内側に所定の閾値以上の面積を有する特定対象O2がある場合に、その体内画像622を特定画像であると判定する。換言すると、第1判定部542は、判定領域A1の内側に所定の閾値以上の面積を有する特定対象が1つでもある場合に、その体内画像を特定画像であると判定する。このように、第1判定部542は、特定対象の面積だけでなく、特定対象の位置に基づいて、特定画像を判定してもよい。
図9は、体内画像の一例を示す図である。第1判定部542は、図9の(a)に示すように、判定領域A1の外側に特定対象O1がある場合に、その体内画像621を特定画像でないと判定する。第1判定部542は、図9の(b)に示すように、判定領域A1の内側に所定の閾値以上の面積を有する特定対象O2がある場合に、その体内画像622を特定画像であると判定する。換言すると、第1判定部542は、判定領域A1の内側に所定の閾値以上の面積を有する特定対象が1つでもある場合に、その体内画像を特定画像であると判定する。このように、第1判定部542は、特定対象の面積だけでなく、特定対象の位置に基づいて、特定画像を判定してもよい。
変形例1-5によれば、解像度が低く観察に支障がない判定領域A1の外側の領域に特定対象が大きく写っていても、観察に支障がないため特定画像と判定されない。一方、判定領域A1の内側の領域に所定の閾値以上の面積を有する特定対象が写っている場合には、特定画像と判定する。その結果、カプセル型内視鏡2が撮像できていない画像をより的確に選択することができる。
なお、判定領域A1の内側と外側とで、特定対象の面積の閾値を異なる値に設定してもよい。具体的には、判定領域A1の内側に特定対象が写っている場合には、面積が小さくても特定画像と判定するよう閾値を設定し、判定領域A1の外側に特定対象が写っている場合には、より大きい面積で特定対象と判定されるよう閾値を設定すればよい。
また、判定領域を段階的に設定し、各領域で閾値を変えてもよい。さらに、判定領域の形状や位置は特に限定されない。
(変形例1-6)
図10は、体内画像の一例を示す図である。第1判定部542は、図10の(a)に示すように、閾値より小さい面積の特定対象O3が複数写っていても、その体内画像624を特定画像と判定しない。一方、第1判定部542は、図10の(b)に示すように、閾値以上の面積を有する特定対象O4が1つでも写っている場合には、その体内画像623を特定画像であると判定する。このように、第1判定部542は、画像に写る各特定対象の面積に応じて、特定画像であるか否かを判定してもよい。すなわち、第1判定部542は、特定対象の面積の合計と閾値とを比較してもよく、各特定対象の面積と閾値とを比較してもよい。
図10は、体内画像の一例を示す図である。第1判定部542は、図10の(a)に示すように、閾値より小さい面積の特定対象O3が複数写っていても、その体内画像624を特定画像と判定しない。一方、第1判定部542は、図10の(b)に示すように、閾値以上の面積を有する特定対象O4が1つでも写っている場合には、その体内画像623を特定画像であると判定する。このように、第1判定部542は、画像に写る各特定対象の面積に応じて、特定画像であるか否かを判定してもよい。すなわち、第1判定部542は、特定対象の面積の合計と閾値とを比較してもよく、各特定対象の面積と閾値とを比較してもよい。
なお、第1判定部542は、特定対象の数と面積とを用いて算出される量と閾値とに基づいて、特定画像であるか否かを判定してもよい。さらに、第1判定部542は、特定対象の数と面積と位置とを用いて算出される量と閾値とに基づいて、特定画像であるか否かを判定してもよい。
(実施の形態2)
図11は、実施の形態2に係る画像処理装置を示すブロック図である。図11に示すように、画像処理装置105は、位置検出部57と、距離算出部58と、を有する。以下において、既に説明した構成と同様の構成については、適宜説明を省略する。
図11は、実施の形態2に係る画像処理装置を示すブロック図である。図11に示すように、画像処理装置105は、位置検出部57と、距離算出部58と、を有する。以下において、既に説明した構成と同様の構成については、適宜説明を省略する。
位置検出部57は、各画像が撮像された際のカプセル型内視鏡2の位置を検出する。具体的には、位置検出部57は、受信アンテナユニット4が受信したカプセル型内視鏡2の位置情報から、各画像が撮像された際のカプセル型内視鏡2の位置を検出する。
距離算出部58は、位置検出部57が検出した各画像が撮像された際のカプセル型内視鏡2の位置の差分から、時系列順に隣り合った画像間の距離を算出する。
図12は、図11に示した画像処理装置の動作を示すフローチャートである。図12に示すように、ステップS1の後、位置検出部57は、各画像が撮像された際のカプセル型内視鏡2の位置を検出する(ステップS11)。検出された位置に関する情報は各画像と関連付けられて記憶部52に記憶される。
続いて、距離算出部58は、時系列順に隣り合った画像間の距離を算出する(ステップS12)。その後、実施の形態1と同様に、ステップS2からステップS7を実行する。
そして、表示制御部56は、位置系列順の画像情報において、特定画像に対応する画像情報を強調表示して、表示装置6に表示させ(ステップS13)、一連の処理が終了する。なお、位置系列とは、例えば小腸の入り口(幽門)等の基準位置から各画像までの距離に応じて画像情報を並べることを意味する。図13は、図11に示した画像処理装置が表示装置に表示させる画面の一例を示す図である。図13に示すように、画面161には、体内画像62と、表示バー163とが表示されている。表示バー163には、カプセル型内視鏡2から取得した各画像に対応する線631、632・・・が例えば撮像された位置系列順に直線で表示されている。位置系列において、隣り合った画像間の距離が大きいと線同士の間隔が大きく、隣り合った画像間の距離が小さいと線同士の間隔が小さい。そして、表示制御部56は、特定画像に対応する線を例えば太線等の強調線63mにより強調表示させる。このように、位置系列順に画像情報を表示することにより、被検体Hが写っていない画像の被検体H内における位置を視認することができる。
(変形例2-1)
図14は、変形例2-1に係る画像処理装置の動作を示すフローチャートである。図14に示すように、実施の形態2と同様にステップS1~ステップS3を実行する。
図14は、変形例2-1に係る画像処理装置の動作を示すフローチャートである。図14に示すように、実施の形態2と同様にステップS1~ステップS3を実行する。
続いて、第1判定部542は、i番目の画像が、特定領域の量が第1閾値以上である第1特定画像であるか否かを判定する(ステップS14)。
i番目の画像が第1特定画像である場合(ステップS14:Yes)、制御部55は、記憶部52にi番目の画像が第1特定画像であることを記憶する(ステップS15)。
一方、i番目の画像が第1特定画像ではない場合(ステップS14:No)、第1判定部542は、i番目の画像が、特定領域の量が第1閾値より小さい第2閾値以上である第2特定画像であるか否かを判定する(ステップS16)。
i番目の画像が第2特定画像である場合(ステップS16:Yes)、制御部55は、記憶部52にi番目の画像が第2特定画像であることを記憶する(ステップS17)。
一方、i番目の画像が第2特定画像ではない場合(ステップS16:No)、直接ステップS6に進む。その後、実施の形態2と同様にステップS6以降の処理が実行される。
図15は、変形例2-1に係る画像処理装置が表示装置に表示させる画面の一例を示す図である。図15に示すように、画面161Aには、体内画像62と、表示バー163Aとが表示されている。表示バー163Aには、カプセル型内視鏡2から取得した各画像に対応する線631、632・・・が例えば撮像された位置系列順に直線で表示されている。そして、表示制御部56は、第1特定画像に対応する線を例えば太線等の強調線163mAにより強調表示させ、第2特定画像に対応する線を例えば破線等の強調線163mAとは異なる強調線163nAにより強調表示させる。
以上説明したように、画像処理装置105の判定部54は、カプセル型内視鏡2が撮像していない被検体Hの領域を段階的に判定し、表示制御部56は、判定部54が判定した段階に応じて異なる態様により、被検体Hが写っていない画像を示す情報を表示装置6に表示させる。このように、判定部54は、被検体Hが写っていない画像を複数の段階に分けて判定してもよい。なお、変形例2-1では、判定部54が、被検体Hが写っていない画像を2段階に判定する例を説明したが、判定部54は、被検体Hが写っていない画像を3段階以上の複数の段階に分けて判定してもよい。
(実施の形態3)
図16は、実施の形態3に係る画像処理装置を示すブロック図である。図16に示すように、画像処理装置205の判定部254は、第2算出部543と、第2判定部544と、を有する。
図16は、実施の形態3に係る画像処理装置を示すブロック図である。図16に示すように、画像処理装置205の判定部254は、第2算出部543と、第2判定部544と、を有する。
第2算出部543は、画像群の少なくとも2枚の画像を撮像した際のカプセル型内視鏡2の位置に基づくパラメータの変化量を算出する。具体的には、第2算出部543は、カプセル型内視鏡2の位置に基づくパラメータの変化量として、例えば時系列順に隣り合う2枚の画像の類似度を算出する。
第2判定部544は、第2算出部543が算出した変化量と閾値との大小関係に基づいて、カプセル型内視鏡2が撮像していない被検体Hの領域を判定する。具体的には、第2判定部544は、第2算出部543が算出した類似度が所定の閾値より小さい画像間をカプセル型内視鏡2が撮像していない被検体Hの領域であると判定する。画像間の類似度が低いことは、2枚の画像が撮像された間にカプセル型内視鏡2が大きく動いたことを意味している。すなわち、類似度の低い画像間では、カプセル型内視鏡2が大きく動いており、被検体Hを連続的に撮像できていないため、カプセル型内視鏡2が撮像できていない被検体Hの領域がある。
図17は、図16に示した画像処理装置の動作を示すフローチャートである。図17に示すように、実施の形態1と同様にステップS1の処理を実行した後、制御部55は、変数iをi=2に設定する(ステップS21)。
続いて、第2算出部543は、時系列順に並べられた画像群のi番目の画像とi-1番目の画像との類似度を算出する(ステップS22)。
そして、第2判定部544は、第2算出部543が算出した類似度が所定の閾値より小さいか否かを判定する(ステップS23)。第2判定部544が、類似度が所定の閾値より小さいと判定した場合(ステップS23:Yes)、制御部55は、記憶部52にi番目の画像とi-1番目の画像との間にカプセル型内視鏡2に撮像されていない領域があることを記憶する(ステップS24)。
一方、第2判定部544が、類似度が所定の閾値以上であると判定した場合(ステップS23:No)、直接ステップS6に進む。
その後、実施の形態1と同様にステップS6、7の処理が実行され、表示制御部56は、時系列順の画像情報において、カプセル型内視鏡2により撮像されていない領域を強調表示して、表示装置6に表示させ(ステップS8)、一連の処理が終了する。図18は、図16に示した画像処理装置が表示装置に表示させる画面の一例を示す図である。図18に示すように、画面261には、体内画像62と、表示バー263とが表示されている。表示バー263には、カプセル型内視鏡2から取得した各画像に対応する線631、632・・・が例えば撮像された時系列順に直線で表示されている。そして、表示制御部56は、カプセル型内視鏡2により撮像されていない領域である線263mと線263m-1との間、線263nと線263n-1との間を、指標264によって強調表示する。
(実施の形態4)
図19は、実施の形態4に係る画像処理装置を示すブロック図である。図19に示すように、画像処理装置305は、判定部254と、位置検出部57と、距離算出部58と、を有する。
図19は、実施の形態4に係る画像処理装置を示すブロック図である。図19に示すように、画像処理装置305は、判定部254と、位置検出部57と、距離算出部58と、を有する。
図20は、図19に示した画像処理装置の動作を示すフローチャートである。図20に示すように、実施の形態4では、実施の形態3と異なりステップS1の後に、実施の形態2と同様に、ステップS11、S12の処理を実行する。また、ステップS7の後に、実施の形態2と同様に、ステップS13を実行する。
図21は、図19に示した画像処理装置が表示装置に表示させる画面の一例を示す図である。図21に示すように、画面361には、体内画像62と、表示バー363とが表示されている。表示バー363には、カプセル型内視鏡2から取得した各画像に対応する線631、632・・・が例えば撮像された位置系列順に直線で表示されている。そして、表示制御部56は、カプセル型内視鏡2により撮像されていない領域である線363mと線363m-1との間、線363nと線363n-1との間を、強調表示364によって強調表示する。
(変形例4-1)
図22は、変形例4-1に係る画像処理装置の動作を示すフローチャートである。図22に示すように、実施の形態4と同様にステップS1~ステップS22を実行する。
図22は、変形例4-1に係る画像処理装置の動作を示すフローチャートである。図22に示すように、実施の形態4と同様にステップS1~ステップS22を実行する。
続いて、第2判定部544は、第2算出部543が算出した類似度が第1閾値より小さいか否かを判定する(ステップS31)。第2判定部544が、類似度が第1閾値より小さいと判定した場合(ステップS31:Yes)、制御部55は、記憶部52にi番目の画像とi-1番目の画像との間にカプセル型内視鏡2に撮像されていない領域がある可能性が高いことを記憶する(ステップS32)。
一方、第2判定部544が、類似度が第1閾値より小さくないと判定した場合(ステップS31:No)、第2判定部544は、第2算出部543が算出した類似度が第2閾値より小さいか否かを判定する(ステップS33)。第2判定部544が、類似度が第2閾値より小さいと判定した場合(ステップS33:Yes)、制御部55は、記憶部52にi番目の画像とi-1番目の画像との間にカプセル型内視鏡2に撮像されていない領域がある可能性があることを記憶する(ステップS34)。
一方、第2判定部544が、類似度が第2閾値以上であると判定した場合(ステップS33:No)、直接ステップS6に進む。
図23は、変形例4-1に係る画像処理装置が表示装置に表示させる画面の一例を示す図である。図23に示すように、画面361Aには、体内画像62と、表示バー363Aとが表示されている。表示バー363Aには、カプセル型内視鏡2から取得した各画像に対応する線631、632・・・が例えば撮像された位置系列順に直線で表示されている。そして、表示制御部56は、類似度が第1閾値より小さい領域(線363mと線363m-1との間)を強調表示364Aにより強調表示させ、類似度が第2閾値より小さい領域(線363nと線363n-1との間)を強調表示364Aとは異なる強調表示365Aにより強調表示させる。
以上説明したように、画像処理装置305の判定部254は、カプセル型内視鏡2が撮像していない被検体Hの領域を段階的に判定し、表示制御部56は、判定部254が判定した段階に応じて異なる態様により、カプセル型内視鏡2が撮像していない被検体Hの領域を示す情報を表示装置6に表示させる。このように、判定部254は、カプセル型内視鏡2が撮像していない被検体Hの領域を複数の段階に分けて判定してもよい。なお、変形例4-1では、判定部254が、被検体Hが写っていない画像を2段階に判定する例を説明したが、判定部254は、被検体Hが写っていない画像を3段階以上の複数の段階に分けて判定してもよい。
(実施の形態5)
図24は、実施の形態5に係る画像処理装置を示すブロック図である。図24に示すように、画像処理装置405は、判定部254と、パラメータ検出部59と、変化量算出部60と、を有する。
図24は、実施の形態5に係る画像処理装置を示すブロック図である。図24に示すように、画像処理装置405は、判定部254と、パラメータ検出部59と、変化量算出部60と、を有する。
パラメータ検出部59は、カプセル型内視鏡2から受信アンテナユニット4が受信したパラメータを検出する。パラメータは、例えば各画像が撮像された際のカプセル型内視鏡2の位置である。また、カプセル型内視鏡2が速度センサや加速度センサを内蔵している場合、速度センサ又は加速度センサが検出した速度又は加速度をパラメータとしてもよい。
変化量算出部60は、時系列順に隣り合う2枚の画像が撮像された際のカプセル型内視鏡2の位置の変化量(距離)を算出する。なお、変化量算出部60は、距離に限られず、位置、速度、若しくは、加速度に基づいて定まる変化量を算出してもよい。
図25は、図24に示した画像処理装置の動作を示すフローチャートである。図25に示すように、実施の形態4と同様にステップS1~ステップS21を実行する。
続いて、第2判定部544は、ステップS12において変化量算出部60が算出したi番目の画像とi-1番目の画像との間の距離が閾値以上であるか否かを判定する(ステップS41)。
第2判定部544が、i番目の画像とi-1番目の画像との間の距離が閾値以上であると判定した場合(ステップS41:Yes)、制御部55は、記憶部52にi番目の画像とi-1番目の画像との間にカプセル型内視鏡2に撮像されていない領域があることを記憶する(ステップS24)。
一方、第2判定部544が、i番目の画像とi-1番目の画像との間の距離が閾値より小さいと判定した場合(ステップS41:No)、直接ステップS6に進む。このように、第2判定部544は、カプセル型内視鏡2が撮像していない被検体Hの領域をカプセル型内視鏡2の位置の変化量(距離)により判定してもよい。なお、第2判定部544は、位置、速度、若しくは、加速度に基づいて定まる変化量に基づいて、カプセル型内視鏡2が撮像していない被検体Hの領域を判定してもよい。
なお、第2判定部544における閾値は、臓器ごとに値を変えてもよい。例えば、カプセル型内視鏡2の動きが速い食道、胃、十二指腸、横行結腸においては、閾値を高く設定すればよい。
(変形例5-1)
図26は、変形例5-1に係る画像処理装置の動作を示すフローチャートである。図26に示すように、実施の形態5と同様にステップS1~ステップS21を実行する。
図26は、変形例5-1に係る画像処理装置の動作を示すフローチャートである。図26に示すように、実施の形態5と同様にステップS1~ステップS21を実行する。
続いて、第2判定部544は、ステップS12において変化量算出部60が算出したi番目の画像とi-1番目の画像との間の距離が第1閾値以上であるか否かを判定する(ステップS42)。
第2判定部544が、i番目の画像とi-1番目の画像との間の距離が第1閾値以上であると判定した場合(ステップS42:Yes)、制御部55は、記憶部52にi番目の画像とi-1番目の画像との間にカプセル型内視鏡2に撮像されていない領域がある可能性が高いことを記憶する(ステップS32)。
一方、第2判定部544が、i番目の画像とi-1番目の画像との間の距離が第1閾値より小さいと判定した場合(ステップS42:No)、第2判定部544は、i番目の画像とi-1番目の画像との間の距離が第2閾値以上であるか否かを判定する(ステップS43)。第2判定部544が、i番目の画像とi-1番目の画像との間の距離が第2閾値以上であると判定した場合(ステップS43:Yes)、制御部55は、記憶部52にi番目の画像とi-1番目の画像との間にカプセル型内視鏡2に撮像されていない領域がある可能性があることを記憶する(ステップS34)。
一方、第2判定部544が、i番目の画像とi-1番目の画像との間の距離が第2閾値より小さいと判定した場合(ステップS43:No)、直接ステップS6に進む。このように、画像処理装置405の判定部254は、カプセル型内視鏡2が撮像していない被検体Hの領域を複数の段階に分けて判定してもよい。なお、変形例5-1では、判定部254が、被検体Hが写っていない画像を2段階に判定する例を説明したが、判定部254は、被検体Hが写っていない画像を3段階以上の複数の段階に判定してもよい。
(実施の形態6)
図27は、実施の形態6に係る画像処理装置を示すブロック図である。図27に示すように、画像処理装置505の判定部554は、第1算出部541と、第1判定部542と、第2算出部543と、第2判定部544と、を有する。
図27は、実施の形態6に係る画像処理装置を示すブロック図である。図27に示すように、画像処理装置505の判定部554は、第1算出部541と、第1判定部542と、第2算出部543と、第2判定部544と、を有する。
図28は、図27に示した画像処理装置の動作を示すフローチャートである。図28に示すように、実施の形態1と同様にステップS1の処理を実行した後、第1算出部541は、1番目の画像に含まれる特定領域の量を算出する(ステップS51)。
続いて、制御部55は、変数iをi=2に設定する(ステップS21)。その後、第1算出部541は、i番目の画像に含まれる特定領域の量を算出する(ステップS3)。そして、第1判定部542は、i番目の画像が、特定領域の量が所定の閾値以上である特定画像であるか否かを判定する(ステップS4)。
i番目の画像が特定画像ではない場合(ステップS4:No)、制御部55は、変数jをj=i-1に設定する(ステップS52)。
続いて、第1判定部542は、j番目の画像が、特定領域の量が所定の閾値以上である特定画像であるか否かを判定する(ステップS53)。なお、j番目の画像における特定領域の量は、ステップS51又はステップS3において算出されている。
j番目の画像が特定画像ではない場合(ステップS53:No)、第2算出部543は、時系列順に並べられた画像群のi番目の画像とj番目の画像との類似度を算出する(ステップS54)。
続いて、第2判定部544は、第2算出部543が算出した類似度が所定の閾値より小さいか否かを判定する(ステップS55)。第2判定部544が、類似度が所定の閾値より小さいと判定した場合(ステップS55:Yes)、制御部55は、記憶部52にi番目の画像とj番目の画像との間にカプセル型内視鏡2に撮像されていない領域があることを記憶する(ステップS56)。
ステップS4において、i番目の画像が特定画像である場合(ステップS4:Yes)、直接ステップS6に進む。
ステップS53において、j番目の画像が特定画像である場合(ステップS53:Yes)、制御部55は、変数jが1であるか否かを判定する(ステップS57)。変数jが1である場合(ステップS57:Yes)、ステップS54に進み、変数jが1ではない場合(ステップS57:No)、制御部55は、変数jをデクリメント(j=j-1)して(ステップS58)、ステップS53を繰り返す。
ステップS55において、第2判定部544が、類似度が所定の閾値以上であると判定した場合(ステップS55:No)、直接ステップS6に進む。
図29は、図27に示した画像処理装置が表示装置に表示させる画面の一例を示す図である。図29に示すように、画面561には、体内画像62と、表示バー563とが表示されている。表示バー563には、カプセル型内視鏡2から取得した各画像に対応する線631、632・・・が例えば撮像された位置系列順に直線で表示されている。そして、表示制御部56は、カプセル型内視鏡2により撮像されていない領域である線563mと線563m-9との間、線563nと線563n-2との間を、強調表示564によって強調表示する。すなわち、不図示の線563m-8~線563m-1、線563n-1に対応する画像は、特定画像であり、線563mと線563m-9との間及び線563nと線563n-2との間は、画像間の類似度が低くカプセル型内視鏡2により撮像されていない領域である。
以上説明したように、判定部554は、被検体Hが写っていると第1判定部542が判定した画像(i番目の画像)と、該画像より前に撮像された画像のうち、時系列順に最も近く、被検体Hが写っていると第1判定部542が判定した画像(j番目の画像)と、を撮像した際のカプセル型内視鏡2の位置に基づくパラメータの変化量(類似度)を算出する第2算出部543と、変化量(類似度)と閾値との大小関係に基づいて、カプセル型内視鏡2が撮像していない被検体Hの領域を判定する第2判定部544と、を有する。そして、第2算出部543は、変化量(類似度)と閾値との大小関係に基づいて、第1判定部542が、被検体Hが写っていると判定した画像(i番目の画像)と、該画像より前に撮像された画像のうち、時系列順に最も近い第1判定部542が、被検体Hが写っていると判定した画像(j番目の画像)との間が、カプセル型内視鏡2が撮像していない被検体Hの領域であると判定する。換言すると、第2判定部544は、i番目の画像とj番目の画像との類似度が閾値以上である場合、i番目の画像とj番目の画像との間に特定画像があっても、i番目の画像とj番目の画像との間の全ての画像が、カプセル型内視鏡2により正常に撮像された画像であると判定する。その結果、特定画像又はカプセル型内視鏡2の動きが所定量より大きいことにより、カプセル型内視鏡2が撮像していない被検体Hの領域を判定することができる。
(実施の形態7)
図30は、実施の形態7に係る画像処理装置を示すブロック図である。図30に示すように、画像処理装置605は、判定部554と、位置検出部57と、距離算出部58と、を有する。
図30は、実施の形態7に係る画像処理装置を示すブロック図である。図30に示すように、画像処理装置605は、判定部554と、位置検出部57と、距離算出部58と、を有する。
図31は、図30に示した画像処理装置の動作を示すフローチャートである。図31に示すように、実施の形態6と同様にカプセル型内視鏡2に撮像されていない領域を判定するが、ステップS1の後にステップS11及びS12を実行するとともに、ステップS8に変えてステップS13を実行する。図32は、図30に示した画像処理装置が表示装置に表示させる画面の一例を示す図である。図32に示すように、画面661には、体内画像62と、表示バー663とが表示されている。表示バー663には、カプセル型内視鏡2から取得した各画像に対応する線631、632・・・が例えば撮像された位置系列順に直線で表示されている。そして、表示制御部56は、カプセル型内視鏡2により撮像されていない領域である線663mと線663m-3との間、線663nと線663n-2との間を、強調表示664によって強調表示する。すなわち、不図示の線663m-1、線663m-2、線663n-1に対応する画像は、特定画像であり、線663mと線663m-3との間、線663nと線663n-2との間は、画像間の類似度が低くカプセル型内視鏡2により撮像されていない領域である。換言すると、判定部554は、特定画像であっても、その特定画像の前後の特定画像ではない画像間の類似度が閾値以上であれば、その画像をカプセル型内視鏡2が正常に撮像した画像であると判定する。
(実施の形態8)
図33は、実施の形態8に係る画像処理装置の動作を示すフローチャートである。図33に示すように、実施の形態6と同様にステップS1~S53の処理を実行する。
図33は、実施の形態8に係る画像処理装置の動作を示すフローチャートである。図33に示すように、実施の形態6と同様にステップS1~S53の処理を実行する。
続いて、変化量算出部60は、i番目の画像とj番目の画像との間の距離を算出する(ステップS71)。
そして、第2判定部544は、変化量算出部60が算出したi番目の画像とj番目の画像との間の距離が閾値以上であるか否かを判定する(ステップS72)。
第2判定部544が、i番目の画像とj番目の画像との間の距離が閾値以上であると判定した場合(ステップS72:Yes)、制御部55は、記憶部52にi番目の画像とj番目の画像との間にカプセル型内視鏡2に撮像されていない領域があることを記憶する(ステップS73)。
一方、第2判定部544が、i番目の画像とj番目の画像との間の距離が閾値より小さいと判定した場合(ステップS72:No)、直接ステップS6に進む。このように、隣り合う画像間でカプセル型内視鏡2が大きく動いたか否かを、カプセル型内視鏡2の位置情報により判定してもよい。第2判定部544は、特定画像であっても、その特定画像の前後の特定画像ではない画像間の類似度が閾値以上であれば、その画像をカプセル型内視鏡2が正常に撮像した画像であると判定する。
なお、上述した実施の形態において、表示バーに画像情報を線で表示する構成を説明したがこれに限られない。表示バーに変えて棒等で表示してもよく、画像情報を点等で表示してもよい。また、消化管と各画像の撮像位置とを消化管の模式図上で対応させて表示してもよい。また、体内画像62に重畳して、その画像が被検体Hを撮像できなかった画像であることを表示してもよい。
また、上述した実施の形態において、画像処理装置が、判定部、表示制御部、位置検出部、距離算出部、パラメータ検出部、及び変化量算出部を備える構成を説明したがこれに限られない。判定部、表示制御部、位置検出部、距離算出部、パラメータ検出部、及び変化量算出部のすべての構成を受信装置に設けてもよい。さらに、これらの構成が受信装置に設けられている場合、受信装置のモニタにカプセル型内視鏡2が撮像していない被検体Hの領域の情報を表示してもよい。また、判定部、パラメータ検出部、又は変化量算出部を受信装置に設け、表示制御部、位置検出部、及び距離算出部を画像処理装置に設けてもよい。さらに、判定部、パラメータ検出部、又は変化量算出部をインターネット等のネットワークを介して接続された処理装置に設け(いわゆる、クラウドコンピューティング)、表示制御部、位置検出部、及び距離算出部を画像処理装置に設けてもよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。よって、本発明のより広範な態様は、以上のように表し、かつ記述した特定の詳細及び代表的な実施の形態に限定されるものではない。従って、添付のクレーム及びその均等物によって定義される総括的な発明の概念の精神又は範囲から逸脱することなく、様々な変更が可能である。
1 カプセル型内視鏡システム
2 カプセル型内視鏡
3 受信装置
3a クレードル
4 受信アンテナユニット
4a~4h 受信アンテナ
5、105、205、305、405、505、605 画像処理装置
6 表示装置
51 画像取得部
52 記憶部
53 入力部
54、254、554 判定部
55 制御部
56 表示制御部
57 位置検出部
58 距離算出部
59 パラメータ検出部
60 変化量算出部
61、61A、61B、161、161A、261、361、361A、561、661 画面
62、621、622、623、624 体内画像
63、63A、63B、163、163A、263、363、363A、563、663 表示バー
631、632、63nB、63oB、263m、263m-1、263n、263n-1、363m、363m-1、363n、363n-1、363mA、363m-1A、363nA、363n-1A、563m、563m-9、563n、563n-2、663m、663m-3、663n、663n-2 線
63m、163mA、163nA 強調線
64A、64B、364、364A、365A、564、664 強調表示
65C、65D アイコン
264 指標
541 第1算出部
542 第1判定部
543 第2算出部
544 第2判定部
A1 判定領域
G1A~G8A グループ
H 被検体
O1、O2、O3、O4 特定対象
2 カプセル型内視鏡
3 受信装置
3a クレードル
4 受信アンテナユニット
4a~4h 受信アンテナ
5、105、205、305、405、505、605 画像処理装置
6 表示装置
51 画像取得部
52 記憶部
53 入力部
54、254、554 判定部
55 制御部
56 表示制御部
57 位置検出部
58 距離算出部
59 パラメータ検出部
60 変化量算出部
61、61A、61B、161、161A、261、361、361A、561、661 画面
62、621、622、623、624 体内画像
63、63A、63B、163、163A、263、363、363A、563、663 表示バー
631、632、63nB、63oB、263m、263m-1、263n、263n-1、363m、363m-1、363n、363n-1、363mA、363m-1A、363nA、363n-1A、563m、563m-9、563n、563n-2、663m、663m-3、663n、663n-2 線
63m、163mA、163nA 強調線
64A、64B、364、364A、365A、564、664 強調表示
65C、65D アイコン
264 指標
541 第1算出部
542 第1判定部
543 第2算出部
544 第2判定部
A1 判定領域
G1A~G8A グループ
H 被検体
O1、O2、O3、O4 特定対象
Claims (17)
- 被検体内に導入されるカプセル型内視鏡によって撮像された画像群に処理を施す画像処理装置であって、
前記画像群の特性を算出することによって、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する判定部を備えることを特徴とする画像処理装置。 - 前記判定部は、
前記画像群の各画像に対して特定領域の量を算出する第1算出部と、
前記第1算出部が算出した前記特定領域の量に基づいて、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する第1判定部と、
を有することを特徴とする請求項1に記載の画像処理装置。 - 前記判定部は、
前記画像群の少なくとも2枚の画像を撮像した際の前記カプセル型内視鏡の位置に基づくパラメータの変化量を算出する第2算出部と、
前記変化量に基づいて、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する第2判定部と、
を有することを特徴とする請求項1に記載の画像処理装置。 - 前記特定領域は、泡、残渣、又はノイズが写った領域であることを特徴とする請求項2に記載の画像処理装置。
- 前記変化量は、
前記少なくとも2枚の画像の類似度、
又は、前記カプセル型内視鏡の位置、速度、若しくは、加速度に基づいて定まる変化量であることを特徴とする請求項3に記載の画像処理装置。 - 前記第1判定部は、前記特定領域の量と閾値との大小関係に基づいて、前記画像群前記カプセル型内視鏡が撮像していない前記被検体の領域であると判定することを特徴とする請求項2に記載の画像処理装置。
- 前記第2判定部は、前記変化量と閾値との大小関係に基づいて、前記少なくとも2枚の画像の間の領域が、前記カプセル型内視鏡が撮像していない前記被検体の領域であると判定することを特徴とする請求項3に記載の画像処理装置。
- 前記判定部は、
前記被検体が写っていると前記第1判定部が判定した画像と、該画像より前に撮像された画像のうち、時系列順に最も近く、前記被検体が写っていると前記第1判定部が判定した画像と、を撮像した際の前記カプセル型内視鏡の位置に基づくパラメータの変化量を算出する第2算出部と、
前記変化量と閾値との大小関係に基づいて、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する第2判定部と、
を有することを特徴とする請求項2に記載の画像処理装置。 - 前記第2算出部は、前記変化量と閾値との大小関係に基づいて、前記被検体が写っていると前記第1判定部が判定した画像と、該画像より前に撮像された画像のうち、時系列順に最も近く、前記被検体が写っていると前記第1判定部が判定した画像との間が、前記カプセル型内視鏡が撮像していない前記被検体の領域であると判定することを特徴とする請求項8に記載の画像処理装置。
- 前記カプセル型内視鏡が撮像していない前記被検体の領域を示す情報を、時系列順に又は位置系列順に表示装置に表示するよう制御する表示制御部を備えることを特徴とする請求項1~9のいずれか1つに記載の画像処理装置。
- 前記表示制御部は、前記画像群全体に対する前記カプセル型内視鏡が撮像していない前記被検体の領域の割合、又は前記画像群全体に対する前記カプセル型内視鏡が撮像した前記被検体の領域の割合を表示装置に表示させることを特徴とする請求項10に記載の画像処理装置。
- 前記判定部は、前記カプセル型内視鏡が撮像していない前記被検体の領域を段階的に判定し、
前記表示制御部は、前記判定部が判定した段階に応じて異なる態様により、前記カプセル型内視鏡が撮像していない前記被検体の領域を示す情報を前記表示装置に表示させることを特徴とする請求項10又は11に記載の画像処理装置。 - 前記表示制御部は、前記画像群を所定の枚数ごとのグループに分け、該グループ内に前記カプセル型内視鏡が撮像していない前記被検体の領域と判定された領域が所定量以上含まれる場合に、前記グループを前記表示装置に強調表示させることを特徴とする請求項10~12のいずれか1つに記載の画像処理装置。
- 前記表示制御部は、前記画像群に含まれる各画像から前後に所定の枚数の画像の間に、前記カプセル型内視鏡が撮像していない前記被検体の領域が所定量以上含まれる場合に、前記前後に所定の枚数の画像を示す情報を前記表示装置に強調表示させることを特徴とする請求項10~12のいずれか1つに記載の画像処理装置。
- 被検体内に導入され、前記被検体内を撮像した画像群を生成するカプセル型内視鏡と、
前記画像群の特性を算出することによって、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する判定部を有する画像処理装置と、
を備えることを特徴とするカプセル型内視鏡システム。 - 被検体内に導入されるカプセル型内視鏡によって撮像された画像群に処理を施す画像処理装置の作動方法であって、
判定部が、前記画像群の特性を算出することによって、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する判定ステップを含むことを特徴とする画像処理装置の作動方法。 - 被検体内に導入されるカプセル型内視鏡によって撮像された画像群に処理を施す画像処理装置の作動プログラムであって、
判定部が、前記画像群の特性を算出することによって、前記カプセル型内視鏡が撮像していない前記被検体の領域を判定する判定ステップを含む処理を前記画像処理装置に実行させることを特徴とする画像処理装置の作動プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017124506 | 2017-06-26 | ||
JP2017-124506 | 2017-06-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019003597A1 true WO2019003597A1 (ja) | 2019-01-03 |
Family
ID=64742023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/015953 WO2019003597A1 (ja) | 2017-06-26 | 2018-04-18 | 画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2019003597A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113498323A (zh) * | 2019-02-26 | 2021-10-12 | 富士胶片株式会社 | 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序 |
CN113543694A (zh) * | 2019-03-08 | 2021-10-22 | 富士胶片株式会社 | 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序 |
WO2022080141A1 (ja) * | 2020-10-12 | 2022-04-21 | 富士フイルム株式会社 | 内視鏡撮影装置、方法およびプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012228346A (ja) * | 2011-04-26 | 2012-11-22 | Toshiba Corp | 画像表示装置 |
JP2015181594A (ja) * | 2014-03-20 | 2015-10-22 | オリンパス株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
WO2015182185A1 (ja) * | 2014-05-26 | 2015-12-03 | オリンパス株式会社 | カプセル型内視鏡装置 |
-
2018
- 2018-04-18 WO PCT/JP2018/015953 patent/WO2019003597A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012228346A (ja) * | 2011-04-26 | 2012-11-22 | Toshiba Corp | 画像表示装置 |
JP2015181594A (ja) * | 2014-03-20 | 2015-10-22 | オリンパス株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
WO2015182185A1 (ja) * | 2014-05-26 | 2015-12-03 | オリンパス株式会社 | カプセル型内視鏡装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113498323A (zh) * | 2019-02-26 | 2021-10-12 | 富士胶片株式会社 | 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序 |
EP3932290A4 (en) * | 2019-02-26 | 2022-03-23 | FUJIFILM Corporation | MEDICAL IMAGE PROCESSING DEVICE, PROCESSING DEVICE, ENDOSCOPE SYSTEM, IMAGE PROCESSING METHOD AND PROGRAM |
US12106394B2 (en) | 2019-02-26 | 2024-10-01 | Fujifilm Corporation | Medical image processing apparatus, processor device, endoscope system, medical image processing method, and program |
CN113543694A (zh) * | 2019-03-08 | 2021-10-22 | 富士胶片株式会社 | 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序 |
CN113543694B (zh) * | 2019-03-08 | 2024-02-13 | 富士胶片株式会社 | 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及记录介质 |
US11918176B2 (en) | 2019-03-08 | 2024-03-05 | Fujifilm Corporation | Medical image processing apparatus, processor device, endoscope system, medical image processing method, and program |
WO2022080141A1 (ja) * | 2020-10-12 | 2022-04-21 | 富士フイルム株式会社 | 内視鏡撮影装置、方法およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8502861B2 (en) | Image display apparatus | |
JP6656357B2 (ja) | 学習方法、画像認識装置およびプログラム | |
WO2012032914A1 (ja) | 画像処理装置、内視鏡装置、画像処理プログラム及び画像処理方法 | |
JP6289184B2 (ja) | 画像認識装置および画像認識方法 | |
WO2019187206A1 (ja) | 画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム | |
JP5996319B2 (ja) | ステレオ計測装置およびステレオ計測装置の作動方法 | |
KR20090088325A (ko) | 화상 처리 장치, 화상 처리 방법 및 촬상 장치 | |
JPWO2019244255A1 (ja) | 内視鏡画像処理装置、内視鏡画像処理方法およびプログラム | |
WO2019003597A1 (ja) | 画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム | |
JP5822545B2 (ja) | 画像処理装置、画像処理装置の制御方法、およびプログラム | |
JP5952782B2 (ja) | 画像処理装置及びその制御方法、プログラム、記憶媒体 | |
JP6411834B2 (ja) | 画像表示装置、画像表示方法、及び画像表示プログラム | |
JP6072400B1 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6956853B2 (ja) | 診断支援装置、診断支援プログラム、及び、診断支援方法 | |
US20130201310A1 (en) | System for controlling image data of image sensor for capsule endoscope | |
CN112313938B (zh) | 摄像装置、图像校正方法以及计算机可读记录介质 | |
WO2022191058A1 (ja) | 内視鏡画像処理装置、方法及びプログラム | |
JP7100505B2 (ja) | 画像処理装置、画像処理装置の作動方法、及び画像処理装置の作動プログラム | |
JP2019158519A (ja) | 測定装置、測定方法及び測定プログラム | |
KR20220115223A (ko) | 다중 카메라 캘리브레이션 방법 및 장치 | |
US11880991B2 (en) | Imaging apparatus including depth information at first or second spatial resolution at different regions in the image | |
US20110184710A1 (en) | Virtual endoscopy apparatus, method for driving thereof and medical examination apparatus | |
JP2023160260A (ja) | 内視鏡画像診断支援システム | |
JPWO2017158901A1 (ja) | 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム | |
JP2017038933A (ja) | ステレオ計測用画像取得装置及びステレオ計測用画像取得装置の作動方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18823726 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18823726 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |